新闻中心

联系我们
  • 联系地址:广东省广州市天河区科新路优可商务中心B栋
  • 服务热线:020-85279740
  • 联系电话:020-85279740(8线) 020-37889427
  • 传真电话:020-85279740

大红鹰dhy:什么是人工智能(AI)?

发表时间:2023年11月30日浏览量:

大红鹰dhy:什么是人工智能(AI)?

人工智能(AI)是计算机系统的理论和发展,能够执行历史上需要人类智能的任务,例如识别语音、做出决策和识别模式。AI是一个总称,涵盖了多种技术,包括机器学习、深度学习和自然语言处理(NLP)。

尽管该术语通常用于描述当今使用的一系列不同技术,但许多人对这些技术是否真的构成人工智能存在分歧。相反,一些人认为,当今现实世界中使用的大部分技术实际上构成了高度先进的机器学习,这只是迈向真正人工智能或“通用人工智能”(GAI)的第一步。

然而,尽管关于“真正的”智能机器是否真的存在许多哲学分歧,但当大多数人今天使用人工智能一词时,他们指的是一套机器学习驱动的技术,例如聊天GPT或计算机视觉,这些技术使机器能够执行以前只有人类才能完成的任务,例如生成书面内容、驾驶汽车、或分析数据。

人工智能是如何工作的?

随着围绕人工智能的炒作加速,供应商一直在争先恐后地宣传他们的产品和服务如何使用它。通常,他们所说的人工智能只是技术的一个组成部分,例如机器学习。人工智能需要专门的硬件和软件基础来编写和训练机器学习算法。没有一种编程语言是人工智能的代名词,但Python,R,Java,C++和Julia具有AI开发人员流行的功能。
通常,AI系统的工作方式是摄取大量标记的训练数据,分析数据中的相关性和模式,并使用这些模式对未来状态进行预测。通过这种方式,提供文本示例的聊天机器人可以学习与人进行逼真的交流,或者图像识别工具可以通过查看数百万个示例来学习识别和描述图像中的对象。新的、快速改进的生成式人工智能技术可以创建逼真的文本、图像、音乐和其他媒体。
AI编程侧重于认知技能,包括以下内容:
  • 学习。人工智能编程的这一方面侧重于获取数据并创建如何将其转化为可操作信息的规则。这些规则称为算法,为计算设备提供有关如何完成特定任务的分步说明。
  • 推理。人工智能编程的这一方面侧重于选择正确的算法以达到预期的结果。
  • 自我纠正。人工智能编程的这一方面旨在不断微调算法,并确保它们提供最准确的结果。
  • 创造力。 人工智能的这一方面使用神经网络、基于规则的系统、统计方法和其他人工智能技术来生成新图像、新文本、新音乐和新想法。

人工智能、机器学习和深度学习的区别

人工智能机器学习深度学习是企业IT中的常用术语,有时可以互换使用,尤其是公司在其营销材料中。但也有区别。人工智能一词创造 1950年代,指的是机器对人类智能的模拟。随着新技术的开发,它涵盖了一组不断变化的功能。人工智能旗下的技术包括机器学习和深度学习。
机器学习使软件应用程序能够更准确地预测结果,而无需明确编程。机器学习算法使用历史数据作为输入来预测新的输出值。随着用于训练的大型数据集的兴起,这种方法变得更加有效。深度学习是机器学习的一个子集,它基于我们对大脑结构的理解。深度学习对人工神经网络结构的使用是人工智能最新进展的基础,包括自动驾驶汽车和ChatGPT。

为什么人工智能很重要?

人工智能因其改变我们生活、工作和娱乐方式的潜力而具有重要意义。它已被有效地用于商业自动化人类完成的任务,包括客户服务工作、潜在客户生成、欺诈检测和质量控制。在许多领域,人工智能可以比人类更好地执行任务。特别是当涉及到重复的、注重细节的任务时,例如分析大量法律文件以确保正确填写相关字段,人工智能工具通常可以快速完成工作,错误相对较少。由于它可以处理海量数据集,人工智能还可以让企业深入了解他们可能没有意识到的运营情况。快速增长的生成式人工智能工具在从教育和营销到产品设计等领域都很重要。
事实上,人工智能技术的进步不仅推动了效率的爆炸式增长,而且为一些大型企业打开了通往全新商机的大门。在当前的人工智能浪潮之前,很难想象使用计算机软件将乘客与出租车联系起来,但Uber已经通过这样做成为财富500强公司。
人工智能已成为当今许多最大和最成功的公司的核心,包括Alphabet,Apple,Microsoft和Meta,在这些公司中,AI技术被用来改善运营并超越竞争对手。例如,在Alphabet的子公司谷歌,人工智能是其搜索引擎Waymo的自动驾驶汽车和GoogleBrain的核心,后者发明了transformer神经网络架构,该架构支撑了自然语言处理的最新突破。
 

人工智能的优缺点是什么?

人工神经网络和深度学习人工智能技术正在迅速发展,主要是因为人工智能可以比人类更快地处理大量数据,并做出更准确的预测。
虽然每天产生的大量数据会让人类研究人员陷入困境,但使用机器学习的人工智能应用程序可以获取这些数据并快速将其转化为可操作的信息。在撰写本文时,人工智能的一个主要缺点是处理人工智能编程所需的大量数据成本高昂。随着人工智能技术被纳入更多的产品和服务中,组织还必须适应人工智能有意或无意地创建有偏见和歧视性的系统的潜力。

人工智能的优势

以下是人工智能的一些优势。
  • 擅长注重细节的工作。事实证明,人工智能在诊断某些癌症(包括乳腺癌和黑色素瘤)方面与医生一样好,甚至更好。
  • 缩短了数据密集型任务的时间。人工智能广泛应用于数据密集型行业,包括银行和证券、制药和保险,以减少分析大数据集所需的时间。例如,金融服务部门经常使用人工智能来处理贷款申请和检测欺诈行为。
  • 节省劳动力,提高生产率。这里的一个例子是仓库自动化的使用,它在大流行期间有所增长,预计随着人工智能和机器学习的整合而增加。
  • 提供一致的结果。最好的AI翻译工具可提供高度的一致性,即使是小型企业也能以客户的母语接触客户。
  • 可以通过个性化提高客户满意度。 人工智能可以为个人客户提供个性化的内容、消息传递、广告、推荐和网站。
  • AI驱动的虚拟代理始终可用。人工智能程序不需要睡觉或休息,提供24/7全天候服务。

人工智能的缺点

以下是人工智能的一些缺点。
  • 贵。
  • 需要深厚的技术专长。
  • 用于构建人工智能工具的合格工人供应有限。
  • 大规模反映其训练数据的偏差。
  • 缺乏从一项任务推广到另一项任务的能力。
  • 消除了人类工作,增加了失业率。

强AI与弱AI

人工智能可以分为弱或强。
  •  AI,也称为狭义AI,旨在完成特定任务并对其进行训练。工业机器人和虚拟个人助理,如苹果的Siri,使用弱人工智能。
  • 强人工智能,也称为通用人工智能 (AGI),描述了可以复制人脑认知能力的编程。当面临不熟悉的任务时,强大的人工智能系统可以使用模糊逻辑将知识从一个领域应用到另一个领域,并自主找到解决方案。从理论上讲,一个强大的人工智能程序应该能够通过图灵测试和中国房间论证。

人工智能的4种类型是什么?

密歇根州立大学(MichiganStateUniversity)综合生物学和计算机科学与工程助理教授ArendHintze解释说,人工智能可以分为四种类型,从今天广泛使用的特定任务智能系统开始,到尚不存在的感知系统。类别如下。
  • 类型1:反应式机器。这些AI系统没有内存,并且是特定于任务的。一个例子是DeepBlue,这是IBM国际象棋程序,在1990年代击败了GarryKasparov。深蓝可以识别棋盘上的棋子并做出预测,但由于它没有记忆,它不能使用过去的经验来告知未来的经验。
  • 类型2:内存有限。这些人工智能系统具有记忆力,因此它们可以利用过去的经验为未来的决策提供信息。自动驾驶汽车中的一些决策功能就是这样设计的。
  • 类型3:心理理论。心理理论是一个心理学术语。当应用于人工智能时,这意味着该系统将具有理解情绪的社会智能。这种类型的人工智能将能够推断人类的意图并预测行为,这是人工智能系统成为人类团队不可或缺的成员的必要技能。
  • 类型4:自我意识。在这个类别中,人工智能系统具有自我意识,这赋予了它们意识。具有自我意识的机器了解自己的当前状态。这种类型的人工智能尚不存在。
 

人工智能技术的应用场景,今天如何使用它?

人工智能被整合到各种不同类型的技术中。这里有七个例子。
自动化。当与人工智能技术结合使用时,自动化工具可以扩展所执行任务的数量和类型。一个例子是机器人流程自动化(RPA),这是一种软件,可以自动执行传统上由人类完成的重复的、基于规则的数据处理任务。当与机器学习和新兴的AI工具相结合时,RPA可以自动执行大部分企业作业,使RPA的战术机器人能够传递来自AI的情报并响应流程变化。
机器学习。这是让计算机无需编程即可运行的科学。深度学习是机器学习的一个子集,简单来说,可以被认为是预测分析的自动化。机器学习算法有三种类型:
  • 监督学习对数据集进行标记,以便可以检测模式并用于标记新数据集。
  • 无监督学习数据集不会被标记,而是根据相似性或差异性进行排序。
  • 强化学习数据集不会被标记,但在执行一项或多项操作后,人工智能系统会得到反馈。
机器视觉。这项技术使机器能够看到。机器视觉使用摄像头、模数转换和数字信号处理来捕获和分析视觉信息。它经常被比作人类的视力,但机器视觉不受生物学的束缚,例如,可以被编程为穿透墙壁。它用于从特征识别到医学图像分析的一系列应用。专注于基于机器的图像处理的计算机视觉经常与机器视觉混为一谈。
自然语言处理(NLP)。这是计算机程序对人类语言的处理。NLP最古老和最著名的例子之一是垃圾邮件检测,它查看电子邮件的主题行和文本并确定它是否是垃圾邮件。目前的NLP方法基于机器学习。NLP任务包括文本翻译、情感分析和语音识别。
机器人。该工程领域专注于机器人的设计和制造。机器人通常用于执行人类难以执行或一致执行的任务。例如,机器人被用于汽车生产装配线或美国宇航局在太空中移动大型物体。研究人员还使用机器学习来构建可以在社交环境中互动的机器人。
自动驾驶汽车。自动驾驶汽车结合使用计算机视觉、图像识别和深度学习来构建自动化技能,以驾驶车辆,同时保持在给定的车道上并避开行人等意外障碍物。
文本、图像和音频生成。生成式人工智能技术从文本提示创建各种类型的媒体,正在企业中广泛应用,以创建从逼真的艺术到电子邮件回复和剧本的看似无限的内容类型。
人工智能不仅仅是一种技术。

人工智能不仅仅是一种技术。

人工智能有哪些应用?

人工智能已经进入了各种各样的市场。这里有11个例子。
  • 医疗保健中的人工智能。最大的赌注是改善患者的治疗效果和降低成本。公司正在应用机器学习来做出比人类更好、更快的医疗诊断。最著名的医疗保健技术之一是IBMWatson。它理解自然语言,并能回答向它提出的问题。该系统挖掘患者数据和其他可用数据源以形成假设,然后以置信度评分模式呈现该假设。其他人工智能应用包括使用在线虚拟健康助手和聊天机器人来帮助患者和医疗保健客户查找医疗信息、安排预约、了解计费流程和完成其他管理流程。一系列人工智能技术也被用于预测、对抗和理解 疫情等流行病。
  • 商业中的人工智能。机器学习算法正在被集成到分析和客户关系管理(CRM)平台中,以发现有关如何更好地为客户服务的信息。聊天机器人已被纳入网站,为客户提供即时服务。ChatGPT 等生成式AI技术的快速发展预计将产生深远的影响:消除工作岗位、彻底改变产品设计和颠覆商业模式。
  • 人工智能在教育中的应用。人工智能可以自动评分,让教育工作者有更多时间完成其他任务。它可以评估学生并适应他们的需求,帮助他们按照自己的节奏工作。人工智能导师可以为学生提供额外的支持,确保他们保持在正轨上。这项技术还可以改变学生的学习地点和方式,甚至可能取代一些教师。正如ChatGPT、GoogleBard 和其他大型语言模型所展示的那样,生成式AI可以帮助教育工作者制作课程作业和其他教材,并以新的方式吸引学生。这些工具的出现也迫使教育工作者重新思考学生的家庭作业和测试,并修改有关剽窃的政策。
  • 人工智能在金融领域的应用。个人理财应用中的人工智能,如IntuitMint或TurboTax,正在颠覆金融机构。此类应用程序收集个人数据并提供财务建议。其他程序,如IBMWatson,已被应用于购房过程。今天,人工智能软件执行了华尔街的大部分交易。
  • 人工智能在法律中的应用。法律上的发现过程-筛选文件-对人类来说往往是压倒性的。使用AI帮助实现法律行业劳动密集型流程的自动化,可以节省时间并改善客户服务。律师事务所使用机器学习来描述数据和预测结果,使用计算机视觉从文档中分类和提取信息,并使用NLP来解释信息请求。
  • 人工智能在娱乐和媒体中的应用。娱乐业使用人工智能技术进行有针对性的广告、推荐内容、分发、检测欺诈、创建脚本和制作电影。自动化新闻帮助新闻编辑室简化媒体工作流程,减少时间、成本和复杂性。新闻编辑室使用人工智能来自动化日常任务,例如数据输入和校对;并研究主题并协助头条新闻。新闻业如何可靠地使用ChatGPT和其他生成式AI来生成内容还有待商榷。
  • 软件编码和IT流程中的AI。新的生成式AI工具可用于根据自然语言提示生成应用程序代码,但这些工具还处于早期阶段,它们不太可能很快取代软件工程师。人工智能还被用于自动化许多IT流程,包括数据输入、欺诈检测、客户服务以及预测性维护和安全。
  • 安全。人工智能和机器学习是安全供应商用来推销其产品的流行语列表的首位,因此买家应谨慎对待。尽管如此,人工智能技术仍被成功应用于网络安全的多个方面,包括异常检测、解决误报问题和进行行为威胁分析。组织在安全信息和事件管理(SIEM) 软件和相关领域使用机器学习来检测异常并识别表明威胁的可疑活动。通过分析数据并使用逻辑来识别与已知恶意代码的相似之处,人工智能可以比人类员工和以前的技术迭代更快地为新的和新兴的攻击提供警报。
  • 制造业中的人工智能。制造业一直处于将机器人纳入工作流程的最前沿。例如,曾经被编程为执行单一任务并与人类工人分离的工业机器人越来越多地充当协作机器人:更小的多任务机器人,与人类协作,并承担仓库、工厂车间和其他工作空间中更多部分的工作。
  • 人工智能在银行业的应用。银行正在成功地使用聊天机器人来让客户了解服务和产品,并处理不需要人工干预的交易。人工智能虚拟助手用于改善和降低遵守银行法规的成本。银行组织使用人工智能来改善贷款决策、设置信用额度和识别投资机会。
  • 人工智能在交通领域的应用。 除了人工智能在运营自动驾驶汽车方面的基本作用外,人工智能技术还用于运输,以管理交通、预测航班延误,并使海运更安全、更高效。在供应链中,人工智能正在取代预测需求和预测中断的传统方法,疫情加速了这一趋势,当时许多公司因全球大流行对商品供需的影响而措手不及。

增强智能与人工智能

一些行业专家认为,人工智能一词与流行文化的联系过于紧密,这导致公众对人工智能将如何改变工作场所和生活抱有难以置信的期望。他们建议使用“增强智能”一词来区分自主行动的人工智能系统(流行文化的例子包括Hal9000和终结者)和支持人类的人工智能工具。
  • 增强智能。一些研究人员和营销人员希望具有更中性内涵的“增强智能”标签将帮助人们理解大多数人工智能的实现将是薄弱的,而只是改进产品和服务。示例包括在商业智能报告中自动显示重要信息或在法律文件中突出显示重要信息。ChatGPT和Bard在各行各业的迅速采用表明他们愿意使用人工智能来支持人类决策。
  • 人工智能。真正的人工智能(AGI)与技术奇点的概念密切相关,奇点是一个由人工超级智能统治的未来,远远超过了人脑理解它的能力,或者它如何塑造我们的现实。这仍然属于科幻小说的范畴,尽管一些开发人员正在研究这个问题。许多人认为,量子计算等技术可以在使AGI成为现实方面发挥重要作用,我们应该保留使用AI一词来表示这种通用智能。

合乎道德地使用人工智能

虽然人工智能工具为企业提供了一系列新功能,但人工智能的使用也引发了伦理问题,因为无论好坏,人工智能系统都会强化它已经学到的东西。
这可能是有问题的,因为机器学习算法是许多最先进的人工智能工具的基础,其智能程度取决于它们在训练中获得的数据。由于人类选择用于训练AI程序的数据,因此机器学习偏差的可能性是固有的,必须密切监控。
任何希望将机器学习用作现实世界生产系统的一部分的人都需要将道德因素纳入其AI训练过程,并努力避免偏见。当使用在深度学习和生成对抗网络(GAN)应用中固有无法解释的AI算法时,尤其如此。
可解释性是在严格的监管合规要求下运营的行业中使用人工智能的潜在绊脚石。例如,美国的金融机构在规定下运作,要求他们解释其信贷发放决定。然而,当拒绝信贷的决定是由人工智能编程做出的,可能很难解释这个决定是如何做出的,因为用于做出这种决定的人工智能工具是通过梳理出数千个变量之间的微妙相关性来运作的。当决策过程无法解释时,该程序可以称为黑匣子AI。
总而言之,人工智能的伦理挑战包括:
  • 由于训练不当的算法和人为偏见而导致的偏见。
  • 由于深度伪造和网络钓鱼导致的滥用。
  • 法律问题,包括人工智能诽谤和版权问题。
  • 由于人工智能能力的不断增强,工作岗位被淘汰。
  • 数据隐私问题,特别是在银行、医疗保健和法律领域。
这些组件构成了负责任的AI使用。
这些组件构成了负责任的AI使用。

AI治理和法规

尽管存在潜在风险,但目前很少有管理人工智能工具使用的法规,而且即使存在法律,它们通常也间接与人工智能有关。例如,如前所述,美国公平贷款法规要求金融机构向潜在客户解释信贷决策。这限制了贷方使用深度学习算法的程度,深度学习算法本质上是不透明且缺乏可解释性的。
欧盟的《通用数据保护条例》(GDPR)正在考虑人工智能法规。GDPR对企业如何使用消费者数据的严格限制已经限制了许多面向消费者的AI应用程序的训练和功能。
美国的政策制定者尚未发布人工智能立法,但这种情况可能很快就会改变。白宫科技政策办公室(OSTP)于2022年10月发布的“人工智能权利蓝图”指导企业如何实施合乎道德的人工智能系统。美国商会在2023年3月发布的一份报告中也呼吁制定人工智能法规。
制定监管人工智能的法律并不容易,部分原因是人工智能包含公司用于不同目的的各种技术,部分原因是监管可能以牺牲人工智能的进步和发展为代价。人工智能技术的快速发展是形成有意义的人工智能监管的另一个障碍,人工智能缺乏透明度带来的挑战也使得很难看到算法如何达到其结果。此外,ChatGPT和Dall-E等技术突破和新颖应用可能会使现有法律立即过时。当然,政府为监管人工智能而制定的法律并不能阻止犯罪分子恶意使用这项技术。

从1950年的图灵测试到今天的ChatGPT等生成式AI聊天机器人,AI有着悠久且有时有争议的历史。

人工智能的历史是什么?

自古以来,赋予智能的无生命物体的概念就已经存在。希腊神赫菲斯托斯在神话中被描绘成用黄金锻造出类似机器人的仆人。古埃及的工程师建造了由祭司制作的神像。几个世纪以来,从亚里士多德到13世纪西班牙神学家拉蒙·鲁尔(RamonLlull),再到勒内·笛卡尔(RenéDescartes)和托马斯·贝叶斯(ThomasBayes),思想家们都使用他们那个时代的工具和逻辑将人类的思维过程描述为符号,为人工智能概念(如一般知识表示)奠定了基础。
  • 19世纪末和20世纪上半叶带来了产生现代计算机的基础性工作。1836年,剑桥大学数学家查尔斯·巴贝奇(CharlesBabbage)和洛夫莱斯伯爵夫人奥古斯塔·阿达·金(AugustaAdaKing)发明了第一个可编程机器的设计。
  • 1940年代。普林斯顿大学数学家约翰·冯·诺依曼(JohnVonNeumann)构思了存储程序计算机的架构,即计算机的程序和它处理的数据可以保存在计算机的内存中。WarrenMcCulloch和WalterPitts为神经网络奠定了基础。
  • 1950年代。随着现代计算机的出现,科学家们可以测试他们对机器智能的想法。确定计算机是否具有智能的一种方法是由英国数学家和二战密码破译者艾伦·图灵(AlanTuring)设计的。图灵测试的重点是计算机欺骗审讯者的能力,让他们相信它对他们问题的回答是由人类做出的。
  • 1956. 现代人工智能领域被广泛引用为从今年达特茅斯学院夏季会议开始。该会议由美国国防高级研究计划局(DARPA)赞助,该领域的10位杰出人士出席了会议,其中包括人工智能先驱马文·明斯基(MarvinMinsky)、奥利弗·塞尔弗里奇(OliverSelfridge)和约翰·麦卡锡(JohnMcCarthy),后者因创造了人工智能一词而受到赞誉。出席会议的还有计算机科学家艾伦·纽厄尔(AllenNewell)和经济学家、政治学家和认知心理学家赫伯特·西蒙(HerbertA.Simon)。两人展示了他们开创性的逻辑理论家,这是一种能够证明某些数学定理的计算机程序,被称为第一个人工智能程序。
  • 1950年代和1960年代。 在达特茅斯学院会议之后,新兴人工智能领域的领导者预测,相当于人脑的人造智能即将到来,吸引了主要的政府和行业支持。事实上,近20年资金充足的基础研究在人工智能领域取得了重大进展:例如,在1950年代后期,纽厄尔和西蒙发表了通用问题求解器(GPS)算法,该算法未能解决复杂问题,但为开发更复杂的认知架构奠定了基础;McCarthy开发了 Lisp,一种至今仍在使用的AI编程语言。在1960年代中期,麻省理工学院教授约瑟夫·魏岑鲍姆(JosephWeizenbaum)开发了ELIZA,这是一个早期的NLP程序,为今天的聊天机器人奠定了基础。
  • 1970年代和1980年代。 通用人工智能的实现被证明是难以捉摸的,而不是迫在眉睫的,受到计算机处理和内存的局限性以及问题的复杂性的阻碍。政府和企业放弃了对人工智能研究的支持,导致了从1974年到1980年的休耕期,被称为第一个“人工智能冬天”。在1980年代,对深度学习技术的研究和行业对爱德华·费根鲍姆专家系统的采用引发了新一轮的人工智能热情,但随之而来的是政府资金和行业支持的又一次崩溃。第二个人工智能冬天一直持续到1990年代中期。
  • 1990年代。 计算能力的提高和数据的爆炸式增长引发了1990年代后期的人工智能复兴,为我们今天看到的人工智能的显着进步奠定了基础。大数据和计算能力的提高推动了自然语言处理、计算机视觉、机器人技术、机器学习和深度学习的突破。1997年,随着人工智能技术的加速发展,IBM的“深蓝”击败了俄罗斯国际象棋大师加里·卡斯帕罗夫,成为第一个击败国际象棋世界冠军的计算机程序。
  • 2000年代。机器学习、深度学习、自然语言处理、语音识别和计算机视觉的进一步发展催生了塑造我们今天生活方式的产品和服务。其中包括2000年推出的谷歌搜索引擎和2001年推出的亚马逊推荐引擎。Netflix开发了电影推荐系统,Facebook推出了面部识别系统,Microsoft推出了语音识别系统,用于将语音转录为文本。IBM推出了Watson,Google启动了其自动驾驶计划Waymo。
  • 2010年代。2010年至2020年的十年见证了人工智能的稳定发展。其中包括苹果Siri和亚马逊Alexa语音助手的推出;IBMWatson在 Jeopardy 上的胜利;自动驾驶汽车;开发第一个生成对抗网络;推出Google的开源深度学习框架TensorFlow;成立研究实验室 OpenAI,开发GPT-3语言模型和Dall-E图像生成器;围棋世界冠军李世石被谷歌DeepMind的AlphaGo击败;以及实施基于人工智能的系统,以高度准确地检测癌症。
  • 2020年代。在过去的十年中,生成式人工智能(GenerativeAI)出现了,这是一种可以产生新内容的人工智能技术。生成式AI从提示开始,提示可以是文本、图像、视频、设计、音符或AI系统可以处理的任何输入。然后,各种AI算法会根据提示返回新内容。内容可以包括论文、问题的解决方案或由人物的图片或音频创建的逼真的假货。ChatGPT-3、谷歌的Bard和Microsoft的威震天-图灵NLG等语言模型的能力让世界惊叹不已,但该技术仍处于早期阶段,其产生幻觉或歪曲答案的倾向就证明了这一点。

AI工具和服务

人工智能工具和服务正在快速发展。目前AI工具和服务的创新可以追溯到2012年的AlexNet神经网络,它开创了基于GPU和大型数据集构建的高性能AI的新时代。关键的变化是能够以更具可扩展性的方式在多个GPU内核上并行训练神经网络。
在过去的几年里,谷歌、Microsoft和OpenAI的AI发现与Nvidia开创的硬件创新之间的共生关系使得在更多互联的GPU上运行更大的AI模型成为可能,从而推动了性能和可扩展性的颠覆性改进。
这些AI杰出人物之间的合作对于ChatGPT最近的成功至关重要,更不用说其他数十项突破性AI服务了。以下是AI工具和服务的重要创新概要。
变形金刚。例如,谷歌率先找到了一种更有效的流程,用于在配备GPU的大型商用PC集群上提供AI训练。这为发现转换器铺平了道路,这些转换器可以在未标记的数据上自动训练AI的许多方面。
硬件优化。同样重要的是,像Nvidia这样的硬件供应商也在优化微码,以便在多个GPU内核上并行运行,以实现最流行的算法。英伟达声称,更快的硬件、更高效的AI算法、微调的GPU指令和更好的数据中心集成相结合,正在推动AI性能提高一百万倍。英伟达还与所有云中心提供商合作,通过IaaS、SaaS和PaaS模型使此功能更易于作为AI即服务访问。
生成式预训练变压器。人工智能堆栈在过去几年中也发展迅速。以前,企业必须从头开始训练他们的AI模型。OpenAI、Nvidia、Microsoft、Google等越来越多的供应商提供生成式预训练转换器(GPT),可以针对特定任务进行微调,同时大幅降低成本、专业知识和时间。虽然一些最大的模型估计每次运行的成本为500万到1000万美元,但企业可以以几千美元的价格对最终的模型进行微调。这样可以缩短上市时间并降低风险。
AI云服务。阻碍企业在其业务中有效使用AI的最大障碍之一是将AI功能编织到新应用程序或开发新应用程序所需的数据工程和数据科学任务。所有领先的云提供商都在推出自己的品牌AI即服务产品,以简化数据准备、模型开发和应用程序部署。主要示例包括AWSAI服务、GoogleCloudAI、MicrosoftAzureAI平台、IBMAI解决方案和 Oracle云基础设施AI服务。
尖端的AI模型即服务。领先的AI模型开发人员还在这些云服务之上提供尖端的AI模型。OpenAI拥有数十个大型语言模型,这些模型针对聊天、NLP、图像生成和代码生成进行了优化,这些模型通过Azure进行预配。英伟达通过销售针对所有云提供商提供的文本、图像和医疗数据进行优化的AI基础设施和基础模型,采取了一种与云无关的方法。数以百计的其他参与者也提供针对各种行业和用例定制的模型。