您的位置:首页 > 互联网 >正文

您需要了解的有关人工智能的所有信息

发布时间:2021-03-05 11:09:47  编辑:  来源:

人工智能的执行指南,从机器学习和通用AI到神经网络。什么是人工智能(AI)?

这取决于你问谁。

早在1950年代,该领域的先驱 Minsky和McCarthy就将人工智能描述为由机器执行的任何任务,而这些机器以前被认为需要人类智能。

显然,这是一个相当宽泛的定义,这就是为什么您有时会看到关于某物是否真的是AI的争论的原因。

关于创造智能意味着什么的现代定义更为具体。谷歌的AI研究员,机器学习软件库Keras的创建者Francois Chollet表示,智能与系统在新环境中适应和即兴发挥,泛化其知识并将其应用于陌生场景的能力联系在一起。

“智力是与你以前没有准备任务获得新技能的效率,”他说。

“智力本身不是技能,这不是你能做的,而是学习新事物的能力和效率。”

这是一个定义,在此定义下,以现代人工智能为动力的系统(例如虚拟助手)将被证明具有“狭窄的人工智能”的特征。在执行有限的任务集(例如语音识别或计算机视觉)时能够概括其培训的能力。

通常,人工智能系统至少会表现出与人类智力相关的以下某些行为:计划,学习,推理,问题解决,知识表示,感知,运动和操纵,在较小程度上还包括社会智力和创造力。

人工智能有什么用?

如今,人工智能无处不在,过去常被用来推荐您下一步应该在网上购买的东西,以了解您对诸如亚马逊的Alexa和苹果的Siri之类的虚拟助手所说的话,以识别照片中的人物和内容,发现垃圾邮件或检测信用卡欺诈。

有哪些不同类型的AI?

在非常高的水平上,人工智能可以分为两种大类型:狭窄的AI和通用AI。

如上所述,狭窄的AI是当今我们在计算机中所看到的一切:已经教过或学到了如何执行特定任务而无需明确编程的智能系统。

这种类型的机器智能在Apple iPhone上的Siri虚拟助手的语音和语言识别,自动驾驶汽车的视觉识别系统或根据您的推荐来推荐您喜欢的产品的推荐引擎中就很明显过去买的。与人类不同,这些系统只能学习或被教导如何执行已定义的任务,这就是为什么它们被称为狭窄的AI。

缩小AI可以做什么?

狭窄的AI有大量新兴的应用程序:从无人机解释视频输入,对基础设施(如输油管道)进行视觉检查,组织个人和企业日历,响应简单的客户服务查询,与其他智能系统协调以执行这些任务包括在合适的时间和地点预定酒店,帮助放射线医师发现X射线中的潜在肿瘤,在线标记不当内容,从IoT设备收集的数据中检测电梯的磨损,通过卫星生成世界3D模型imagery,列表不断。

这些学习系统的新应用一直在涌现。显卡设计师Nvidia最近透露了一种基于AI的系统Maxine,几乎可以与人们的互联网连接速度无关地进行高质量的视频通话。该系统通过不通过Internet传输完整的视频流,而是以设计用于重现呼叫者面部表情和动作的方式,不通过Internet传输完整的视频流,而是对呼叫者的少量静态图像进行动画处理,从而将此类呼叫所需的带宽减少了十分之一。实时且与视频没有区别。

但是,尽管这些系统具有尚未开发的潜力,但有时对该技术的抱负却超过了现实。自动驾驶汽车便是一个很好的例子,自动驾驶汽车本身就是由人工智能驱动的系统(例如计算机视觉)支撑的。电动汽车公司特斯拉与首席执行官埃隆·马斯克(Elon Musk)的原定时间表相比有一定差距,该时间表是将汽车的自动驾驶系统从更有限的辅助驾驶功能升级到“全自动驾驶”,而“全自动驾驶”选项仅在最近才推出,一组精选的专家驱动程序,作为Beta测试计划的一部分。

普通AI可以做什么?

通用AI截然不同,是人类发现的适应性智力的类型,是一种灵活的智能形式,能够学习如何执行截然不同的任务,从理发到构建电子表格,或者基于各种推理来推理它积累的经验。这是在电影中更常见的AI,例如2001年的HAL或The Terminator中的Skynet,但今天还不存在-AI专家对它成为现实的速度存在激烈的分歧。

AI研究人员Vincent CMüller和哲学家Nick Bostrom在2012/13年度对四组专家进行的一项调查显示,到2040年至2050年,人工智能(AGI)的开发机会将达到50%,到2075年将上升到90%。该小组甚至走得更远,预测所谓的“超级智能”(Bostrom定义为“在几乎所有感兴趣的领域中大大超出人类认知能力的任何智力”)在AGI实现约30年后都可以预期。

但是,AI专家最近的评估更为谨慎。Geoffrey Hinton,Demis Hassabis和Yann LeCun等现代AI研究领域的先驱者 说,社会距离AGI的发展还很遥远。鉴于现代AI领域对前灯的怀疑,以及现代狭义AI系统与AGI的本质迥然不同,恐怕几乎没有理由担心在不久的将来社会将受到通用人工智能的干扰。

就是说,一些AI专家认为,鉴于我们对人脑的了解有限,这样的预测是非常乐观的,并且相信AGI仍然有数百年的历史了。

人工智能发展的最新里程碑是什么?

尽管现代狭窄的AI可能仅限于执行特定任务,但在其专业领域内,这些系统有时仍具有超人的表现能力,在某些情况下甚至还表现出超凡的创造力,而这种特质通常是人类固有的。

虽然没有太多的突破可以列出最终的清单,但其中有一些亮点包括:2009年Google展示了其自动驾驶的丰田普锐斯有可能完成10次,每次100英里的旅程,从而使社会走上无人驾驶之路汽车。

2011年,计算机系统IBM Watson赢得了智力竞赛节目《危险!,击败了该节目有史以来最出色的两位选手。为了赢得展览,沃森使用自然语言处理和分析功能对庞大的数据存储库进行了处理,从而可以回答人类提出的问题,通常只需不到一秒钟的时间。

2012年,另一项突破预示着AI的潜力,以解决以前认为对任何机器来说都太复杂的许多新任务。那年,AlexNet系统在ImageNet大规模视觉识别挑战赛中取得了决定性的胜利。与图像识别竞赛中的竞争对手系统相比,AlexNet的准确性使其错误率降低了一半。

AlexNet的性能证明了基于神经网络的学习系统的强大功能,这是一种已经存在了数十年的机器学习模型,但是由于对架构的改进以及摩尔定律所带来的并行处理能力的飞跃,最终使它发挥了潜力。机器学习系统在执行计算机视觉方面的能力也于当年成为头条新闻,Google对该系统进行了培训以识别互联网上最喜欢的系统:猫的照片。

机器学习系统功效的下一个演示吸引了公众的注意,是2016年Google DeepMind AlphaGo AI击败了Go的人类大师之后,Go是一款古老的中国游戏,其复杂性困扰了计算机数十年。围棋每转大约有200步,而国际象棋中只有20步。在进行围棋游戏的过程中,可能发生的动作如此之多,以至于从计算的角度来看,事先搜索每个动作以找出最佳玩法的成本太高。取而代之的是,AlphaGo受到了如何玩游戏的训练,方法是在3000万个Go游戏中采取人类专家的动作并将其馈入深度学习神经网络。

训练这些深度学习网络可能需要很长时间,随着系统逐渐完善其模型以取得最佳结果,需要摄取和迭代大量数据。

但是,最近,Google使用AlphaGo Zero(一种对自己玩“完全随机”游戏的系统)改进了训练过程,然后从结果中学习。Google DeepMind首席执行官Demis Hassabis还发布了新版本的AlphaGo Zero,该版本已经掌握了国际象棋和将棋的游戏。

而且AI继续冲破新的里程碑: 由OpenAI训练的系统在在线多人游戏Dota 2的一对一比赛中击败了世界顶级玩家。

同年,OpenAI创建了AI代理商,他们发明了 自己的语言来合作并更有效地实现其目标,不久之后,Facebook培训代理商就此进行了谈判,甚至撒谎。

2020年是人工智能系统似乎具备了像人类一样的书写和说话能力的一年,几乎可以想到的任何话题。

所讨论的系统,简称为Generative Pre-trained Transformer 3或GPT-3,是一个神经网络,对开放网络上数十亿英语文章进行了训练。

从非营利组织OpenAI对其进行测试后不久,互联网就开始热衷于GPT-3的能力,该能力可以生成几乎所有涉及该主题的文章,乍一看这些文章通常很难区别于人类写的那些。同样,在其他领域也取得了令人瞩目的成果,它具有令人信服的回答能力,可以回答广泛主题的问题,甚至可以成为新手JavaScript程序员。

但是,尽管许多GPT-3生成的文章具有真实感,但进一步的测试发现,生成的句子通常不符合要求,提供表面上看似合理但令人困惑的陈述,有时甚至是胡说八道。

使用模型的自然语言理解作为未来服务的基础仍然有相当大的兴趣,并且可以通过OpenAI的beta API选择开发人员以将其内置到软件中。它还将并入通过Microsoft的Azure云平台提供的未来服务中。

人工智能潜力最大的例子可能是在2020年末,当时基于Google关注的神经网络AlphaFold 2证明了这一结果,有人称其值得诺贝尔化学奖。

该系统查看蛋白质组成部分(称为氨基酸)的能力,并得出蛋白质的3D结构可能对疾病的理解和药物开发的速度产生深远的影响。在蛋白质结构预测的关键评估竞赛中,AlphaFold 2能够以与晶体学相媲美的准确性确定蛋白质的3D结构,而晶体学是令人信服地对蛋白质建模的金标准。

与需要数月才能返回结果的晶体学不同,AlphaFold 2可以在数小时内对蛋白质进行建模。蛋白质的3D结构在人类生物学和疾病中起着重要作用,这种加速已被预示为医学界的里程碑式突破,更不用说在生物技术中使用酶的其他领域中的潜在应用。

什么是机器学习?

到目前为止,迄今为止提到的几乎所有成就都来自机器学习,这是AI的一个子集,占近年来该领域成就的绝大部分。今天人们谈论AI时,他们通常是在谈论机器学习。

简而言之,机器学习是计算机系统学习如何执行任务的方法,而不是通过编程来了解如何执行任务的方法。这种对机器学习的描述可以追溯到1959年,当时它是该领域的先驱Arthur Samuel发明的,他开发了世界上第一个自学系统之一,即Samuel Checkers-playing程序。

要学习,这些系统将获得大量数据,然后将它们用于学习如何执行特定任务,例如理解语音或为照片添加字幕。该数据集的质量和大小对于构建能够准确执行其指定任务的系统很重要。例如,如果您要构建一个机器学习系统来预测房价,则培训数据应不仅包括房地产规模,还应包括其他显着因素,例如卧室数或花园大小。

什么是神经网络?

机器学习成功的关键是神经网络。这些数学模型能够调整内部参数以更改其输出。在训练期间,向神经网络馈送数据集,该数据集教给它一些特定数据时应吐出的内容。具体来说,可能会向网络馈送介于0到9之间的数字的灰度图像以及一串二进制数字(零和一),这些二进制数字指示每个灰度图像中显示了哪个数字。然后将对网络进行训练,调整其内部参数,直到以高准确度对每个图像中显示的数字进行分类。然后,可以使用这个训练有素的神经网络对零到9之间数字的其他灰度图像进行分类。

神经网络的结构和功能基于大脑中神经元之间的联系而非常松散。神经网络由互连的算法层组成,这些算法层将数据相互馈送,并且可以通过修改归因于数据的数据在这些层之间传递时的重要性来进行训练,以执行特定任务。在训练这些神经网络的过程中,数据在各层之间传递时所附加的权重将继续变化,直到神经网络的输出与所需的输出非常接近为止,此时网络将“学习”如何携带完成一项特定的任务。期望的输出可以是从正确地标记图像中的水果到根据其传感器数据预测电梯何时可能发生故障的任何事情。

机器学习的一个子集是深度学习,其中神经网络被扩展为具有大量可观数据层的庞大网络,这些庞大数据层是使用大量数据进行训练的。正是这些深度神经网络推动了计算机执行语音识别和计算机视觉等任务的能力的当前飞跃。

有各种类型的神经网络,各有优缺点。递归神经网络(RNN)是一种神经网络,特别适合于自然语言处理(NLP)–了解文本的含义–和语音识别,而卷积神经网络则起源于图像识别,其用途广泛推荐系统和NLP。神经网络的设计也在不断发展,研究人员正在改进一种更有效的深度神经网络形式,即长短期记忆或LSTM(一种用于NLP和股票市场预测的RNN体系结构),以使其能够运行速度足够快,可用于点播系统(例如Google Translate)。

什么是其他类型的AI?

人工智能研究的另一个领域是进化计算,它借鉴了达尔文的自然选择理论,并发现遗传算法经历了几代人之间的随机变异和组合,从而试图发展出针对给定问题的最佳解决方案。

这种方法甚至已经被用来帮助设计AI模型,有效地利用AI来帮助构建AI。进化算法用于优化神经网络的这种使用称为神经进化,并且随着智能系统的使用变得越来越普遍,尤其是在对数据科学家的需求经常超过供应的情况下,它在帮助设计高效AI方面可以发挥重要作用。Uber AI Labs展示了该技术,该实验室发布了有关使用遗传算法训练深度神经网络以解决强化学习问题的论文。

最后,还有专家系统,其中使用规则对计算机进行编程,这些规则允许计算机根据大量输入做出一系列决策,从而使该计算机模仿特定领域中人类专家的行为。这些基于知识的系统的示例可能是,例如,自动驾驶飞机飞行系统。

是什么推动了人工智能的复兴?

如上所述,近年来,人工智能研究的最大突破已经在机器学习领域,尤其是在深度学习领域。

这在某种程度上是由于数据的易用性驱动的,而更重要的是并行计算能力的爆炸式增长,在此期间,使用图形处理单元(GPU)集群来训练机器学习系统变得越来越普遍。

这些集群不仅为训练机器学习模型提供了功能更强大的系统,而且现在可以作为Internet上的云服务广泛使用。随着时间的流逝,主要的技术公司,例如Google,Microsoft和Tesla,已经转向使用专门针对运行和最近训练机器学习模型的专用。

这些自定义之一就是Google的Tensor处理单元(TPU),其最新版本加快了使用Google TensorFlow软件库构建的有用的机器学习模型可以从数据推断信息的速率,以及他们可以被训练。

这些不仅用于训练DeepMind和Google Brain的模型,还用于支持Google翻译和Google Photos中的图像识别的模型,以及允许公众使用Google的TensorFlow Research构建机器学习模型的服务。云。这些的第三代产品于2018年5月在Google的I / O会议上揭晓,此后被封装到称为Pod的机器学习引擎中,该引擎可以每秒执行超过10万亿次浮点运算(100 petaflops) 。这些正在进行的TPU升级使Google可以改善基于机器学习模型的服务,例如将训练Google Translate中使用的模型所需的时间减少一半。

机器学习的要素是什么?

如前所述,机器学习是AI的子集,通常分为两大类:有监督学习和无监督学习。

监督学习

教学AI系统的常用技术是通过使用大量带标签的示例对其进行培训。这些机器学习系统被馈入大量数据,这些数据已被注释以突出显示感兴趣的功能。这些照片可能贴有照片,以表明它们是否包含狗或带有脚注的书面句子,并带有脚注以表明“低音”一词与音乐还是鱼类有关。经过培训后,系统便可以将这些标签应用于新数据,例如应用于刚刚上传的照片中的狗。

通过示例教学机器的过程称为监督学习,并且标记这些示例的角色通常由在线工作人员执行,并通过Amazon Mechanical Turk之类的平台聘用。

训练这些系统通常需要大量的数据,有些系统需要搜寻数百万个示例来学习如何有效地执行任务-尽管在大数据和广泛的数据挖掘时代,这越来越有可能。训练数据集庞大且规模不断扩大 -Google的Open Images Dataset拥有大约900万张图像,而其带有标签的视频存储库 YouTube-8M链接了700万个带有标签的视频。 ImageNet是此类早期数据库之一,拥有超过1400万张分类图像。该书经过两年的编写,由将近50,000人(其中大部分是通过Amazon Mechanical Turk招募的)汇集在一起​​,他们检查,分类并标记了将近10亿张候选图片。

从长远来看,与庞大的计算能力相比,访问具有大量标记数据集的重要性可能不那么重要。

近年来,Generative Adversarial Networks(GAN)已用于机器学习系统,该系统仅需要少量标记数据以及大量未标记数据,顾名思义,这需要较少的手动工作来准备。

这种方法可以允许更多地使用半监督学习,与当今使用监督学习的培训系统相比,系统可以使用更少的标记数据来学习如何执行任务。

无监督学习

相反,无监督学习则使用另一种方法,即算法尝试识别数据中的模式,寻找可用于对数据进行分类的相似性。

一个例子可能是将重量相似的水果或引擎尺寸相似的汽车聚集在一起。

该算法并非预先设置为提取特定类型的数据,它只是查找可以根据其相似性进行分组的数据,例如Google新闻每天将相似主题的故事分组在一起。

强化学习

强化学习的一个粗略类比是,当宠物执行把戏时会给它一种奖励。在强化学习中,系统会尝试根据其输入数据最大化奖励,基本上要经过反复试验的过程,直到获得最佳结果。

强化学习的一个例子是Google DeepMind的Deep Q网络,该网络已被用于在各种经典视频游戏中实现最佳人类表现。该系统从每个游戏中获取像素,并确定各种信息,例如屏幕上对象之间的距离。

通过查看每个游戏中获得的分数,系统会建立一个模型,该模型的动作将在不同情况下最大化分数,例如,在视频游戏Breakout的情况下,应将球拍移至其中以拦截球。

该方法还用于机器人研究,其中强化学习可以帮助教授自主机器人在现实环境中表现的最佳方式。

人工智能领域的领先公司有哪些?

随着AI在现代软件和服务中扮演越来越重要的角色,每家主要的技术公司都在努力开发强大的机器学习技术,以供内部使用并通过云服务向公众出售。

尽管有可能是谷歌的DeepMind AI AlphaFold和AlphaGo系统对公众的AI意识产生了最大的影响,但每个人都经常成为头条新闻,以开创AI研究的新局面。

哪些AI服务可用?

所有主要的云平台(Amazon Web Services,Microsoft Azure和Google Cloud Platform)都提供对GPU阵列的访问权限,以训练和运行机器学习模型,而Google还准备让用户使用其Tensor处理单元 (其定制设计的定制)针对训练和运行机器学习模型进行了优化。

三大公司(基于云的数据存储)都提供了所有必需的相关基础架构和服务,能够存储训练机器学习模型所需的大量数据,转换数据以准备进行分析的服务以及可视化工具清楚地显示结果,以及简化模型构建的软件。

这些云平台甚至通过Google提供了一种自动创建AI模型的服务,称为Cloud AutoML,从而简化了自定义机器学习模型的创建。这项拖放服务可建立自定义的图像识别模型,并且要求用户不具备机器学习知识。

基于云的机器学习服务正在不断发展。亚马逊现在提供了许多AWS产品,旨在简化机器学习模型的培训流程,并且最近推出了Amazon SageMaker Clarify,该工具可帮助组织消除培训数据中的偏见和失衡,这些偏见和失衡可能导致受过训练的模型进行错误的预测。

对于那些不想构建自己的机器=学习模型,而是想使用AI驱动的按需服务(例如语音,视觉和语言识别)的公司,Microsoft Azure在服务的广泛性方面脱颖而出报价,紧随其后的是Google Cloud Platform,然后是AWS。与此同时,IBM除了更一般的按需产品之外,还试图出售针对特定领域的AI服务,涵盖从医疗保健到零售的所有领域,将这些产品组合到其IBM Watson旗下,并已投资20亿美元收购了Weather Channel解锁大量数据以增强其AI服务。

哪一家主要的科技公司在AI竞赛中获胜?

在内部,每个技术巨头(以及Facebook等其他公司)都使用AI来帮助推动各种公共服务:提供搜索结果,提供建议,识别照片中的人物和事物,按需翻译,发现垃圾邮件-列表很广。

但是这场AI战争最明显的表现之一就是虚拟助手的兴起,例如苹果的Siri,亚马逊的Alexa,谷歌助手和微软的Cortana。

严重依赖语音识别和自然语言处理,并且需要庞大的语料库来回答查询,因此开发这些助手需要大量技术。

但是,尽管苹果公司的Siri可能会首先出人意料,但谷歌和亚马逊的助手此后在AI领域已经超过了苹果公司-Google Assistant能够回答各种各样的查询,而亚马逊的Alexa则具有大量的“技能”由第三方开发人员创建以增加其功能。

随着时间的流逝,这些助手将变得越来越有能力,使他们变得更加敏感,并且能够更好地处理人们在常规对话中提出的问题类型。例如,Google助手现在提供了一项名为“继续对话”的功能,用户可以在其初始查询中询问后续问题,例如“今天的天气如何?”,然后是“明天的情况?”。并且系统了解后续问题也与天气有关。

这些助手和相关服务不仅可以处理语音,还可以使用Google Lens的最新版本来翻译图像中的文本,并允许您使用照片搜索衣服或家具。

尽管Cortana已内置在Windows 10中,但最近经历了一段特别艰难的时期,Amazon的Alexa现在可在Windows 10 PC上免费使用,而Microsoft 修改了Cortana在操作系统中的角色, 以更加专注于生产力任务,例如管理用户的计算机。排程,而不是在其他助手中找到更多以消费者为中心的功能,例如播放音乐。

哪些国家在AI领域处于领先地位?

认为科技巨头拥有AI领域是一个很大的错误。中国公司阿里巴巴,百度和联想正在从电子商务到自动驾驶等各个领域对AI进行大量投资。作为一个国家,中国正在执行三步走的计划,将人工智能变成该国的核心产业。到2020年底,该产业的 价值将达到1500亿元人民币(220亿美元),以 期成为世界领先的人工智能大国。到2030年。

百度已投资开发无人驾驶汽车,该技术由其深度学习算法百度自动脑(Ba​​idu AutoBrain)提供动力,并且经过数年的测试,其阿波罗(Apollo)无人驾驶汽车 在测试中的行驶里程超过了300万英里,全球27个城市的100,000多名乘客。

百度今年在北京启动了一支由40辆Apollo Go Robotaxis组成的车队,该公司的创始人预测自动驾驶汽车将在五年内在中国城市中普及。

诸如百度,阿里巴巴和腾讯等大型公司的弱势隐私法,巨额投资,一致的数据收集以及大数据分析的结合,意味着一些分析师认为,在未来的人工智能研究方面,中国将比更具优势。一位分析师表示,中国有可能超过领先500个,从而对中国有利。

我如何开始使用AI?

虽然您可以在PC上购买性能中等的Nvidia GPU(在Nvidia GeForce RTX 2060左右或更快速的地方)并开始训练机器学习模型,但是尝试与AI相关的服务的最简单方法可能是通过云。

所有主要的技术公司都提供各种AI服务,从用于构建和训练自己的机器学习模型的基础结构,到允许您按需访问语音,语言,视觉和情感识别等AI驱动工具的Web服务。 。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。
版权声明:本站若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。转载文章是出于传递更多信息之目的。
版权所有:阜新生活网 ·(2019-2021) .闽ICP备20009870号-2. 联系QQ:173 0547 905 .