热门下载(点击标题即可阅读)
?中国数据分析师行业峰会精彩PPT下载(共计21个文件)
选自scincmag
作者:MatthwHutson
机器之心编译
参与:乾树、刘晓坤
近日,《Scinc》自由撰稿人MatthwHutson在该期刊上发文,从婴儿学习、先验知识、因果推理和物理直觉的角度讨论了人工智能的当前现状,并以目前已被视为过时的基于规则的AI和当下最热门的基于机器学习的AI作为两个极端参考(人类智能处于过渡阶段),帮助人们思考人工智能的未来走向。
2月的某个周六上午,穿着条纹衬衫和紧身裤的3岁孩童Chlo,正在摆弄它的新玩具。她的爸爸,纽约大学的发展认知科学家GaryMarcus带回了一些粘连乐高积木的胶带。精通乐高的Chlo对此很感兴趣。
但她一直在向上搭。她可以借助胶带弄出别的花样吗?Marcus建议靠着桌边开始搭建。十分钟后,Chlo开始在墙上贴胶带。「我们最好在妈妈回来之前做完,」Marcus一本正经地说,「她会不高兴的。」(剧透:墙面漆会受影响)
其实Marcus暗暗地在做一个实验。Chlo会将她学到的知识应用到新的环境中去吗?过了几分钟,她就依墙搭建了一个乐高雕塑。「爸爸,我做到了!」她大叫着。Chlo正在展示关于适应性的常识,这是计算机科学家一直在努力复制的一种智能。Marcus认为,人工智能领域(AI)会从Chol搭积木这件事上学到一些经验。
机器学习研究员认为,基于海量数据训练的计算机可以学习任何东西,包括常识,而常识几乎没有任何编程规则。这些专家在我看来「有一个盲点,」Marcus说,「这是一种社会学的东西,通常与物理学中的简单性原则相悖。」
他说,计算机科学家忽视了认知科学和发展心理学数十年来的研究,即人类有种本能:在出生时或儿童早期出现的直觉编程能力,这帮助我们像Chlo一样抽象并灵活地思考。
然而,许多计算机科学家都在急切地探索简单的人工智能的极限,即便他们在机器学习领域取得不少成就。「我认为,大多数机器学习研究员对于投入大量背景知识的做法持有偏见,因为从某种意义上说,我们认为这是一种失败,」科瓦利斯俄勒冈州大学的计算机科学家ThomasDittrich说。
他补充道,计算机科学家也很喜欢简单,并且厌恶调试复杂的代码。麻省理工学院(MIT)的心理学家JoshTnnbaum说,像Facbook和Googl这样的大公司是促使人工智能向这个方向发展的另一个因素。这些公司最关心的是狭义定义的近期问题,例如网络搜索和人脸识别,一个「小白」AI系统可以在大量数据集上进行训练并且成效显著。
但从长远来看,计算机科学家期望人工智能将承担更多更棘手的任务,这需要灵活性和常识。他们想创造解说新闻的语音机器人,可以解决城市交通拥堵的自动驾驶出租车,以及护理老年人的机器人。「如果我们想要创造一个像C-3PO一样与人类世界进行交互的机器人,」Tnnbaum说,「我们将需要在更通用的环境中解决所有这些问题。」
一些计算机科学家已经在尝试。今年2月,麻省理工学院希望用工程术语来理解人类智能,并启动了IntlligncQust研究计划,现已筹集数亿美元。研究员希望这些工作将AI发展到纯机器学习和纯本能之间的领域。它们会按照一些嵌入式规则启动,但在之后开始学习。Tnnbaum说,「从某种意义上说,这就像古老的先天或后天争论,现在已经转化为工程术语。」
这项工作包括发现婴儿知道什么时候学到了什么,这是可以应用到机器学习上的经验。华盛顿西雅图艾伦人工智能研究所(AI2)首席执行官OrnEtzioni说,这需要很长时间。AI2最近宣布斥资1.25亿美元来开发和测试AI的常识。Etzioni说:「我们希望AI建立在人脑天生的表示结构上,但我们不了解大脑如何处理语言、推理过程和知识。」
不同的思维
随着时间的推移,人工智能(AI)已经从依赖编程规则和逻辑的算法转向机器学习,机器学习的算法仅包含少量规则并提取训练数据反复训练来学习。人的思维处在中间位置。
最后,Tnnbaum说:「我们正在认真对待人工智能最古老的梦想之一:你可以制造一台像人类一样发展智能的机器,从一个婴儿开始,像孩子一样学习。」
在过去几年里,AI实现了翻译、诊断癌症并在扑克比赛中击败人类。但是对于每一场胜利,都存在一些愚蠢的错误。图像识别算法现在可以比人类更准地区分狗的品种,但有时它会把吉娃娃误认为是蓝莓松饼。人工智能可以用超人的技巧来玩经典的雅达利游戏,比如太空侵略者,但是当你仅留下一个外星人时,AI就会莫名其妙地挂掉。
机器学习应该对这些成功和失败负责。从广义上说,人工智能已经从依赖许多编程规则(也称为良好的老式AI或GOFAI)的软件转移到通过反复训练学习的系统。由于计算机硬件、大数据和神经网络算法的发展,机器学习取得了飞跃。
这些网络其实是通过简单的计算单元来模拟大脑中的神经元,在提取训练数据时创建更强或更弱的连接。
凭借Alpha,Googl的DpMind将深度学习推向了顶峰。每次去掉规则后,Alpha似乎都会有所提升。年,AlphaGo击败了的人类围棋冠*。年,编程规则更少的AlphaGoZro轻松击败AlphaGo。几个月后,一个更简单的称为AlphaZro的系统击败了AlphaGoZro,并且还掌握了国际象棋。
年,基于规则的经典AI,即IBM的DpBlu击败了国际象棋冠*GarryKasparov。但事实证明,真正的国际象棋精湛技术不能根据规则得到,而是通过经验推理出的最佳走位。所以通过反复学习的AlphaZro可以击败DpBlu,以及当今最好的国际象棋程序和每个人类冠*。
然而像Alpha这样的系统显然不能学习常识。要在21x21而不是19x19的棋盘上下围棋,AI必须重新学习。在20世纪90年代后期,Marcus训练了一个接收输入数字并将其输出的网络,这是可想象的最简单的任务。
但他只用偶数来训练它。当用奇数进行测试时,网络崩溃了。它不能将学习从一个领域应用到另一个领域,就像Chlo开始将她的乐高横向建造时那样。答案不在于基于规则的GOFAI。
根据显式的规则,例如「如果腿数=4,尾巴=真,尺寸猫」,一个孩子识别不出一条狗。识别更加细致,三条腿的吉娃娃不会活过3岁。人类不是一张白板,也不是硬连线的。相反,有证据表明我们有倾向性,帮助我们学习知识并进行推理。我们并没有遗传到一个技能包,只是靠着本能去学习。
哈佛大学心理学家ElizabthSplk认为,我们至少有四种「核心知识」系统,使我们在理解对象、行为、数量和空间方面领先一步。例如,我们是天生的物理学家,能够快速理解物体及其相互作用。有研究表明,出生3天的婴儿会将部分隐藏的棒的两端看做同一实体,这表明我们的大脑可能倾向于感知一致性物体。
我们也是天生的心理学家。在年的一项科学研究中,Splk实验室的研究生ShariLiu发现,10个月大的婴儿可以推断出,当一个动画角色爬上一个更大的山丘形成一个形状而非另一个时,角色必须更倾向前者。Marcus证明了7个月大的婴儿可以学习规则。
当听到不同于以往的三词短句(「gatiga」)的(「woff」)时,它们表现出惊喜。后来的研究表明,新生儿表现出类似的行为。
婴儿的本能可以帮助我们学习常识,迄今为止人工智能算法对此难以捉摸。
Marcus给出了他认为应该融入AI的10种人类本能的最低清单,其中包括因果关系,成本效益分析和类别vs实例(狗vs我的狗)的概念。去年10月在纽约大学,他在AI是否需要「更人性化」的辩论中宣布他的清单,纽约大学计算机科学家、Facbook首席人工智能科学家YannLCun也参加了此次辩论。
为了证明本能的重要性,Marcus展示了一张羊羔下山的的幻灯片。他说,「他们不会进行百万次试验性学习,如果它们犯错,这会是一个问题。「LCun不同意多数发展心理学家的观点,认为婴儿可能会在几天内学会这种能力,如果是的话,机器学习算法也可能会这样。
他的坚持来自经验。他从事图像识别工作,并于20世纪80年代开始提出手动编码算法识别图片中的特征不再是必需的。三十年后,他被证明是正确的。批评者问他:「你既然可以编写出来,为什么还要去学会它?」他的回答是:编写很难,如果你不完全明白事情是如何运作的,那么你设计的规则可能是错误的。
但Marcus指出,LCun自己将10个关键本能之一嵌入到他的图像识别算法中:平移不变性,无论物体出现在视野中的哪个位置都能被识别出来。
平移不变性是卷积神经网络的特性,或者说它是LCun成名的理论。在过去的5年里,它们已经成为图像识别和其他AI应用的核心,并引发了当前深度学习的热潮。
LCun告诉Scinc,平移不变也可以通过更好的通用学习机制习得。他说,「很多这些特性会因为了解这个世界如何运作而自发地出现。」加拿大多伦多大学深度学习的先驱GoffryHinton对此表示赞同。
Hinton说:「大多数相信本能知识的人有一种毫无根据的观点,即从头开始学习数十亿参数很困难。但我认为深度学习最近的进展表明它实际上非常容易。」
关于将人工智能置于纯学习与纯本能之间的争论将继续。但是这个问题掩盖了一个更实际的问题:如何设计和编码这种混合机器。尚不清楚如何将机器学习及数十亿个神经网络参数与规则和逻辑结合起来。
也不清楚如何确定最重要的本能并灵活编码它们。但是这并没有阻止一些研究员和公司去尝试。
位于澳大利亚悉尼的新南威尔士大学的机器人实验室装修整洁,看起来像客厅和厨房,冰箱里装满了JamsBoag的啤酒。计算机科学家MichalThilschr解释说,该实验室是国内机器人的测试平台。他的团队试图赋予丰田护理机器人(HSR)两种人性化的能力。该机器人有一条机械臂和一个脸部屏幕。
首先,他们希望对HSR进行编程,将大问题分解为更小、更简单的问题,就像一个人将解决方案分成几个步骤一样。其次,他们想让机器人像人类一样能够理解信念和目标。如果一个人要求它拿起一个红色杯子,但是只看到一个蓝色杯子和一个红色碟子,HSR会如何回应?
到目前为止,他们的软件显示出一些人性化的能力,包括选择蓝杯而不是红盘。但是更多的规则被编入系统,这远多于Thilschr想要的。他的团队不得不告诉他们的AI,杯子通常比红色更重要。理想情况下,机器人将具有社交能力,可以快速学习人类的偏好。
其它的研究员正在努力为他们的人工智能注入像婴儿一样的天生的直觉。伦敦的DpMind的计算机科学家开发了称为交互网络的东西。它们加入了一个对物理世界的假设:离散对象普遍存在并且具有不同的相互作用。
如同婴儿可以很快将世界分解为交互的实体,这些系统很容易学习对象的属性和关系。他们的结果表明,交互网络可以比一般的神经网络更准确地预测绳子下落和球在框中弹跳的行为。
机器学习的胜利,年AlphaGo击败围棋冠*柯杰。
Vicarious是位于加利福尼亚州旧金山的一家机器人软件公司,该公司结合所谓的模式网络(schmantwork)将人工智能推向巅峰。这些系统也假设对象和交互的存在,但也试图推断连接它们的因果关系。通过大量的学习,该公司的软件可以像人类一样根据预期的结果制定计划。(我不想让我的鼻子痒,抓它可能会有帮助。)
研究人员将他们的方法与最先进的神经网络在Atari游戏Brakout中进行了比较,玩家通过一块板来转移球并敲出砖块。因为模式网络可以了解因果关系(例如,无论速度如何,球碰到砖头都会敲掉砖块这一事实)当游戏发生变化时,也不需要额外的训练。
你也可以移动目标砖块或让玩家拨动三个球,但是模式网络仍然在游戏中占上风。其它网络挂掉了。
除了我们天生的能力之外,人类也从大多数AI没有的东西中受益:身体。为了帮助软件认知世界,Vicarious将软件嵌入到智能体中,因此它可以探索虚拟环境,就像婴儿可能会通过倾倒一组积木块来学习重力一样。今年2月,Vicarious提出了一个系统,通过一个微小的虚拟角色穿越地形来寻找2D场景中的有界区域。
正如它探索的那样,该系统学习了遏制的概念,它比标准的被动学习场景的图像识别卷积网络能够更快地理解新的场景。概念(普适的知识)对常识至关重要。
「在机器人学中,机器人能够推断新情况是非常重要的,」Vicarious的联合创始人DilpGorg说。今年晚些时候,该公司将在仓库和工厂进行试点测试,帮助机器人在打包运输前提取、组装并标注物体。
最具挑战性的任务之一是如何灵活编码本能,以便AI可以应对一个并不总是遵循规则的混乱世界。例如,自动驾驶汽车不能指望其他司机遵守交通法规。为了应对这种不可预测性,加州斯坦福大学的心理学家和计算机科学家NoahGoodman帮助开发了概率编程语言(PPL)。
PPL将计算机代码的严密结构与概率论结合起来,类似人类逻辑的方式,但同时也考虑到了不确定性:
如果草地潮湿,可能会下雨,但也许有人打开了洒水装置。重要的是,PPL可以与深度学习网络相结合,以融入拓展学习。
在Ubr工作的时候,Goodman和其他人发明了这种称为Pyro的「深度PPL」。该出行公司正在探索Pyro的用途,例如调派司机以及在道路施工和比赛日期间自适应规划路线。Goodman说,PPL不仅可以推理物理状态和物流,还可以推断人们交流及应对棘手问题的表达形式,如夸张、讽刺。
Chlo可能在十几岁之前都不会讽刺,但她对语言的天生诀窍已经很了解了。在Marcus的公寓里,她拿出一对卡住的乐高积木。「爸爸,你能帮我解开这个吗?」她的父亲没有帮她改正创造的义务。词汇和想法就像乐高积木,各部件很容易混搭,并且在世界范围受到热切的尝试。
在Chlo厌倦在墙上搭积木之后,一个年龄稍长、经验稍稍丰富的智能系统有机会尝试它:她5岁的哥哥Alxandr,很快搭建了一个更高大的乐高建筑。
「他做的很好,」Marcus如此说。「他没有进行一千万次乐高粘连试验来评估建筑的完整性,他正在采取他所知道的有关物理学的知识,并做出一些推论。」
Marcus显然很骄傲,不仅对他的子女的能力,而且对他们论证了关于我们如何了解这个世界的理论,以及AI如何学习。搭完乐高后,Chlo和Alxandr跳进他们父亲的怀抱。当他转起来时,他们高兴地尖叫起来,这为他们提供了另一个机会来调整他们对物理学的直观感官,以及乐趣。
原文链接: