人工智能“双刃剑”:惊喜与危险的并存
撰文:克里斯·巴拉纽克(Chris Baraniuk)
翻译:任天
利用人工智能的算法正在实验以意想不到的能力来办理问题,这让它们的开拓者感想惊奇。但与此同时,这也激发了人们对如何节制人工智能的担心。
谷歌公司的一群员工正茫然地盯着本身的电脑屏幕。几个月来,他们一直在完善一个算法,用来节制一个无人热气球从波多黎各一直飞到秘鲁。但照旧有些处所不尽如人意,气球在呆板智能的节制下不绝偏离既定蹊径。
Loon项目(Project Loon)是谷歌公司此刻已经遏制的一个项目,它原本的方针旨在通过气球将互联网接入偏远地域。作为该项目标认真人,塞尔瓦托·坎迪多无法表明这个气球的轨迹。最后,他的同事们手动节制了系统,让气球回到了正轨。
厥后他们才意识到产生了什么。令人意想不到的是,气球上的人工智能学会了重现人类在几百年,甚至几千年前发现的陈腐帆海技能,譬喻“改变航向”,这指的是哄骗船只迎风飞行,然后再向外倾斜,从而在大抵偏向上以之字形前进。
在倒霉的天气条件下,自主航行的气球已经学会了完全靠本身来改变航向。它们自发地完成了这一进程,让所有人都感想震惊,尤其是参加这个项目标研究人员。
“当第一个被答允完全执行这种技能的气球缔造了从波多黎各到秘鲁的航行时间记录时,我们顿时意识到本身被打败了,”坎迪多在一篇关于该项目标博客文章中写道,“我从来没有像这样,同时感想本身既智慧又愚蠢。”
富有缔造力的人工智能
当人工智能在设备中被放任自流时,很大概就会产生这样的工作。与传统的计较机措施差异,人工智能的设计目标就是摸索和开拓新的要领,以完成人类工程师没有明晰汇报它们的任务。
然而,在进修如何完成这些任务的同时,人工智能有时会想出一种极富缔造力的要领,甚至会让一直利用这种系统的人大吃一惊。这大概是一件功德,但同时也大概使人工智能节制的一切变得不行预测,甚至大概带来危险。譬喻,呆板人和自动驾驶汽车最终大概做出将人类置于危险田地的抉择。
人工智能系统怎么大概“智胜”它的人类主人呢?我们可否以某种方法约束呆板智能,以确保不致某些不行预见的劫难?
在人工智能研究界,有一个关于人工智能缔造力的例子好像被引用得最多。真正让人们对人工智能的本领感想欢快的时刻,是DeepMind的人工智能呆板进修系统AlphaGo如何把握围棋这一陈腐的游戏,然后击败了世界上最优秀的人类棋手之一。DeepMind是一家创建于2010年的人工智能公司,在2014年被谷歌收购。
事实证明,它们可以用一些以往从未有人用过——可能至少许多人不知道——的新计策或新能力,来搪塞人类棋手。
然而,纵然是这样一场纯真的围棋游戏,也会引起人们差异的感觉。一方面,DeepMind孤高地描写了其系统AlphaGo的“创新”之处,并展现了围棋,这一人类已经玩了数千年的游戏的新玩法。另一方面,一些人质疑如此有缔造性的人工智能有朝一日是否会对人类组成严重威胁。
在AlphaGo取得汗青性胜利后,澳大利亚西悉尼大学的呆板进修、电子学和神经科学研究者乔纳森?塔普森写道:“认为我们可以或许预测或打点人工智能最坏的行为是很好笑的,我们实际上无法想象它们大概的行为。”
我们需要记着的重要一点是,人工智能并不真正像人类那样思考。它们的神经网络确实是受到了动物大脑的开导,但更确切地说,它们是所谓的“摸索设备”。当它们试图办理一个任务或问题时,并不会带有许多(假如有的话)对更辽阔世界的先入之见。它们只是实验——有时是数百万次——去找到一个办理方案。
我们人类有许多思想上的肩负,我们会思量法则,人工智能系统甚至不领略法则,因此它们可以随意地拨弄事物。
在这种环境下,人工智能可以被描写为具有“学者症候群”的硅等量物。所谓学者症候群,凡是是指一小我私家有严重的精力障碍,但却在某种艺术或学术上拥有不凡的本领,其天赋凡是与影象有关。
不绝带给我们诧异
人工智能让我们感想诧异的方法之一,是它们可以或许利用沟通的根基系统来办理基础差异的问题。最近,一款呆板进修东西就被要求执行一项很是差异的成果:下国际象棋。
该系统被称为“GPT-2”,由非营利的人工智能研究组织OpenAI开拓。GPT-2操作数以百万计的在线新闻文章和网页信息举办练习,可以按照句子中前面的单词预测下一个单词。开拓者肖恩·普莱瑟认为,国际象棋的走法可以用字母和数字的组合来暗示,因此假如按照国际象棋角逐的记录来练习算法,这一东西就可以通过计较抱负的走法序列来进修如何下棋。