财富中文网 >> 商业

谷歌发现,机器人可以变得很暴力

分享: [双语阅读]

谷歌旗下DeepMind团队已经开发出横扫人类的围棋软件,现在正着力研究机器人之间的合作问题。

 

技术人员仍然在努力完善人工智能和自动化技术,让它们可以在复杂世界完成一两个简单的任务,例如驾驶或测谎。但我们很容易设想在未来,许多机器人可以互相合作,解决更大的问题。在最近的试验中,Alphabet Inc的DeepMind团队就开始着手搞清学习机器如何合作——以及实际情况显示的,为何经常不合作。

这个团队设计了两个简单的游戏,重复运行了它们几千次,让控制游戏的程序学习最有效的游戏策略。在某个游戏中,两个人工智能要相互竞争,收集最多的资源(绿色“苹果”),它们也可以选择使用视频下方的黄色光速射击对手。

他们的发现,使得人们对于由人工智能驱动的不久未来,产生了一些担忧。正如团队在博文中所言,苹果收集游戏中的人工智能会在资源丰富时和平共存。不过如果苹果数量不够,它们就会迅速开始射击对方来取得优势。

更令人关注的是,无论周围有多少资源,“有能力采用更复杂战术的人工智能,都会更频繁地攻击对手,也就是表现得更不具合作性。”换句话说,人工智能为了达成目标,会毫不犹豫地妨害对手——以此类推,对于阻碍的人类也可能采取类似手段。

不过在另一个游戏里,这些程序有了更多的合作理由。如果人工智能“收集资源”所得的奖励是共享的,那么它们就会设法合作——实际上也会表现得更加聪明。

这些试验的推论值得密切关注。研究人员把这些的高度理性的人工智能机器人比作“经济人”(homo economicus)——一种完全以自身利益最大化为目的的假想人类,这也是20世纪经济学中存有瑕疵却很关键的假设之一。然而现实世界里,人类不是完全理性的。因此,对于研究人员声称他们的游戏设定能帮助我们理解经济、交通等人类系统,也有人提出怀疑。

未来的机器人本身,注定要成为追求利益最大化的纯粹存在。而在人们设计能够学习和进化的人工智能时,甚至可以采用取代最狭隘的命令,如艾萨克·阿西莫夫的“机器人三定律”的行为准则。这其中当然存在着挑战,不过DeepMind竞争算法导致的不平衡行为表明,在程序员至少还需要给机器人赋予某种形式的同情心。(财富中文网)

作者:David Z. Morris

译者:严匡正

阅读全文

相关阅读:

  1. 错用谷歌服务,12岁男孩欠下巨额费用
  2. 谷歌用算法拯救视力
  3. 专访谷歌顶级科学家:人工智能离普及还有多远?
返回顶部