AI研究员说不道德的机器人对人类的危险

伦斯勒教授希望机器人能够明白善恶

随着机器人日益强大化,智能化和自主性,伦斯勒理工学院的科学家是时候开始确保他们知道善恶之间的区别说。

"I'm worried about both whether it's people making machines do evil things or the machines doing evil things on their own," said Selmer Bringsjord, professor of cognitive science, computer science and logic and philosophy at RPI in Troy, N.Y. "The more powerful the robot is, the higher the stakes are. If robots in the future have autonomy..., that's a recipe for disaster.

“如果我们完全忽略了这一点,我们将不复存在,”他补充说。

Bringsjord一直在研究人工智能,或AI,因为他是在1985年毕业的学生,​​他一直工作手牵手与机器人在过去的17年。现在,他想弄清楚他怎么可以编码道德成机器。

这种努力,在许多方面,是一项艰巨的任务。

机器人现在才开始自主行动。一个DARPA机器人挑战赛去年年底表现出到底有多少人控制的机器人 - 尤其是人形机器人 - 仍然需要。同样是与真正的武器化的自主机器人,其中美国军方曾表示,对于大需要人类控制器和潜在的致命性,决定。

但在10年或者20年会发生什么,当机器人已经成倍先进,家庭是人类的助手和护理人员正在努力?当机器人会发生什么完全在军事工作或执法,或者有一个国家的导弹防御系统的控制权?

这将是至关重要的,这些机器知道一个很好的作用,一个是有害或致命的区别。

Bringsjord说,这可能是不可能给一个机器人如何在每次遇到,因为有太多的变数的情况采取行动正确的答案。复杂的问题是谁最终会决定什么是对和错的世界,带灰色那么多阴影的问题。

使机器人有好有坏的感觉可能会回落到基本原则。正如作家,教授和富有远见的艾萨克·阿西莫夫书面机器人的三定律指出,机器人必须至少有三个基本规则进行编码。

  1. 不要伤害人类,或袖手旁观,允许一个人受到伤害。
  2. 机器人必须服从命令人给它,除非那些订单会导致人体受到伤害。
  3. 只要它不与前两项法律冲突机器人必须保护自己的存在。

“我们不得不对伦理学理论都认为我们会立足于任何规则,” Bringsjord说。“我担心,我们没有预料这些简单的道德决策,人类必须每天处理的。我担心的是,有关于预计这些决定没有工作。我们只是随着技术的发展走在前面,而不考虑伦理推理。”

随着机器人变得越来越强大,自主的,RPI塞尔默·布林斯乔德教授说,他们知道善恶是非常重要的。这些自主机器人是在本宁堡最近的一次演示的一部分,佐治亚州(美国陆军正在研究机器人如何帮助战场上的士兵)。

即使这些需求预期,对与错的任何规则都必须内置于机器的操作系统,因此将是一个用户或黑客更难以在骑上它们,并把机器人生病的使用。

马克·邦杰,在勒克斯研究研究主管,说认为,如果没有道德感的机器人可能会造成很多的麻烦是不是疯了。

“这是一个很不成熟的领域,”邦杰说。“道德的全部领域花费了大量的时间在难题中,有所取舍。你保存你的母亲或一个溺水的女孩吗?有几百年的理念看待这些问题....我们甚至不知道如何做到这一点。有没有办法在操作系统这样做呢?即使让机器人来了解他们在,更何况做这件事的决定的情况下,是非常困难的。我们如何给机器人的理解关于它在做什么?”

丹奥兹与Gabriel咨询集团的分析师指出,机器人将是最有用的给我们时,他们可以对自己的行为。然而,更多的自治他们,他们就越需要有一整套的规则来指导自己的行动。

问题的部分原因是,机器人没有几乎一样多的思想正在给他们的指导原则推进。

“我们希望能够在自己行事的机器人,”奥兹说。“由于机器人成为我们日常生活的一部分,他们将有足够的机会,粉碎和切碎我们。这听起来似乎有些遥远未来的事件,但因为有些人可能认为这不是遥远。

“我们不能建立一个婴儿的机器,让它成长起来的人文环境,因此它可以学习像人类的孩子会学习,” Bringsjord说。“我们必须搞清楚伦理,然后弄清楚如何把道德变成逻辑数学术语。”

他还指出,机器人必须能够做出什么,他们应该和不应该做的决定 - 并迅速做出这些决定。

Bringsjord指出,“你不想要一个机器人,从来不洗织补菜,因为它站在那里想,如果有要做出一个道德的决定。”

莎伦·戈丹覆盖互联网和Web 2.0,新兴技术,以及台式机和笔记本电脑芯片的计算机世界。按照沙龙在Twitter @sgaudin,上Google+的或订阅沙龙的RSS提要。她的电子邮件地址是sgaudin@computerworld.com。

这个故事,“AI研究人员说,不道德的机器人对人类的危险”最初发表计算机世界

加入对网络世界的社足球竞猜app软件区Facebook的LinkedIn对那些顶级心态的话题发表评论。

版权所有©2014足球竞彩网下载

IT薪资调查:结果是