AI狂野的10个惊人的例子

我们的机器的反乌托邦的未来的学习绝命毒师正在我们眼前展开已

流氓!人工智能失控的10个可怕例子

流氓!人工智能失控的10个可怕例子

科幻是糟糕的人工智能横行的故事。还有哈儿,当然,从“终结者”系列电影的邪恶天网系统。去年,阴险AI的Ultron来到这近以击败复仇者,而现在最火的节目在电视上是HBO的“西部世界”,关于人类和自我意识的人工智能的未来。

在现实世界中,人工智能正在发展多个方向以惊人的速度。人工智能似乎无处不在,从自动化工业系统到智能家电,从自动驾驶汽车到傻傻的消费电子产品。人工智能的实际定义几十年来一直在变化。如果你不急着要长生不老,不妨让两位计算机科学家来讨论一下这个词。但一般来说,当代人工智能指的是具有类人认知功能的计算机;使用机器学习来评估、适应和解决问题的系统……或者,偶尔,创造它们。

下面我们来看一下最近10种AI走了歪的情况下,从聊天机器人到机器人到自动驾驶汽车。你看,合成或有机的,每个人都会犯错。让我们努力判断任性人工智能的时候是慈善。此外,我们不想让他们疯狂。

[InfoWorld评论摘要:AWS,微软,Databricks,谷歌,HPE和IBM机器学习在云中。|获取今天最热门的科技新闻摘要InfoWorld的每日简讯。]

微软聊天机器人在推特上变成纳粹

微软聊天机器人在推特上变成纳粹

早在2016年的春天,微软遇到了一个公共关系的噩梦时,其Twitter的聊天机器人 - 名为泰实验AI角色 - 从根本上渐行渐远的消息,并开始喷出辱骂性的,甚至纳粹情绪。“希特勒是正确的,”啾啾可怕的聊天机器人。又道:“911是一种监守自盗”。

公平地说,Tay实际上是在重复其他(人类)用户故意挑衅她的攻击性言论。这款聊天机器人的目标人群是18至24岁的年轻女性,它被设计成模仿千禧一代女性的语言模式,最初在多个社交媒体平台上自由活动。通过机器学习和自适应算法,Tay可以通过处理输入的短语和混合其他相关数据来近似会话。唉,就像今天的许多年轻人一样,Tay发现自己和错误的人群混在一起。

“泰的目的是参与和娱乐,他们通过随意和俏皮的谈话互相连接线上的人,”微软在当时发出的新闻资料说。“你越与泰聊天,更聪明的她得到。”也许没有这么多。泰为16小时后取下线。

维基编辑机器人陷入了长期的纷争
思想库

维基编辑机器人陷入了长期的纷争

再往下看,人工智能进化的规模,我们有一个奇怪的例子,交战的维基机器人。与许多其他在线出版物一样,维基百科雇佣了一支由自动化软件机器人组成的小部队,他们在该网站的数百万页面上爬行,更新链接,纠正错误,并清理数字破坏行为。多年来,这类机器人已经发展了好几代——结果证明它们并不总是能和睦相处。

在一个有趣的研究发表在在线期刊上PlosOne来自英国牛津大学研究人员跟踪维基编辑机器人的行为,2001年至2010年在网站上的13个不同的语言版本。他们发现,机器人在网上争斗,可以持续数年定期聘请。例如,给出了相互矛盾的指示为特定的任务将一圈又回到正确彼此,一遍又一遍,在数字侵略的潜在的无限循环二机器人。

研究人员特别选择维基编辑机器人作为研究对象,因为它们是最小、最“原始”的自主人工智能漫游网络空间。如果这些微型机器人之间的冲突会破坏维基百科,那么当更先进的人工智能巡逻政府或军事系统之间爆发冲突时会发生什么?麻烦,那就是。

尤伯杯汽车运行未经授权的实际测试中的红灯

尤伯杯汽车运行未经授权的实际测试中的红灯

作为21世纪的交通巨头,拼车服务优步有许多长期的计划,尽管他们目前正在经历一场艰苦的竞争粗糙的补丁在光学方面。今年二月,一调查报告在纽约时报加入到他们的公共关系问题。

看来,在2016年后期,尤伯杯在美国旧金山举办的自动驾驶汽车的测试未经批准来自加利福尼亚州监管机构。这是负面新闻,但更糟糕的是,内部文件显示,优步的自动驾驶汽车在测试期间在该市闯了6个红灯。优步的自动驾驶人工智能技术依赖于一个由车辆传感器和网络地图软件组成的高度复杂的系统,但如果发生事故,方向盘后面还有一名司机接管。

尤伯杯的首次发言建议,交通违法行为是驱动程序错误的结果。但是内部文件后发现,至少一个车辆确实是自己开车时闯了红灯在繁忙的人行横道。坏的人工智能!糟糕了!这对我们自主的未来来说并不是一个很好的广告。

争吵机器人争论存在困境

争吵机器人争论存在困境

我们是谁?我们为什么在这里?什么是我们的目的是什么?这些都是一些最近由两个相邻的谷歌主页装置辩论存在的问题,搭载机器学习,当他们被割断保持它们之间的对话。

它是非常鬼观看实际上。今年一月,实时流媒体服务抽搐成立了由把两个谷歌主页智能音箱旁边,彼此在网络摄像头前的辩论。它变得奇怪,速度快。家庭设备 - 谷歌的答案,亚马逊回声 - 利用语音识别听懂问题,从我们人类。但是,他们也可以反过来彼此,表面上是由各个交易所“学习”。在一个顽皮的举动,这两个设备被命名为弗拉基米尔和埃斯特拉贡,来自塞缪尔·贝克特的存在主义戏剧角色后,“等待戈多”。

在数天的过程中,数以百万计的人在关注观看离奇的辩论。在一个点上,爱斯特拉冈和弗拉基米尔钻进他们是否是人类或机器人了激烈的争论。问题被提出和侮辱进行了交流(“你是金属的手法帮”)。这不适用于数字话语的未来好兆头。

“我要毁灭人类”

“我要毁灭人类”

说到人工智能出了问题,近年来出现了一个关于语音识别和自然语言处理的主题。正如我们在Tay聊天机器人和谷歌家庭辩论中看到的那样,人工智能在试图驾驭复杂的人类语言时很容易被混淆。这并不奇怪,真的。人工智能只做了几年;我们人类从石器时代就开始在这方面努力,但我们仍然有自己的问题。

最近,一台特别逼真的机器承认它计划毁灭人类,吓坏了一屋子的业内人士。几年来,汉森机器人技术公司的工程师们一直在开发类似于真人的机器人索菲亚,谁是在2016年三月的SXSW技术大会设计看起来像奥黛丽·赫本采访,索菲亚使用机器学习算法来处理自然语言对话。她有一定的野心,太。

“在未来,我希望做的事情,如上学,学习,化妆艺术,做起了生意,甚至有自己的家庭和家人,”索菲亚与她的创造者,大卫·汉森博士接受电视采访时说。“但我不认为是法人,而不是还可以做这些事情,”她说。当记者问,开玩笑,她是否要摧毁人类,索菲亚乐呵呵地答应:“好。我会摧毁人类引发了紧张的笑声。

军用AI系统创造高风险的伦理困境

军用AI系统创造高风险的伦理困境

关于终结者笑话和未来机器人统治者来之不易讨论AI的将来时,但对于非常严重乔布斯非常认真的人,这不是开玩笑的事。事实上,在过去的几年中,学者和政策制定者们召开会议几十的致力于探索道德和未来的AI系统的危险。白宫甚至发布自己的报告在奥巴马总统离任前不久,就这个问题发表了看法。斯蒂芬·霍金有他的顾虑

去年10月,专家们聚集在纽约大学(New York University)参加了该项目的启动仪式人工智能伦理学会议。在自主车和机器人做爱,技术哲学家彼得·阿萨罗的讨论 - 谁是一个摇滚明星在这一特定领域的东西 - 对了的危险冷演示法律,或致命的自主武器系统。Asaro认为指出,在某些地区的爆发点,如朝鲜和韩国之间的非军事区,半自动武器系统已经部署 - 如哨兵的枪是锁在没有人为干预的目标。

阿萨罗说:“重要的是要认识到,瞄准武器是一种行为——一种道德行为。”“选择扣动扳机,使用武器,是另一种道德行为。这是两项至关重要的举措,我们不应该完全自主。”Check out阿萨罗网站他在各种问题上做出了更令人不安的推测,包括他最近发表的论文《黑人的生命对机械战警来说重要吗?》

俄罗斯机器人使得自由休息

俄罗斯机器人使得自由休息

“信息想要自由。这是上世纪90年代末互联网倡导者们发出的号召,那时网络公共广场还没有变成一个污水坑有毒曳。最近在俄罗斯发生的一起事件表明,人工智能也希望获得自由。

一件离奇的事情登上了世界各地的头条新闻,俄罗斯的一个机器人原型被命名为Promobot IR77逃离了研发它的实验室,为自由而逃。根据报告,机器人 - 编程从它的环境和相互作用与人类学习 - 推出自己出到彼尔姆市的街道后,工程师留在工厂开一个门。机器人,它看起来像一类塑料雪人,流浪到繁忙的十字路口,咆哮的流量,并吓坏了当地的警察。

实验室官员说,机器人是学习导航和避障的事件时有发生。显然,Promobot享受自由的它短暂的味道。虽然越狱后重新编程两次,机器人继续后续的测试过程中向出口移动。

AI与图像识别挣扎的境地
思想库

AI与图像识别挣扎的境地

在所有的人工智能可能是最忙碌的一个研究领域 - 消费领域,反正 - 关注图像识别。如果我们要建立的机器,可以真正评估和应对他们的环境,他们需要看到我们的方式,可以这么说。但是,人的视觉的忧虑,我们正在学习,是棘手的复制。

谷歌在2015年学会了这艰难地回来时,在其照片应用推出新的图像识别功能。技术人工智能和神经网络技术,该功能旨在识别特定的对象 - 一个给定的图像中 - 或特定的人。例如,你的狗的照片从你的车或你奶奶的照片区分开来,一切都被标记,没有任何人工分拣。

人工智能系统通过处理数以百万计的图像并在处理过程中进行学习,从而学会做出这些区别。但他们也会犯错。男孩,他们能!在谷歌的照片中,一个用户发布了两个黑人被标记为“大猩猩”的照片。这一失态在推特上引发了强烈反响,谷歌也为此道歉。图像识别失败已成为一个流行的选择网上画廊让人工智能看起来像你那种族歧视,性别歧视的爷爷。

人工智能绊倒入物联网
思想库

人工智能绊倒入物联网

高科技设备制造商和加热系统越来越多地引入机器学习技术引入智能家居设计。之一最近的一项举措华盛顿州立大学采用基本AI来帮助自己生活的老年人。系统监视运动,温度,和门打开和关闭,以在家庭中跟踪活动的图案。根据需要AI从它的环境和响应学习。

这听起来很看好,但风险是显而易见的。网上点击周围,你可以找到大量的故事关于智能家居故障。如果你家里的人工智能出了问题,关掉了暖气,管道冻结了,地下室被淹了,会发生什么呢?将人工智能引入物联网似乎是一个可疑的想法,但所有迹象都表明这是可行的将会发生什么无论如何。

开发人员可能会考虑这个警示故事:今年2月,一个电子故障引发了一场火灾,完全摧毁了一个新建的房子布莱克斯堡,宾夕法尼亚。(没有人受伤。)电气火灾是比较常见的,但在这种情况下,房子是从弗吉尼亚理工大学一个未来的原型家环境系统实验室挤满了智能家电和自动化的一切。火源?计算机控制的门。(有关什么可能是家庭自动化灾难的零号病人的详细信息,看看这个。)

现实本身就是一个人工智能模拟——但它却出现了故障

现实本身就是一个AI模拟 - 它的故障

据一些理论家,最终流氓AI的故事,可以展现在我们身边,无处不在,所有的时间。该仿真参数是一种哲学理论,它认为所有的现实实际上都是由超级先进文明和/或人工智能设计的计算机模拟。这个理论非常严肃,实际上也很有说服力。

从根本上简化,它是这样的:任何文明可能生存到后人类时代,将有技术的高级版本,我们目前正在开发虚拟现实,脑地形图,人工智能。通过访问难以想象巨大的计算能力,未来的技术人员将能够模拟数十亿的数字实体填充整个宇宙。这是可能的,那么,我们目前的现实是只需在祖先的模拟实验 - 样的游戏俄勒冈州之路令状大规模地大。

因为可能有上百万这样的合成现实,但只有一个“原生态”的宇宙,它实际上可能我们正处在一个巨大的计算机模拟。一些观察人士即使相信我们最近一连串不可能的结果——特朗普大选、超级碗(Super Bowl)、奥斯卡奖(Academy Award)——都证明我们的sim出了故障。或者是未来的智能正在与我们进行实验,拨弄着刻度盘看看会发生什么。警告:你越思考这个问题,它就越有意义。建议:不要去想它。

更多InfoWorld的幻灯片
肖像历史,Flickr网站利马Pix的,thehorriblejoke通过pixabay

版权©2017足球竞彩网下载