人工智能可能出错——但我们怎么知道呢?

你现在还不必担心我们的机器人霸主,但人工智能会让你陷入麻烦,除非我们遵循一些最佳实践。

肖像历史

Every time we hear that “artificial intelligence” was behind something – from creating images to inventing recipes to writing a description of a photo – we thought was uniquely human, you’ll see someone worrying about the dangers of AI either making humans redundant, or deciding to do away with us altogether. But the real danger isn’t a true artificial intelligence that’s a threat to humanity – because despite all our advances, it isn't likely we’ll create that.

我们需要担心的是创造出设计糟糕的人工智能,并毫无疑问地依赖它,因此我们最终会信任我们不理解的“智能”计算机系统,也没有建立起负责任甚至解释自己的系统。

土专家系统

大多数智能系统的阅读有关使用机器学习。这是人工智能只是一个方面 - 但它是你听到的最多的是什么,因为这就是我们正在做一个很大的进步。这是由于互联网充满了与元数据信息;服务,如机械土耳其人在这里你可以廉价雇用人来增加更多的元数据和检查结果;硬件应该是在处理大量数据块的高速真的好(显卡);云计算和存储;和很多聪明的人谁已经注意到没有要作出考虑他们的研究从大学和进入市场的钱。

机器学习是寻找模式并使用这些模式识别、分类或预测事物的理想方法。它已经提供了购物推荐、金融欺诈分析、预测分析、语音识别和机器翻译、天气预报等功能,至少还支持你已经在使用的几十项其他服务的一部分。

在实验室外,机器学习系统不教自己;还有人设计师,告诉他们怎样去学习。尽管从研究项目的结果令人印象深刻,学习机目前还只是一块计算机系统是如何放在一起。但它远远黑盒子比大多数算法的多,甚至开发商 - 特别是当你使用卷积神经网络,俗称“深度学习”系统。

[相关:机器人真的会偷走你的工作吗?]

“深度学习产生丰富、多层次的交涉,他们的开发人员可能不清楚地理解,”微软杰出的科学家埃里克·霍维茨说,他支持一项100年的研究在斯坦福人工智能将如何影响他人和社会,看看为什么我们不是已经越来越受益于人工智能,以及担忧AI可能难以控制。

深度学习的动力生产的“高深莫测”系统不能解释为什么他们作出的决定,要么与系统或审核人的决定后,用户的工作。它也很难知道如何改进。“Backing up from a poor result to ‘what’s causing the problem, where do I put my effort, where do I make my system better, what really failed, how do I do blame assignments,’ is not a trivial problem,” Horvitz explains; one of his many projects at MSR is looking at this.

在某些方面,这不是什么新鲜事。“自从工业革命的开始,自动化系统已建成,其中有嵌入,很难理解的原因,事情正在做,”霍维茨说。“一直存在嵌入的实用功能,嵌入式设计决策,有权衡。”

使用AI,这些可以更明确。“我们可以有代表实用功能的模块,这样就有一个声明,有人对汽车应该以多快的速度行驶,或者它应该什么时候减速,或者它应该什么时候警告你,做出了权衡。这是我的设计决定:你可以审查它并质疑它。他设想自动驾驶汽车会警告你这些权衡,或者让你改变它们——只要你承担责任。

越来越容易理解系统,或者那些能解释自己,将是关键收获AI带来的好处。

歧视和监管

指望机器自动做出更公平的决定是幼稚的。决策算法是由人类设计的,并且可以内置偏见。当一个约会网站的算法只匹配比自己矮的女人时,它就会延续对关系的看法和期望。有了机器学习和大数据,你就可以在你学习的数据中自动重复历史偏见。

CMU的一项研究发现广告定位算法显示有关高薪工作广告,男性多于女性在美国,这可能是出于经济原因,而非假设;如果更多的广告买家瞄准女性,汽车公司或美容产品的出价可能会超过招聘人员。但除非系统能解释原因,否则这看起来像是歧视。

美国公民自由联盟已经提出了无论是在线广告跟踪中断问题平等信用机会法和公平住房法的规则。而霍维茨指出机器学习可以回避隐私保护为防止它在大约就业,信贷或住房的决定正在使用的美国残疾人法和遗传信息无歧视法案的医疗信息,因为它可以使“关于医疗类跳跃推论从非医疗数据的条件“。

它甚至在欧洲的问题比较多,他说。“欧盟法律的一个思路是当它涉及到关于人的决策自动化,自动化,人们需要能够理解决定和算法需要解释自己。算法需要是透明的。”目前有纯自动处理豁免,但即将到来的欧盟数据隐私法规可能要求企业披露用于该处理的逻辑。

机器学习服务公司SkyTree的CTO Alex Gray说,金融行业已经不得不开始处理这些问题了,因为他们已经使用机器学习很多年了,特别是在信用卡和保险方面。

“他们已经到了影响人类生活的地步,比如拒绝给某人贷款。有规定强制信用卡公司向信用申请人解释他们被拒绝的原因。因此,根据法律,机器学习必须能够解释给每个人。监管只存在于金融业,但我们的预测是,你将在任何地方看到这种情况,因为机器学习不可避免地、迅速地进入人类社会的每一个关键问题。”

解释在医学中显然是至关重要的。IBM Watson的首席技术官Rob High指出:“我们对我们的推理的基本原理保持透明是非常重要的。当我们为一个问题提供答案时,我们就为一个治疗建议提供了支持性证据。对接受这些答案的人来说,能够挑战这个系统,揭示为什么它相信它所建议的治疗选择,这是非常重要的。”

但他认为,重要的是展示系统从中学到的原始数据,而不是它用来做决定的具体模型。“一般人并不能很好地理解为什么不同的算法或多或少是相关的,”他说,“但他们可以通过它们产生的结果快速地测试它们。”我们必须以该领域专家能够识别的形式进行解释,而不是用系统中的数学来证明它是合理的。”

医学专家通常不会接受系统,不要让他们有意义。霍维茨发现这与建议病理学家在什么测试运行的系统。如果不是受限于我们用来分类的疾病,但用户不喜欢它,直到它被改变工作更可解释的方式层次的系统可能会更有效。“这不会是那样强大,它会提出更多的问题,做更多的测试,但医生会说“我明白了,我能理解这一点,它确实能解释它在做什么。”

[相关:取而代之的机器人正在工作,A.I。可以帮助人类更好地完成工作]

自动驾驶汽车也将带来更多的监管,以AI格雷说。“今天,一大堆的[自驾车系统]的是神经网络,它不解释的。最终,当一辆汽车撞击和某人有一个调查,这个问题上来了。这同样将是无处不在这高价值,从而影响人或他们的企业真正的;那里将必须是那种explainability的。”

有关:
12 第1页
页面1的2
工资调查:结果是