前犯罪、算法、人工智能和伦理

我们尝试过基于统计数据的算法正义,但效果不太好。人工智能能做得更好吗?

我刚刚狂听了一段很棒的播客,LifeAfter在没有透露太多信息的情况下,它是关于人工智能及其对人类的影响。以下是该节目的概要:

当你在数字时代死去时,你的一部分会永远活下去。在你的电子邮件中,在你的社交媒体上的帖子和上传中,在你发的短信和视频中,甚至在一些人甚至很少有人知道的秘密网络生活中。但如果这个数字存在有了自己的生命呢?罗斯,一个低层FBI雇员,正面临着这个问题,因为他开始整天和8个月前去世的妻子查理在线聊天……

这个播客提出的道德问题很吸引人,并且重复了一些我们开始认识到的与人工智能相关的问题。

在现实世界中,我们正在着手解决的一个大问题是我们人类创造智能系统的方式,因为无论谁做设计和编码都会给党带来他们自己的世界观、偏见、误解,以及最重要的偏见。

Quartz最近的一篇文章讨论了当前AI产品中出现的这类问题的一个很好的例子,我们测试了Siri和Alexa这样的机器人,看谁能抵抗性骚扰。这个测试的结果很有趣,而且在某种程度上是可以预测的:

苹果的Siri,亚马逊的亚莉克莎,微软的Cortana,谷歌的谷歌的家兜售关于女性奴性的刻板印象——这使他们“进步”这传递出的信息很清楚:每个机器人并没有反击虐待行为,而是通过它们的被动性,帮助巩固性别歧视的比喻。

现在一些AI辩护者可能会认为,我们在早期的技术和所需要的范围提供一个通用的交互式数字助理仍在探索所以弱点和疏忽是可以预料到的,固定的,所有美好的时光。事实上,考虑到工作的严重性,这个论点没有,从表面上看,似乎不合理,但长期问题是在多大程度上这些不足将成为“常用”这些产品,他们永远无法完全固定和微妙的偏见对一个主题或位置通常是更有效地加强信念和行为比显式的支持。此外,考虑到人类更喜欢自己的偏见得到肯定和支持,而且要想真正发挥作用,他们的数字助手必须了解主人想要什么和期望什么,这就存在自我强化反馈的风险。

在智能助手中,根深蒂固地接受甚至支持性别歧视的比喻的危险显然是不好的,但当人工智能应用于改变生活的现实问题时,最微妙的内在偏见将变得危险。有多危险?考虑一下Pro Publica的文章中所讨论的基于统计的非人工智能算法,这些算法多年来一直被用于推导罪犯的“风险评估”机器的偏见,去年出版。这些算法评估——本质上是“预测性警务”(还需要我提一下“犯罪前”吗?)——决定了从某人能否获得保释、保释金额多少,到他们的刑罚有多严厉等一切事情。

[Pro Publica]获得了2013年和2014年在佛罗里达州布劳沃德县被捕的7000多人的风险评分,并查看了未来两年有多少人被控新罪名使用相同的基准算法的创建者。

在预测暴力犯罪方面,这个分数被证明是非常不可靠的:只有20%的预测会实施暴力犯罪的人实际上会继续这样做。

如果把所有的犯罪行为都考虑在内,包括驾驶执照过期等轻罪,这种算法比掷硬币更准确。在那些被认为有可能再次犯罪的人中,有61%的人在两年内因后续犯罪而被捕。

这已经够糟糕了,但令人遗憾的是,一种可预见的内在偏见被揭示出来:

在预测谁会再次犯法时,该算法对黑人和白人被告的误判率大致相同,但方式截然不同。

  • 这个公式特别容易错误地将黑人被告标记为未来的罪犯,这种错误的标记他们的比率几乎是白人被告的两倍。
  • 白人被告比黑人被告更容易被误认为低风险。

动力使用算法来处理复杂、昂贵的问题服务,如资金短缺的法院系统是显而易见的,即使严重缺陷识别在这些系统中,有大量反对停止他们的使用,因为这些算法给出的幻想解决高级系统问题(判断的一致性、成本尽管对个人的后果(自由的不成比例的丧失)每个人都很清楚,而且对受影响的人的生活都有改变。

尽管风险评估算法存在这些众所周知的问题,但毫无疑问,依靠大数据和深度学习的基于人工智能的解决方案注定会成为一种惯例,而这些系统中根深蒂固的偏见和偏见将更加难以发现。

在量化风险和确定结果方面,这些人工智能系统会比人类更客观吗?用外星人的智慧来决定人类的生命历程公平吗?

我担心的是,不可测知的AI系统,缺乏理解的那些使用它们,和人工智能的“哇因素”将采用不是一个“如果”,但一个“当”,将比我们想象的更近,结果将是一个巨大的道德空虚,将支持更大的歧视,不公平的待遇,和私利已经漏洞百出的司法体系。

我们知道这是一个极有可能的未来。我们该怎么办呢?

评论?想法吗?写信给我那就跟着我推特脸谱网然后报名参加我的通讯!

加入网络世界社区足球竞猜app软件脸谱网LinkedIn对最重要的话题发表评论。
相关:

版权©2017足球竞彩网下载

工资调查:结果在