如何让机器克服人类的「N宗罪」?

在电影《少数派报告》,三位「先知」可以预测即将到来的犯罪行为,提前让警方介入。如今,在机器学习的帮助下,芝加哥警方也具备了这样的能力,犯罪问题可能减少了,但更多的问题却接踵而至……

编者按:在电影《少数派报告》,三位「先知」可以预测即将到来的犯罪行为,提前让警方介入。如今,在机器学习的帮助下,芝加哥警方也具备了这样的能力,犯罪问题可能减少了,但更多的问题却接踵而至……

「我们一直在监视着你们。」这是芝加哥警方向「Heat List」名单上超过400名监控对象发出的警告。基于预测算法生成的「Heat List」旨在识别出本市极易实施暴力犯罪的人群。根据《芝加哥论坛报》的报道,该算法考虑的因素包括他/她的社交圈、被捕历史记录及是否受过枪击等因素。

诸如此类算法引起了一些很尴尬的问题。谁会出现在这张名单中?出现原因是?它是否考虑了种族、性别、教育程度及其它个人因素?假若黑人及拉丁男性的数量在美国监狱人口占比最大,那么基于关系的算法能不受监狱人口中黑人占比的影响而适用于年轻的黑人男性吗?

此类算法收人追捧是有很多原因的,但是收益往往与风险伴生。人类天生具有偏见,而编入机器中的偏见将会实现可测化和自动化。从本质上看,这是中性的,但它却提出了一个问题:

在这个持续被诸如种族、宗教、性别、年龄、性取向、健康状态预测等的个人分析所充斥的世界中,我们该如何生活?

人类天生具有偏见,而编入机器中的偏见将会实现可测化和自动化。

我猜多数读者对于芝加哥警方制订HeatList的方法都会感到一些不悦,即使他们相信算法的设计初衷是好的。为了承担起运用机器学习和公众数据的责任,我们得好好聊聊我们该教会机器什么及我们怎样运用算法结果。

我们教会机器什么?

多对数人对种族、宗教及性别能有直观的理解。然而,当被问及如何精确定义这些概念时,他们却意识到自己很难准确区分。客观上看,人们无法就一个人属于哪个种族达成一致意见。正如Sen与Wasow所说,种族是一种基于易变及不易变特征(包括肤色、宗教、居住地及饮食等)的社会结构。

因此,关于种族分类的定义经常变化(譬如在美国南部,意大利人曾经被认作是黑人),而针对某个人而言,其过去可能属于一个种族,而十年后又会属于另一个。无法准确定义诸如种族等概念意味着个人分析蕴含风险。

任一能够预测、处理和展现种族分类的设计程序必须能够有效运行以满足内部处理及人类消费的要求。因为机器学习程序从人们提供的示例中学习,而不是去学习隐含的启发式规则,所以,机器学习是针对上述工作最有效的框架结构之一。

比如说,编程人员设计一个基于普通美国人都了解的种族分类(被称作「常识测试」)去实现无误种族预测的算法。该算法的许多输出结果与采用其他设计思想的算法迥然不同。在巴西,许多巴西人认为自己是白人,而在美国,他们被当做是黑人。

我们得好好聊聊我们该教会机器什么及我们怎样运用算法结果。

美国混血与来自印度、土耳其及以色列等地方的经常会质疑种族分类,至少是美国人所理解的那套。因此,这类算法肯定会反应出创造者的偏见,而这些偏见又会与其他人的偏见相冲突。

结果便是,机器学习程序会沿袭其设计者对种族的应对方式—未必像每个人看待自己一样,或像程序用户自己对于种族的认知一样。相对来说,将其应用于市场营销或者社会科学研究中等案例中,也许并不会产生什么问题。但针对芝加哥警方的「Heat List」、禁飞名单及其它大众安全应用来说,偏见与误判将会引起大规模的严重分歧。

我们如何使用数据?

针对个体层级,面向个人分析的任何算法都会发生错误。人具有多面性及复杂性,所以我们很难完全符合某一非线性群组。尽管如此,当个体层级的预测结果聚合后,个人分析便能够更好的理解群体层级,帮助我们区分差异,制订更优决策,促进社会改良。

那么假使登门告诫潜在罪犯行不通的话,我们还有别的选择么?

芝加哥警方的算法中包含一个选项,即基于高危人群及其活动的发生地区生成「Heat Map」。洛杉矶、亚特兰大、圣克鲁斯及许多其他辖区已经采取了一些类似的措施,使用一款名为PredPol的预测监控工具。该工具在不使用任何个人数据的前提下,能够帮助警局提高其于恰当的时间在犯罪易发地区的出勤率。该工具只考虑犯罪的类型、地区及时间。

但是,基于位置的犯罪描述会是另一类歧视吗?警察是否会在Heat Map区域叫停更多的人,查验身份证吗?假使我只能负担贫民区的房租,那较于那些居住在富人区的人们,我是否将更易被警察叫停、盘问呢?定向、可预测的警察出勤会引发那些警察缺乏防备地区出现犯罪吗?然后会引起扩大城市的犯罪区域么?

一个帮助而非伤害公众的绝佳机会。

这也许是件百利无害的好事。警察从战略上定位并在社区工作,这个是降低犯罪的机会,也是为居民创造更好的机会。较于人类分析,算法的歧视倾向更少。

PredPol报道称,使用该软件后,城市的犯罪率将下降两位数的水平。芝加哥警方并为就Heat List的有效性发布任何数据。

芝加哥警方与 PredPol模型提醒了我们,个人分析并不是唯一选择。在我们确定对象、锁定目标、登门警告之前,我们必须要考虑到方法是否符合伦理准则,而非仅仅在意该方法是否得体。

尴尬却必须面对的问题

讨论偏见是会让人尴尬,但在机器学习领域中,这又是不能忽视的话题。为了避免出现刻板范例原型或者损害个人权利,我们必须讨论偏见,旨在将其用于识别和区分人的每一类机器学习算法中。

此类算法的输入透明性及数据输出的使用方式都极有可能是这些努力的重要组成。近来,诸如伦理道德方面的原因被科研界视为重要问题:新课程逐步开设完成,诸如FAT-ML的学术会议也为该主题的论文及讨论提供了合理的渠道。

不难想象,芝加哥警方将更合理的运用Heat List。最坏情景应该是这样的:假使在20世纪40年代后期至50年代的共产主义政治迫害中,参议员 Joe McCarthy能够使用个人分析,情形将会怎样?今天,假使实施反同性恋及反变性法律的国家使用这项技术以界定及伤害同性恋、双性恋与变形者们,那将又会是怎样的局面呢?

虽然这些都是棘手的状况,但并不能因此就放弃这项技术。很明显,这是一个帮助而非伤害公众的绝佳机会。使用机器学习的学者和政策制订者能够在问询重要问题后,获得算法结果给予的决策支持,这些决策在个体或社会层级都将产生深远影响。类似许多技术一样,机器学习本身来说是价值中立的,但最终应用将会反映出创造者的问题、偏好及世界观。

机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。