Bruce Sterling:人类为什么要关心Siri的「感受」?

作为赛博朋克运动创始人及著名的未来学家,Bruce Sterling如何看待人工智能的权利与义务呢?

很多人都担心人工智能终有一天会反人类,但是,人类的这一做法颇有些装腔作势。也就是说,如果人类真的成功发展出能够自主思考与感知的人工智能,我们对它们的感情应该负有什么责任呢?我们对它们作为一个独立存在又该负有什么责任呢?来看看Bruce Sterling怎么回答。

问:你觉得我们真的会对人工智能产生感情么?

Bruce Sterling: 这个嘛,我们可能会对《乱世佳人》中的Scarlett O’Hara产生感情,即使她并不存在。「人工智能」同样也不存在。而一个复杂代码组成的软件及硬件则是实际存在的。当别人不小心将Mac笔记本掉到地板上时,你有皱过眉么?

问:那么如果你和一个人工智能面对面,你会产生感情么?

Bruce Sterling:即使它们确实存在,它们也不会有「脸」让我能和它们面对面。但确实会很容易感到同情。比如说,当罗马发生了地震时,我的反应是「天哪,可怜的罗马」。罗马并不是一个人,但坦白的说,我也不想看到罗马「受伤」。

问:距离人类特有的感情模拟还有多远的路要走呢?比如恐惧、悲伤、希望之类的情绪能够被程序实际仿真……

Bruce Sterling:其实你这里真正问的是指真正的现实交互仿真。莎士比亚的戏剧《哈姆雷特》里就有这些想象(不过也仅仅局限在想象层面)。你需要的是一个可以与你交互的系统,这个系统可以和你对话,或者说,有可能伤害到你。

问:但是,为什么要把它做成和人类一样呢?如果一个会说话的机器只是想要吓你一跳不是可怕一百倍吗?

Bruce Sterling:举个例子,如果我只是想让你感到更加有希望,我为什么不干脆修改下你的Facebook的提示,让你除了好消息什么都收不到呢?我不需要使Facebook像Clippy(译者注:微软的office助手,常在office右下角以大眼别针的形象出现)那样只是为了从你那得到情绪。

假如你拿起iPhone,Siri突然说道我,「我恨你,恨到想让你死,Rhett Jones。」这就是一个可怕的场景,对吗?虽然人人都知道Siri只是苹果公司的一个语音交互系统。

问:关于人工智能应该享有哪些基本权利,现在已经有一套既定的规则了吗?

Bruce Sterling:当然了,沿着这个方向,过去已经有很多伦理方面的成果了。比如「机械伦理学」。

问:你头脑里是否已经有这方面的规范了?

Bruce Sterling:我不是一个伦理学家,但是我知道一旦你开始撰写好的行为规则,邪恶的人们将会用他们的方式去打破这些规则。

问:最近一些名人,比如艾伦•马斯克和斯蒂芬·霍金很担心人类对人工智能失去控制。你如何看待这些名人的担忧?

Bruce Sterling:我其实更担心微软,脸谱,苹果,亚马逊,谷歌以及美国国家安全局的人「失去控制」。我的意思是,我在这些公司或机构中看不到控制。当然,人工智能失控的话是一个非常可怕的场景。我不认为我们可以控制「人工智能」,这让我想到有着复杂控制系统的切尔若贝利核电站是如何带来灾难的。

问:如果我们能够映射我们的大脑,并通过计算机模拟重现,她们模拟应该是与有相同的基本人权的其他人一样被对待吗?它应该有死(插电,删除)的权利了?

Bruce Sterling:这或许就是不会出现这些技术的原因了。但是,即使我们这样做,我们的大脑也将不再是我们的大脑,他们会成为计算机。我们会成为没有人权的人类,沦为为计算机实体,所以我们不得不每天开启计算的特性,如远程备份,软件更新,内存互换……我们不会比苹果IIe有更多的「死」了。我们会是一个不同的顺序实体,而我们人类的问题将被淘汰。

本文选自hopesandfears,机器之心编译出品,参与成员:柒柒、salmoner