人类为何不愿意信任机器人?

问题的根源其实不在机器人身上,而是我们的社会心理在作祟。

人工智能技术正在彻底颠覆人类生活。随着智能机器越来越紧密地融入到我们的日常生活中,它们面临的决定可以不再限于应用层面,甚至将延伸至道德层面。当自动驾驶汽车面临一场不可避免的交通事故时,它是否应当保护车内的乘客,或者想办法将总体伤亡降至最低?当一架无人机正在追击制造恐怖行动的恐怖组织时,它是否应当考虑避免对无辜平民造成伤害?随着人工智能机器变得越来越自动化,这些问题也变得不容忽视。

我们之所以呼吁计算机也应从道德角度进行决策,是因为机器不同于人,机器在做决定时不会受到认知偏差的误导,它们面临选择不会犹豫不决,它们面对敌人也不会感到憎恨。在理论上,一款能从道德维度思考问题的人工智能,应该懂得最理想条件下的道德价值和道德规范。在不受人类限制的情况下,此类机器做出的道德决定应该比人类更好。然而,赋予机器绝对自由,使其有能力做出道德决定,这会让许多人感到不安。一部分人认为,如果人工智能真的发展到这个地步,拥有道德判断能力的机器人对人类尊严将造成一种根本威胁。

当机器做道德决策的时候,我们为什么会如此不信任它?心理学研究给出了一丝线索:我们对那些通过计算成本收益来进行道德判断的人,通常怀有一种根源性的不信任,而计算机正是如此做出道德决策的。

在哲学上,有一种观点由来已久,认为计算结果才是做出道德决策的正确途径。该派学者(通常被称为“后果论”)指出,只有在一个选择取得最佳结果的情况下,这样的决定在道德上才是正确的。然而,绝大多数不懂哲学的普通人认为,这种道德决定方式令人感到不适。相反的,人们更愿意遵循某些既定的道德规则,这些规则会直接告诉他们哪些行为是“错误”的,即使这样做可能会带来好的结果。

大量心理学研究假设了特定的道德困境,并邀请受访者在结果论和受道德约束的行为之间做出选择。大部分研究结果显示,普通人对结果导向的行为怀有厌恶心理。例如,在“人行桥困境”中,受访者被告知,一列火车正迎面疾驰而来,但五个无辜的人被困在铁轨上无法动弹。眼看火车就要撞死这五个人了,在铁轨上方的人行桥上,碰巧站着一个彪形大汉,把他推下人行桥就可以阻止这场灾难(他的身体可以逼停火车,从而让其余五人幸免于难)。绝大多数人认为,在这个情况下,用彪形大汉的死换五个人的生命是错误的,尽管这么做能换来更优的结果。

那么对于那些愿意用更少牺牲换得“更好结果”的少数群体,社会是如何评价他们的呢?去年,《实验心理学月刊》刊登的一篇论文给出了答案:证据表明,通常而言,后果论可能会成为社会关系发展的制约因素。换句话说,后果论者的人缘更差。

我们更认同那些遵循道德规范的人,更愿意和他们成为社交伙伴——即使出于道德的行为会带来更糟糕的结果。这其实也很能说得通:我们不会与工于心计的人做朋友,因为他们成天算计着如何用欺骗和撒谎获得更多好处,他们甚至还会从利益最大化的角度将你置于死地。在责任感问题上,基于道德规范的行为判断释放出一个积极的信号(从某种程度来说,或许是因为这种行为传达出,我们在对待他人这个问题上拥有特定的情感程式)。

这与我们的发现高度吻合:在9项不同的研究中(超过2400人参与测试),采用基于道德的方法来应对道德困境(其中包括“人行桥困境”)的人被认为更加可靠,而基于结果导向做出判断的人则被认为不那么可靠。在生意场上,遵循道德规范的人也更受欢迎。一项旨在测量经济领域信任情况的模拟实验显示,当受访者与那些拒绝以更少牺牲换得更好结果的人合作时,他们通常会投入更多的资金,他们也更加坚信他们的投入能获得回报。

但后果论者也并非在社会上全无立足之处。人们对于那些犹豫着要不要以更少牺牲换取更好结果的人的信任程度,几乎与对那些绝对不能接受后果论的人的信任程度不相上下。在这些案例中,选择上的犹豫不决可能释放出一个积极的信号,尽管后果论确实影响了这个人的判断,但他显然还是受到了道德规范的约束。

可是,这些研究发现又与机器人有什么关系?最重要的一点是,研究向我们揭示了涉及道德问题时我们对机器的不信任之根源所在:人工智能缺乏我们用以判断他人是否可靠的那种特质。在人类社会中,我们更认可遵守道德规范且不以结果为纲的行为,我们更认同人们在负罪感、同理心等社会情感的指导下做出道德决定,做一个坚守规则的人,传递你内心深处的想法。即使机器可以完美模拟人类进行道德判断,我们其实也知道,计算机实现这项能力的原因与人类不尽然相同。计算机做任何决定都需要通过计算得失——在道德语境中,人们认为这样的做法很不值得信任。而事实上,最近有一项人权观察报告强烈要求,科学界应该停止研究“杀人机器人”,因为这种机器人不具有“普通人对于屠戮同伴的天然抵触心理”。

换句话说,机器做出正确判断——即使做出的是最理想的判断——在我们看来也依然是有缺陷的。我们希望机器人在做这样的判断时,能基于与人类相同的心理过程:亦即,情感反馈和道德直觉反应——人类在进化过程中掌握了这两种能力,也让我们区别于其他物种,成了有道德的生物。直到科技实现这一点之前,任何号称拥有道德思考能力的自动化机器都会遭到人们的质疑。而或我们会发现,问题的根源其实并不在机器人身上,而只是我们的社会心理在作祟。

(翻译:韩宏)

……………………………………

欢迎你来微博找我们,请点这里

也可以关注我们的微信公众号“界面文化”【ID:BooksAndFun】

来源:卫报 查看原文

广告等商务合作,请点击这里

本文为转载内容,授权事宜请联系原著作权人。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开