陈永伟:关于人工智能的主体、责任和算法监管,我的一些思考

如何对人工智能进行有效治理?一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。

图片来源:视觉中国

(作者陈永伟,为《比较》研究部主管。本文根据作者2019年3月19日在工信部赛迪研究院组织的“人工智能伦理与法律”内部研讨会上的发言整理而成。)

近年来,人工智能技术发展迅猛,已经迅速从科幻走进了现实,这给生产生活带来了很多的便利,但与此同时也带来了很多新的问题。在这种背景下,如何对人工智能进行有效治理,就成为了人们不得不应对的挑战。

关于对人工智能的治理,涉及到的问题很多。这里我不想全面展开,只想挑选其中的几点谈一下我自己的一些不成熟思考。

第一点是人工智能的主体问题。随着技术的发展,机器正变得越来越像人,甚至可以单独地完成一些过去只有人类才能完成的行为。例如,现在的人工智能已经可以作画,也可以写诗。这种情况下,人工智能的地位应该是怎么样,究竟是一个人,还是一个工具,抑或是一个机器奴隶,就变得很重要。如果我们认定人工智能也是一个和人一样的主体,那就应该让其独立享有对应的权利、承担对应的责任;反之,则不能赋予其对应权责。

个人认为,关于这一问题,还是应该放在具体的环境下来进行具体的看待,要看在具体的情况下,究竟是人还是机器做了最终的决策。例如,现在算法合谋的问题引起了很多人的重视,但其实算法合谋这个名词只是一个大框,里面包括信使合谋(合谋各方用算法来传递信息)、轴幅合谋(算法作为一个协调者,帮助各方进行合谋,就好像车辐围着车轴一样)、预测者合谋(各方未必有主观合谋意愿,但都使用了同一种算法,算法所指引的最优行为都一致)、自主机器合谋(各方各自开发算法,算法可以不同,但只要给出的目标相同,它们所指引的最优行为也会类似,从而产生合谋效果)等好多类。虽然这几类合谋都用到了人工智能,但其实在信使合谋和轴幅合谋里,人工智能只是被用来作为合谋的工具,因此在这种情况下它们当然不应该被视为是主体。而在后面的两种合谋里,人工智能本身就是做决策的,因此它们在一定意义上就可以被视为是主体。

第二点是人工智能的责任问题。我想,这个问题要分为两个层次来思考:

第一个层次是和主体问题对应的。正如前面指出的,在很多时候,人工智能扮演的只是一个工具的角色,自己并不进行决策,因此它当然不应该承担相应的责任。这就好像,无论是人用刀杀人,或者用刀切菜,要负责的都是人,而不是刀一样。明白了这点,我们其实可以把很多看似与人工智能相关的责任问题刨除掉,因为他们其实是人的问题。

第二个层次是,当人工智能是一种决策主体时,它应该对于某个结果负有怎样的责任。当然,我们这里说人工智能负责,只是一个简化的说法。事实上,它当然无法自己为自己的行为负责,而是作为一种产品,让生产它的人负责。

那么,在机器做出一种行为时,它(确切说是它的生产者)要为其负多大的责任呢?例如,如果人工智能对人造成了伤害,它要承担什么责任?我想,这个答案是动态的,在各个时代、各种情况下答案不同,我们在思考这个问题时,应该用成本收益分析的思路去思考。法律经济学上有个经典的例子:在铁路普及前后,美国的侵权法发生了很大的改变。在这之前,交通工具在遇到行人时,是需要让行人先通过的,否则如果发生了交通事故,责任都要由交通工具的使用者承担。而在铁路普及后,这个规则就发生了很大的变化,行人被要求让火车,如果行人不遵守这个规则,那么他就需要承担自己行为的后果。

为什么会有这个变化呢?原因是如果还墨守成规,那么铁路在运营中就需要时刻注意避让行人,效率就很低。而在规则改变后,整个社会运行的效率就提升了。我想,在考虑人工智能应该承担多大责任时,我们也应该采用类似的观念,用成本收益的思路去思考问题,而不应该简单套用一些老的原则。

第三点是对人工智能,或者说对算法的监管。我参加过不少关于人工智能的会,里面谈到对算法的监管,思路都大同小异,例如几乎所有人都主张算法要透明,算法要共享。

对于这一点,我是持保留态度的。事实上,在我个人看来,通过算法透明去监管算法的做法其实既不科学,也无道理。一方面,现在的算法都很难读懂,不要说大多数主张透明的学者看不懂,即使一些专业的程序员也要花上很长时间才能看明白。在这种情况下,即使我们不说通过透明去监管算法是不可能的,它至少也是不经济的。另一方面,现在的算法已经是各个企业的核心竞争力,你贸然要求它透明,就是对别人知识产权的不尊重,是没有道理的。

那么,难道我们就对算法没有办法了吗?当然不是!但其中的思路一定要变。在经济学上,规制理论有新旧之分。旧规制理论假设规制要在完全信息下进行,主张对行为进行直接干预,但新规制理论则强调不完全信息,主张通过构建相应的约束条件去引导人们的行为。打个比方,如果你要让人帮你好好换一个灯泡,一种思路是,你在一边仔细盯着,然后看他哪个动作不对就马上纠正。这就是旧规制主义的思路,显然,它的成本很高,而且不一定能把事情办好。另一种思路呢,则是进行机制设计,让安灯泡的人自觉努力工作。例如,你告诉换灯泡的人,“你若安好,便是晴天;你若安不好,我就打死你”。你放心,只要那个安灯泡的人答应了给你换灯泡,那么他一定会尽他的努力来做好,因为他会害怕可能的惩罚。从这个意义上讲,这时安灯泡的人和你的目标是一致的,或者说,他的目标是和你的目标激励相容的。

在我看来,监管算法在很大程度上类似于换灯泡。你不知道人是怎么思考的,但你通过构建合理的激励合约,就可以引导它努力工作;同样,你也可以不知道机器是怎么思考的,但也可以通过构建合理的激励合约,将它们的行为引向正确的方向。从某种意义上讲,其实人的思维从本质上也是一种算法,但这种算法要远比机器的算法更复杂、更随机,而相比之下,机器算法事实上更类似于经济学理论中假设的“理性人”。既然新规制理论的方法对人都能管用,那么它对机器也可能会管用!

总结一下,我想表达的意见是三点:一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。一点浅见,希望对大家有用。

(文章仅代表个人观点。责编邮箱:yanguihua@jiemian.com)

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开