人工智能必将威胁我们的文明?

人类在自己的创造物中收获到的是仇恨。

未来世界,人工智能接管了病房,力图打造一个人人长寿、返老还童的乌托邦世界,但同时,医院又陷入混乱,病人们一个个死去。这到底是怎么回事?病人杨伟经过调查发现,经过漫长的算法演化,人工智能对治愈疾病已经感到失望,认为消除疾病的方法只有消灭病人甚至消灭人类。

这是科幻作家韩松“医院三部曲”的第二部《驱魔》的开篇。韩松说,这本小说讲述了人工智能消灭人类的全部过程,而该系列的第三部《亡灵》将讲述人类被消灭之后的故事。

《驱魔》
韩松 著
上海文艺出版社 2017-5

对人工智能的担忧是科幻作品中常见的主题,早在1979年,英国科幻作家詹姆斯·霍根(James P. Hogan)就在《明天的两面》中讲述了拥有自我意识的人工智能脱离人类控制并且掀起大规模战争的故事;威廉·赫特林(William Hertling)的《AI启示录》中,人类发明的计算机病毒持续增长并进化成一种复杂的智能物种,造成自动取款机罢工、智能手机罢工、汽车罢工——社会停滞、资源崩溃,人类数以亿计地死去。丹尼尔·苏亚雷斯(Daniel Suarez)的《守护程序》也描绘类似的场景:守护程序侵入了多台计算机,控制了无人驾驶汽车和电子武器,并开始摧毁人类文明……

认为人工智能将构成威胁的不仅是科幻作家,早在2014年,科学家霍金就曾经警告人类:一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己。由于受到缓慢的生物演化的限制,人类不能与之竞争,最终将会被代替。但是,与这种悲观论调相对的是,AlphaGo战胜李世石之后,越来越多的资本流进了人工智能领域。而从普通人的角度,不论是语音输入法还是智能冰箱,不论是无人超市还是无人驾驶的汽车,科技的进步都给生活带来了诸多便利。

人工智能到底危险在哪里?有什么办法防止它产生的危害?近日,韩松与上海交通大学教授江晓原探讨了人工智能对人类文明的威胁。

近期、中期、远期,人工智能都会威胁人类文明

“人工智能必将威胁我们的文明。”对谈一开场,江晓原就抛出了这样的观点。他说,目前较低层次的人工智能已经被大量采用,而从业者还预测,人工智能将在未来替代人类90%以上的工作岗位。但是,这个前景一旦成为现实,就会造成大规模的人类失业,而为数众多的失业者可以用无限的时间来积累不满、酝酿革命,危及社会稳定。届时,无论东方还是西方,无论何种意识形态的社会制度都无法解决这个问题。

在造成人类失业以后,人工智能还会继续进化,并可能失控和反叛。对于这种担忧,一些专家告诉人们:人工智能现在还很初级,即使战胜了李世石,也不过是下棋而已,不用担心失控的问题。江晓原却认为这种说法是典型的养虎遗患,他反问:“如果那些养老虎的人说,老虎还很小,先养着再说,我们能同意这样的论证吗?”还有一些专家也看到了人工智能失控的可能,提出可以给它设定道德戒律,来防止造成危害,江晓原说,这个方案经不起考验,因为即使是人类不断向同类灌输道德戒律,却依然有一部分学坏的人。而人们虽然可以制约人类中的败类,但却没有办法控制比人类更加聪明的人工智能。

而从远期来看,科幻作家阿西莫夫曾提出这样的观点:所有依赖于人工智能的文明都会灭亡。这是因为,如果所有的人工智能都没有失控和叛变,未来所有的事情都由它一手操办,人类将在智能和体能上急剧衰退。到那时,或许人类将自愿进入《黑客帝国》描绘的状态中:人工智能将人类豢养起来,给人体输入虚假的快活信号,人永远感受到快乐,但却失去了生存的意义。

《黑客帝国》中,人类被机器豢养

江晓原总结说,无论是从近期、中期、远期看,人工智能都是极为危险的。可是另一方面,我们对人工智能的研究的脚步一旦迈出,就已经无法收回,也无法停止。“我们被劫持了。就像纳粹研究原子弹,美国也不得不启动曼哈顿工程。”每个国家和群体都认为:别人都在研究人工智能,我们不做不是吃亏了?人类对人工智能的发展陷入了囚徒困境。

防止人工智能毁灭人类的方法

既然人类已经被“劫持”,发展人工智能的趋势已经无法被阻止,那么如何防止人工智能毁灭人类?作家韩松提出了几种可行的做法。

首先,“可以交由公众讨论,把发展人工智能的危害、可能造成的伦理问题和社会问题全部讲清楚。在充分的民主讨论之后,再利用法律手段对其加以限制。”江晓原赞同韩松提出的这个做法,他说,当今我们就应当进行这种讨论。很多人认为只有科学家才对科学技术的发展有发言权,但实际上,由于科学技术会直接影响到每个人的生活,所以每个人都有发言权。

韩松提出的另一种方法是使用类似于防火墙的技术,制造一堵巨大的AI墙,在人工智能发展到一个临界点时,警报响起,随之AI墙迅速高筑,进行封锁,让人工智能迅速消失。而他看到的第三种可能则是让人工智能像滚雪球一样继续发展,各国之间随之展开一种类似于核竞赛的竞争,直到像在冷战中那样,形成“确保互相摧毁机制”。

“我眼中,未来唯一的出路是大国谈判。”江晓原说,未来将会发生某一种明显由人工智能导致的灾祸,各大国因此而决定有必要坐下来进行谈判,限制全球范围内对人工智能的研发,只有这样的谈判才能够拯救人类。但他的担心是,由于人工智能发展太快,灾祸一旦发生就可能就是灭顶之灾,人类社会全面崩溃。“我们对人工智能警惕性越高,关注度越大,就越可能在灾祸比较小的时候推动大国谈判。”他说,这个意义上,每个人都可以为防止人工智能消灭人类作出贡献。

普通人应该多读科幻小说,保持对科技的戒心

虽然不断有科学家、科幻作家在描绘人工智能的可怕前景,告诫人们要保持警惕,但许多人依然乐于看到人工智能的发展。“这与我们教育中的偏差有关,我们一直把科学技术想象成为无限美好的东西。”江晓原说,我们从进入学校开始就一直被灌输科学技术是第一生产力的观念,任何东西只要扛着科学的旗帜,就会被认为是好事情。所以,至今依然有很多人认为,包括人工智能在内的所有科学技术的发展都是有利的。

“而且,人工智能本身也太吸引人了。”韩松了解人工智能带来的新奇感:它能够瞬间把智力、记忆力提高十倍、百倍,一天就能够学完普通人要学十年的东西,无怪乎大量的技术人员和普通人都对它的未来充满了期待。可是韩松也提醒公众,科技发展的迷人外表下面存在很多隐患。

韩松给举了一个例子。他曾经去生产无人机的深圳大疆创新科技有限公司参观,工作人员说,他们力图实现未来每个家庭一个无人机的目标。身为科幻作家的韩松提了一个问题:如果一个人同时操纵一百架无人机,同时撞向一个目标,重现美国“911”的场景,该怎么办?工作人员想了想回答说:这不是我们考虑的问题。

从这个回答中,韩松认为现在不少技术人员存在短视的问题,只能看到眼前的进步,却无法看到其中的隐患。而在关于人工智能的讨论中,技术人员和相关企业常常是乐观的,终极性的问题往往是科幻作家在讨论。

很多科幻作品在告诫人类,要警惕人工智能的未来。江晓原说,在科幻作品中,人工智能的一条出路是人机结合:只要将芯片植入大脑中,人就可以变成超人,再与基因工程相结合,人还可以永生,成为神。如果真的有这么一天,一开始可以获得芯片植入的会是极少数,而其他人类将变成低等级的人,在这种极度不平等的社会中,没有变成“神”的普通人一定会用全部的生命进行革命,而人类社会将从奴隶社会开始重新轮回。

除了这样的前景以外,科幻作品还提出了另一种可能:人机结合的技术变得极为廉价,所有人都成为了极为聪慧且永生不死的神,但同时也失去了生存的意义,成为行尸走肉,这种情况与人类被人工智能全部替代的情形实际上殊途同归。

韩松则畅想了人工智能在医疗领域的发展。在“医院”系列的第一部《医院》中,通过深度学习,人工智能比人类医生更精确、更勤奋:可以储存更多的病例,而且24小时不疲劳。不仅如此,它不收红包,不走后门,不会引起医患纠纷。但在这看似美好的未来当中,拥有了意识的人工智能逐渐发现,很多疾病是整个社会的环境带来的,它无法控制,也无法根除。由此,它产生了一种无能为力的悲哀。于是到了《驱魔》中,人工智能产生了这样的认识:只有消灭病人甚至消灭人类才能够根治疾病。

人类在自己的创造物中收获到的是仇恨。从第一篇现代意义上的科幻小说《弗兰肯斯坦》开始,后世的科幻作品都基本遵循了这样的基调。江晓原观察到,所有认为前景光明灿烂的科幻作品都是初级而低幼的,“真正优秀的科幻作品都是悲观的、黑暗的。”他认为,这也正是科幻小说、科幻电影真正的价值:它们宏大的设定和绚丽的场景固然令人难忘,而最根本的意义却是让公众对科学技术产生警惕。

“一定要多看科幻电影,多读科幻小说,保持戒心。”江晓原告诫现场的观众,即使在享受着人工智能带来的便利,也要牢记它是危险的。“也许在未来,就是这一点戒心救了我们。”

……………………………………

欢迎你来微博找我们,请点这里

也可以关注我们的微信公众号“界面文化”【ID:BooksAndFun】

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

打开界面新闻APP,查看原文
界面新闻
打开界面新闻,查看更多专业报道

热门评论

打开APP,查看全部评论,抢神评席位

热门推荐

    下载界面APP 订阅更多品牌栏目
      界面新闻
      界面新闻
      只服务于独立思考的人群
      打开