——写于《拯救人类》英文版在北美出版之时
致:
各国领导人、联合国秘书长、世界顶级科学家与学者、全球知名媒体负责人。
尊敬的各位领袖:
自十八世纪中叶工业革命以来两百多年,科学技术一直处在加速发展状态,今天已经达到相当的高度,一些技术的进一步发展将具备灭绝人类的能力,这一点许多科学家已经清醒地认识到。
2007年我的《拯救人类》一书中文版在中国出版时,我借此第一次向人类领袖致信唿吁全球统一行动控制科学技术的发展。当时,认识到科学技术有可能灭绝人类的人并不多,仅仅过了十多年,科学技术又有了长足的进步,尤其是人工智能在近几年的飞速发展,更多的科学家认识到,如果再不采取行动,我们人类将会坠入万劫不复的灭绝深渊。本人作为人类的一分子,对此忧心如焚。在我的《拯救人类》一书的英文版在北美出版之时,再一次致信各位尊敬的人类领袖,呼吁全人类务必要尽快警醒和统一行动起来,留给我们的时间真的已经不多。
一、科学技术有灭绝人类的能力,且在前方不远。
核武器灭绝不了人类,核大战能产生核冬天,会导致几十亿人死亡,但总有一部分人可以生存下来,人类还有重新开始的机会。但是,要是人类被灭绝就不可能重新再来。
当前来看,有可能灭绝人类的技术有纳米技术、生物工程、人工智能,以及未来的某项技术。
已经有很多科学家就以下问题提出过警示:
纳米技术如果失控,有可能会导致纳米机器人的无限复制,从而彻底毁灭人类,毁灭地球。
生物工程采用基因技术改造的生物武器,可以制造超级瘟疫,从而灭绝人类。
人工智能研制的智能机器人,如果程序失控,或者自我意识觉醒,会灭绝人类。
科学技术还在高速发展,未来还有许多我们今天看不到的科学高度。200多年人类就把科学技术从一个很低的层级提高到足可以让我们担心人类整体被灭绝的高度,科学技术真的要具备灭绝人类的能力绝对不会再需要200多年,很有可能仅仅只需几十年!
二、人类不能够全面准确地判断科学技术的安全性。
科学技术具有不可确定性,常常认为很好的恰恰是危害很大的。正如氟利昂的使用导致臭氧层被破坏;正如滴滴涕农药当初认为很好,使用之后才了解有很多危害一样。连牛顿和爱因斯坦都有科学研究的重大失误,因此人类不可能全面准确地判断科学技术的安全性。这不是说所有的科学技术都不能准确判断,是总会有不能准确判断的科学与技术。只要有一项能够灭绝人类的科学与技术不能被判断和筛选,就会给人类带来灭绝的灾难。
三、人类不能够普遍理性地使用好科学技术成果。
人类不能够普遍理性地使用好科学技术成果是一个基本事实,最先进的科学技术成果必然优先用于杀戮的武器自不必说,更应强调的是任何时候都有干极端坏事的人。
在科学技术发展到相当的高度后,只比他人领先一步获得某一技术的企业和科学家个人就有可能掌握全人类的生杀大权。正如一个高水平的生物学家就有可能在自己的实验室独立研制出具有超级杀戮规模的生物武器;纳米机器人和智能机器人也可失控于某个编程人员。国家的行为还好控制一些,人类个体的行为是很难把控的。在科学技术发展到足以具备灭绝人类的层级后,只要一个有能力掌握其使用权的人(或者企业与国家)失控一次,就是人类的末日。
四、综上所述。
科学技术的继续发展,必定很快灭绝人类,长则二、三百年,短则就是本世纪,而且我认为多半是后者,因为今天距离获得灭绝手段只有一步之遥。
非常令人担忧的是,当今全球都处于一种发展麻木的状态,任何关于科学技术安全性的唿吁和警示,声音都非常微弱。我研究人类问题达四十年,本人一直为此奔波和唿吁自不必说,一些顶级科学家的警示也无济于事,人们更多是陶醉在科学技术给我们带来的各种享受之中。
发展麻木就是危机麻木,滔天巨浪到来之前,海面往往非常平静,但暗流却在海底涌动,当什么科学技术研究都理所当然地去实施,当什么科学技术成果都理所当然地去接受,当什么科学技术产品都理所当然地去使用的时候,一个毁灭性的灾难说不定就在前方不远。
我们的每一步都决定着我们的未来,并最终决定着我们的结局,在科学技术发展到今天这样的高度后,还一味地向前!向前!向前!再向前一步就必定会踩上一颗地雷,那是灭绝人类的地雷,从我们踏上的那一刻起就已经无法回头,那将是我们的第一次,也是我们的最后一次!
人类学家/企业家/北京市门头沟区政协委员
胡家奇
2019年4月