当今世界最著名的物理学家史蒂芬•霍金就人类命运提出了三个在全世界引起强烈反响的重要的观点,但都比我就这些观点正式出版的著作和发表的文章晚了多年。因此说是“霍金提出了三个和我一样的观点”,而不是相反。
第一个观点:2010年4月,霍金指出,宇宙中有千亿的星系,每个星系又有数亿颗恒星,外星人几乎肯定存在,我们应该避免与外星人接触,千万不要联系外星人,否则可能会导致人类被毁灭,因为能够穿越恒星际的距离来到地球的外星人,其科学技术的领先程度必定远高出地球人,我们无法与之抗衡。霍金的推理和举例和我的完全一致,但比我晚了三年。
第二个观点:2014年12月霍金指出,人工智能技术终将产生自我意识并取代人类,因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,可能会导致人类灭绝。霍金的推理和举例和我的基本一致,但比我晚了七年。
第三个观点:就是在不久前,也就是2017年3月霍金在接受《伦敦时报》采访时指出,人工智能如果管控不好有可能灭绝人类,我们需要以更快的速度识别这类威胁,并在失控前采取行动,要做到这一点,需要组建某种形式上的世界政府。霍金的推理和举例与我的基本一致,但比我晚了十年。
首先,肯定不是我借鉴了霍金的观点,多半是他借鉴了我的观点,因为我在先,他在后,而且我的文章和书稿都用中、英两种文字,发给过多国领导人和多个机构,并在多个网站上公开发表过,不仅有中国的网站,还有国外的科技、社会和政治类英文网站。
说霍金提出了三个和我一样的观点不是想炫耀我有多了不起,相反,我是想说世界顶级科学家思考的观点正在趋近我的核心观点,而这些核心观点我认为事关人类的生死存亡,努力让世界接受这一观点并采取相应的行动,这是我一生的追求,借势霍金这样的科学家正是我的用意。同时我还想说,霍金的观点还不够深入,不够全面,不够彻底。
还在1979年我刚上大学不久就产生了一个很怪的想法,科学技术是一把双刃剑,既能造福人类,也能毁灭人类,那么科学技术照此发展下去会不会有一天把人类给灭绝。如果在不久的未来科学技术就会灭绝人类那无疑是天大的事,那么我们有没有可能解决这一问题呢?很快我就觉得这是一个很值得研究的课题,人的一生难得做成一件值得去做的大事。不久后我就决定,我这一辈子只做这一件大事。我从国家机关下海经商也是为了这件大事,因为有一定的经济基础后就可以静下心来进行研究与写作,并有条件推广我的研究成果。
其实,要严密的论证科学技术是否会灭绝人类,并找到化解这一危机的方案是很难的,完成这一工作我用了近二十八年的时间,并终于在2007年1月完成了我的《拯救人类》一书。这部八十万字的著作在还是样书的时候,我就将其寄给过中国国家主席、美国总统和联合国秘书长等26位人类领袖,但除了伊朗使馆来过一个电话外,再没有任何反馈。
2007年7月,《拯救人类》一书分为一、二卷由同心出版社出版,但仅发行了一天就被要求暂停发行了。
之后我又出版了《最大的问题》一书,还在香港出版了《论人类灭绝》和《拯救人类(精选本)》两部书,并发表过多篇文章,还为此建了一个网站名为“胡家奇网”。为了陈述自己的理论和建议,我之后又多次给各大国的领导人和联合国秘书长等人类领袖,以及相关机构写信,还在一些大学发表过演讲。
我曾与许多人进行过交流,但我的核心观点常被认为是杞人忧天,有些人甚至直言不讳地说我的观点是谬论。
然而,仅仅才过去十年,科学技术又得到了长足的发展,一些我当时的预言似乎今天就快要变成现实。同时,在这十年中我的一部分观点已陆续被一些著名的科学家和学者提出,这也是我还算欣慰的地方,遗憾的是,我的一些最核心的观点目前还没有有分量的人提出,也没有有分量的人认可我,这是我忧心如焚的事,因为留给人类的时间真的已经不多。
这里只谈我的三个具有现实意义的核心观点,霍金与我相同的前两个观点只是我的分观点,第三个观点是我的一个具有现实意义的核心观点,即只有通过世界政府才能管控科学技术,在此不复述。另外两个核心观点我认为十分重要。
第一是:科学技术的继续发展必定很快灭绝人类,长则二、三百年,短则就在百年内,而且我认为多半会是后者。
其实现在已经有人提出了和我几乎一样的观点,2013年5月与霍金在同一座城市的牛津大学人类未来研究所发布研究成果指出,人类最早将在下世纪被灭绝,罪魁祸首就是科学技术。这是由众多数学家、哲学家、科学家组成的专门的小组研究得出的结论。该研究成果和用例与我的研究成果与用例几乎完全一致,但比我晚了六年。
该研究所的所长尼克•博斯特罗姆在接受网络采访时表示:“人类的科技能力与人类运用这些能力的智慧正在展开一场重大比赛,我担心前者可能会遥遥领先于后者。”博斯特罗姆进一步阐述:行星撞地球、超级火山、核爆炸等危害不足以威胁人类的生存,人类最大的威胁来自科技创新所带来的“不确定因素”,如合成生物学、纳米技术和人工智能,以及其它还没有出现的科学技术成果。
当我得知他们的研究成果后喜出望外,随即写了“致:牛津大学人类未来研究院院长尼克•博斯特罗姆教授”的信,同时我又写了一篇文章“终于有了知音”,这两部分文字我都翻译成英文发给了博斯特罗姆并放到了网上,但一直没有回复。
2016年初,由谷歌开发的机械人“阿尔法狗”战胜韩国围棋冠军李世石,震惊了世界,这充分显示机械人已经具备了深层学习的能力,对其进一步的思考是很怕的。霍金、马斯克、比尔•盖茨等世界顶级科学家都对此十分担忧,比尔•盖茨更是指出,“再过几十年,人工智能就会强大得足以引起担忧,……不知道为什么有些人对此无动于衷”。这促使我考虑,我们公司也要抓紧进行人工智能的研究,因为我不研究,许多人也在研究,我研究还能跟踪这一技术的动向,如人类真有不测,到时也许还能帮一些忙。
第二个也是目前还没有有分量的人接受的观点是:为了避免人类的灭绝必须从现在起就要严格限制科学技术的发展。
因为,科学技术具有不确定性,越是高深的科学技术越难把握。科学技术已经发展到现在这样的高度后,还在冒然前行风险之大谁都难以预测。将现有安全、成熟的科技成果广泛普及到全球,并进行合理的管理,完全可以保障全人类丰衣足食。如果向科学技术进行无限制的索取,人类灭绝必将为时不远。霍金认为管控好人工智能就能解决问题,那么我们能够管控一时,能够管控永远吗?能够管控一项科技成果,能够管控所有科技成果吗?只有通过世界政权的力量,将现有安全成熟的科技成果进行严格筛选后加以普及利用,而后将其他的科技成果和科学理论严密、永远地封存并达到遗忘,同时严格限制科技研究,这才是人类永续未来的唯一途径。
以上正是我认为霍金的认识还不够深刻和全面的地方。也许人们认为这是谬论,但我坚信这是真理。
这里需要澄清的一点是,说限制科学技术的发展不是要中国首先限制,而是全球要同步限制,如果要中国首先限制我也会坚决反对。
(注:霍金与我相同的第一、二、三个观点分别见我的《拯救人类》一书“卷一”的第三章第四节,第六章第二节,“卷二”的第一章第五节;《最大的问题》一书的第三章第四节,第六章第二节,第八章第四节。我的《论人类灭绝》和《拯救人类(精选本)》也有相关内容,我还就上述观点发表过专门文章)
作者:胡家奇 人类问题学者
一路捞集团、建磊集团董事长兼首席科学家