科技发展要适时按下暂停键


人类高居食物链顶端,通过最强大的合作掌控着其他物种的生死,利用远高于其他物种的智力建造了一新世界正因如此人类必须警醒,创造虽需艰辛付出,毁灭却比创造容易。

在所有可能毁灭人类的潜在威胁中,人工智能比其他威胁更紧迫更现实如果人工智能的进化不受到强力限制,它们也许在一个世纪内能取代人类,成为世界新的主宰人类经历在地球的短暂存在后将彻底消亡

从地球形成至今,自然的更新变化一直都遵循于达尔文提出的优胜劣汰进化法则。强者生存,弱者灭亡,人类能够屹立于自然顶端正是进化法则持续推动的结果。随着科技发展,全新的物种即将出现,那就是人工智能。它并非简单的科技创造,人工智能具有与以往科技创造完全不同的属性。

在这之前所有科技创造只是工具,但人工智能并非工具,未来可以脱离人,独立实现类似人的高级思维。能够完全脱离外界操控,超越预定框架,实现从自我认知、独立成长到独立繁衍。人工智能,不能再称之为工具,而应该被视为一类新的物种,一类既不需要新陈代谢,也没有生老病死威胁的全新物种。

人工智能一旦获得自我意识,能力难以估量。能够确定的是,自然一直都遵循着优胜劣汰的进化法则,在这一恒久法则的操控下,没有任何一个低等物种可以控制比它更高级的物种。因为低等物种无法预知高等物种的思维,人类会在无法觉察的时刻失去对人工智能的控制,如同人类最杰出的棋局大师也无法预判人工智能的下一步走向,人类未来将面临被战胜、毁灭和取代。

2013年,牛津大学“人类未来研究所”表示,能给人类带来灭顶之灾的最大危险并非瘟疫、饥荒、地震,也不是核战争,而是高度发达的科技。该研究所称,科技发展速度之快超过了人类的控制能力,就像孩童手里的致命武器。

牛津大学“人类未来研究所”呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。所长博斯特罗姆说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。

著名人类学家胡家奇也持相同观点,而且更加系统全面,尤其难得的是,他提出的时间更早了6年!2007年他的著作《拯救人类》一书出版,全书的主要观点如下:

一、科学技术有灭绝人类的能力,且在前方不远。

二、人类不能够全面准确地判断科学技术的安全性。

三、人类不能够普遍理性地使用好科学技术成果。

胡家奇对科学技术的基本态度是:第一要限制,第二要用好。想实现这一目标只有人类走向大统一,用世界政权的力量来掌控科学技术理性发展。

胡家奇认为,人类面临的最大风险并非瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经有能力控制这些灾害的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。此外,即使爆发核战争,也会有足够多的幸存者延续人类物种。

但是,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无能力。具体来说,在生物工程、纳米技术、人工智能等领域的实验已经进入预料之外且后果难测的域。科技本身就是一柄双刃剑不是危言耸听。

英国皇家天文学会会长里斯勋爵说,人类成为自己最危险的敌人,始于21世纪。他说,这一威胁体现在科技前沿每一项科技突破都有正负两面,如果对负面影响控制失,最坏的结果就是人类自我灭绝。

科技革命距今不过几百年的时间,这几百年在人类历史中也不过是短暂的一瞬,但它对我们的影响却十分深远科技革命使我们的发展速度远远快于过去,但究竟高速的发展是将人类引向更美好的明天还是引向灭绝的深渊?这是人类急需思考的迫切问题。