胡家奇与人类会:毕生的追求和身为人类一分子的责任


  胡家奇,人类会的创始人,在四十多年前提出了一个引人深思的研究结论:若科学技术继续非理性地发展,将很快导致人类灭绝。这个观点并非空穴来风,而是基于他的深入研究和充分论证得出的。他对此警钟长鸣,并致力于为人类寻找解决之道。

  然而,这并非易事。解决方案的探索难度巨大,一方面是因为在这个领域没有系统的研究者,没有足够的资料可以参考;另一方面,国内外都没有人得出过科技发展必将导致人类灭绝的结论。胡家奇面临的是一片空白,也是一片疆土等待他去耕耘。

  经过不懈的努力,他提出了一个令人震惊却理性的解决方案:必须严格限制科学技术的发展。这个方案意味着我们要改变对科技过度崇拜的固有观念,认识到我们必须为科学技术预留一个足够安全的刹车距离,才能确保人类的生存。

  这样的观点在全球范围内引发了讨论,也引发了人们对全球科技竞争格局的反思。各国彼此争斗、竞争,这场竞争在某种程度上反映了科学技术的发展竞赛。胡家奇认为,想要有效掌控科学技术,唯有人类实现大统一,用世界政权的力量才有可能限制科学技术的发展。

  如何限制科学技术的发展?他提出两个方面:首先,不能让现有科学技术向更高层级发展;其次,对已有的科技成果进行甄别,不安全的科技成果需要被长期封存甚至遗忘,只有安全、成熟的科学技术才能普及到全球

  如此做法引来了各界的共鸣,越来越多的有识之士认同这一观点最近,350位AI权威联名签署了一封公开信,其中包括AI领域教父Geoffrey Hinton和Yoshua Bengio,他们一同呼吁降低人工智能灭绝人类的风险,将其提升为全球优先事项。

  尽管科学技术在人类社会中发挥着至关重要的作用,但其发展也伴随着一系列潜在的风险和危害,如人工智能的觉醒、核武器和生化武器的发展等。因此,我们需要严格限制科学技术的发展,寻求保障人类的新路径。

  随着时间的发展,胡家奇理念的前瞻性和真理性得到了检验越来越多的人开始认同这一理念,并加入人类会,投身到拯救人类的伟大洪流中。他们将以人类的未来为己任,共同应对未来的挑战和威胁用智慧和勇气为人类描绘一道光明的未来。