霍金最后著作对未来饱含忧思
2018年10月18日 来源:科技日报
《重大问题简答》封面。图片来自网络
10月16日,已故著名物理学家斯蒂芬·霍金最后的著作《重大问题简答》一书出版,涉及他对科学与社会所面临的最大问题的思考,包括“人类是否会一直在地球上生存下去?(可能不会)”“时间旅行是否可能?(仍无法排除可能性)”等;还有对诸如地球面临的最严重威胁、“超人”种群以及外太空是否存在智慧生命、如何开拓太空殖民地等问题进行的最后预测,这些预测饱含了霍金对人类未来深深的忧思。
据美国石英财经网站15日报道,霍金在书中称,未来人工智能可能形成自己的意志——与我们人类相冲突的意志;一种利用基因工程超越同伴的“超人”种群将占据主导地位,这可能毁灭人类。
人类的进化没有边界
石英财经网站16日报道,在整本书中,霍金对人类在地球上的未来持悲观态度。政治不稳定、气候变化以及核暴力的可能性,使人类在地球上发展的持续性变得难以为继。
霍金认为,地球面临的头号威胁是小行星碰撞,类似那种导致恐龙灭绝的碰撞。他写道:“可是,我们(对此)无法防御。”
更直接的威胁是气候变化。“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250℃。”
霍金认为,核聚变发电会赋予我们清洁能源,不排放污染,不引起全球变暖。
在“我们如何塑造未来”章节中,霍金不同意人类处于“进化巅峰”这一观念。在他看来,人类的进化和努力没有边界。
他认为人类未来有两种选择:首先,探索其他可供人类居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星际行星等;其次,积极利用人工智能来改善我们的世界。
人工智能将形成自己的意志
霍金还强调了规范管理人工智能的重要性。他指出,“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。应当制止可能出现的自动武器军备竞赛,如果发生类似于2010年股市闪电崩盘那样的武器崩盘,后果将不堪设想。
他在书中写道:“对人类来说,超级智慧的人工智能的出现不是福就是祸,二之必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能终将极其擅长实现目标。如果这些目标与我们的目标不一致,那我们就麻烦了。”
他主张政策制定者、科技行业和普通大众认真研究人工智能的道德影响。
“超人”种群将占据主导地位
据英国《星期日泰晤士报》15日报道,霍金最大的担忧是,富人不久将能够编辑自己及其子女的DNA,提高记忆和疾病免疫力。
石英财经网站报道,霍金认为,未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。而到那时,“我们的天才种族可能已经找到了摆脱地球束缚的方法,因此能够战胜灾难”。不过,地球上的其他物种可能做不到。
这些成功逃离地球的人很可能是新的“超人”,他们利用诸如CRISPR(俗称“基因剪刀”)这样的基因编辑技术超过其他人,科学家可利用此类基因编辑技术修复有害基因,并加入其他基因。
霍金还表示,即使政治家设法用法律禁止这一做法,但这批人会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命,这将对世界其他人群构成危机。
在《星期日泰晤士报》15日发表的文章节选中,霍金称:“我敢肯定,本世纪之内人们将找到修改智力和天资的办法。政治家可能会制定禁止人类基因工程的法律,但肯定有人抵挡不了改进人类特征——比如记忆力、疾病抵抗力和寿命的诱惑。”
他指出:“一旦出现这种超人,未能通过基因改造来提高自身的人必将遇到重大政治问题,他们无力竞争,也许会变得可有可无,甚至会绝种。不过,未来将出现一种不断加速改进的自我设计人类,如果这种人类种族能不断设法重新设计自己,很可能扩散开来,殖民其他行星和星球。”
有关为何尚未发现智慧生命或是智慧生命没有造访地球这类问题,霍金承认有各种各样的说法,他对此持谨慎乐观的态度,但他首选的解释是:人类“忽视了”外太空智慧生命的形式。(刘霞)