人工智能还是人类公敌?
2015年05月21日 作者:记者 陈墨 来源:中国青年报
在前不久的伦敦“谷歌时代精神”大会上,霍金平静地描述了人类的命运:“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。”
这位大科学家认为,届时,人类将被机器控制。
出席美国脱口秀节目时,斯蒂芬·霍金甚至还讲了一个“恐怖”故事。
“世上真的有上帝吗?”科学家用颤抖的声音问道。
“现在有了。”世界上最聪明的人工智能电脑回答。话毕,一道电光闪过它的电源插头——人们再也关不掉它了。
主持人约翰·奥利弗听得瞪大了眼睛。和地球上大多数人一样,他也相信当人类真要与人工智能作战时,切断它们的电源就足以制敌了。
今年年初,霍金在一封提倡控制人工智能发展的公开信上签下自己的名字,微软创始人比尔·盖茨、特斯拉汽车公司与美国太空探索技术公司CEO伊隆·马斯克的名字也赫然在列。在他们看来,飞速发展的人工智能已经成为“我们现存的最大威胁”。
人类一手创造了敌人,并用自己最强大的武器“智慧”武装了它
几位人类科技界“顶梁柱”担心的“人机大战”,很可能已经悄悄冒出硝烟的味道。在上传至Youtube的一段视频中,一只名为Spot的机器狗协调地运动着白色的四肢,像真正的狗一样行走。
为了证明它的坚固,有人冲出来,对准它的腹部结结实实地踢了一脚。机器狗一个趔趄,一边发出急促的吱吱声,一边紧踏几步保持平衡。
这段“虐狗”视频引发了热议。有网友评论:“这就是世界结束的方式。不是大爆炸,而是在被你踢了之后,机器狗转身扑向你。”
在现实世界中,人类也正处在人工智能的包围中:拿起手机,可与虚拟助手Siri对话;想要出门,可乘无人驾驶汽车兜风;走进医院,超级电脑沃森医生正在“坐诊”。
战争可能在某一天悄悄打响。电脑擅自替你做出抛售股票的决定,或者无人驾驶汽车突然决定在高速路上歇脚。之后的情况则将超出“故障”的范畴,演变成一场灾难。
在忧心忡忡的科学家们看来,这将是一场前所未有的战争。人类一手创造了自己的敌人,并用自己最强大的武器——“智慧”,为它武装。
“我们人类之所以存活于世,从来不是因为我们是这星球上最强壮、或行动最快的物种,而是因为我们最聪明。”《我们最终的发明:人工智能和人类时代的终结》作者詹姆斯·巴拉特说道,“所以当比我们更聪明的力量出现在这星球上的时候,它就将接管地球。”
超人学家尼克·博斯特罗姆在《超级智能》一书中描绘了令人毛骨悚然的场面:纳米机器人突然开始疯狂地自我复制,而它们此前被植入人体内,是用来对抗疾病。
上上个周末,身在伦敦的霍金以三维全息图的方式出现在悉尼歌剧院,用机械声音对坐在台下的人们说:“我认为我们无法再在这个脆弱的星球上生活1000年。” 受困于缓慢的进化速度,人类根本无力与飞速发展的人工智能抗衡,最终,“人工智能的全面发展将导致人类的灭绝”。霍金甚至主张人类去其他星球“殖民”,以保证种群的延续。
另一些学者则描绘了人类完全被机器人“脾气”主宰的悲凉命运。他若残暴,我们可能被屠杀;他若人道,我们的出生率可能被逐渐降低,自然灭绝;若他们当中有善良的自由主义者,我们将被驯化。
比起“宠物”,对科技持乐观态度的哲学家格雷·斯科特更愿意把人类视为“学生”。当人工智能超越了人类智能,人类将在它们的指导下,“成为更好的物种。”
在一片恐惧中,百度公司首席科学家吴恩达认为,现在为人工智能的负面影响担忧,就像担心火星上人口过剩一样遥不可及。
特斯拉CEO马斯克却无法对此视而不见。这位亿万富翁已经开始“站岗放哨”。他为一家名为“Deep Mind”的人工智能公司注入资金,只是为了“盯着这种技术的走向。”
人工智能拥有成为“终结者”的潜力,即便在它们完全服从命令的时候
一位高级认知机器人学研究者正面临着颇为纠结的教育问题。与不知怎样向孩子解释“小孩从哪儿来”的父母不同,他在思考要不要向孩子揭示一个残酷的前景——他们可能不会有机会拥有自己的孩子,因为他认为人工智能统治的时代已经近在咫尺了。
“人工智能真正严重的危险将在5年、最多10年后便会出现。”马斯克去年11月在群组博客Edge的讨论中写道。或许是太过惊悚,消息刚发出便被删除。相比之下,霍金给出的100年期限简直温和极了。
不过眼下,人们还是可以确定,至少在一段时间内,人工智能只会是让生活更美好的“大白”。
它们将是照顾老人的护工,看护孩子的玩伴,打理家务的管家,甚至与人心灵相通的朋友。通过解码面部肌肉运动,人工智能机器人将得以理解人的感情和思维,如同科幻电影里的“大白”一般,时刻准备送上治愈的拥抱。
乐观的哲学家格雷·斯科特描绘了一幅美好的图景:到2018年,自动化将遍及世界,承包无聊或危险的工作,辅助人类做有趣的事情。在不远的未来,机器更将满足人类的生活所需,让二极管去算账,让女会计成为诗人。
然而,这些美妙的念头无法令他回避人工智能拥有成为“终结者”的潜力,即便在它们完全服从命令的时候。
“在追击人群中的一个目标时,它会知道等目标离开人群后再开火吗?”斯科特问道。这是科学家们共同承认的一个困境:如何为道德编码。当人工智能被用于军事,这变得尤为重要。
就在上月,哈佛大学法学院呼吁“通过国际法令,禁止开发、生产、使用自主式武器”。起草报告的邦妮·多赫蒂义正辞严地表示:“没有道德和人性的机器不应拥有杀戮的权力!”
在好莱坞电影《复仇者联盟:奥创纪元》中,人工智能奥创以“杀戮”的方式,忠实地履行着创造者维护和平的意愿,在它看来,这手段最行之有效。
现实中,科学家也担心,会不会有一天,“抗癌斗士”纳米机器人仔细思考后发现,比起杀死癌细胞,清除基因上易患病的人更方便。
“把能量释放出来容易,想确保安全却很难。”马斯克认为,人工智能研究的重点首先应该放在安全上。如果开发时间因此延长,恰恰是正确的路径。“我们不能一头扎向自己不懂的东西。”
今年年初,霍金、马斯克、盖茨等共同签署了公开信,呼吁科学家对人工智能提高警惕。霍金建议人工智能研究机构应协同合作,确保发展速度不会过快,并使之保持在人类的掌控之中。
人工智能将是人类历史上最大的成功,也可能是最后一个
如果有一天,外星文明发来讯息:“我们将在几十年之内到地球来。”我们当然不会回应:“好的,我们给你们留着灯。”
对此,霍金在2014年5月发表在英国《独立报》的一篇文章中写道,“相似的事情正在我们与人工智能之间发生。”
哲学家格雷·斯科特指出,人工智能是“入侵者”,而人类对它们而言也是“压迫者”。机器的反应取决于人类对它们的设定,降低机器的自尊水平或许能够避免冲突。马斯克则将“仁慈”视为保证人类控制水平的最佳方式。
在“时代精神”大会上,轮椅上的霍金用脸部的一块肌肉指挥机器说道:“我们需要确保计算机与我们的目标相一致。我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。”
在另一些科学家看来,人类与人工智能可能根本不会有“开战”的机会。在被人工智能冲击之前,人类的防线就已经开始不由自主地倒戈。
第一台盲人阅读机的发明者雷蒙德·库茨魏尔在《灵魂机器的时代》一书中描述道,人类不会把控制权拱手让与机器,人工智能也不会主动攫取。随着机器愈发复杂和智能,人类对机器的依赖也日益加深,最终不得不听任机器来控制。到那时,关掉机器是无法摆脱他们的控制的,因为关机于我们而言无异于自杀。
斯科特依旧对人类充满信心,他相信,人类已经用技术和法律规范约束了核弹,也必定有能力管理人工智能。虽然在霍金口中,人工智能无疑是前所未有的劲敌,“比金融家更聪明、比研究者更富创造力、比领导更具操控力”。
在电影《超验骇客》中,被暗杀的科学家威尔在妻子的帮助下,成功将自我意志转入超级电脑之中,从此成了无所不在的“超验骇客”。他能从土壤中造出太阳能板,能让残疾人长出新肢,能全天候通过一切终端出现,人类已经无法阻止这个人机合一的超级存在。
曾主张修改人类基因与机器抗衡的霍金对此大为兴奋。他力挺把人的大脑与计算机直接相连的“人脑控制技术”,由此打破人类智能与人工智能间的藩篱,人与机器最终得以合二为一。自此,人工智能将对人类智能做出贡献,而非威胁。
到那时,人类千百年来苦苦追求的长生不老也可能因此实现,肉体死去,精神却在人工智能系统中获得无限的权力和自由。
“人工智能将是人类历史上最大的成功,”早已瘫痪的科学家霍金在机器的辅助下写道,“不幸的是,这也可能是最后一个。”