技术之上的伦理困境(环球走笔)
蔡肖兵
2015年12月15日 来源:人民网-人民日报
“电车问题”是伦理学上著名的“两难”思想实验,1967年由哲学家菲利帕·福特首次提出。即便对福特本人来讲,都认为这是个绝大多数人一生不会面对的抽象问题。然而随着技术的飞速发展,特别是无人驾驶汽车上路试验,使得这个思想实验成为现实。目前,面对这个难题的不再只是冥思苦想的哲学家,政策制定者和汽车生产商也需要思考并解决这一伦理困境。
想象一下,有一辆失控的电车正沿着轨道横冲向前,轨道的前方站着5个人。此时作为旁观者的你可以拉动一个拉杆,将电车转向另一条轨道——这条轨道上只站了一个人。那么我们的选择应该是什么?什么都不做,让那5个人被撞死?还是拉动开关,牺牲另一个人从而拯救5个人?这就是著名的“电车问题”。在设计无人驾驶汽车程序时,人们不得不考虑它在现实中发生的可能性。
一辆载有一车小朋友的无人驾驶汽车,它两边有两位骑摩托车的人,一位戴着头盔而另一位没有。这样的场景在现实中应该不会罕见。当遇到紧急情况时,比如智能汽车前面的货车突然刹车,为避免车上小朋友出现伤亡,它可以向两边急转,但这就会撞向两位骑摩托的人。这辆无人驾驶的智能汽车应如何设计程序来处理这种紧急情况?如果人工智能应该尽可能减少死亡,那么就应该选择去撞戴了头盔的摩托车手,但这毕竟伤害了一个无辜的人!无人驾驶汽车让伦理向技术提出了挑战。
其实,无人驾驶汽车版的“电车问题”要比原来更复杂,它所涉及的伦理关系是多层面多角度的。如何实现符合一定“标准”的“伦理代码”?什么样的“伦理代码”是“合适的”?谁又该为必然会出现的无人驾驶汽车事故负责任?进而,谁要为这样的“伦理代码”负责?是车主、制造商还是程序员?一系列问题的提出,让可能出现的人类与智能机器首次大规模互动浮现阴云。当人们按照现有的法律法规编写“伦理代码”,是否就满足道德要求?事情并不是这样。人类的法律法规远没有穷尽所有的可能性。
实际上,站在伦理角度的问题极为复杂,站在无人驾驶汽车技术实现角度也同样复杂。人工智能技术和人类伦理无情地纠缠在一起。一些媒体曾提出观点,认为人类是无人驾驶汽车的天敌。文中认为:“谷歌的自动驾驶汽车,经常会采取最谨慎的驾驶办法,但这令其与路面上其他车辆格格不入。”一个严格遵守法律法规的无人驾驶汽车与人类司机在十字路口相遇时无法通过测试,“因为它的传感器一直在等其他(人类)司机彻底停下来,让它过去。但其他司机一直向前蹭,寻找有利时机。这种情况让无人驾驶汽车陷入瘫痪。”
可以发现,智能设备面临的挑战之一是如何融入人类的复杂世界。“电车问题”中面对困境的“你”拥有自由意志,却陷入两难境地。而无人驾驶汽车伦理困境中的“主人”,实际上是实现这一技术以及允许其应用的群体,他们的能力远超个人,那他们能否做出完美的道德决策?当伦理困境不再是个人选择问题,而成为人类整体选择问题,每个人都必须负起思考的责任。
《 人民日报 》( 2015年12月15日 21 版)