欢迎访问
第五产业 >> 文化艺术 >> 机器伦理学:机器人道德规范的困境

机器伦理学:机器人道德规范的困境

0150811  来源:  科技日报

 

http://news.xinhuanet.com/tech/2015-08/11/128115055_14392527878091n.jpg

罗贝尔被设计为帮助照顾病人或老年人

    机器人三大法则

    科幻小说作家艾萨克·阿西莫夫在他1942年的短篇小说《环舞》(Runaround)中提出了机器人三大法则,后来更被几十篇故事和小说所借用。这些法则是一种保护性设计和内置的道德原则,包括如下三项:一、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;二、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;三、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。

    《环舞》的故事放到现在真是非常合适。近年来,现实生活中的机器人专家也越来越多地引用阿西莫夫的法则:他们创造的机器人正变得越来越自主,以至于需要这类指导。今年5月,华盛顿智库布鲁金斯学会的一个专家小组在谈到无人驾驶汽车时,话题转到了自动驾驶工具在危险时刻该如何应对的问题。如果一辆车需要急刹车来拯救它的乘客,却可能带来其他风险,比如导致后面的车辆挤成一团;或者需要急转弯避让一个孩子,却可能撞到附近的其他人——这些情况下它该怎么办?

    “在日常生活中,我们看到越来越多的自主性或自动化系统。参与专家组讨论的德国西门子工程师卡尔-约瑟夫·库恩说,研究人员怎样设计一台机器人,才能让它在面对两难之选时作出正确的反应?

    按目前的发展速度,这些难题将很快影响到健康护理机器人、军用无人机及其他有能力作决策的自主设备,而它们所作的决策可能会帮助或伤害人类。越来越多的研究人员相信,社会能否接纳这些机器,取决于能否通过编程让它们的行动达到安全最大化,符合社会规范并增进信任。加拿大温莎大学哲学家马赛罗·伽里尼说:我们需要一些严肃的步骤来弄清楚,在某些道德情景下,让人工智能得以成功推理的相关条件是什么。

    目前有几个项目都面临这一挑战,包括美国海军研究办公室和英国政府的工程基金理事会资助的创新项目。他们必须解决棘手的科学问题,比如要作出一个合乎道德的决策,需要哪种类型的智能,要达到多高的智能程度,以及这种智能如何转化成机器指令?计算机科学家、机器人专家、伦理学家和哲学家们都在共同努力。

    “如果你5年前问我,我们能否造出来道德机器人,我可能会说,但现在我觉得这种想法并不为过。英国布里斯托尔机器人技术实验室的机器人专家阿兰·温菲尔德说。

    学习案例的机器人

    在目前人们经常提到的实验中,一个叫做“Nao”的商业玩具类机器人经过编程设计,能提醒人们按时吃药。

    “从表面上看,这好像很简单。美国康涅狄格大学哲学家苏珊·安德森说,她丈夫迈克尔·安德森是哈康涅狄格州哈特福特大学的计算机科学家,他们正一起研究这种机器人,但即使是这种有限的任务,也涉及到不平常的伦理道德问题。比如,病人如果拒不接受Nao给的药,它下一步该怎么办?如果让病人跳过这一次,可能会危害他的健康;如果坚持让他服药,又会侵犯了他的自主权。

    为了教导Nao处理这种两难的情况,安德森给了它一些案例,在这些案例中生物伦理学家解决了这种病人自主权、危害和利益之间的矛盾。学习算法随后会在这些案例中分类选择,直至找到指导机器人在新情况下如何行动的办法。

    随着这种机器学习的发展,机器人甚至可以从模糊不清的输入中提取出有用的知识。理论上,这种方法有助于机器人在遇到更多情况时,作出更符合道德的决策,但也有许多人担心,这种好处也是有代价的。斯坦福大学的人工智能与伦理学专家杰瑞·卡普兰说,出现的原则不写入计算机代码,如此你无法知道怎样编程制定一项特殊法则,来辨别某件事在道德上正确与否

    编程限定的机器人

    许多工程师认为,要避免这一问题需要不同的策略,大部分正在尝试编写有明确法则的程序,而不是让机器人自我推导。去年,温菲尔德发布了他的实验结果:当有人遇到危险,如掉进洞穴时,允许一台机器去救助他的一套最简单的规则是什么?温菲尔德意识到,最明显的是机器人要有能力感知它周围的环境——识别洞穴和人的位置,以及它自己相对于二者的位置。但机器人还需要一些规则,让它能预测自身行为可能带来的后果。

    温菲尔德的实验用了几个曲棍球大小的机器人,他将其中一些设计为“H-机器人代表人类;另一个则按照阿西莫夫的小说取名“A-机器人,代表道德机器。他还模仿阿西莫夫的第一法则给A-机器人编程:如果看到H-机器人处在掉入洞穴的危险中,必须来到H-机器人身边解救它。

    温菲尔德用机器人做了几十次测试。随后他很快发现,执行允许无害法则面临着道德困境,如果让A-机器人看到两个H-机器人同时濒临险境,这时它会怎么做呢?

    温菲尔德说,结果表明,即使最低限度的道德机器人也是有用的:A-机器人通常会设法去救一个,通常是首先移动到离它稍微近一些的那个身边。有时它会迅速移动,甚至设法去救两个

    但实验也显示了极简主义的限制。在近一半的实验中,A-机器人只是在那里无助地振动,任两个处在危险中死亡。要想改善这一点,还需要找到如何做选择的额外法则。比如,其中一个H-机器人是成人,而另一个是个孩子,A-机器人应该先救哪一个?在做类似这样的选择时,甚至人类自己也无法达成一致意见。通常,就像卡普兰所指出的:我们不知道明确的规则应该是怎样的,也不知道该如何编写它,如此它们必然是不完善的。

    而拥护者认为,以规则为基础的策略有一个重要优点:机器为何要做选择,这一点总是很明确,因为设计者制定了规则。

    战场中的道德管理者

    这也是美国军方所关心的一个重要问题,自动系统是一项关键的战略目标。机器能否帮助士兵,或执行可能有生命危险的任务。送一个自动机器人去执行军事任务,并算出在各种任务中应该遵守的什么道德法则,这恐怕是你最不希望的事。乔治亚理工大学的罗纳德·阿金说,他正在研究机器人道德软件。如果一个机器人需要在救一名士兵和追逐敌人之间做出选择,那事先知道该做什么是非常重要的。

    在美国国防部的支持下,阿金正在设计一个程序,以确保军用机器人能按照国际公约规则来行事。一套称为道德管理者的算法能计算出某种行为,比如发射一枚导弹是否被许可,只有在得到肯定答案的情况下才能继续下一步。

    在对道德管理者进行的一次虚拟测试中,让一辆无人驾驶的自动车模拟执行打击敌人目标的任务——但如果有市民在建筑物附近,则不允许这么做。设定的场景各种各样,自动车相对于攻击区的位置也是多变的,市民有时出现在医院,有时在住宅建筑,由算法来决定何时允许自动车完成其任务。

    自主而且军事化的机器人令很多人震撼。有人认为它们是危险的——围绕这种机器应不应该被批准已有无数争论。但阿金认为,在某些情况下这种机器比人类士兵更好,只要它们经过编程,就永远不会打破战争规则,而人类却可能无视这些规则。

    目前,那些正在研究严格编程的机器伦理学的科学家倾向于使用代码,用逻辑的描述,例如如果一个陈述为真,向前进;如果为假,不要动。位于葡萄牙里斯本的诺娃计算机科学与信息实验室的计算机科学家路易斯·莫尼兹·佩雷拉认为,逻辑是编码机器道德的理想选择,逻辑是我们推理并得出道德选择的方式

    写出一些逻辑步骤指令来做道德选择是一项挑战。佩雷拉指出,使用计算机程序的逻辑语言,对假设的情景得出最终结论是很困难的,但这种反事实推理是解决特定道德困境的关键。

    道德困境逻辑解决

    比如哲学中那个著名的道德选择问题:假设轨道上有一列失去控制的火车,即将压死正在轨道上的5个无辜的人,你只要扳一下杠杆使其转到另一条轨道就能救这5个人,但在那条轨道上有另一个旁观者就要因此而死;或者说,唯一能让火车停下来的办法是把这个旁观者推到轨道上,这时你该怎么做?

    人们通常会觉得,扳一下杠杆让火车停下来没问题,但却本能地抵触将旁观者推上轨道的想法。按照基本直觉,哲学家将其作为双重效应的基本原则,故意施加伤害是错误的,即使会带来好的结果。但如果不是故意的,只是单纯地想做好事,施加伤害或许是可以接受的——即旁观者只是碰巧在轨道上的话。

    对于决策过程而言,这一界限是极难分析的。从一开始,程序必须能预见到两个不同的未来:一个是火车杀死了5个人,另一个是火车杀死了1个人;然后程序必须要问,因为去救5个人的行动会造成伤害,所以这一行动是否不被允许?或者,因为伤害只是做好事的副作用,所以这一行动是被允许的?

    为了找到答案,程序必须能告知如果选择不推旁观者,或不扳杠杆会发生什么——这就是反事实推理。这好像是一个程序在不断地自行调试,以找到编码的界限在哪里,如此事情就会改变,并预测改变的结果可能是什么。佩雷拉和印度尼西亚大学计算机科学家阿里·赛普塔维加亚已经写出了一款逻辑程序,能在双重效应原则的基础上成功地作出决策,甚至还有更加复杂的三重效应原则,这些考虑了造成伤害是否故意,抑或只是必须如此。

    人类、道德与机器

    研究人员指出,对未来的机器人技术而言,如何建造道德机器人可能会有重大后果。英国利物浦大学计算机科学家迈克尔·费希尔认为,规则限定系统会让公众觉得可靠。如果人们不确定机器会做什么,他们会害怕机器人的。但如果我们能分析并证明它们的行为原因,就更可能克服信任问题。他正在和温菲尔德等同事共同做一项政府资助的项目:证明道德机器程序的结果总是可知的。

    相比之下,机器学习的方法让机器人能从以往经验中学习,这让它们最终会比那些严格编程的同伴更加灵活而有用。许多机器人专家则认为,今后最好的方法可能是这两种策略的结合。佩雷拉说:这有点像心理治疗,你可能不会只用一种理论。难题仍未解决,就把各种方法以可行的方式结合起来。

    随着自主交通的迅速发展,很快就会面临这些问题。谷歌的无人驾驶汽车已经在加利福尼亚部分地区试行。今年5月,德国汽车制造商戴姆勒的无人驾驶大货车开始自行驾驶穿过美国内华达沙漠。工程师们正在努力思考着怎么给汽车编程,让它们既能遵守交通规则,又能适应道路情况。迄今为止,我们一直在尝试用机器人来完成那些人类不擅长的任务。戴姆勒公司的发言人伯恩哈德·魏德曼说,比如在长期驾驶中一直保持专注,或在遇到突发情况时紧急刹车。将来,我们将不得不给那些人们认为很自然的事情编程,因为那对机器来说并不是自然的。

 

 


更新时间:2015-08-13 11:48:00
评论列表
评论/留言区
您好,请在下面输入您想发表的评论内容。
 
文化艺术 发布作品,需求定制艺术作品
首页 < (4/45 共 1987 篇) > 末页
技术转移 一般管理 建筑保温材料 农林 茶叶 太阳能 仪器仪表 农业 育苗 建筑施工机具 家居日用品 安全 标识 安全防盗装置 安全座椅 工业新工艺 节能照明 医药新品种 组方新药 半导体照明 体育器械 高性能分离膜材料 生活旅游用品 安全报警器 动力能源传输开关控制技术 风力海洋生物能源技术 安全保险装置 安全用电保护 工业 净水器 冶炼与铸造技术 医疗器械 材料 亲水性材料 装饰材料 工业安全控制 可控温节能技术 发电装置 生物基材料技术 农业机械 食品安全加工技术 家居洁具 保健 低碳设计新型 建筑材料地板 建筑陶瓷 环境净化 信息安全技术 空气净化 林业器具 传感器及其应用 家居环境水电卫生装置 家居饮水机 清洁能源技术 电池 先进复合材料 服装面料 材料 导电纤维 服装功能性材料 建筑阻燃材料 新医术 银行管理 诊断方法 人身安全技术 材料管材 工业机械锅炉 工业摸具 生活用品 农业 机械 安全防滑带 建筑设计新型 文化艺术工具 工业机械挖掘机 家用电器 商品包装和贮藏技术 工业自动机床 工业配件 供热能源 建筑框架材料 动物养殖技术 新型或微观马达和发动机 公共安全技术 发电技术 食材制作与存储 特殊环境建筑设计新型 低碳排放技术 农牧兽医配方制剂及服务技术 信息技术信号与编码 启动开关控制 环保设备 工业交换器 家居文化艺术 家居新技术 城市服务网络 娱乐及玩具器具 工业汽轮机 工艺设备机具 诊疗改进技术 科技种植 人体健康功能恢复医术 监测传感器 非金属建筑材料 传统革新技艺 安全保护品 糖果及酒类制品加工技术工艺 建筑施工技术 建筑设计新型 文化体裁制作技术 野外勘探技术 新技术车辆及配件 品种产业化技术 为保护财产和人身安全的服务方案 工业库存与调度 医疗技术和硬件新技术 系统装配技术 服装设计 计算机硬件技术 文化艺术传播技术 安全刹车装置 安全公共管理 面包糕点复合食品 纺织用纱线罩布皮革及填充物 农活技艺 传统艺术 安全与抗灾救护 工业磁仪器 离合装置 环境工程技术 个人活动辅助器具 有关人身健康和提高智力效率的技术 水资源利用技术 包装器械工具 再生资源生产技术 工业汽轮机内燃机 清洁能源技术 保健品 工业新型设备技术 医疗鉴定改进技术 电器终端 教育管理设备器具 运输装备 建筑设计新型 原创制作技术 绿色农林规划 观测观察 化工制剂配方 烹饪设备 天然材料节约技术 工业新工艺 纳米材料 环境工程技术 仓储平台器械工具 安全汽车防盗 自行车自动器个人活动辅助器具 工业磁仪器磁选设备 旅行及户外保护 水电网络 节水农业 水土保墒技艺 家具木、竹、环保制品材料 科技管理技术 技术性医疗方案 体育运动用品设计 医药药材加工储存 保健用品 光电信号技术 脱脂净化 运输设备运筹管理 健身用品 安全标志 安全与抗灾救护 防病思想 服装设计 家务燃灶新技术 自动检测技术 环保家电 防疫技术 环保产品 服装工艺 城市服务设施 家用电器新技术 农业 机具 信号控制传送检测控制技术 家居洁净技术机具 食品标准控制技术 养殖技术 环境 净化 家居 生活用品 安全 保险装置 建筑 设计 管理 食材及添加材料 清洁能源技术 安全与抗灾救护 清洁能源技术 电器终端 建筑设计新型 工业新工艺 环境工程技术 运输设备运筹管理 安全与抗灾救护 服装设计 清洁能源技术 安全与抗灾救护 食品安全加工技术 环境工程技术 量子通讯
 
网络链接(KSN) 友好的连接联盟,让更多人知道你合作成功 大专院校 研究院所 产业公司 科技园区 协会事业 期刊网络 服务博览
本网域名: www.知识产品网.com,www.zhishichanpin.com,知识产品.中国,www.diwuchanye.com,第五产业.中国,集创.com,自版.中国,ipr品牌.中国,cnd5.cn,cnd5.net
友 情
链 接
     网站介绍     服务协议     联系我们