未来世界中,智能机器人应该遵循人类的道德吗?(2)

2015-06-09 21:46 责编:小编 来源:UFO发现网 浏览 参与 评论
导读 这些问题激发了一批顶尖科学家的灵感,有人已进行了相关试验。英国布里斯托尔机器人实验室的专家艾伦温菲尔德(Alan Winfield)及其同事,为机器人设计了这样一个程序阻止其他拟人机器人掉进洞里。该程序的设计原理...
文章:未来世界中,智能机器人应该遵循人类的道德吗?(2) 来自互联网,不代表本站的观点和立场!如有问题,请与本站联系。

这些问题激发了一批顶尖科学家的灵感,有人已进行了相关试验。英国布里斯托尔机器人实验室的专家艾伦·温菲尔德(Alan Winfield)及其同事,为机器人设计了这样一个程序——阻止其他拟人机器人掉进洞里。该程序的设计原理,源于美国著名科幻小说家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人学三定律之一——机器人不得伤害人类,或坐视人类受到伤害。

试验一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上去将其推开,防止其掉进洞里。随后,研究人员又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,其中一个“人”会被成功解救,而另一个“人”则会掉进洞里;有时,机器人甚至会想同时救出两个“人”。不过机器人在33次的测试中,有14次因为在救哪一个“人”的问题上不知所措而浪费了时间,结果导致两个“人”都掉进了洞里。2014年9月2日,在英国伯明翰召开的“迈向自主机器人系统”会议上,研究人员将这项实验的结果公开展示,并引起了世人的高度关注。

未来世界中,智能机器人应该遵循人类的道德吗?

温菲尔德说:“虽然根据程序设定,救人机器人是可以对他人施救的,但它根本不理解这种行为背后的真正原因。实际上,它就是一具‘道德僵尸’——只知道根据程序指令行动,完成任务,仅此而已。我曾经不确定机器人能否做出道德伦理选择,经过这一系列实验,我仍然不知道答案。”

未来世界中,智能机器人应该遵循人类的道德吗?

人类选择

温菲尔德所思考的问题对于所有人来说,都具有非常重要的意义。随着机器人日益融入人们的生活,这一问题更加需要明确的答案。

微信二维码
关注 UFO发现网,权威探索揭秘,期待你的关注!
扫描二维码 或 搜索微信公众号“ufofxwqw”即可关注我们!
UFO、宇宙奇闻等 让你每天都能了解到全球各地的未解之谜!
↓【往下看,下一页更精彩】↓
相关阅读
热点资讯
关于我们 - 联系我们 - 广告服务 - 免责申明
Copyright © 2014-2018 ufofxw.com. UFO发现网 版权所有.
浙ICP备18008858号-1