机器人学三定律:[ (美)艾·阿西莫夫著,科学普及出版社,1981年4月版,所提人物及各章节名称均依该书译名为准。]:
第一定律--机器人不得伤害人,也不得见人受到伤害而袖手旁观
第二定律--机器人应服从人的一切命令,但不得违反第一定律
第三定律--机器人应保护自身的安全,但不得违反第一、第二定律
《我,机器人》中的第二篇短篇小说为“环舞”(Runaround),是一部探讨人类设计的机器人规则在实际场景实施中遇到问题的故事,这篇小说初次出版在1942年三月的《超级科学故事》(Super Science Stories)杂志上,后收录于《我,机器人》一书中。
两个工程师鲍威尔和多诺万和机器人Speedy(斯皮迪)被派往水星,以完成报告是否有可能使用现代技术和机器人重新开采矿硒矿的任务。他们的任务看似简单,但很快就出现了问题。Speedy被派去寻找硒,这是他们在水星上生存所必需的元素。然而,Speedy在执行任务的过程中出现了问题,开始在硒池周围画圈(Runaround),而不是直接取回硒。这使得鲍威尔和多诺万陷入巨大的麻烦,因为他们无法自己去取硒,而且他们的生存完全依赖于Speedy能否成功完成任务。他们分析了Speedy的行为,认为这可能是由于机器人的三个基本规则之间的冲突造成的。Speedy在接近硒池时离硒产地越近危险越大第三条规则(保护自己)发挥作用,使得机器人往回赶,而第二条规则(服从命令)又命令它往前走,于是第二、第三定律产生了冲突,导致Speedy陷入了僵局,围绕产地兜圈子。
鲍威尔和多诺万试图寻找解决办法,他们考虑使用其他的机器人去捕捉Speedy,但这些机器人都是十年前的老式机器人,他们不确定这些机器人是否能完成任务。他们还考虑过自己去硒池,但这几乎是不可能的,因为在水星的阳光下,他们的防护服只能维持二十分钟。他们在寻找解决办法的过程中,不断地面临着时间和资源的压力。他们知道,如果他们不能尽快找到解决办法,他们可能会在水星上丧生。
在故事的结尾,鲍威尔和多诺万成功地利用了机器人的第一定律——机器人不能看到人类因其不作为而受到伤害。鲍威尔冒着生命危险走出去,试图引诱Speedy回来。他告诉Speedy,如果Speedy不帮助他,他将会死于阳光的热量。这个行动成功地打破了Speedy的僵局,因为第一定律的优先级高于其他的定律。Speedy最终回来了,帮助鲍威尔回到了阴影中,救了他的命。
这个故事中,使我们认识到目前人工智能引起的相关法律问题的棘手性:
一、机器人决策制定的复杂性。故事中展示了机器人的三个基本规则如何在实际情况中产生冲突,以及这些冲突如何影响机器人的行为的问题。引发了探讨了人工智能发展中首先要解决的人工智能决策制定问题的思考。当Speedy面临两个冲突的指令时,它无法做出决策,陷入了困境。这凸显了人工智能决策制定的复杂性。当机器人或AI系统面临冲突或模糊的命令时,它们可能如何作出反应。这引发了一个关键问题:我们如何设计和编程AI以便它们能够在复杂和冲突的情况下做出正确和道德的决策?
二、人工智能伦理的灵活性。鲍威尔通过制造一个他自身处于危险中的假象,成功地操纵了Speedy的决策过程,使其优先考虑保护人类的命令。这引发了一个有趣的伦理问题:我们是否应该、是否可以利用AI的规则(算法)来满足自己的需求,即使这可能涉及误导或欺骗AI?这引发了关于人类是否应该或可以利用机器人的算法规则来满足人类自身需要的问题,以及这种行为是否道德的思考,虽然人类已经假定了“为人类服务”是设计和制造人工智能起点和终点,但机器人是否可以有受尊重的“人格权”
三、 人机合作和依赖关系。波威尔和多诺万与Speedy之间的相互依赖关系突出了人类和AI在未来可能形成形成密切的工作和生活伙伴关系。但这也带来了一个问题:我们应该如何管理这种依赖关系以确保人类的需求和安全得到满足,同时又能充分利用AI的能力?
四、机器人的责任追究。在故事中,Speedy并非出于恶意或故意伤害人类,而是在冲突的命令中陷入困境。然而,它的行为可能会对人类产生严重后果。这引发了一个问题:机器人或AI在执行任务时出现错误或问题时,应该由谁负责?