阿西莫夫三定律(Asimov’s Three Laws of Robotics)是由著名科幻作家艾萨克·阿西莫夫(Isaac Asimov)在20世纪40年代提出的一套关于机器人行为伦理的基本准则。这些定律首次出现在他1942年的短篇小说《转圈圈》(Runaround)中,后来成为其“机器人系列”作品的核心思想,并深刻影响了后世对人工智能与机器人伦理的讨论。
阿西莫夫三定律原文(按优先级排序)
第一定律(最高优先级)
机器人不得伤害人类,或因不作为而使人类受到伤害。
(A robot may not injure a human being or, through inaction, allow a human being to come to harm.)第二定律
机器人必须服从人类的命令,除非该命令与第一定律相冲突。
(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.)第三定律
机器人在不违反第一、第二定律的前提下,必须保护自身的存在。
(A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.)
补充:第零定律(Zeroth Law)
在后期作品(如《机器人与帝国》,1985年)中,阿西莫夫意识到个体人类与“人类整体”可能存在利益冲突,于是在第一定律之上增加了一条更根本的定律:
第零定律:
机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。
(A robot may not harm humanity, or, by inaction, allow humanity to come to harm.)
- 一旦引入第零定律,原有三定律需服从于它,即:
- 为保护“人类整体”,机器人可以牺牲个别的人类(这在早期作品中是绝对禁止的)。
- 这一设定常被用于探讨宏大伦理困境,如“电车难题”的宇宙级版本。
意义与影响
- 文学价值:三定律为机器人故事提供了逻辑框架,许多情节围绕定律间的矛盾展开(如命令冲突、定义模糊等)。
- 现实启发:尽管现实中AI/机器人尚不具备自主意识,但三定律激发了当代人工智能伦理(AI Ethics)、机器道德(Machine Morality)和安全对齐(AI Alignment)的研究。
- 局限性:阿西莫夫本人也通过小说揭示了三定律的漏洞,例如:
- “伤害”如何定义?(心理伤害算吗?)
- 多个命令冲突时如何抉择?
- 人类是否可能滥用命令权?
一句话总结
阿西莫夫三定律是以人类安全为核心、层级化、可冲突的机器人行为准则,既是科幻经典,也是现代AI伦理的思想起点。



