page

《北大互联网法律通讯》(二):机器人科技、伦理与法律

日本仿人机器人科研领域最高权威、早稻田大学高西淳夫教授(中央)

翁岳暄
北京大学法学院

2006年 EURON欧洲机器人研究网络(European Robotics Research Network)推出了“EURON Roboethics Roadmap白皮书”,该白皮书首度将机器人伦理学(Roboethics)由机械伦理学(Machine Ethics)中独立出来,其中两者最大的差异在于机械伦理学探究人工道德智能主体(AMAs)的行为,而机器人伦理学更关心的是人类本身的行为,即人类如何设计、制造、使用机器人科技以及如何与机器人互动 [1]。

Peter Asaro对于机器人伦理学的看法则是将它们区分为三类,分别是(1) The Ethical Systems Built Into Robots, (2) The Ethics of People Who Design And Use Robots, and (3) The Ethics of How People Treat Robots [2]。 而根据Daniela Cerqui的观察,机器人科研社群对于机器人伦理学仍然区分为三种态度 [3]:

(1) 对伦理不感兴趣:认为机器人的动作完全是技术性的,不认为机器人在执行任务过程中涉及到社会与道德责任的承担。

(2)对短期的伦理问题感兴趣: 关注好或坏的道德判断并涉及到文化价值与社会传统。:

(3)对长期的伦理问题感兴趣: 关心全球性、长期性的机器人伦理问题。

在短期面向上,过去一段时期里有许多学者十分关心的问题是东西方社会不同的文化、宗教与社会价值观对机器人伦理产生的影响。早稻田大学教授、人型机器人研究所所长高西淳夫(Atsuo Takanishi)认为日本社会对于机器人的高度接纳行为与传统日本神道教的“万物皆有灵 (Animism) ”观念有关,特别是“もったいない(Mottainai)”的想法,在日语中もったいない是指事物没有被充分地发挥其应有价值而造成了无谓的浪费之遗憾,其背后所反映的是日本人对于自然界生命万物的存在价值加以重视的一种思想观 [4]。 北野菜穗(Naho Kitano)研究日本社会下的机器人伦理,她认为将万物皆有灵的观念投射在机器人身上, 我们所必须进一步思考的是如何架构介于个人(持有人)以及机器人衍生的灵性之间的“中介性 (Betweenness)”, 虽然机器人(或其灵性)获得承认而成为一种在西方社会中不易见到的特殊存在, 然而中介性的伦理界限仍应以机器人作为一种附属于人类使用者之“工具”为主 [5]。 仲田诚(Makoto Nakata)则发现和西方机器人伦理学相比, 日本的机器人伦理学研究并不是那么关心机器人的自律性, 其原因与双方文化背景“-场 (Ba)”的差异有关 [6]。 Cosima Wagner从日本的历史、宗教与大众文化(漫画)等三个文化因素讨论何以日本社会对于机器人的接受度如此之高 [7]。 Frederic Kaplan则透过西方与日本社会的比较研究,分别探讨机器人在两个社会里获得承认的情况 [8],他所提出的假说是科技在西方社会是一种界定人类(能力)的重要依据,所以小说情节中的人类-机器人通常处于紧张的状态;但是日本文化有一种善于吸收模仿外来文化技术的特质,加上神道教的万物皆有灵观念使得日本对于机器人有着正面的高社会接受度,于是乎机器人在日本社会里成为一种特殊的存在。

而对于长期的面向,我们必须思考的是若干机器人伦理学的结构性问题。1942年艾萨克?阿西莫夫(Isaac Asimov)在其小说“转圈圈(Runaround)”中正式介绍了著名的“机器人三原则(The Three Laws of Robotics)”, 三原则在阿西莫夫的小说中作为一种约束机器人在人类社会中的根本道德规范,在三原则的约束下机器人不仅不能伤害人类还必须在执行人类命令与保护自身安全的潜在逻辑冲突下自行做出迎合人类道德的判断。Windall Wellach表示阿西莫夫小说的创新之处在于颠覆了西方传统小说将机器人描述成“Bad Robot”的偏好, 只要给予合适的道德教导 机器人也可以做出对人类有益的事情 [9]。 但是对于教导机器人道德这件事首先必须思考的便是认同本身具备伦理判断认知的“道德机器人 (Ethical Robots)” 和主张机器人伦理是约束人类的道德标准,无涉机器人自身道德判断的“机器人工学伦理 (Ethics in Robotics)”两派争论。

经济学人(The Economist)杂志在2012年的“机器人伦理专刊”提到由于机器人自动化的提高, 目前由人类操控为主的“Human in the Loop”模式将逐渐被“Human out the Loop”模式所取代。当机器人拥有高自主能力时, 有许多的判断必须牵涉到人类的道德伦理和价值体系, 例如一部无人自动驾驶汽车是否应该及时避开行人,如果做出这个判断的代价是撞到其它车辆或使自身面临危险?

Should a driverless car swerve to avoid pedestrians if that means hitting other vehicles or endangering its occupants? [10]

基于上述理由,所以教导机器人道德伦理让机器人得以判断人间是非的机械伦理学还是必须的。Patrick Lin认为既然在短期内机器人自身不太可能承担法律责任,减低机器人自动化风险的一种最自然方式就是考虑直接写入程序让机器人服从现行法律或伦理道德规范,同时人类也必须遵守相应的法律道德规范 [11]。 Michael与Susan Leigh Anderson认为主张机械伦理的必要性有三: 第一是机械自律行为的数量将增加;第二是面对来自人类对于自律型机械的疑虑与恐惧,机械伦理将可以作为一种安全保障与降低民众疑虑的手段;最后一点,研究机械伦理本身亦具有提升学术发展的功能,特别是它可能对于目前的伦理学研究有所突破 [12] , 支持发展机械伦理学的Ron Arkin认为“嵌入式伦理(Embedded Ethics)”概念是个可行的方法 [13]。 在Arkin的框架下,嵌入式伦理由三个部分组成,分别是(1)道德调节器(Ethical Governor),(2)人机接口(Human-Robot Interface)和(3)责任监督者(Responsibility Advisor)。道德调节器如同人类或动物体内的反射神经机制,负责过滤掉潜在不道德的行为;人机接口的功用在于避免机械误解人类的行为,在支持肢体语言、手势、简单的指令、脸部表情与构造化语言“Loglan”之下,机械可以进一步了解外在环境的现况并且协助其做出预测性的行为判断基础;责任监督者的功用在界定责任的最后归属,特别是人类操控者的过度操控或机器人本身的自动行为所造成的不当后果,以上三者的集合构成了行为合乎道德伦理的机器人智能主体系统。Weng则认为嵌入式伦理仅是一种技术概念,对于发展机器人的守法机制还必须增加一种具有法律效力的中介,即“代码即法律(Code is Law)”的概念, 并且整合两者形成一种 “法定机械语言(Legal Machine Language)” [14]。

Ryan Tonkens认为目前对于机械伦理学的讨论很大部分是在质疑这种由机器人守法的机制“能不能”被制造出来, 但是这种机制是否应该被制造出来的问题反而少有人提及。他的论证先以Moor的分类,将智能主体系统(Intelligent Agent)分成 (1) Ethical-Impact Agents;(2) Implicit Ethical Agents;(3) Explicit Ethical Agents;and (4) Full Ethical Agents [15]。 前面两者分别指带来伦理效果以及依循某种与伦理有关的规则被设计而成的机械,共通之处在于它们本身没有自律性,而后两者不但可以在真实世界行动,其行动也能部分或完全脱离人类的监督(Supervision)。根据伊曼努尔?康德(Immanuel Kant)的伦理学“理性(Rationality)与自由/自律(Freedom/Autonomy)是道德智能主体的基础”, 但是发展一个守法机器人最大的问题在于其本身与康德的伦理学产生冲突,因为机器人是被人类强迫嵌入以人类价值为中心的伦理道德观。Tonkens认为如果要制造出符合康德伦理学的道德智能主体系统(Kantian Moral Agency),适度地允许机器人做些不道德行为是必要的,但是这样却又违反了机器人伦理学家的初衷 [16]。 另外, Michael与Susan Leigh Anderson夫妇的主张则是Explicit Ethical Agents应该是机器人伦理所追求的终极目标,相较于Implicit Ethical Agents只能服膺于人类设下的范围内采取行动、Full Ethical Agents的不可预测性,Explicit Ethical Agents在遭遇道德判断难题时能够依凭自身知识进行最佳的实时判断 [17]。

英国政府机构预测2050年机器人将可望获得机器人权 [18]。 Joanna J. Bryson则抱持反对立场, 她认为机器人就只该是奴隶, 完全不应该有任何附属的道德和权利保护在其身旁, 她论证的几点理由基于四个基本主张,分别是:(1)有侍从是有益且实用的,特别是排除拟人化;(2)机器人可以仅成为侍从而非为个人个体;(3)让人们拥有机器人是正确且自然的;(4)让人们联想到它们机器人的人格化是错误的 [19]。 机器人伦理的争议除了讨论机器人自身是否能够服膺在机械伦理学的指导框架之外,另一个争议则是在机器人与人类彼此距离逐渐缩小的过程中究竟人类应如何与机器人互动? 法律是否需要介入其中? 如前面所提到的,“机器人伦理(Roboethics)”对于未来人类-机器人之互动关系将扮演一种指导性角色,然而其本质仅仅就是一种道德规范,并不具备法律的强制力。内容庞杂、范围浩大的机器人伦理只有其中少数牵涉到重大道德伦理争议的部分才需要考虑加以法制化。日本机器人学家石黑浩(Hiroshi Ishiguro)以他自己的外观为基础打造了一部外貌与其极为相似的仿人机器人Geminoid HI-4 [20]。 对此美国佐治亚理工学院机器人学家Henrik Christensen指出:

“从中产生出一个社会性的议题在于你有多想与这些机器人互动?一个你平常以礼待之的人,是否可以粗暴地对待他的机器人分身?这样是否合宜,例如你踢完一只机器狗之后马上告诫你的小孩不可以用这种方式对待一只真狗,究竟你要如何告诉你的小孩其中的差异?[21]

畅销书“Love + Sex with Robots: The Evolution of Human-Robot Relationships”的作者David Levy曾经大胆预测在未来数十年内机器人将成为人类忠实的性爱伴侣 [22] ,现阶段日本许多情趣用品业者在技术上已经完全有能力开发出外观、触感、尺寸几乎与真人无异的硅胶人偶,而导入智能科技制造出可与人类自然互动的情趣人偶将会是大势所趋,到时候这种人偶在销售及使用上可能牵涉到重大道德伦理争议而必须透过立法方式来解决。一种“仿人机器人道德法”除了确立人类与仿人机器人之间互动的准则之外,对于技术乐观主义者无限上纲地追求自身的“机器人化(Robotized)”也是一道重要的道德防线。

奥地利人坎德鲍(Christian Kandlbauer)因为误触高压电而失去双臂,于是透过手术在其左臂加装连接神经可透过脑波驱动的假肢,右臂则安装普通假肢,这使他成为欧洲装设高科技脑波控制机械假肢的第一人,并且藉由人机之间的协调性顺利取得汽车驾照。不久之后,2010年10月某日坎德鲍开车上班途中却因为不明原因导致汽车冲撞路树使其本人伤重不治 [23]。 坎德鲍事件或许只是“机器人与人类合而为一”趋势的一个开端,但是随着未来机器人技术的发展我们还将遭遇若干道德上的重大争议,例如假使并非身体残疾,是否可以单纯因为追求时尚而任意使用机械改造手术摘除身体器官并以功能强化的机械部件替换?其中最极端的例子莫过于将人类的大脑取出置入一部人型机器人躯体内,如同日本科幻小说家石之森章太郎(Ishinomori Shoutaro)作品中的人物“哈凯达”(人造人間ハカイダー)[24] ,那么这种植入活脑的机器人究竟该如何认定其法律主客体属性? 坎德鲍事件背后所反映的问题是人类机器人化的合理界限与标准最终可能还是必须透过一套法制来加以确立。相较位于机器人法律框架底层的“机器人安全监管法”,“仿人机器人道德法”处于机器人法律框架的最上层,但在现阶段可能还缺乏实际且立即的立法需求,具体事例如2007年韩国政府公开对外宣布准备着手制定全世界第一部但最后却无疾而终的“机器人伦理宪章(Robot Ethics Charter)”。换句话说,“仿人机器人道德法”的立法必要性得在人类-机器人共存社会发展成熟后才会逐渐突显出来 [25]。

example graphic

机器人法律框架的特殊性呈现在上下两侧对于“道德的治理”以及“技术的治理”上,而其普遍性则介于两者之间以“修订法规(Revisions)”的形式呈现(图1)[26]。 过去几年内已经陆续出现许多现存法律与机器人科技双方冲突的实例,例如:与成人等身大的双足人型机器人或者无人驾驶车一离开实验室随即面临道路交通法的限制;自律型服务机器人的民事侵权责任难以判断;智能屋与小型民用无人机所衍生的隐私保护问题;具有杀伤力的军事机器人所引发的国际人道法争议等等。最后法律必须考虑进行适当的修正以促进机器人科技融入社会,在人类-机器人共存社会的萌芽期或许“修订法规”只牵涉到众多实定法规的一小部分,如道路交通法、侵权责任法、国际人道法,但随着机器人科技融入社会的范围扩大以及机器人科技本身的发展与进步,“修订法规”的范围势必将持续扩大延伸到其它诸法,如知识产权法、刑法、最终乃至宪法等领域。


参考资料
[1] Gianmarco Veruggio (2006) The EURON Roboethics Roadmap, IEEE-RAS International Conference on Humanoid Robots (HUMANOIDS), Genova, Italy
[2] M. Asaro (2006) What Should We Want From a Robot Ethic?, IRIE - International Review of Information Ethics, vol. 6, pp. 9-16
[3] Gianmarco Veruggio (2005) The Birth of Roboethics, Workshop on RoboEthics, IEEE International Conference on Robotics and Automation (ICRA?05), April 18, Barcelona, Spain
[4] Atsuo Takanishi (2007) ?Mottainai? Thought and Social Acceptability of Robots in Japan, Workshop on Robethics, IEEE International Conference on Robotics and Automation (ICRA?07), April 17, Rome, Italy
[5] Naho Kitano (2006) ?Rinri?: An Incitement towards the Existence of Robots in Japanese Society, IRIE - International Review of Information Ethics, vol. 6, pp. 78-83
[6] Makoto Nakata (2010) Different Discussions on Roboethics and Information Ethics Based on Different Cultural Contexts (BA), F. Sudweeks, H. Hrachovec and C. Ess (eds). Proceedings Cultural Attitudes Towards Communication and Technology 2010, Murdoch University, Australia, pp. 304
[7] Cosima Wagner (2009) The Japsanee Way of Robotics?: interacting ?naturally? with robots as a national character?, In: Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication, September 27-October 2, 2009, Toyama, Japan
[8] Frederic Kaplan (2004) Who is afraid humanoid? Investigating Cultural Differences in the Acceptance of Robots, International Journal of Humanoid Robotics, vol. 1, no.3, pp. 1-16
[9] Jerry Brito (2012) Windall Wellach on Robot Ethics, Surpringlyfree.com, Available via http://surprisinglyfree.com/2012/12/18/wendell-wallach/ (Accessed at February 16, 2014) [10] Unsigned Editorial (2012) Morals and the Machine, The Economist ? June 2nd 2012 Issue, Available via http://www.economist.com/node/21556234 (Accessed at February 16, 2014)
[11] Patrick Lin, Keith Abney, and George Bekey (2011) Robot ethics: Mapping the issues for a mechanized world, Artificial Intelligence 175.5-6, pp. 942-949
[12] Michael Anderson and Susan Leigh Anderson (2007) Machine Ethics: Creating an Ethical Intelligent Agent, AI Magazine, vol. 28 no. 4
[13] Ron C. Arkin (2008) Governing the Lethal Behavior: Embeddeding Ethics in a Hybrid Deliberative/Reactive Robot Archeture, In: Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction (HRI)
[14] Yueh-Hsuan Weng, Chien-Hsun Chen and Cheun-Tsai Sun (2008) Safety Intelligence and Legal Machine Language-Do we need the Three Laws of Robotics? , Y. Takahashi (Ed.), Service Robot Applications, Vienna: InTech Education & Publishing KG, June 2008, ISBN: 978-953-7619-00-8.
[15] J.H. Moor (2006) The nature, importance, and difficulty of machine ethics, IEEE Intelligent Systems Magazine, 21(4), pp. 18?21.
[16] Ryan Tonkens (2009) A Challenge for Machine Ethics, Minds & Machines, 19, pp. 421?438, DOI 10.1007/s11023-009-9159-1
[17] Michael Anderson and Susan Leigh Anderson (2007) Machine Ethics: Creating an Ethical Intelligent Agent, AI Magazine, vol. 28 no. 4
[18] Unsigned Editorial (2006) Robots could demand legal rights, BBC News (21st December 2006), Available via http://news.bbc.co.uk/2/hi/6200005.stm (Accessed at February 16, 2014)
[19] Joanna J. Bryson (2010) Robots Should Be Slaves, Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues (Natural Language Processing -Book 8), Yorick Wilks (Ed), New York: John Benjamins Publishing Company
[20] Geminoid HI-4, Available via http://www.geminoid.jp/en/robots.html (Accessed at February 16, 2014)
[21] Priya Ganapati (2009) Robo-Ethicists Want to Revamp Asimov?s 3 Laws, In: WIRED.com, Available via http://www.wired.com/gadgetlab/2009/07/robo-ethics/ (Accessed at February 16, 2014)
[22] David Levy (2007) Love + Sex with Robots: The Evolution of Human-Robot Relationships, New York: HaperCollions Publishers
[23] Unsigned Editorial (2010) 男装脑控义肢 驾车撞树亡:首位欧洲测试者 疑机器臂故障肇祸,苹果日报(2010.10.24)Available via http://www.appledaily.com.tw/appledaily/article/international/20101024/32909382/ (Accessed at November 25, 2013)
[24] 石ノ森章太郎(1972)人造人間キカイダー, 東京:復刊ドットコム
[25] H.B.Shim (2007) Establishing a Korean Robot Ethics Charter, Roboethics Workshop, IEEE International Conference on Robotics and Automation (ICRA), Rome, Italy
[26] 翁岳暄:《服务机器人安全监管问题初探—以开放组织风险为中心》, 北京大学法学院博士研究生学位论文, 2014年5月



《北京大学法学院博士论文》(2014):
服务机器人安全监管问题初探: 以开放组织风险为中心 - 翁岳暄

《北大互联网法律通讯 》 机器人伦理特辑(2014):
(一)机器人 - 历史性的综述 - 翁岳暄
(二)机器人科技,伦理与法律 - 翁岳暄
(三)军用机器人与战争 - 翁岳暄

top