|
人工智能伦理规范是什么类型的规范?
——从《儒家机器人伦理》说开去
摘 要:人工智能伦理规范的制定是人工智能研究领域的重大议题,大多数人都遵循一种“理想规则主义”的设计思路。然而,这种思路在理论上无法成立,在实践中会带来更大风险,其深层预设是看待人工智能的工具主义态度。实际上,基于因果推理模型的人工智能具有真正意义上的自主性,有充分的理由被赋予道德主体的资格。因此,设置一种关系性规则才能更好地处理人工智能的伦理问题,这要求它们能够为自己的行为负责,而重要条件就是人工智能主体拥有一定程度的产权。
关键词:人工智能道德主体;儒家伦理规范;理想规则主义;关系性规则
一、引 言
长久以来,机器一直作为工具被视为人类能力和心智的延伸。自新千年开始,随着大数据、深度学习、仿生技术、人工知觉等领域的快速发展和不断交叉融合,具有更强自主能力的人工智能产品被不断研发出来并广泛应用。无论是具有一定“判断能力”的无人机,还是能够机智地回答问题的Siri,都已经真正进入到人们的视野和生活中。一个共识正在形成:人类终将制造出外形和行为与自己相似的人工智能,并与它们在同一个世界中共处。这个共识自然地引发了一种担忧:人工智能会给人类社会带来何种风险?这种风险是否可以被人类预测并控制?为了控制这种风险应该对人工智能的研发和使用制定什么样的规范?政府和学术团体已经行动起来:2016年欧洲议会发布的关于人工智能和机器人的报告,表达了其对于机器人可能给人类带来的风险的关注;联合国教科文组织与世界科学知识与技术伦理委员会于2016年的报告,讨论了人工智能技术进步带来的社会与伦理问题;我国在2017年7月发布了《新一代人工智能发展规划》;耶鲁大学于2017年组织了“We Robot”跨学科会议。
但分歧依然广泛存在。一种声音把人工智能宣称为人类的潜在挑战者,认为一旦人工智能具有了与人类相当甚至超过人类的智能水平,那么,它们将成为代替人类的新物种和人类历史的终结者,人类应该首要地考虑这种存在论意义上的风险。另一种声音则把人工智能当作一种具有更高自动化程度的机器,认为从弱人工智能到强人工智能的跨越还很遥远甚至永远无法实现,我们更应该关注的是对人工智能算法、标准和使用进行规范,以避免产生一系列具体的技术、伦理、法律风险。似乎人工智能要么类似于超人,要么类似于机器。这个预设又牵涉到一些更为古老和根深蒂固的观念:人类的主体性似乎与一个包含着诸如意识、自由意志、情感、善恶识别能力等的集合联系在一起。我们则将指出,尤其是在讨论有关人工智能的伦理议题时,这些预设是有害的。不假思索地接受它们,会让我们错失一些重要的思考维度。本文试图表明:并没有充分理由把主体性视为是先天地属人的,即使是弱人工智能也应当被赋予至少一定程度的道德主体资格,以某种较为对等的方式与人类在同一个社会中共处;而从关系论角度考虑人工智能的伦理规范,在理论上可以得到有效的辩护,在实践上亦有助于更好地处理人工智能引发的伦理、法律和社会问题。刘纪璐教授的文章《儒家机器人伦理》(以下简称“刘文”)代表了一种与本文大相径庭的主流思路,其论述逻辑严谨而富于洞见,与它进行对话可以更清晰地呈现出我们的问题意识。本文的讨论将从对刘文的分析开始。
二、“儒家机器人”不能做什么
刘文试图回答两个彼此相关的问题:第一,与人工智能伦理的主流理论,即阿西莫夫三定律、康德式道义论、功利主义相比,为何儒家伦理原则更好且更适合作为机器人的伦理规范?第二,如何对儒家伦理法则进行诠释,使之成为一种可以被算法化的规则?
作者首先指出了三种主流理论所面临的困难。阿西莫夫机器人定律只是宽泛地给出了不伤害、服从命令、自我保护等原则,而没有给出更丰富的要素以对不同的道德情境进行辨识、区分和比较,故无法适用于很多道德选择的情况。尤其是在伤害无法避免的情形如电车难题中,机器人将陷于进退两难无法行动的困境。康德道义论应用于机器人,会遭遇一个元问题层面的悖论:康德理论要求行动者具有自发的能动性以成为“目的王国”的公民,但机器人本质上是人造的工具,这本身就违背了康德原则。功利主义的首要问题是人们不愿意让机器人把这个原则应用于自己,同时,这个原则在有些情形中显得过于激进,以至于对个人的权利造成侵害。基于这些分析,作者进一步提出了儒家机器人的原则:“忠”被诠释为机器人对自身功能性角色的恪守,“恕”对应着一种禁止性的“消极黄金法则”,“仁”则体现为帮助人类行善并禁止帮助人类作恶的道德命令。这种儒家式机器人会积极地完成自己角色设定内的功能,在此设定之外则通常选择不进行干涉,同时能够保证不作恶和不协助作恶。作者指出,它在道德决策中的表现会优于其他几种主流模型,例如,在电车情形和天桥情形中能够以绝大多数人认同的方式行动,在自动驾驶情形中则选择优先保护驾驶员(1)刘纪璐:《儒家机器人伦理》,《思想与文化》第22辑(2018年6月)。。
可以清楚地看到,刘纪璐教授的讨论主要针对只有局部智能与人类相当的弱人工智能,她关注的是如何设计它们的行动准则以使其更好地服务人类且不造成意外的风险。这种关注隐含了一种我称之为“理想规则主义”的预设。刘文中引用的一段话概括了这个预设:“机器伦理的终极目标……是要创造一种机器,它自己遵循一套理想的道德准则;也就是说,机器是由这个原则或这些原则决定的,它决定了可能采取的行动。”(2)Michael Anderson and Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine 28 (2007:4): 1525.这种观点可以分解为两个底层主张:第一,可以设计出一种通用的、普适的理性规则体系来处理所有道德情境;第二,只要严格地使用这种规则体系,就可以使得机器人避免道德风险。与之相对应,我们可以提出两个问题:第一,存在一种普适的人工智能道德规则体系吗?第二,即使这种体系在某种意义上可以被创造出来,它是处理人工智能道德问题的最佳方式吗?我们对两个问题的回答都是否定的。
刘文的立论主要基于两个广受关注的道德思想实验,即电车难题和自动驾驶选择难题。已经有不少研究指出,这些思想实验对道德情境的设置过于抽象和简化,可能导致忽略一些重要的因素。以人工驾驶为例,MIT媒体实验室制作的“道德机器”网站,就列出了13种可能场景供受访者考虑,其中涉及司机和路人的性别、年龄段、职业、社会身份或地位、是否特殊人群(如孕妇)、是否遵守交通规则、物种(人或动物)等要素(3)https://www.techrepublic.com/art ... tscallitmisguided/.(登录于2018年10月1日)。孙保学指出,自动驾驶难题中涉及的价值不仅是双方的生命,而是包含着多元价值维度,因此除了一些普遍原则,还应该依据情境引入特殊的价值要素(如违反交通规则者承担更多责任,孕妇和儿童享有优先权等)作为重要参量(4)孙保学:《自动驾驶汽车的伦理困境——危急时刻到底该救谁》,《道德与文明》2018年第4期。。如果把视角延伸到这种更丰富的情境中,儒家机器人的“优先保护司机”的功能主义法则就显得过于单薄和缺乏说服力。
电车难题的两种情形常常被视为分别属于功利主义和道义论的应用场景,但细究起来,其中要考虑的要素也很多。而且,如何对这些要素进行界定以判定它们适用于何种原则,也依然是充满争议的。例如,如果天桥上的胖子不算涉事者故不应该被牵扯进来,那么,电车支线轨道上的那个人应被算作涉事者吗?如果推胖子被视为制造了一个新的威胁因而算主动伤害,那么,电车转向支线轨道算不算主动伤害?根据什么原则来判定“把人当作工具”,又根据什么原则来判定“副作用”?情境的轻微变化也会导致对要素的不同判定。在汤姆森设计的环轨情形中,电车的支线与主线在另一端汇合为一个环轨,根据他的解释,杀死支线上的一个人就不再仅仅是避开5人产生的副作用,而成为救5人的必要手段——如果电车不是因为撞到那个人而停下来,它依然会通过环轨回头撞死5人(5)J. J Thomson, “Killing, Letting Die, And the Trolley Problem,” The Monist 59(1976:2): 204217.。不难看到,由于没有考虑这些要素及其情境依赖的不同排序方式,儒家机器人不能有效区分电车情形和环轨情形。
刘纪璐教授也许会申辩说,之所以不考虑某些要素,是因为这些要素对人类来说是不可见的或无暇顾及的,例如,司机既无法知道路人的身份也来不及反应和判断。但是,这种能力缺乏对人工智能而言很可能不成立。未来社会完全有可能对每个个体的数据进行电子标记,人工智能可以在极短时间内进行预先识别并据此做出判断。刘纪璐教授可以进一步声称,对于一个具有特定功能的机器人,其功能范围之外的要素对于道德判断而言是无关的。但是,一个基于功能的行动所涉及的范围并不总是能够被泾渭分明地界定出来。此外,如果即将撞到的路人是一位军政要人,其突然死亡可能导致更大的混乱和伤亡,那就需要更加谨慎地考虑“一视同仁”的原则是否适用。
这些理由都不是决定性的。刘纪璐教授可以综合考量多种因素在不同情境中的取舍和配比,通过添加次级法则对他的儒家机器人进行调整,其规则体系在原则上仍然可以得到辩护。我们必须对理想规则主义给予致命一击。这个论证的最严格的版本是哥德尔给出的。20世纪初,他曾判决性地证明了不完备性定理,即在任何一个丰富到足以包含算术的形式系统中,系统的一致性都不可能在这个系统自身之中得到证明。这种特性也可以延伸到语义系统中:“在语言A的内部不可能给出一个对于它自身的完全的认识论描述,因为A的句子的真理概念不能在A的内部得到定义。这个定理乃是包含算术的形式系统中不可判定命题的存在的真正根据。”(6)转引自S. Feferman, “Kurt Gödel: Conviction and Caution,” in Gödel’s Theorem in Focus, ed. S. G. Shanker(London:Taylor & Francis Routledge Press, 1988), 105.至于道德的理想规则系统,尽管与这种形式系统不尽相同,但其真依然部分地依赖于系统的一致性,故无法避免地具有某种不可判定性。而且,道德规则系统的问题甚至更复杂,它还具有另一重真值来源,即人类的道德直觉和理性辩护。这些道德直觉丰富多元,而且时常彼此冲突或不一致。在电车难题中,这种冲突体现为,哲学家对选取哪种理由为主流的选择进行辩护产生了严重的分歧(7)主要的观点有以下几种:(1)双重结果理论;(2)双重义务理论;(3)个人权利理论;(4)双重程序理论。。在自动驾驶难题中,直觉的不一致表现地更为明显:人们普遍认为配备功利主义算法的自动驾驶汽车最符合道德,但并不想购买这种汽车。不能把这种现象简单地视为私心与道德感的斗争,或是源于某种类似意志薄弱的不彻底性,更恰当的方式是把它理解为两种关于正确性的不同标准的冲突。赵汀阳因此评论道:“严格地说,这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动汽车选定什么样的规则。”(8)赵汀阳:《人工智能“革命”的“近忧”和“远虑”——一种伦理学和存在论的分析》,《哲学动态》2018年第4期。
面对纷繁复杂的情境和彼此冲突的直觉,人类本能地想要找到一种简单的、标准的规则体系。但是只要观察一下我们的日常生活,就会发现这种理想道德行为指南很少能够实现,如果回顾一下人类历史,还会发现这种想法有时甚至是危险的。人们或许会把这归结为诸如人类情感和理性的不一致,每个人有着独特的个体性或彼此差异的利益诉求等。人工智能的出现又一次激发了人类对理想规则体系的诉求。与人类不同,人工智能没有情感干扰、没有自我边界、没有利益诉求,能够绝对理性地遵从指令,用一个教科书式的规则体系对它进行规范似乎是理所当然的。但是,这个貌似无懈可击的推论中存在着一个未言明的预设,而我们认为这个预设是错误的。
按前文的分析,理想道德规则体系并不存在。而认可“人类可以不按照理想规则行动”的依据,除了上述事实之外,还在于对人类道德主体资格的认可——人们有权按照某一个可以得到辩护的道德直觉来行动,如果这一行动的理由和结果与共同体认可且得到充分辩护的某种准则不一致,行动主体应该承担道德责任。由此反观,认为“人工智能只能按照理想规则行动”的依据,恰恰在于人工智能没有这种道德主体资格。但是,缺乏情感、自我边界和利益诉求,并非没有主体资格的理由。这种观点背后的真正预设,正如琼森所言:人工智能只是纯粹的机器和工具(9)D. G. Johnson and K. W. Miller, “Unmaking Artificial Moral Agents,” Ethics and Information Technology 10(2008:23): 123133.。刘文虽在引论部分谈到了“人工道德主体”,但在论证过程中却并未涉及。我们在后文将指出,这一立场在理论上是无法得到有效辩护的,在实践上则难以处理人工智能引发的一系列社会问题。抛弃这一立场,则会从根本上改变我们对人工智能伦理规则的构想方式,以及对人类与人工智能关系的看法。
三、人工智能主体意味着什么
面对人工智能这一“新物种”,大多数人并没有做好心理准备。我们会把战胜人类顶级棋手的AlphaGo称做“阿尔法狗”,这种暗含贬低的称呼折射了人们对待人工智能的心态:一方面承认它在某方面智能上已经远超人类极限,另一方面则认为它不过是一个没有智慧和心灵的低等造物,一个机械装置,一个工具。在这里,人类的智能、自主意识、情感、道德等能力似乎被想象成一种难以探究的、甚至带有神秘色彩的东西。这些东西为人类所独有,人因此配享道德上的主体资格。但是,这种“独有性断言”真的完全成立吗?即使人工智能真的在这些方面与人类有重大差别,这能构成它们不是道德主体的有效理由吗?
一个最常见的说法来自对图灵测试的攻击。塞尔在《思想、大脑和程序》一文中提出了著名的“中文屋”思想实验,用来证明人工智能只是一堆程序,它根本没有“理解”自己在做什么,故没有真正的智能。假设密室里有一个人按照某个程序操作一些字符串,来对外面的人递进来的中文问题字条以中文字条进行回答,那么,尽管此人完全不懂中文,但外面的人会以为他懂得中文(10)John R. Searle, “Minds, Brains and Programs,” Behavioral and Brain Sciences 3(1980:3): 417424.。把中文屋里的人换做人工智能,就可表明:即使通过了图灵测试,也并不代表具备了真正的理解和智能。我认为,这种观点既过高地估计了人类的“理解”,也过低地估计了人工智能的“计算”。
让我们对上述思想实验稍加改动:有一个英语国家的人被植入了一种大脑芯片,此芯片可以在极短的瞬间把英文翻译为中文(也可以把中文翻译成英文),这个人通过一段时间的练习可以熟练地与中国人交谈,由于芯片信息传递速度非常快,他也完全适应了这种交流方式,以至于常常意识不到自己是在通过芯片的“翻译”在和中国人谈话。这种技术在未来是完全有可能实现的,如果我们问那个人是否会说中文,他很有可能回答“是”,至少不像中文屋情形中那样非常确定地给出否定回答。人们经常认为理解伴随着的一种特殊的感觉和能力,这个思想实验则告诉我们,“理解的感觉”完全可以通过偶然的方式被建构出来,因此它不像人们想象的那么重要。这反过来就证明了,“理解”的核心特质是能够在相关情形中“使用”某种规则。这一点在下棋的情形中体现得更加明显:没有任何证据表明柯洁比AlphaGo对围棋的理解更加深刻。而且,塞尔的支持者也低估了人工智能使用规则所需要的“能力”的复杂程度。中文屋思想实验的误导之处在于它把这种能力简化为一个程序和几张纸条,但是这个程序至少包括了对词性区分的规则、对句法组织的规则、对句子属性区分的规则、同一个词在不同语境中的应用规则、中文日常知识的数据库,等等。使用这个程序,也不仅仅是输入一个字符串这么简单,而是涉及复杂的、多步骤的操作。丹尼尔·丹尼特因此总结道,我们总以为人类的理智能力来自于他们能理解,其实理解本身不是一种原因,而是一种效果,它从成堆的能力中涌现出来,是各种能力叠加生成的(11)丹尼尔·丹尼特:《直觉泵和其他思考工具》,冯文婧、傅金岳、徐韬译,浙江:浙江教育出版社,2018年,第341页。。对“理解”的这种分析和还原表明,我们没有自认为的那么“理解”,人工智能也不是想象中的那么“无理解”。看来,人类是时候放下对理解能力之独有性的傲慢偏见了。
另一种对人工智能主体资格的质疑,其理由是人工智能缺乏一些必要的心理成分,如情感和感受(12)Owen J. Flanagan, The Science of the Mind(Cambridge: MIT Press,1991), 252254.。这种观点认为,苦乐、爱恨、羞耻、自尊等情感和感受是人格和德性的基础,缺乏这些特质就构不成道德上的主体。这是一种典型地来自人类经验的立场:我们的确是在各种情感和感受中建构起自我的人格,辨识和塑造了自身的道德品质。但是,这并不表明它们就是主体性和道德的先天条件。康德已经给出了一个著名的反驳路径:主体性来自于为自身订立并遵守一种可普遍化法则的能力,它属于包括但不限于人类的任何理性存在者(13)Immanuel Kant, Groundwork of the Metaphysics of Morals, tr. Mary Gregor (Cambridge University Press, 2011). 。情感主义的支持者也许会说,至少同情或移情应该被视为道德能力的一个基石,如果缺少了它,道德所必须的交互主体性和敏感性将会坍塌。同时,心理成分依赖于人类的生理结构,人工智能没有这样的结构也就不具有相应的情感和感受(14)Georges Rey, “Functionalism and the Emotions”, in Explaining Emotions, ed. Amelie Oksenberg Rorty (Berkeley: University of California Press,1980), 163.。我们对此的回应是,应该对“情感反应”和“情感体验”做出区分。人工智能的确不具备人类的情感体验,但这对主体性和道德资格都不是必须的。而且,设计者完全可以用一些规则设置来让人工智能做出与情感反应等价的行为,例如,把同情心定义为“己欲立而立人”或“己所不欲勿施于人”,把羞耻感定义为“对于被规定为错误的行为,每观察到一次则为其负值增加一个分值的权重标记”。
对人工智能主体资格最主要的反驳是,它缺乏真正的自主性。这类反驳主要集中在三个方面。第一,自主性要求一种内在状态,内在状态由欲望、信念和其他有意识的状态组成,以保证行动是出于主体的意图做出的。人们普遍认为人工智能缺乏这种内在意图。有论者进一步提出,意图应是自然生成的,而人工智能的所谓“意图”无非是设计者植入的东西(15)D. Johnson, “Computer Systems: Moral Entities But Not Moral Agents,” Ethics and Information Technology 8(2006:4), 195204.。第二,自主性要求行动者对于自己的行动有所意识,因为只有有意识的行动才具有道德属性,才能够被赞扬或谴责(16)B. Friedman and P. H. Kahn, “Human Agency and Responsible Computing: Implications for Computer System Design,” Journal of Systems and Software 17(1992:1): 714.。然而,人工智能被认为是不具有意识的。第三,自主性要求行动者具有自由意志,能够做出真正的选择被视为自主性的一个特征。定律可以限制但不能构成人类的自主性,但是对于人工智能来说,代码形式的定律构成并定义了它的全部行为,它没有超出定律的自由意志(17)Mireille Hildebrandt, BertJaap Kroops and DavidOlivier JaquetChiffelle, “Bridging the Accountability Gap: Rights for New Entities in the Information Society?,” Minnesota Journal of Law, Science &Technology 11 (2010:2): 497561.。
在我看来,这些观点貌似有理,实则独断。自主性的概念并未包含如此多的要求,它们主要来自于对人类经验的耦合。本文无意在形而上学层面讨论诸如“意识的本质”“自由意志是否存在”这类问题,我们的关注点在于阐明一种在直觉上有效、在经验中可行的对自主性的理解,以澄清何种行动者有资格被视为道德主体。首先,内在意图与内在心理状态的类比是模糊的甚至隐喻性的。有时候甚至连我们也说不清自己的欲望和信念来自哪里、如何形成,在康德主义者看来,它们不过是一种被给予之物。所谓内在的、自然生成的特性,更多地是基于一种未经充分辨析的经验性感受,其是否成立都很可疑,更谈不上是本质特征。自主性的实质是一种自治,正如弗洛里迪·卢西亚诺和杰夫·桑德斯所指出的,是在没有外部刺激的情况下可以自己调整内部状态或特征,从而不受他者(即人类)干预地控制自己的行为;进一步的要求是,通过改变自己的特征或内部状态来改进自身规则(18)Floridi Luciano and Jeff Sanders, “On the Morality of Artificial Agents,” Minds and Machines 14(2004:3):349379.。面对一个这样的人工智能,我们很难拒绝承认它具有真正意义上的自主性。萨尔托指出,即使它的意图不是“原初的”,只要人们对他进行了“认知授权”,那么机器人按照规则自主产生的决策都可以视为出于自身意图的(19)Sartor Giovanni, “Cognitive automata and the Law: Electronic Contracting and the Intentionality of Software Agents,” Artificial Intelligence and law 17(2009:4):253290.。其次,关于有意识地行动之要求——暂且不说意识极有可能是一种涌现出来的效应甚至幻觉(20)K. Frankish, “Illusionism as a Theory of Consciousness,” Journal of Consciousness Studies 23 (2016:1112):1139.,就连“有意识地行动”之定义本身也存在争议。以自动驾驶为例,如果人工智能可以提前对情况做出预判并且根据某个规则行动,有什么理由说它不是有意识地这样做呢?对于意识的经验性感觉的执念,再一次影响了人们对问题实质的把握。况且,意识对于道德责任也不见得是必须的,实用主义观点的支持者认为,具有稳固的、可观察的行为就足以支持我们对道德主体的责任要求(21)M. Coeckelbergh, “Moral Appearances: Emotions, Robots, and Human Morality,” Ethics and Information Technology 12(2010:3): 235241.。最后,自由意志与自主性、道德主体资格的强相关性也是相当可疑的。法兰克福已经出色地论证,道德责任并不依赖于一种基于可供取舍的可能性(alternative possibilities)的自由意志观点(22)Harry G. Frankfurt, “Alternate Possibilities and Moral Responsibility,” The Journal of Philosophy 66 (1969:23): 829839.。康德认为,自由意志不在于跳出规则,而恰恰在于遵从规则。在这个意义上,纳多甚至声称只有机器人才有真正的自由(23)J. E. Nadeau, “Only Androids Can Be Ethical,” in Thinking About Android Epistemology, ed. K. Ford et al. (Cambridge: MIT Press,2006), 241248.。
因此,一种能够独立地对情况进行判断,通过调整和使用规则做出决策的人工智能,具有一种真正意义上的自主性,应当被赋予道德主体的资格。人们或许仍然对此抱有疑虑。中文屋里的图灵机器人的刻板印象挥之不去,目前主流的深度学习机器人,只是用概率计算的方式把海量大数据与多层神经网络进行耦合,这看起来只是一个没有能动性的高级木偶。然而,近年来人工智能算法领域兴起的因果推理模式,为机器人具有真正的“智能”带来了曙光。加州大学洛杉矶分校计算机系的玻尔(Judea Pearl)教授和朱松莼教授是此领域的代表人物,玻尔的《因果性》一书在2011年获得了计算机图灵奖。根据朱松莼的介绍,不同于流行的“大数据、小任务”模式,这是一种“小数据、大任务”模式。前者的目标是通过大数据匹配来实现鹦鹉学舌式的精确模仿(被动学习),后者的目标则是让人工智能通过观察学习和因果推理,在复杂情况中自主地找到合理解决方案。任务的完成并不是像AlphaGo那样通过无数次的大数据训练实现的,而是通过动机—观察—推理—假设—验证这样的过程实现的。这种方法类似于人类解决问题的方法,是归纳学习(inductive learning)和演绎学习(deductive learning)的结合。沿着这个方向设计的人工智能,可以通过一个定义好的身体基本行动功能和一个包含价值函数与决策函数的模型空间,做出具有真正自主性的行动(24)朱松莼:《浅谈人工智能:现状、任务、构架与统一》,http://www.stat.ucla.edu/%7Esczh ... html#VisionHistory.(登录于2018年3月4日)。
不难发现,这样的人工智能不是按照一个标准手册来行动,而是用常识和理性对特殊情形做出回应。关键是,如同人类行动一样,这种回应的方式不能被完全预测到——我们不能再把他们简单地视为机械工具了。对于这样的人工智能,丹尼尔·丹尼特建议人们最好使用“意向立场”(the intentional stance)去理解和对待。意向立场通过诸如欲望和信念等认知状态去理解一个实体的行为,它代表了我们解释和预测可以采取有目的行动的复杂实体之行为的唯一可能视角。与物理立场和设计立场进行对比,有助于我们更清楚地理解这种视角。物理立场是通过以自然法则为说明框架的物理性质或条件来解释实体的行为,如用气压、温度、湿度等变量关系来解释为何下雨;设计立场则是通过装置的设计或功能来说明实体的行为,如用设计原理来说明手表为何能指示时间。这两种立场显然难以说明人工智能的自主行为,相反地,如果我们使用意向立场,把人工智能当作理性智能体来看待,就可以通过分析它所处的场域、身位和动机,来判断它所具有的欲望和信念,并大致预测它将决定采取何种行动来实现其目的(25)丹尼尔·丹尼特:《直觉泵和其他思考工具》,冯文婧、傅金岳、徐韬译,第8792页。。如果我们认识到更完善的自主能力是人工智能的发展趋势,就不得不承认唯有采取意向立场,才能更加准确地理解和预测它们的行为,才能最大程度地避免它们带来的各种问题。由于这种立场也是人类理解自身和其他高等动物的方式,它也就自然地赋予了人工智能一种“类人的”而非“拟人的”属性以及真正的主体资格。我将进一步阐明,这种视角会改变人类对自身与人工智能关系的理解方式,从而启发人们用一种新的伦理和行动规则来对人工智能进行设计。
四、从正确性规则到关系性规则
与人类共处于同一个世界,作为行动主体的人工智能会以何种方式、何种规则做出具有道德意义的判断呢?如前文所述,具有自主性的人工智能,其行动是由外来的数据、构成性的任务和内在的推理模型共同构成的。观察数据主要用于学习统计要素的相关性,推理模型构成了判断和决策的能力,而任务则不只是作为被给定的功能角色那么简单。引发人类偏好的任务,是生物进化和文化传承所塑造的一些值得追求的价值,以及它们与其他价值错综复杂的相互关系。不同的任务要求从环境中提取特定变量而忽视其他变量。这些都需要学习和推理,而不是通过简单的设定就能实现的。可见,即使对于用来“驱动”人工智能的价值函数来说,自下而上的观察学习也至关重要。道德是社群行为规范的一种,当人工智能进入人类的社群,它首先要观察社群的规范、理解社群的诉求、把握社群的内部和外部关系,这些是人工智能进行道德判断必不可少的训练。一个理想规范手册无法穷尽情况的复杂性,如同人类一样,人工智能的道德训练只能在大量的具体案例中,尤其是在互动中才能逐渐塑造出“道德品格”。这种品格包含了对情境的敏感性、对核心要素的辨别、对次级相关性的提取和权衡等,唯有据此做出的道德判断才能被认为是正当的、可靠的和相对安全的。
如此看来,电车难题也许并不是一个最具代表性的案例。它通过一种抽象过滤了若干要素,把细微而复杂的道德考量极端化为非此即彼的选择。尽管这种情形有出现的可能,但这绝不是日常和典型的道德情形。最近正在热播的剧集《都挺好》可以为我们提供一个更加常见的伦理情境。假设现在有一个人工智能保姆来照顾父亲苏大强,它该以何种方式处理遇到的日常问题呢?请注意,这里的人工智能不是一个只会被动地接受人类指令的服务工具,它可以自主地进行决策。为了在这个问题家庭中照顾好这个爱找麻烦的老人,人工智能需要知道哪些事物和行为对老人有好处、哪些应该被禁止,它还需要了解老人的脾气性格以找到最能够让他接受的服务方式,它也要了解雇主(老人子女)的要求和偏好,理解他们的家庭关系甚至清楚他们的财务状况。在如此复杂的情形中,不可能预先设计出一个最优解植入到机器人的数据库中,也不可能指望它一开始就把所有事情处理得当。人工智能与人类保姆一样,需要与这个家庭逐步磨合,通过一次次的互动来积累和调整自己的数据库,反向推理、学习和估算这个家庭成员的价值函数,从而成为一个良好的功能角色。
在这里,真正的学习是一个交互的过程,但人工智能的交互性方面往往被低估。香农的信息论认为,交流就是编码和解码,只要双方有一个共同的码本和一些共享的背景知识,就总是能够成功实现通讯(26)C. E. Shannon, “A Mathematical Theory of Communication,” Bell Labs Technical Journal 27 (1948:3): 379423.。这种观念的影响一直持续到今天。大部分人仍然认为,码本和背景知识理所当然地可以被标准化,此为理想规则主义的来源之一。被忽略的是,背景知识不等于公共知识,更多情况下它是“本地知识”。如果交流双方没有共享同一个本地知识,就很难从对方的“编码”中准确地提取意义。例如,西方人不太理解中国电影《流浪地球》中人类带着地球逃离太阳系这一故事设置,中国人也常常抓不住西方笑话的“笑点”。要掌握这种本地知识,需要引入一种关系性视角:我们总是在一种(至少是想象的)关系中把握具体的“应当”。朱松莼总结道:“两个人之间至少要表达五个脑袋(minds):我知道的东西、你知道的东西、我知道你知道的东西、你知道我知道的东西、我们共同知道的东西。还有,对话的时候你的意图是什么等等诸多问题。”(27)朱松莼:《浅谈人工智能:现状、任务、构架与统一》,http://www.stat.ucla.edu/%7Esczh ... html#VisionHistory.(登录于2018年3月4日)
关系在道德中的重要性早已耳熟能详。利奥波特则论证了伦理关系的可拓展性,他指出伦理所适用的“共同体”概念是逐步扩大的:最初只适用于主人,然后扩展到人类,未来还应该进一步扩展到“土地”——包括土壤、水、植物和动物(28)奥尔多·利奥波德:《沙乡年鉴》,侯文蕙译,长春:吉林人民出版社,1997年,第193213页。。我们不知道伦理关系是否真的能拓展到土地上的一切,但它至少应该包含具有自主性的人工智能。笔者认为,应该区分两种不同的规则:正确性规则和关系性规则。前者是一些得到伦理辩护的正确行为准则,后者则是引导与共同体达成合理关系的那些机制性行动框架。诚然,人类需要对人工智能嵌入一些守则式的正确性规范,但从关系主义的视角来看,这些规范至多是次级规范。既然人工智能有资格作为道德主体,那么在这些规范之上还应该有一些更高层级的规范,即指导主体间互动方式的关系性规范。
我们无意穷举这类规范,在此仅展示一条作为示例:人工智能应当做那些其所处的共同体会给予正面反应的事情,避免做共同体会给予负面反应的事情。需要指出,其中的“正面反应”和“负面反应”都是动态的,因为社会规范就是人们在竞争与合作过程中达到的“准平衡态”。社群规范可以是多维的,其中的平衡也是动态的。事实上,刘文中提出的三条儒家规范,即忠(忠诚)、恕(互惠)、仁(人道)都带有强烈的关系性色彩。遗憾的是,作者对它们进行了一种标准规范式解读:“忠”被定义为忠于角色,行文中又对角色职责进行了类似于行为守则的明确规定;“恕”所表达的“己所不欲勿施于人”被解读为一个禁止行动的类别清单;“仁”则被简化为“做好事要请示人类”和“禁止协助作恶”(29)刘纪璐:《儒家机器人伦理》,《思想与文化》第22辑(2018年6月)。。不难发现,这种解读把多元的、立体的、动态的关系扁平化和静态化了,作为关系主义之核心特征的语境论和交互性也就不复存在。儒家式伦理倾向于把个体看作是内在地归属于群体的(不同于西方文明“个体组成群体”的观念),从而强烈地要求用一种关系主义的方式理解伦理规范。因此,一种真正的儒家机器人需要嵌入的是这种关系性和结构性的规则。
在关系主义的视角下,一个自然的问题是:人与人工智能是什么关系?既然前文已经为人工智能的主体地位做出了辩护,那么,首先可以肯定的是,我们不主张一种工具性关系。除此以外,两个主体之间还可以有主奴关系、领导关系、伙伴关系、情侣关系等多种关系。我们建议,可以对这些类型的关系持有一种开放态度。正如人们之间的关系是在一种社会结构和生活场景下经过自然平衡而建立起来的,人工智能与人的关系也应在同样的过程中得到观察和发展。
不过,对于道德主体之间的关系,仍有一些必要的前提需要强调,其中最核心的就是为自己的行为负责。负责的首要条件就是能够接受惩罚。有人认为人工智能先天地缺乏对惩罚的敏感性,惩罚所具有的威慑、补偿、劝诫三大作用对它们都不成立,理由是人工智能既不会产生恐惧、愧疚这样的情感,也不具有赔偿能力。这种观点没有看到,惩罚的关键并不在于被惩罚者的主观体验,而在于对其后续行为产生的实际影响。只要内置了关系性规则的人工智能可以接受到公众的正面或负面反应并据此调整自己的行为,惩罚对它们就是具有客观效力的。至于补偿的能力,我们为什么不能给予人工智能以一定程度的产权呢?法学家乌戈·帕加罗创造性地提出了“数字特有产”的概念。他指出,古罗马的奴隶主一方面为了保证奴隶可以作为代理人进行自主交易,另一方面保证自己的利益不受奴隶行为的负面影响,而赋予奴隶或家子一定数额的独立财产,即“特有产”。受此启发,他建议通过数字账户的形式赋予人工智能以“数字特有产”,它可以是一种保险,也可以是主人私有产权的延伸(例如增加担保)(30)乌戈·帕加罗:《谁为机器人的行为负责》,张卉林、王黎黎译,上海:上海人民出版社,2018年,第110132页。。我认为,其中一部分还可以通过社会公共基金的形式来支付,其数额可用事故概率和补偿成本经过大数据测算来决定。一旦拥有了独立产权,人工智能就可以作为法律上的代理人自主行动(例如,与交易方签订合同),并有能力对自己的行动负责。这样,在未来世界人工智能将作为一种独特但真正意义上的社会成员,与人类共同参与到社会生活中去。
五、结 语
自古希腊以来,自然物和人工物的区分成为人类认知的一个基础性分类框架,随着现代生物学的发展,它又与有机体和无机体的区分相结合,融入到人们对生命的理解中。这一分类学曾经彰显出人类执着而强烈的自我意识,也限定了人类认知事物的边界。而当我们站在即将到来的人工智能社会的十字路口时,更加细致的反思和分析告诉我们,这个边界并非如想象的那样清晰和坚固。现在还没有证据表明硅基的人工物不可能具有生命,更没有充分理由断言具有真正自主性的人工智能不能被赋予主体资格。我们应该以一种更加对等和开放的态度与这个新的“物种”相互认识,相互适应。尽管现在还难以想象人工智能具有情感体验和自我意识,但作为一个行动主体,它们与我们并无二致。如果用一种因果推理模型和关系主义规则来设计人工智能,它们与我们的“思维方式”也会大致相似。
但是,也不能由此断言人工智能与人类没有实质性差别。至少存在着三个真正的差异,可能会造成人工智能的行为和社会结构产生显著偏离。第一,人工智能可以通过联机成为一个“荣格式集体存在物”,它们的个体边界在原则上是可消除的。第二,人工智能具有一种“苏格拉底式的透明性”,对它们而言不存在人类那样的“认知”与“接受”之间的鸿沟,或者说,它们是先天地知行合一的。第三,人工智能原则上可以通过数据复制转移实现“不死”,生存也不是它们的首要需求。不难设想,根据这些特征形成的人工智能社会(假设独立于人类社会),很可能会演化出完全不同的社会结构。因此,如何与这样一类行动主体共处于同一个社会,仍是摆在人类面前的重大课题。一种乐观的看法把人工智能视为服务型机器,一种悲观的看法则把它们视为完全异于人类的怪物,二者都是偏颇的,更加理智的看法是把它们当作一个可交流但有差异的族类。与这个族类和谐共处无疑是一个巨大的挑战,但类似挑战在人类的历史和现实生活中都曾反复出现。无论人工智能社会将带来什么,都是人类必须要积极面对的。
|
|