(一)通过零知识证明原则进行的算法审查
由于算法设计者、使用者作为消费者的信息受托人负有忠实义务与注意义务[20],因此应该由行政机关或第三方机构对算法进行审查,从而避免对公众的权利侵害。算法审计包括非侵入用户式审查(Noninvasive User Audit)、借助傀儡审查(Sock Puppet Audit)、层层打开式审查(Scraping Audit)与联合审查(Collaborative Audit)等[21](p197-202)。现阶段已经可以通过一些技术方式实现对于算法执行过程的审查。通过算法设计者内部的数据活动顾问与外部的数据活动监管局对接的二元监管方式可以有效进行算法歧视性的审查。“数据活动顾问从企业内部对算法进行设计与使用的评估控制,而数据活动监管局从外部对数据活动顾问提供必要的援助和监督。”[10](p43)
算法审查面临的棘手问题就是通过何种方式对复杂性极高,且存在于“黑箱”中的自动决策算法进行歧视性审查。零知识证明原则可以证明实际使用的决策策略,或在特定情况下达成的特定决策具有特定属性,但不必揭示如何知道该属性或决策策略是什么①一个经典例子是假设两个百万富翁出去吃午饭,二者同意更富有的人应该支付费用。不过,两人都不愿意向对方透露其财富数额。零知识证明可以让他们两人都知道谁更富有(因此谁应该支付餐厅的费用),而不必透露两者的价值。See Danielle Keats Citron,Technological Due Process,85 WASH.U.L.REV.1249,1256(2008)(describing systemic errors in the automated eligibility determinations for federal bene⁃fits programs).。与前述的加密承诺相对应,假设决策者做出A、B、C三个承诺(commitment):A代表算法设计者对于非歧视性政策的遵循承诺,B代表在特定情况下输入A的承诺,C是对在该情况下实际达成时做出的自动化决策的承诺。这些承诺可以事先发送给监管机构或者是可信的第三方,从而保证在算法实施期间不被篡改。当用户提起算法审查时,算法设计者、使用者就可以公布密钥,算法审查机关通过零知识证明原则使公众验证A、B和C确实相互对应。也就是说,当提交的策略A应用于输入的数据B时,结果就是提交的结果C。如此就可以由公众与特定审查机关完成对自动决策过程的核实。所有这些验证过程都不披露决策政策本身,也不披露可能包含在输入或结果中的私人数据。
如果算法相对人一旦提出了算法解释的需求,也可以遵循无条件反射事实(unconditional counter⁃factual)解释的方法:即不需要解释内部“黑箱”的运算逻辑,而是将算法依赖的外部因素加以解释[23](p860-861)。在不打开算法“黑箱”的条件下,了解某项算法是否存在某种价值与伦理的前置性要求,继而实现问责①比如针对为什么减税是适当的这一问题,政策逻辑的回应是因为减税的先决条件是高通货膨胀和贸易逆差,而目前的情况显示了这些因素。而反事实解释则是如果通货膨胀率降低,减税就不可取了。如果没有贸易逆差,就不建议减税。正常逻辑下的算法模型刻画起来难度较大,即使在单变量的情况下,也很难解释函数如何随着输入的变化而变化。若转换为无条件反事实解释,就转而采用端到端的综合方法来解决问题,函数的输入输出与决策逻辑就非常清楚。。我们对反事实解释的概念取决于相关概念:无条件反事实原则不致力于解释这个世界的因果关系,而是提供更具信息性的一组反事实解释,从而提供反事实所对应的结果附近的不同选择[23](p878-882)。算法模型的刻画难度较大,即使在单变量的情况下,也很难解释函数如何随着输入的变化而变化。反事实解释的方法是以提供能够改变决策的最小信息量的方式编制的,不需要理解算法的内部逻辑。一个单一的反事实可以显示某个决定是如何基于某些数据做出的,而这些数据在决策做出前不会被改变,接下来只要通过计算机算出有意义的反事实。包括神经网络、向量机和回归器在内的许多机器学习的标准分类都是通过在一组训练数据上找到使目标最小化的最优权重集来进行训练的②在这个数据集中,种族(race)是使用一个离散变量建模的,该变量只能接受标签0或1,分别对应于“白色”或“黑色”。反事实显示“黑色”学生会得到更好的分数。对于“黑人”学生来说,种族确实在计算出的反事实下有所不同,显示出决定和种族之间的依赖性(这通常是受法律保护的属性)。Wachter,Sandra,B.Mittelstadt,and C.Russell“.Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR.”Social Science Electronic Publishing(2017).。比如在根据种族、法学院之前的平均分数和法学院入学考试分数(LAST)来预测法学院学生的第一年平均分数中,反事实显示黑人学生会得到更好的分数,从而显示这一决策与种族之间的依赖性。要求算法的设计者与使用者建立一个因果模型,并将其传达给非专业的公众是非常困难的。反事实绕过了解释复杂机器学习系统内部工作的实质性挑战,而转变为向数据主体提供信息。这些信息既容易理解,又对决策原因的理解、挑战决策与改变未来行为等卓有成效。
(三)司法审查中对歧视性因素的认定方式
如果在算法解释中发现了歧视性因素,也并不能直接认定算法设计者需要承担相关责任。美国司法审查中就形成了对基于主观故意的算法歧视审查与基于无过错的算法歧视审查两种模式。针对算法歧视中存在主观故意的模式,原告需要证明被告(算法设计者)存在主观上的歧视意图或与歧视相关的刻板印象,如能证明,被告就需承担责任。这一原则确立于“麦克唐纳道格拉斯公司诉格林”(McDonnell Douglas Corp.v.Green)①McDonnell Douglas Corp.v.Green,411 U.S.792(1973).一案,而在“冈萨雷斯诉谷歌”案中,法院遵循的逻辑也是如此。该种模式的核心在于审查算法是否存在故意的不同待遇,而这种针对特有群体的不同待遇与刻板印象需要对算法决策起实质性作用。在原告可以用间接证据证明的情况下,就可以被认定为存在算法歧视。
由于受算法影响者对于主观过错的证明非常困难,于是美国法院逐渐演化出了对无过错情况下的算法歧视审查。即不考虑算法的主观意图,而是观察其客观结果是否导致差异性影响,从而认定是否构成算法歧视。美国联邦最高法院在“康涅狄格州诉迪尔”(Connecticut v.Teal)案中确立了该原则。受算法影响者往往不具备真正理解算法的能力,因此应采取过错推定原则。这种情况下算法控制方会以商业必要性为抗辩理由,原告方即需要提出被告有可替代的算法程序再行反驳。在这种模式下,法院需要综合三个方面的因素做出认定:其一是差异性影响:算法对原告产生的不利影响大于对其他一般公众产生的不利影响。其二是商业必要性审查,考察算法行为的选择与商业目标间是否存在直接相关性。其三是可替代算法决策评估:若存在非差异性影响的算法,就应该认定歧视②参见“阿尔伯马尔纸业公司诉穆迪”(Albemarle Paper Co v.Moody)一案。。
[2]Joshua A.Kroll,Joanna Huey,etc.Account⁃able Algorithms[J].University of Pennsylvania Law Review,2017,165(3).
[3]虞青松.算法行政:社会信用体系治理范式及其法治化[J].法学论坛,2020(2).
[4]解正山.算法决策规制——以算法“解释权”为中心[J].现代法学,2020(1).
[5]舒红跃.现象学技术哲学及其发展趋势[J].自然辩证法研究,2008(1).
[6]张玉宏.大数据算法的歧视本质[J].自然辩证法研究,2017(5).
[7]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4).
[8]Megan Flynn.California Abolishes Money Bail with a Landmark Law.But Some Reformers Think it Creates New Problems[EB/OL].https://www.washing⁃tonpost.com/news/morning-mix/wp/2018/08/29/cali⁃fornia-abolishes-money-bail-with-a-landmark-lawbut-some-reformers-think-it-creates-new-problems/,2021-3-20.
[12]Emre Bayamlioglu.Contesting Automated De⁃cisions[J].European Data Protection Law Review,2018(4).
[13]沈伟伟.算法透明原则的迷思——算法规制理论的批判[J].环球法律评论,2019(6).
[14]郭泽强.人工智能时代权利与责任归属的域外经验与启示[J].国外社会科学,2020(5).
[15]Michael Veale,Lilian Edwards.Clarity,Sur⁃prises,and Further Questions in the Article 29 Working Party Draft Guidance on Automated Decision-making and Profiling[J].Computer Law&Security Review:The International Journal of Technology Law and Practice,2018,34(2).
[18]Jio Ito.AI Engineers Must Open Their Designs to Democratic Control[EB/OL].https://www.aclu.org/issues/privacy-technology/surveillance-technologies/aiengineers-must-open-their-designs-democratic,2021-3-20.
[19]Edmond Awad,Sohan Dsouza,etc.The Mor⁃al Machine experiment[J].Nature:International Week⁃ly Journal of Science,2018,563(7729).
[20]Balkin J M.2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy:The Three Laws of Robotics in the Age of Big Data[J].Ohio State Law Journal,2017(5).
[21]Sandvig C,Hamilton K,etc.Auditing Algo⁃rithms:Research Methods for Detecting Discrimination on Internet Platforms[J].Data and Discrimination:Converting Critical Concerns into Productive Inquiry,2014(22).
[22]Lilian Edwards,Michael Veale.Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking for[J].Duke Law&Technology Review,2017-2018(16).
[23]Sandra Wachter,Brent Mittelstadt,Chris Russell.Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR[J].Harvard Journal of Law&Technology,2018(2).