奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 195|回复: 0

行政公开视域下行政决策算法化的法律规制

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60167
发表于 2021-12-31 15:23:32 | 显示全部楼层 |阅读模式
扫码加微信
行政公开视域下行政决策算法化的法律规制
□陈 亮1,薛 茜2

(1.西南政法大学 人工智能法学院,重庆401120;2.西南政法大学 经济法学院,重庆401120)

[摘 要]“互联网+政务”以及智慧城市的建设都需要将算法嵌入日常的行政决策,这使得算法决策规制日益成为社会治理现代化进程中不可忽略的研究议题。从现行行政程序法中对行政公开性的要求入手,发现由于算法决策自主性、瞬时性以及不可解释性等众多因素的复合影响,导致传统法上所要求的决策主体公开、决策内容公开以及决策程序公开在一定程度上被架空,形成算法决策在适用上的正当程序危机。为规避算法决策给传统程序法带来的挑战,算法透明原则基于行政决策公开要求的延伸被广泛提倡,欧盟《数据通用保护条例》并据此进一步提出“可解释权”的概念。但是,由于该条例是在个人数据保护的基础上规制算法决策问题,忽略了算法在公共领域进行决策的特殊性。因此,如果欲将《数据通用保护条例》的“可解释权”应用于算法公共决策场景,就需要考量如何使其与行政决策公开原则兼容,并在主体、程序以及内容三个方面对其进行改造。

[关键词]算法决策;行政公开;深度学习;算法黑箱;可解释权

一、导言
随着人工智能技术的不断发展,行政决策交由人工智能处理的场景日趋广泛。当下,多地政府开始借鉴企业的经验,将大数据、区块链等智能技术应用于行政审批、公共管理、生态环境保护、应急管理等多个公共领域。在国内,典型代表如天津市建立的“政务一网通”政务服务平台、深圳市的“落户秒批”以及百分百公司最新推出的智能政府决策系统(Deep Governor)。在域外,如在美国,通过检索和收集天气预报中的实时天气信息,利用人工神经网络技术能有效提升灌溉用水需求的预测精准度,为政府部门合理安排灌溉水资源提供科学支撑[1](p163)。与商业决策不同,在公共领域应用算法决策具有利用机器的智能性来提升行政治理效能以及利用技术的中立性来防止行政恣意的双重目的。但由于技术的两面性,算法决策所带来的算法歧视、算法独裁、算法黑箱等固有“基因”也为现行法律制度带来了挑战。目前,行政决策领域面对人工智能技术的强势融入导致现行行政法中的正当程序原则被架空。正当程序作为行政法的一项基本原则承载着现代行政程序的基本价值追求——程序正义,往往具体化为中立性、参与性和公开性三项最低要求。然而,在行政决策日趋算法化的场景中,经过深度学习,系统自动生成的算法模型使得正当程序中的三项最低要求难以践行,从而对算法决策的正当化提出了严重的挑战。从实践经验上看,与中立性和参与性相比,对公开性的侵蚀更为严重,以公开性问题为中心进行针对性讨论具有现实意义。

二、行政公开及其应然要求
在法治社会中,作为行使公共权力的人,无论其权力性质如何,都必须得到法律的授权。例如《行政许可法》第23 条规定:“法律、法规授权的具有管理公共事务职能的组织,在法定授权范围内以自己的名义实施行政许可。被授权的组织适用本法有关行政机关的规定。”①参见《行政许可法》全文释义,http://www.ccdi.gov.cn/djfg/fgsy/201401/t20140107_114270_1.html.最后访问于2020年11月12日。而针对那些不仅会涉及国家,也会对公民合法权益造成影响的行政行为,要求对行使行政权的主体进行法律授权的同时也应要求行政权行使在阳光下。

为加强行政的透明度,20 世纪中期西方各国行政发展出一个普遍趋势即行政公开。行政公开是行政主体在行使行政职权时,除涉及国家机密、个人隐私和商业秘密外,必须向行政相对人及其社会公开与行政职权有关的事项[2](p100-106)。广义地理解“与行政职权有关的事项”,包括行政权力运行的主体、依据、过程和结果向行政相对人公开,即行政主体行使行政权的行为以公开为原则,不公开为例外。行政公开作为现行行政程序法的一项基本原则,它不仅是行政主体的法定职责,同时也是行政相对人的一项保障性权利。而行政决策公开作为行政公开的一个侧面,是行政决策合法性不可或缺的程序性保障。在行政公开视域下,行政决策的公开是为了让公众更有效地参与决策,使决策者获得更加详实、准确的信息,让各方利益能够得到充分整合,推动决策机关不断调整和完善其决策草案,促使最终的决策方案能够体现尽可能多元和均衡的法益[3](p64)。因此,为了达到决策公开性的目标,现行的行政程序法对决策公开性的要求主要体现在决策主体公开、决策程序公开以及决策内容公开三个方面:

(一)主体公开:决策主体表明身份的要求
现行行政程序法中所规定的出示证件、身着制服以及有固定的办公场所等措施在于实现决策者的身份公开透明。从立法目的上看,一方面,这一制度要求不仅是为了防止假冒、诈骗,也是为了防止行政机关超越职权、滥用职权[4](p552)。从历史角度看,对于传统法中的决策主体公开的制度设计来源于一直以来世界各国对“责任政府”的普遍共识。正如奥斯本和高伯勒在他们的畅销书《重塑政府》中所描述的那样:“政府应转型为精简、反应迅速、以客户为中心的企业。”正所谓“有权必有责”,被法律明确授权的决策主体才是承担决策结果责任的主体。因此,为实现决策主体公开这第一层次的目的,我国现行法律中对不同公共决策场景下的行政主体公开进行了具体规定。但殊途同归,表明行政决策主体身份是决策主体公开的题中之义。例如,我国《行政处罚法》第34 条规定:“执法人员当场作出行政处罚决定的,应当向当事人出示执法身份证件……行政处罚决定书中应包含行政机关名称,并由执法人员签名或者盖章”②参见《中华人民共和国行政处罚法》全文,https://duxiaofa.baidu.com/detail?searchType.最后访问于2020年12月1日。。另一方面,行政公开在公民的知情权、参与权、表达权以及监督权等权益保护上具有重要意义,而具体到行政主体的公开上,要求决策者表明身份则是为了让公民可以准确地识别权源,为建立权责一致的责任追究机制提供前提条件。在实践中,决策主体的这种公开性含有防御性的价值[5](p232-233),即决策对象在决策者不表明身份时,可拒绝其作出的决策甚至进行一定程度的抵抗行为,而排除违法的可能性。

(二)程序公开:决策程序的高透明度要求
在利益多元的社会形态下,任何行政决策都会涉及资源和利益的调整和分配,为满足“让权力在阳光下运行”的新需求,程序公开对于行政决策过程的透明度有一个高标准的要求,这不仅应该包括对静态的决策信息公开,也应包括动态的公众参与。因此,为满足决策程序的高透明度要求,具体应该体现为对决策信息的公开以及在公众参与上进行“度”的把握。

事实上,陈述理由既可以提高决策的透明度也可能会降低决策的透明度,其关键在于规制的对象本身是否可以被解释。在实践中,对于算法的不可解释性来说,主要来源于两个方面:一方面,决策公开之保留上的限制,即传统法中的行政决策公开为国家安全、商业秘密、个人隐私作出的例外规定。然而,在算法决策应用场景中使得这些保留条款功能和作用出现异化。另一方面,算法决策会产生“黑箱效应”。例如,在AlphaGo大战柯洁一战中,AlphaGo 被输入的指令是“赢得比赛”,但是它在比赛过程中思考下一步棋应该怎样走的原理,我们不得而知。具体到目前在行政决策场域下应用最为广泛的机器学习领域,这种输入的数据和输出答案之间的不可观察的空间就是人们所说的“黑箱”。综上,这两种算法决策的不可解释性导致决策公开中说明理由无法达到现行法律所要求的披露效果,也因此引发了算法透明性的危机。

二是要保障决策过程中公众的参与程度。公众参与是协商民主理论的要求在行政决策领域的应用。总体上看,行政程序法中所要求的公众参与是对决策过程的一个深度参与,一方面,对于与公民自身利益相关的行政决策,应当提供利益博弈机制,即让公民参与决策的讨论、协商或实施。另一方面,对于无特殊相关人的公共事项的决策,也应当构建广泛的社会公众参与机制,以实现行政决策的合理性、回应性和有效性。为满足行政决策过程的高透明度,让公众参与到决策过程中来一直是各国行政法治的重要内容,高参与度带来高透明度也一直是立法者的共识。从目前的法律法规来看,为保证决策主体与决策对象的这种双向互动,我国现行行政程序法以及相关法律法规进行了一系列的制度设计。如行政听证制度作为行政程序法的核心,通过听证使利害关系人各方在一个平等的空间上进行对话成为保障公众参与度最重要的通常手段。在实践中,我国的《行政许可法》《行政处罚法》中都已经确立了行政听证制度,它要求行政主体在作出行政决策前,在听取意见、接受证据的过程中作出最为理性的选择。

(三)内容公开:行政决策说明理由要求
决策过程中的信息公开是简单的信息披露,而决策内容的公开还应包含对于信息的解读。决策内容的公开不仅仅是披露决策相关信息,公开决策内容的主体还有义务对信息进行解读,从而使信息转化为行政决策参与者所必需的知识[6](p172)。行政决策的内容公开应当遵循“释明原则”是由行政公开的目的所决定的,为此,“说明理由”要求成为行政决策内容公开中的一项普适性制度设计。整体来看,行政行为说明理由是制约权力的要求,是行政合作的趋势,也是司法审查的基础[7](p41-48)。因此,虽然我国一直以来都存在着“重实体、轻程序”的法律传统,但是,“说明理由”作为行政程序法的一项制度安排,我国已在诸多行政领域中确立了该项制度。从适用范围上看,凡是对行政相对人权益造成影响的一切行政行为都应当说明理由,仅以法律法规明确作排除性规定为例外。从实现方式上看,行政主体说明理由的时间应该确定在行政行为成立生效之前并以书面说明为主,以口头说明为补充。从说明内容上看,目前法律规定说明理由的内容应包含事实依据与法律依据两方面,对于事实依据,行政机关做出行政决定前必须要以事实为依据,没有这种对事实的收集、整理和印证,行政机关就不可能做出一个公正的裁决。对于法律性依据及其选择理由的说明,除要求指明适用的某法某条之外,必须要求行政主体说明它为什么要选择适用该法律,即要求其说明根据事实性依据选择该法律的逻辑推理过程。从法律后果上看,目前我国虽然对说明理由的及时性与准确性没有规定具体可行的法律救济方式,但是也笼统地规定了不说明理由的法律后果。例如,《行政处罚法》第41 条规定了不说明理由的法律后果,即不依据本法规定向当事人说明理由的行政决定不能成立。

三、行政决策算法化对行政决策公开性要求的挑战
目前,我国在没有统一的行政程序法的现状之下,散见于各层级的法律法规为满足行政程序公开的要求进行了一系列的制度设计,在控制行政主体自由裁量权以及保障公民权益方面发挥着重要功能。随着人工智能时代的到来,不仅一些私营机构使用算法进行商业活动,以自动化系统与深度学习系统为基础的计算机程序也在不断地渗透进公共领域。例如2020 年年初,我国在疫情防控中使用的“健康码”便是利用大数据分析技术进行公共决策的一次大规模尝试。但是,算法决策的方式并没有改变这些决策的行为性质,现行法律法规中关于行政决策公开性的要求也应当适用于算法决策的不同场景之下。然而,伴随着利用计算机程序进行行政决策的行为日渐普遍,算法代替规则时有发生,从而使传统法律规制与算法规则之间的兼容性问题一直被讨论。同样,在行政决策领域,部分环节的算法化使得一些现有程序制度未能在算法决策中得到完全的贯彻,也正是由于算法的特定属性对现行行政决策的公开性造成愈益严重的挑战。

(一)算法决策的自主性:无法实现决策主体公开的目的
国务院发布的《新一代人工智能发展规划》中曾提到人工智能进入新的发展阶段,呈现出算法自主操控特征。而行政决策领域中算法模型的应用从决策树模型到神经网络模型的转变是算法自主性日益增强的典型实例[8](p16-17)。与之前的决策树模型不同,具备深度学习能力的神经网络模型模仿大脑拥有自己的计算和学习方式。如果这些模型被应用到行政决策场景中,接受过特定决策任务的培训,它就可以得出自己的决策方法。这虽然与我们对智能系统的期望差不多,但是不可忽视的是在神经网络中,这些过程都是独立于人为控制而自主运行的。

在法治社会中,为保障公民对权源的准确识别要求决策者公开其详细信息,如机构名称、职权依据,并以此促进对结果的问责。然而,在算法决策场景下,当算法代替公务人员进行行政决策时,传统上基于行政人员职务行为建立的身份识别制度很难发挥作用。现实中,行政机关是一种拟制的存在,本身不具备意思表达和行为的能力。因此,法律中一般将其所属的正式工作人员(行政人员)的行为和意思推定为行政主体的行为和意思,并通过职务行为和个人行为的区隔,明确行政主体承担责任的情形和方式[9](p4-5)。而如今,我们可以引入并遵循越来越多的算法体系,首先是相对易于遵循的体系,但后来演变为复杂得多的体系并且超出了人类理性的上限。虽然算法决策涉及计算机程序开发者、使用者以及决策制定者等多方主体的参与,但其外在表征被一张二维码、一个电子眼甚至是我们肉眼所不能识别的“机器”所代替,如上海市食品药品监督管理局探索运用人工智能图像识别技术自动识别食品监控拍摄的违法行为①参见腾讯新闻网,http://k.sina.com.cn/article_1914880192_7222c0c0020008zrv.html.最后访问于2020年10月18日。。在这种模式下,决策主体隐藏于机器后方,行政机关的行为意思不能借由公务人员的行为加以推定,而是通过“机器系统”做出,传统的决策主体公开制度将原本规制人的行为的法律逐渐异化成规制机器行为。因此,传统的决策主体公开制度并不能有效地规制算法权力在行政决策领域的隐蔽性问题,从而引发了技术性的“权力异化”风险[10](p60-62),具体表现为以下两个方面。

一方面,对这些设备的公开使公民无法准确地识别作出决策的权力主体,使得传统法上决策主体公开的防御性价值无法体现。现行法律规定,决策主体行使决策权力来源于法律的授权,决策主体超越法律范围行使行政权力则构成违法,并且需要承担法律责任。比如,证券法将公开发行股票的核准权授予中国证券监督管理委员会,中国证券监督管理委员会就可以用自己的名义作出是否核准的决定。现行法律授予行政主体的权力并不具有延伸性,当行政决策完全或者部分依托算法作出时,那么这样的一种算法决策系统的运行必须也要得到法律的授权。然而,在目前广泛应用的股票交易算法系统中,系统可以自主工作,不断地对收集到的数据进行分类,识别出重要的信息,并自动发布审批意见。在这样的算法主导的决策场景中,公众并不能从所公开的“机器决策者”被设计过的算法系统中准确地识别出法律所授权的决策者是中国证券监督管理委员会。而且,面对这些具有自主性的算法在行政决策领域的适用,使得算法本身在没有法律授权的情况下也出现具备了权力属性的现实情况。除了该算法系统的设计者,不管是算法决策的使用者还是作为接受决策结果的相对人都根本无法察觉,也就不可能有机会纠正算法权力的错误并维护自身合法权。另一方面,算法决策所带来的权力行使的隐蔽性问题不仅意味着算法系统有我们不能察觉的“隐层”,也意味着我们无法理解用于公共决策场景下的算法逻辑。这种情况下,身份表明的主体公开要求不仅不能防止权力的滥用,而且还会为行政恣意提供合法化空间。以沪首例声呐电子警察执法纠纷案为例,交警支队在针对行政相对人提出的质疑时,更多的是强调声呐“电子警察”违法鸣喇叭抓拍设备均已通过国家权威机构检测合法,同时解释了该声呐“电子警察”的工作原理以体现其科学性,并得到了法院的支持。这表明,当将传统的行政程序法中的决策主体公开要求适用于规制算法场景时存在明显的合法不合理现象。当作为行使自由裁量权的法律依据和政策转化为代码被植入决策系统中时,不仅对于受其处罚的行政相对人来说是无法理解的,而且算法决策系统的使用者也会沉浸在这种科学性的体验之中,计算机程序员无形地承担起所适用实体法的准确性的责任。算法决策系统使用上述所说的“超级推理”,能够以微妙而有效的方式塑造用户的感受和行为,破坏作为真正决策者的独立判断力[11](p118-136)。在这样的情况下,传统法上的公开要求只能让我们看到数据输入过程和输出结果,行政决策由谁作出以及如何作出的问题,也只有少数“圈内人”可以掌握,这也无形中增加了受算法操纵的决策主体滥用行政权力的可能性。

(二)算法瞬时性:影响决策过程中的公众参与度
算法的价值全部体现在它的速度上。算法是为解决一个或一组问题而设计的一组指令,而算法系统是由多种不同类型的算法集结而成的。一般来说,应用于行政决策领域的算法决策系统由成千上万条命令组成,这些命令可以输出数亿条指令,决策结果被瞬间完成[10](p66-70)。例如,在“秒批”“智能审批”等算法决策应用场景下,一个需要作出某种决策的决策者依赖于机器系统的输出,而整个过程中没有或者很少有人的投入。不可否认,这样的算法系统大幅提高了行政决策的效率,然而算法决策在带来便利与高效的同时,也引发了决策过程中公众参与要求的悬置。

行政决策的科学性和民主性是现代行政法治的必然要求,亦直接关系着政府政策及政府行为的公信力,而公众参与是行政决策合法化的重要途经[13](p110)。决策公开程序上要求公众参与决策过程以保障其合法权益不受侵害并增加整个决策过程的透明度。当下,由于算法的复杂性和专业性,行政决策过程中的信息不对称可能会更加严重,这种信息不对称加重不只发生在使用算法决策的行政主体与接受算法决策结果的行政相对人之间,更发生在人类和机器之间,所以算法决策应用下更应该强调公众参与要求的重要性。在传统行政决策场景中,法律为行政决定的相对人和利益相关者提供了提出申辩、表达利益诉求的机会,并设置了相应的程序性装置[14](p36)。但是,随着算法的自动化程度越来越高,程序公开因算法决策瞬时性的存在而无法保障公众的参与,也造成对公民陈述、申辩和听证等程序性权力的损害。例如,根据《行政处罚法》规定,对处罚应当履行告知义务,让当事人有一个陈述申辩的机会。而反观发生在2005 年的“杜宝良案”中,杜宝良连续违章105 次,并没有人来履行告知义务。可以预见的是“杜宝良案”是新技术带来的新问题。以行政处罚领域为例,我们原有的法律制度都是建立在行政机关与行政相对人这种面对面处罚的基础上的,当算法代替人类作出某项处罚决定时,不仅提高了作出决策的效率,也压缩了决策的过程,使得公众参与被迫排除在决策程序之外,决策过程的透明度问题遭到公众的质疑。

另外,行政决策过程之所以要保障公众的参与是因为许多行政决策涉及行使自由裁量权进行评估性决断。例如,一个人“是否品行良好”“是否有重大威胁”等。不可否认,算法下的行政决策效率更高,并且更符合政府对这种效率日益增长的需求。但是,也有学者提出:“自主决策的前提是要应用的规则不容易被解释,并且决策者在做出决策时没有太多或任何自由裁量权的前提下进行。”其原因有二:其一,在算法自动决策场景中,决策的控制权实则由算法模型的设计者和使用者掌握着,“控制权的分布是极其不对称的。公民将被评测,但他们不能反过来去评测那些评测他们的机构”[15](p125)。其二,由于行政决策是由算法模型在瞬间作出,行政相对人和利益相关者在决定作出前,无法透过法定的程序装置参与到行政决策的过程中,充分行使法律所赋予的陈述、申辩、要求听证等各项程序性权利,而只能接受冷冰冰的算法决策结果[13]。简言之,合法的决策程序必须允许公众参与和理解这些进行决策的程序,然而,不区分具体场景对算法系统的广泛应用以及日益依赖限制了人们积极参与和理解决策程序的广度与深度,从而因泛化应用与过度依赖算法系统对决策程序公开要求构成了实质性威胁。

(三)算法不可解释:导致说明理由无法达到披露的效果
笔者认为,在《数据保护通用条例》的法律框架下,关于算法决策规制的争论由于其过分关注隐私而受到了不小的阻碍。税务机关根据数据主体的收入计算的纳税申报决定,是一项在GDPR意义上具有法律效力的决定。但是,行政领域的公共决策不一定都能与特定个人的个人数据相联系,也很容易基于匿名数据产生,这将使欧盟数据保护立法不适用。因此,对于公共领域的算法决策不能在隐私保护的框架内进行,超越隐私框架的方式需要让我们更加关注整个决策的系统而不是算法技术的内部运行程序,而对《数据保护通用条例》中“可解释权”的改造应确保在算法决策过程中进行系统问责机制的实现为目标,而不是过度关注算法内部运行的技术逻辑。

1.算法黑箱导致的算法决策披露不能。简单的“自动化”决策时期,机器的透明度不会对决策背后的逻辑解释造成特殊问题。例如,如果一个摄像头检测到司机的速度,并告知行政机关超过了限速,超速罚单就会自动发出。在这样的场景下,决策背后的逻辑以及决策依据的规则可以很容易地向数据主体解释,即如果超速,就会开出超速罚单。不同的是,基于复杂算法的自动决策在解释决策背后的原因时会面临许多复杂的问题。从目前的技术发展来看,机器深度学习系统的应用增加了算法的复杂性。与自动化机器不同,机器深度学习系统是一个开放的系统,对于绝大部分机器学习的输出结果,无论输入和输出的因果关系在表面上看起来多么直观,这种因果关系都很可能根本无法被解释,其动态的变化也更难以把握[16](p1147,1156-1157)。

目前,基于机器深度学习技术所构建的算法模型正广泛应用于行政决策之中,并造成公众无法了解决策主体的决策过程,也无法监督政府权力运行的现实情况,究其原因主要在于决策主体将算法不具有解释性作为抗辩理由。行政机关与算法开发者由此达成了共识,一致认为人类可能无法预测应用机器学习技术的结果,也无法理解某些结果是如何达到的,计算机完全可以自主学习某些人类根本没有教过的东西。不仅如此,当两个完全相同的决策相隔一段时间时,机器学习技术可能会在第二次因其“学习”过程出现问题时而产生不同的结果。因此,上述这些情况都有可能让决策主体在说明理由上出现困难,以此而主张不具备对算法决策进行说明理由的能力。

2.法律保留豁免说明理由义务。即使在现行的决策公开制度下,也并不是所有的决策都必须公开,法律为涉及国家秘密、商业秘密以及个人隐私的行政决策设置了法律保留条款,以解决行政决策公开与国家安全、社会秩序以及私主体权力之间的法益冲突问题。例如,在个人隐私公开的豁免上,美国《信息自由法》明确规定,对于人事和医疗档案及其他透露出去会明显构成侵犯个人隐私权的档案免于公开[17](p154)。但是,在算法自动决策场景中,行政机关和算法模型的开发者基于算法模型涉及商业秘密、国家安全等理由而拒绝对其决策结果予以说明并公开[13]已经成为决策主体逃避法律责任所惯用的一种手段。从域外实践中看,早期迹象表明,决策机构会寻求在业务规则或技术助理守则方面依赖任何豁免[18](p21-23)。例如,在Cordover案中,行政上诉法庭支持澳大利亚选举委员会(AEC)拒绝公布一个计算机程序的代码,该程序是用于读取和计算选票记录在底线以下的参议院选票。澳大利亚选举委员会辩称,由于委员会公益与私益并存的双重职能性质导致该程序也会应用到一些以盈利为目的的商业领域,如在为一些私营组织进行选举的场景中也使用相同的代码和程序,以此主张该程序应属于“商业机密”范畴,对此法院也表示了采纳。由于大多数行政机关的职能性质,从事行政决策的机构不太可能在其收费服务职能和公共职能之间面临与澳大利亚经济委员会同样的紧张关系。行政主体虽然对其他机构的技术源代码没有基于商业秘密的豁免权,但也可以在现有法律框架中寻求其他豁免。例如,行政机关可能会寻求依赖与机构审议过程有关的豁免,声称算法所依据的准则或业务规则构成对行政机关的“意见或建议”,并且披露将违反公共利益等,从而形成了对算法可解释上的阻碍。

四、域外对算法决策的规制及其批判
在全球范围内,欧盟《数据保护通用条例》(General Data Protection Regulation,GDPR)在算法决策领域的规制上具有前沿性和先进性。“博观而约取”,欧盟《数据保护通用条例》的制定与实施对我国今后在算法规制的立法实践上有着重要意义。欧盟《数据保护通用条例》回应了由于算法决策领域产生算法适用危机以及算法架构上的行为主体责任分配问题,使得人们对算法决策的“透明性”和“可解释性”逐渐增加了需求。从决策绩效的视角来看,尽管人脑的决策过程也是一种黑箱,但是传统的行政决策公开制度构造下已经构建完备的事前、事中、事后约束机制。以我国为例,为保障行政决策的公开性,设置了告知制度、听证制度以及说明理由制度等。这些制度使得人们一定程度上可以避免武断决策并保证决策的可信性和正当性。

随着“互联网+政务”的全面推行,传统行政程序法中的公开原则被延伸到算法决策领域,形成了算法透明原则,并且在适用范围上走向私法领域而不再局限于公法领域。从表面上来看,算法透明就是打开黑箱将阳光洒落整个自动化决策过程的理想手段[19](p22)。目前,在算法决策的背景下,为满足算法透明原则,要求一个负责任的决策主体必须向其决策对象提供其算法决策系统的设计和运行的理由成为业界共识。虽然一些学者认为解释一个算法几乎是不可能的,因为即使是它的开发者也不能确切地指出作出某一特定决定的原因。但是也有一些算法透明性的支持者们对此抱有乐观的态度,采用某种决策算法背后的逻辑成为这些支持者们的基本任务,甚至提出了技术视角下的解决方案[11],以提高算法的透明度。从整体上看,算法解释权仍是一种用于质疑算法决策的重要法律工具,其中,最为典型的实例应属欧盟《数据保护通用条例》所规定的可解释权。

(一)欧盟《数据保护通用条例》对决策算法化规制的缺陷
欧盟《数据保护通用条例》的立法思路是希望借助赋予数据主体在算法架构内的控制权,以个体权益的路径,形成对数据控制者应用自动化决策的治理。一般来说,《数据保护通用条例》禁止实体使用“纯粹”自动分析用来作出具有法律效力的决策,不得对人们的法律权利或法律地位产生影响①GDPR第22条:“当政府要求个人使用自动或个人干预的决策时,提供个人使用自动或个人干预的能力。”。并且在其第13 条第2 款和第14 条第2 款中规定了数据控制者应向数据主体提供关于自动化决策的“从逻辑上来讲有意义的信息,包括自动决策对于数据主体的明显预期后果的信息”的义务②第13条、第14条讨论了使用自动决策产生的各种透明度权利,包括解释权。第13条规定了从个人收集信息时的要求,第14条侧重于从第三方收集信息时的要求。这些条款涉及“完全基于自动化处理”的决策,决策对其产生法律效力或类似的重大影响,应使他们了解自动决策的存在,并提供关于自动决策所涉及的逻辑的有意义的信息。。该规定与其前言第71项结合,被认为是算法可解释权的确权条款。从《数据保护通用条例》的这些具体条文中看,很可能需要解释整个机器学习模型的逻辑,而不是它产生预测的子集。如果是这样的话,《数据保护通用条例》比其他任何法律所要求的算法决策规制都更广泛。例如,美国《平等信贷机会法》(ECOA)中的要求,即向申请人提供“采取行动的具体原因声明”。ECOA 要求只关注个人结果,而GDPR可以说需要更广泛的解释形式。因此,欧盟《数据保护通用条例》被称为迄今为止为规制算法决策所制定的最全面的立法。然而,对于该立法的接受度也主要存在于对可解释权的争论。

有学者认为:“GDPR关注的不是决策,而是隐私,这种隐私视角扭曲了对《数据保护通用条例》规制算法决策方法的解释。”对于算法决策的规制正当性应该是首先被考量的,而不是用简单的解释性一并概括。正当化的形式应该是谁向谁证明什么是正当的,故应该确定适当的解释形式。这就意味着应更注重系统的责任,而不是对孤立的、有权利的个人进行模式化的技术解释。

(二)对《数据保护通用条例》中“可解释权”的改造
一是要保障决策过程中信息的公开程度。一方面,现行法律规定,在决策过程中公开其权利行使依据是行政主体的职责之所在。具体包括两方面内容:首先,关于一般职权依据事项的公开。一般性职权依据指的是由法定的国家机关制定,发布的不具有直接执行性的规范性文件。《行政处罚法》第4条第3款规定:“对违法行为给予行政处罚的规定必须公布;未经公布的,不得作为行政处罚的依据。”这是事先公开职权依据行政公开的基本内容在我国《行政处罚法》中的具体体现。其次,关于具体职权依据的公开。行政主体在没有实施行政权或者作出最终行政决策之前,应该将作为行使自由裁量权的依据向社会或者行政相对人公开展示,使行政相对人可以知晓,而这里所说的依据应该做广义的理解,包括法律依据也包括事实依据。另一方面,赋予利益相关人申请公开信息的请求权,但是也做出了一定的法律保留。例如,我国的行政资讯获取制度规定:“除法律规定不得公开外,行政主体根据行政相对人的申请,应当及时、迅速地提供其所需要的行政资讯。”从适用范围上看,该制度虽然可适用于抽象行政行为,也可适用于具体行政行为,但在相对人可以获取资讯的范围上受到国家安全与个人隐私的限制。从实践中看,对于决策过程中信息的公开问题,我国一般采取列举的方式列举出行政相对人不能获取的范围,列举之外的信息行政相对人都有权获取,以最大限度地保障决策过程的透明。例如我国《行政复议法》第23条规定:“申请人、第三人可以查阅被申请人提出的书面答复、作出具体行政行为的证据、依据和其他有关材料,除涉及国家机密、商业秘密或者个人隐私外,行政复议机关不得拒绝。”

从理论上看,传统法上责任制的构建,其优势在于保证了那些有决策权力的人必须向他们将要影响的人证明他们的决策是正确的,而将这种问责制的观点应用于使用深度学习等技术的算法决策程序中也可以确保一系列工具性利益。不论是在传统决策模式还是算法决策场景下,公众对行政决策的接受程度除了取决于决策者的独立性以外,更为重要的是关注决策是公开的还是私下进行的,公开是为了解决透明度问题。不可否认,决策的公开透明一直被认为是重要的,因为透明度提供了治理和监管所需要的信息。在传统的行政决策中,因为需要透明度来推进系统问责的目标,所以透明度就变得很重要。与透明度一样,算法解释也是工具性的。然而,虽然系统有效的问责也是目前指导算法决策规制方法的基本目标,但在行政决策算法化的背景下,目前的可解释权仅对个人质疑决策或识别偏见和歧视具有工具性的重要意义,并不能达到公法领域决策公开所要求的问责价值目标。为了使“可解释权”更好地服务于公共领域中算法决策的应用场景,就需要对《数据保护通用条例》中的“可解释权”进行改造。

1.关于决策主体公开上的解释。随着这些有自主性的算法模型被应用于治安、信贷等各种决策场景之中,受算法决策影响的主体也在不断扩大,算法的这种自主性使越来越多的人要求算法决策者对其活动负责①Finale Doshi-Velez&Mason Kortz.“Accountability of AI under the law:The role of explanation”,https://cyber.harvard.edu/publications/2017/11/AIExplanation.最后访问于2020年8月22日。。然而,在现有法律体系中,如果将决策公开性作为算法可归责性的重要工具,就必须以明确算法决策的主体性为前提。

与传统的决策主体公开不同,算法决策中的主体公开是揭示算法技术辅助决策的可能性,即公开决策过程中是否受到了算法系统的帮助。算法场景下的行政决策,在要求决策主体表明身份的基础上也要求对其决策过程中所依赖“机器”的程度进行披露是非常有必要的,其原因在于:一是不披露由算法决策或者由算法辅助决策可能会构成遗漏与误导。这是因为,在通常情况下除非另有说明,大多数人都会认为决策是由人类决策者作出的。二是目前虽然算法系统的应用可能会增加披露事实调查结果、这些调查结果所依据的信息和推理过程的容易程度,但是这些事项最终还需要算法系统向人类决策者进行确认。因此,不管对于人类决策者还是算法的程序设计来说,将这些事情记录在算法解释中并不是一项繁重的任务。

从目前来看,鉴于实践中算法应用于行政决策是被允许的,而且在某些情况下甚至可能是可取的。但是,依据现行法律的规定,单凭从主体公开的角度披露算法决策的这一事实,不太可能成功地对一项决策提出质疑,从而在某种程度上造成人们不信任算法的情况进一步加剧。从这一层次上看,问题不在于对算法本身的公开性,而在于公众对算法决策的信心。因此,如果要让受行政决策影响的人真正有机会决定是否以及如何质疑这一行政决策,不仅要在算法决策时的主体公开要求中披露算法系统的存在,并且应该公开解释由算法系统提出并由人类决策者采纳的任何调查结果、建议或结论。这种解释应该包含人类决策者在多大程度上考虑了算法决策的推理,而不仅仅是采纳建议的结论。此制度设计的根本原因在于受算法决策影响的人如果知道算法技术有助于决策者考虑必要的问题以及与这些问题有关的信息,他们就不太可能对决策提出质疑。因此,对决策主体以外的算法决策主体的公开及解释为运用算法决策的行政机关提供了一个机会,使公众对其决策主体建立信心,有助于传统法律中行政决策公开目标的实现。

2.技术不应该成为说明理由的最终解释。现行法律制度在算法决策的场景下未能达到决策披露应有的法律效用是因为将技术作为法律所要求说明理由的最终解释。但是,在算法决策场景下,算法本身也是一种技术,将技术的科学性作为理由进行说明解释并不能合理化该决策的正当性。一方面,技术需要被解释。正如政府在作出重大的行政决策之前要对决策中的法律术语进行解释一样,算法决策中对内容的公布不应该只局限在对算法系统的披露上,也应考虑利用“技术”界的专业知识,发布针对使用算法系统应遵守的规则,并将其交给具有监管职责的机构进行测试和审查。另一方面,技术需要针对不同情形作出不同的解释。由于这些用于行政决策的算法处于不断迭代的状态,故技术解释也不能一成不变。如果在技术解释中使用模板或标准段落,当决策受到影响时,此类模板只会使决策看起来符合法律规定。这时的理由陈述也会使人们产生质疑,即技术将提供一个准确和客观的外表,掩盖有缺陷的决策。这种算法决策的解释要求会让受决策影响的相对人产生对决策的不信任——算法决策不会导致事实上更好的决定,而仅仅会增强合法决策的外观,从而影响决策的法律效力。因此,笔者建议在陈述理由时也应及时公布所使用的技术、程序或应用程序的版本(例如,eTax 版本2.1)以及该版本的有效日期。各机构应公布决策所用技术的登记册,包括版本、版本日期和每一版本所包含的变更说明。这些信息将有助于受决策影响的人和审查者评估算法程序纳入所有相关立法和政策变化的可能性。

3.决策程序公开中算法解释权的合理定位。现行行政程序法对于行政决策程序公开最为重要的要求便是公众参与,而公众参与的核心理念是“听取公众意见”[20](p13)。例如,《中华人民共和国环境影响评价法》规定:“制定环境规划和作出可能对环境造成重大影响的建设决定前,规划编制机关和建设单位须公开信息,征求公众意见。”因此,传统法上的程序公开不仅仅是工具性的,其体现了自身的最终目的或民主价值,即知情权。然而,在算法决策场景下,算法解释权并不能达到知情权的法律效果。基于简单决策树作出决策的原因或许仍然可以解释①决策树(decisiontrees)是一种推理或决策支持的形式,它使用类似于树的图来得出结论,直到20世纪80年代,它仍然是主要的决策工具,至今仍在使用。参见:Stuart J Russell&Peter Norvig:《人工智能,现代方法》(第三版),P638。。但是,如果决策所用的算法是一个神经网络,易于进行非常快速的机器学习,则几乎没有时间在算法运行的过程中进行解释而且在过程之外也很难解释其决策背后的原因。因此,有学者主张,算法解释权其实质是一种请求权。作为算法解释请求权的制度核心即为反对完全由机器操作的自动化决策,要求特定情形下人为因素的适当干预,避免使特定个人的命运完全由机器操纵,甚至出现无法预测的极端风险[21](p88)。不可否认的是,解释也是有必要的,如果行政相对人不理解决策背后的原因,例如逮捕行政相对人的决定,行政相对人也无法对此类决定采取有效的补救措施。即使决策是在人为干预下作出的,人类仍然需要向数据主体提供理由,让其有机会有效地质疑决策。从目前的规制来看,算法解释权的构建更多关注要求事先解释系统如何运作,而不是事后解释决策背后的原因。然而,对系统或算法功能的抽象理解对决策对象来说没有多大用处,尤其是处于算法决策拒绝了当事人的请求时的场景下,比如,贷款或信用卡审批。基于此,对于算法解释权应解释的合理定位便应该回归到如何解释才能让公众易于理解而有效地提出质疑上来。

想象我们生活在一个所有算法都是“白盒”的理想世界中,公众参与决策时最想要了解的信息是:(1)作为算法决策输入的数据的信息,(2)关于影响决策的因素的信息,以及(3)关于为什么作出某项决定的合理解释,而不是系统输出结果的技术性信息。在现实中,鉴于存在的技术障碍问题,除非基于法律的规则非常明确和精确,如凡超速者都将被罚款,否则基于法律的算法决策必须面对法律依据与事实依据双重的开放性和需要解释概念的挑战。因此,虽然目前以GDPR为首的算法规制都认为算法透明性是涵盖了从揭示源代码到解释其功能的不同透明度。但是,算法决策的过程中的解释权可能只包含解释决策关键原因这一“唯一”信息,与其将这项权利指定为“解释权”,不如充实其内容,并称之为了解算法决策原因的权利与传统法上的说明理由制度进行兼容,以保障公众参与的实际效用。

五、结语
2018 年,IBM 发布了一份白皮书宣称:“人工智能技术不仅会让政府在履行职责和满足公民需求方面反应更加灵敏、更有效,而且会让政府在运作中更加透明。”面对政府转型的新呼声,技术的进步让算法在行政决策中的应用呈指数级增长,这使得在人工智能领域和法律领域都需要进一步的研究,以达到理解算法决策的最佳解决方案。人工智能领域的研究人员需要尝试找到技术解决方案,以便更容易解释此类决策,而法律研究人员应努力在算法强势融入行政决策过程中所产生的利益碰撞之间再次找到适当的平衡,首先正当程序上的保障必不可少。

参考文献:

[1]Seydou T,Yufeng L,Guy F.Deployment of Artificial Neural Network for Short-term Forecasting of Evapotranspiration Using Public Weather Forecast Restricted Messages[J].Agricultural Water Management,2016.

[2]章剑生.论行政程序法上的行政公开原则[J].浙江大学学报(人文社会科学版),2000(6).

[3]杨解君.公共决策的效应与法律遵从度——以“汽车限购”为例的实证分析[J].行政法学研究,2013(3).

[4]应松年.行政法学新论[M].北京:中国方正出版社,1998.

[5][日]盐野宏.行政法[M].杨建顺,译.北京:法律出版社,1999.

[6]夏金莱.论行政决策公开——从公众参与行政决策的视角[J].河南财经政法大学学报,2014(4).

[7]章剑生.行政行为说明理由判解[M].武汉:武汉大学出版社,2000.

[8]Jacob Turner.Robot Rule:Regulating Artificial Intelligence[M].New York:Palgrave Macmillan,2019.

[9]李晓方,王友奎,等.政务服务智能化:典型场景、价值质询和治理回应[J].电子政务,2020(2).

[10]孙清白.人工智能算法的“公共性”应用风险及其二元规制[J].行政法学研究,2020(4).

[11]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4).

[12]刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(5).

[13]宁国良,罗立.公共政策公信力:构建政府信任的重要维度[J].政治学研究,2012(6).

[14]张恩典.人工智能算法决策对行政法治的挑战及制度因应[J].行政法学研究,2020(4).

[15][德]德里斯多夫·库克里克.微粒社会:数字化时代的社会模式[M].黄昆,夏柯,译.北京:中信出版社,2018.

[16]Cary Coglianese & David Lehr.Regulating by Robot:Administrative Decision Making in the Machine-Learning Era[J].1147,1156-1157(2017).

[17]陈波,付晨晖.论个人资料保护——基于行政公开法的角度[J].理论月刊,2012(3).

[18]Melissa Perry.Digital Pathways to Decision[J].Law Council of Australia 2019 CPD Immigration Law Conference,2019.

[19]沈伟伟.算法透明原则的迷思—算法规制理论的批判[J].环球法律评论,2019(6).

[20]张凌寒.算法自动化决策与行政正当程序制度的冲突与调和[J].东方法学,2020(5).

[21]姜野,李拥军.破解算法黑箱:算法解释权的功能证成与适用路径——以社会信用体系建设为场景[J].福建师范大学学报(哲学社会科学版),2019(4).

[DOI编号]10.14180/j.cnki.1004-0544.2021.03.014

[中图分类号]D62;TP18

[文献标识码]A

[文章编号]1004-0544(2021)03-0119-11

基金项目:国家重点研发计划“智慧司法业务协同支撑平台研制与应用示范研究”(2018YFC0831206)。

作者简介:陈亮(1975—),男,四川遂宁人,法学博士,西南政法大学人工智能法学院教授、博士生导师;薛茜(1993—),女,辽宁沈阳人,西南政法大学经济法学院博士生。

责任编辑 杨 幸

奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-12-31 07:35

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表