奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 196|回复: 0

人工智能时代行政决策体制优化的技术范式与风险因应

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2021-9-15 12:21:27 | 显示全部楼层 |阅读模式
扫码加微信
人工智能时代行政决策体制优化的技术范式与风险因应
赵友华1,蔡振华2

(1.华东政法大学 政治学与公共管理学院,上海 201620;2.湘潭大学 公共管理学院,湖南 湘潭 411105)

[摘 要]人工智能时代的到来,为行政决策体制优化提供了全新的技术范式。智能技术在行政决策体制中的嵌入,能够实现对数据资源的智能筛选和归并处理,精准捕获现实决策问题,促进政社之间互动设置决策目标,并对决策程序、内容和执行展开实时监控,不断推动行政决策向智慧质态转型。然而,在资本裹挟和技术越位的情形下,极易孽生出歧视偏见的隐匿、不可解释的隐忧、技术依赖的深重以及权力格局的重塑等问题,进而在智能驱动决策的过程中引发系统性的决策风险。对此,应当通过加强数据与算法治理、明确人工智能的辅助性定位、逐步打破算法黑箱以及强化对资本权力的制约等进路,不断提升智能决策的公正性、透明性、安全性以及可责性,促进技术进步与行政发展的深度融合,实现智能善治的目标。

[关键词]人工智能;行政决策;智能决策;体制优化;风险

一、问题的提出
近年来,作为第四次工业革命的驱动力量和新一轮科技革命的重要引擎,人工智能技术的发展浪潮日益席卷全球,各主要发达国家纷纷响应,大力支持人工智能的科技研发和产业应用,以期在这场有望重塑未来世界格局的AI竟备赛中抢占先机。为了适时顺应科技发展的时代潮流,有效把握人工智能发展的战略机遇,积极构筑技术博弈的先发优势,国务院2017年发布并实施了《新一代人工智能发展规划》,并指出“新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升”。人工智能的技术突破与应用创新不断革新人类社会的既有样态,深刻改变了传统的经济生产方式和社会关系结构,日益显露其强大的社会建构性能力。与此同时,人工智能这种颠覆式的技术创新也在逐渐嵌入政府治理领域,并体现出技术进步与行政发展相互嵌合的趋势。

伴随着人工智能全场景式的应用推广及其在治理场域中的深度介入,国内越来越多的学者也开始关注人工智能时代的政府治理创新问题。总体视之,现有研究成果可概分为以下几个方面的内容:一是人工智能技术嵌入对于政府自身管理模式的影响,主要从内部视角探究政府如何应用智能技术推动自身革新。例如,何哲(2017)[1](p100-106)、胡洪彬(2018)[2](p75-87)等集中关切人工智能的技术优势,及其对公共管理体系变革和政府治理模式创新的重要作用与消极影响。二是人工智能技术应用对传统治理范式构成的挑战及其调试路径,主要从外部视角剖析技术转型压力如何倒逼治理范式变迁。例如,申海波(2018)[3](p74-81)、岳楚炎(2019)[4](p21-25)等描摹了人工智能技术革命带来的治理态势变化,阐明传统治理方式在这种全领域和整体性场景重构下的效力局限,进而提出了如何顺应技术变革推动治理形态转变的策略思路。三是人工智能技术发展及其相应的政策安排,主要从政策视角解析如何强化技术规制和优化技术应用的问题。例如,贾开(2019)[5](p17-22)、李晓方(2019)[6](p2-8)等着重分析人工智能的技术特性,并针对技术内在局限所衍生的应用风险,主张从多维政策视角展开人工智能治理体制建设。

应该说,已有成果较好地从宏观层面缕析了人工智能背景下政府治理的转型逻辑,并对人工智能的技术特性及其内在限度进行了较为清晰的理论诠释。但是,总体来说过度偏重从整体性视角探讨人工智能技术与政府治理变迁的关系问题,缺乏对现实具体性议题的关注,亦即对人工智能时代政府治理优化的微观理路探讨不足。党的十九大提出,要“健全依法决策机制,构建决策科学、执行坚决、监督有力的权力运行机制”[7](p30)。在政府治理现代化的进程中,科学合理、运行高效的行政决策体制机制设置,需要积极适应新一代人工智能的技术变革并以其为技术保障,不断迈向“智能+决策”的优化径路。有鉴于此,本文主要探究人工智能时代行政决策体制的变革之道,重点研析人工智能对于优化行政决策体制涵括的信息系统、咨询系统、中枢系统以及监控系统的技术功用,深入探讨行政决策场景中人工智能技术嵌入的风险逻辑,并提出针对性的因应策略。

二、智能决策:人工智能优化行政决策体制的技术功用
“行政决策体制是指行政决策的各个子系统的组成、职能及其相互关系的总和,是关于行政决策主体的构成及其职权关系的一种制度化的设计”[8](p239)。一般而言,现代行政决策体制主要由行政决策信息系统、行政决策咨询系统、行政决策中枢系统和行政决策监控系统等组成,各个系统之间相互联系、彼此协同,每个子系统都有其特定的功能定位和任务指向。人工智能在行政决策体制中的技术嵌入,有助于改进传统行政决策的诸多限囿,并在降低行政成本的基础上,极大地提高行政决策质量。

(一)行政决策信息系统:数据信息的智能筛选与集成归并处理
行政决策信息系统是整个行政决策体制的“神经系统”,其最主要的工作就是为行政决策提供有效的信息资源,强化决策方案制定的现实依据[9](p70-71)。人工智能时代的到来,使得公共治理领域的全息化态势表征日益明显,每一位社会成员都是数字化空间的数据生产者和信息携带者。“各类传感器、监视器和机器人等智能设备逐渐融入线下的公民日常生活,动态化地采集着各类民生信息数据,再通过移动互联网和物联网技术的链接和分布式并行运算处理技术的应用”[10](p49-57),从而构建起万物互联的信息网络体系,源源不断地向信息集成中心递送行政决策议题相关的必要信息。在人工智能算法的设定之下,决策对象的各类数据信息将会被及时捕获,网络空间的信息浏览、页面点击和驻留时间都能够以数字化的方式加以存储,公共场域中人们的行为特征、情感倾向与心理变化等都能够进行编码转译,不断丰富行政决策的信息资源。面对体量庞杂的大数据信息资源,传统的行政决策信息系统往往因信息过载而无所适从,有限的数据存储能力与信息归并处理技术也使得行政决策主体难以从中提炼出能够支撑决策方案的实践依据。而人工智能的介入能够极大地改进这一状况。一方面,人工智能采用分布式信息存储方式,多层级、全覆盖的信息致密网络为行政决策提供强大的信息基础,在决策需要之时进行信息集成处理,使信息资源的规模不至于突破行政决策信息系统的承载力。另一方面,人工智能系统能够对多元异构、流动迅疾的海量数据进行有效的集成归并和智能筛选,利用自然语义处理和情感计算等技术对各类信息进行特征萃取和规律提炼,全面挖掘决策议题的事实本质,剔除人为因素的扰动,为行政决策方案的制定提供科学建议和现实依据。

(二)行政决策咨询系统:决策问题的精准捕获与推理能力的升级迭代
行政决策咨询系统是指为行政决策提供咨询服务的组织机构,主要是由智囊团队协助决策者对决策问题进行预测并加以专业化判断分析[9](p70-71)。在以往的行政决策咨询系统中,主要是各类专家在收集信息的基础展开问题预估和方案制定,信息技术应用水平较低,对于现实问题的预估诊断不够准确,难以及时捕捉到关键性的预警信息,而且所耗费的时间和人力成本较高。人工智能专家系统的引入则可以在祛除上述弊端的基础上,进一步提高行政决策咨询系统的自动化水平。专家系统是基于知识的模拟专家决策能力的计算机系统,运用领域专家多年累积的经验和知识,求解需要专家才能解决的问题,其不仅能够秉承计算机快速响应、灵活调整、精准求解的特点,在很多方面都可以实现对人类专家的技术超越[11](p160)。其实,作为人工智能的重要分支之一,专家系统早在20世纪后期就开始应用推广,但主要是在特定领域加以运用。随着系统研发技术和内部算法的愈益成熟,人工智能专家系统也逐渐渗透到各行各业。就行政决策活动而言,其技术效用主要表现在:第一,能够对决策问题进行有效的推理预测。以往的问题预测大多是基于碎片化的信息和经验性的判断,故而精确性难以保证;而专家系统能够综合利用大数据技术抓取的信息资源,根据确定性的知识和相关性的推理对现实问题予以前瞻性分析。第二,专家系统的灵活性较强,其推理算法可以做到自动升级与功能强化,使得行政决策不受时空地域以及人为因素的干扰。当前,机器学习算法的突破让智能系统的运作不依赖于人工算法设定,能够自动借由历史经验数据实现算法自我生产,从而使专家系统具备自我递归式改善能力,从容应对各类复杂的行政决策环境。

(三)行政决策中枢系统:议题目标的双向设置与决策方案的智能优化
行政决策中枢系统是行政决策体制的核心,负责领导协调整个行政决策过程,主要任务是对行政决策问题和目标进行最终确认,并在各类备选方案中进行评估选优[9](p70-71)。关于行政决策问题界定以及相应的决策目标规划,从本质上而言,就是决策议题如何设定的问题。从以往的行政决策实践来看,往往是在决策调研和信息掌握的基础上,由行政决策部门及其领导决定哪些社会问题能够被纳入决策议程,权力意志色彩较为浓厚。在技术进步的背景下,人工智能能够促进社会公众的决策参与,越来越多的公众在精准推荐算法的辅助下可以获知行政决策相关的资讯,借助各类智能设备和发达的信息递送通道向行政决策中枢系统建言献策。与此同时,行政决策部门也必须及时响应,利用人工智能机器系统全天候地快速应答模糊任务,对文字、图片和音频等各种类型信息所内蕴的民意诉求进行归并兼容处理,有效提炼具有建设性的决策建议信息,真正做到倾听民声、广纳民意,从而实现行政决策议题的双向建构与行政决策目标的互动设置。此外,行政决策中枢系统的重点工作之一,是要对各种行政决策方案的实践前景有所感知和预判,最终决定对何种决策方案予以实施。人工智能系统通过点线面网的数字化链接,可以对行政决策未来的实施场景进行多维模拟,建构出与现实环境相匹配的拟态情景。同时,设定基准函数衡量不同行政决策方案的优劣程度,以数字化的表达方式对这些方案进行编码处理并纳入仿生实验虚拟情景,呈现不同行政决策方案的效果及其缺陷,最后达到方案比较选择和优化调整的目标[12](p37-43)。

(四)行政决策监控系统:程序内容的有效审查与决策执行的实时监控
行政决策监控系统是指对行政决策者的决策行为、决策内容以及决策实施加以监督控制的系统,主要是监控决策行为是否遵守科学程序、决策内容是否违背法律规范以及决策实施是否逾越既定目标[9](p70-71)。人工智能技术有助于促进行政决策监控网络体系建设,有效增强决策监控实效。第一,行政决策场域中人工智能归其本质而言就是一种技术化的决策程序应用,只要将表示行政决策问题、目的以及程序要求等函数表示输入其中,就可以按照既定流程实现自动化的决策过程,同时,这种智能机器驱动的决策模式相对来说比较客观中立,更加有助于促进行政决策的公平规范。这样,就可以极大地减少决策程序上的监控压力,降低行政成本。第二,在行政决策做出之后,需要对决策本身的内容展开必要的审查,确保其不会与法律法规以及其他政策文件相冲突。智能应用设备能够快速自动地对行政决策的各项条款内容进行逐一解析,再链接其他法规政策文本数据库进行细致的对照审查,一旦出现歧义理解或者语义冲突的情况,则由人工智能系统发出警报来申请人工介入审度,从而让行政决策内容监控的效能大为提升。第三,行政决策监控最大的难点就在于需要对决策执行情况进行实时监督,避免行政决策在具体实践执行过程中偏离原有的规划安排。在此,人工智能的技术贡献主要表现为:智能应用设备的普及意味着行政决策外部监控主体的扩大化和监控网络的社会化,因为每一个拥有移动智能设备的公众都可以实时向政府监控部门传递有效的决策执行信息。如若决策执行造成严重的社会后果,那么极易在网络上形成巨大的舆论声势,倒逼行政决策中枢系统予以正视,适时调整行政决策执行方案。同时,越来越多的传感器和红外感应设备等在社会各个角落的全面铺设,将会便于人工智能机器系统实时动态地绘制出行政决策执行图谱,不断强化执行过程监控。

三、资本裹挟与技术越位:人工智能嵌入行政决策体制的风险逻辑
人工智能为行政决策体制的优化提供了全新的技术范式,能够使行政决策体制摆脱传统模式诸多限囿,促进行政决策向智慧质态转型。然而,商业资本在智能应用实践中的过度泛化以及技术自主性的生成强化,极易导致人工智能在行政决策体制的嵌入场景中走向异化状态,进而衍生出系统性的行政决策风险。因此,我们在肯定人工智能优化行政决策体制技术效用的同时,应当审慎考量行政决策体制智能化转型潜在的风险逻辑,深入探寻技术本身及其背后的风险肇因,从而为人工智能时代优化行政决策体制的现实进路奠定认识论基础。

(一)歧视偏见的隐匿与决策正义性的侵蚀
公平正义是行政决策必须恪守的价值遵循,任何行政决策的内容制定与方案实施都不能背离社会公正性的规范要求。但是,在人工智能嵌入行政决策体制的过程中,从数据收集到算法设计,都隐匿着根深蒂固的歧视与偏见,进而造成对行政决策正义性的价值侵蚀。

其一,数据中立的幻象。数据既是行政决策的信息基础,也是人工智能发挥技术效用的质料前提。所以,数据的收集范围、归并标准以及人群指向能够在很大程度上影响智能驱动下的行政决策质量及其目标实现程度,但应用于智能决策的数据信息极易携藏着偏见的基因。一方面,大数据强大的信息抓取能力仰赖于智能设备的普及和网络通道的铺设。在智能应用未能覆盖的区域中,人们的决策需求表达与生活境况信息难以被行政决策信息系统所关注,这就导致最终纳入行政决策信息集成中心的数据资源具有人群偏向性,数据信息的贫困者就会成为决策利益的旁落者。另一方面,被纳入行政决策信息系统的数据本身也并非是客观中立的,无论何种数据其实都是表征主体样态特征的数据化标签,能够将社会交往空间中的偏见、某些群体的弱势地位以及权利不平等等信息带入行政决策信息系统,并在智能决策的过程中进一步固化这种非公正性的社会状态。

其二,算法工具性定位的偏误。从以往的技术应用实践来看,人们倾向于将技术定格为无价值偏好性的工具手段,但人工智能内蕴的算法则有力地突破了这一角色设定,因为算法研发者能够在算法的架构设计和规则定义中嵌入自身的价值倾向。人工智能的技术嵌入看似剔除了行政决策过程中的主观因素,但“算法及其决策程序是由它们的研发者塑造的,这意味着研发者的价值观、偏见都会反映在写入的代码上”[13](p27-38),并在运行过程中影响着行政决策公正性目标的具体实现。故而,人工智能算法的公正性问题贯穿于其在行政决策体制嵌入过程的全生命周期:在算法的研发设计阶段,智能算法是否能够符合行政决策的伦理要求与社会价值分配的正义原则,关系到人们能否真正接受人工智能在行政决策体制中应用;而在系统运行阶段,存在价值负荷的人工智能系统是否能够进行准确的问题识别与有效的决策供给,则关系到每一个社会成员的切身利益[14](p23-37)。

(二)技术依赖的深重与决策安全性的威胁
安全是“智能+决策”的基本要求,也是任何决策活动必须要遵守的底线标准。不管是电子政务的出现,还是“互联网+决策”模式的兴起,技术应用于行政决策过程所衍生的风险大多是可控的。而在人工智能时代,由于智能设备的全场景、全领域以及全业态应用,人们对于智能技术的依赖程度不断加深,相应地,智能决策安全风险系数也在不断攀升,并且呈现出多维面向。

其一,政治性的决策安全风险。在推荐算法的助力之下,人工智能系统可以通过数据画像技术精准地向公众递送行政决策相关的讯息,这些信息往往高度契合公众关于特定行政决策问题的认知态度。长此以往,公众就会沉浸在这种算法构设的“信息茧房”之中,放弃对各类行政决策问题的客观思考,在算法的操纵之下获知信息、发表意见并参与决策。与此同时,在快速变动的数据信息网络中,夹杂着虚假性、蛊惑性和煽动性的信息,极易使公众形成偏执型的政治人格,进而引发激进式的决策参与,并在各方意见截然对立的情势下,出现政治极化现象。

其二,社会性的决策安全风险。这里的社会性决策安全风险主要指的是智能决策会导致对公民隐私权的侵害及其引发的连锁式反应。数据与算法是人工智能技术应用的两大基石,算法深度学习也依赖于历史数据的支撑,任何技术段位的智能决策必然需要对信息数据进行广泛收集与归并处理。所以,公众在享受着人工智能技术福利的同时,也将个人的生活状态与隐私信息持续开放给技术支撑平台,原本应该由政府决策部门所掌握的信息被平台公司所截获。当这些信息数据被平台公司滥用抑或转手倒卖,甚至用于非法用途,由此埋下的社会性安全隐患是无穷的。

其三,技术性的决策安全风险。“技术应用本身便可能带来安全与不安全两种后果倾向,这取决于技术本身的风险属性。”[15](p130-136)当行政决策的制定高度依赖于人工智能系统时,一旦出现数据偏差抑或算法失灵的情况,将会给行政决策造成诸多未知性的风险。譬如,“人工智能所掌握数据本身的不完整性,并不足以构建与现实世界完全无误的镜像模拟,以此做出的决策支持可能存在瑕疵,若彻底依赖人工智能,可能将导致错误决策和执行,剑走偏锋,引发连锁式错误行为”[3](p74-81)。特别是在机器学习算法用以智能决策的情形中,决策误导的现象非但难以得到及时的技术矫正,还会得到反复强化。

(三)不可解释的隐忧与决策透明性的消减
公开透明是行政决策的规范性原则,也是行政决策体制改革的目标趋向,而人工智能技术的应用,导致算法黑箱也随之嵌入到行政决策体制之中。人工智能的本质即计算,算法控制了行政决策信息数据的流动以及智能决策目标的实现[16](p2-11)。所以,对算法不可解释性的隐忧最终会演变为对智能决策的技术专断认知,从而不断消减人工智能背景下的行政决策透明性。算法黑箱的生成出现,主要可分为以下几种情形:

其一,人为设置的黑箱。在此,算法黑箱的出现主要是商业资本操纵下的结果使然,因为互联网财阀可以以产权保护、商业机密等为由,拒绝向社会公开算法设计的程序与标准,从而使驱动智能决策的算法架构只能由技术人员和财阀集团所掌控,外部公众甚至是政府决策部门都无从得知算法的具体细节。

其二,认知阻隔的黑箱。这种认知上的算法黑箱主要指的是,社会公众由于自身算法素养和知识水平的限制,无法理解算法驱动智慧决策并革新行政决策体制的应用逻辑。无论是人为构设的算法屏障,还是认知局限所导致的理解不足,都造成了公众对于智能决策公开性的质疑与诘问。

如果说,以上两种算法黑箱都与人为因素相关,而且在一定措施下都是能够被打破的,那么算法自身的技术黑箱才是目前引发各界担忧的关键所在。一方面,在算法人工设定的情形下,算法的代码规则和程序都是已知的,都是通过算法研发人员来设计的,算法运行所得出的决策结果也是明确的。但是,在已知的前置条件与明确的后置结果之间的具体作用机制,即算法如何得出决策的过程理路是不可知的,即使是专业的算法研发人员也难以拨开其中的技术迷雾。另一方面,在人工智能机器学习的情况下,算法实现了自我生产,这也是当前第三波人工智能浪潮兴起的技术原因。此时,算法摆脱了人工设置的限制,整个算法生产与运行过程对于人类社会来说都是陌生的,建基于此的人工智能决策系统也不可避免地被视为技术黑洞。而“政府机关在利用人工智能系统时,可能不理解人工智能系统中的算法与数据,乃至不知道有些决策是怎样发生的”[17](p82-90),从而使智能算法决策陷入不可知论的泥潭。

(四)权力格局的重塑与决策可责性的缺失
权责统一是行政决策的基本原则,也是现代法治政府建设的内在要求。随着人工智能在行政决策体制中的深度介入,技术改变行政的权力效应愈益显现,行政决策体制内集中式的决策权力不断发生裂变,传统的国家行政权力遭到削弱,新的技术权力主体开始出现,商业资本权力也在新的决策权力架构中占据有利位序,从而致使技术进步视域中的行政决策权力格局得以重塑。行政决策权属关系的变化必然会对以往的决策问责机制构成新的挑战,人工智能牵引下的决策权力主体泛化、权力关系交织、责任厘定困境,导致智能决策的可责性遭遇危机。

其一,人工智能实现了对体制外部公众的决策赋权,智能应用的普及使得公众从间接被动式参与转变为直接主动式参与,智能决策场景中的权力分布呈现出去中心化的特点,决策权力结构的分散化与网络化成为现实。但是,公众借助人工智能技术参与行政决策议题设置、行政决策方案制定等活动并不用承担决策失误和失败责任。虽然行政决策各项活动最终主体可以归结为政府部门,但是智能应用背景下的政策决议很多都是为了响应公众诉求,或者说是公众意见借助技术媒介的行政表达,此时公共决策的责任配置成为新的难点问题。

其二,人工智能在政府治理过程中的应用扩散,让智能背后的算法跃升为新的权力主体,并造成技术权力对行政权力的克减。在信息条件的约束下,行政决策部门对于智能算法及其应用的依赖程度会愈发深重,智能决策会成为政府治理中的新样态,但如若出现决策失误的情形,依照因果性推定的法律规制逻辑,无论是追责算法设计者还是智能应用系统都难以实现。一方面,算法设计者只是给出了算法学习的规则,真正的智能决策都是由算法通过大规模数据训练做出的,与算法研发人员的意志并无直接关联;另一方面,如若将智能决策失误的责任归咎于算法驱动的智能系统,这无疑不具有现实操作性[18](p40-45)。

其三,“在人工智能时代,智能技术将成为重要的‘权力’元素,无论是政府还是公司、社会组织,只要掌握了大量的数据等智能技术,其权力就会得到强化”[19](p30-32)。现有大数据生产主要都是源自少数的互联网巨头公司,智能决策算法及其研发人员在很大程度也是由这些互联网财阀所掌握。故而,“算法权力的背后是资本权力”[20](p52-58),资本能够在智能决策过程中发挥重要影响。但是,在智能决策内部黑箱尚未打破以及各种权力关系相互交织应用的条件下,如何缕析资本介入决策的程度与范围,如何厘定平台公司在决策失误中的责任份额等问题也限制了智能决策的可责性。

四、走向智能善治:人工智能时代行政决策体制优化的现实进路
当人工智能在行政决策场域日益发挥其技术效用之际,必须高度重视资本裹挟和技术僭越情形下的智能决策风险,并从加强数据与算法治理、明确智能技术定位、逐步打破算法黑箱以及强化资本权力规制等径路出发,为人工智能时代的行政决策体制优化提供技术应用保障。

(一)加强数据与算法偏见治理,实现决策公平
大数据和算法是人工智能应用的两大基石,数据资源与算法架构中潜藏的歧视是驱使智能决策造成非公正性社会结果的主要原因。所以,加强数据与算法偏见治理,革除技术嵌入行政决策体制时的各类歧视性标签,以数据正义和算法正义,实现人工智能应用背景下的行政决策公平。第一,加快推动智能技术的应用普及,扩大自动化决策的数据集成范围。在智能赋权的决策情景下,数据信息的遗漏意味着对某些人决策关照的缺失,数据贫困与权利贫困息息相关。针对以往部分区域、部分群体乃至部分阶层决策相关信息未能进入行政决策信息系统的状况,政府部门要予以重点关注,通过大数据战略的深入实施,不断强化基础信息平台建设和公共智能应用扩散,有效收集特定行政决策视域范围的公众信息,提升信息资源的代表性和覆盖面。第二,针对数据本身可能隐匿的社会偏见信息,可采用算法监测的技术治理手段。数据本身并非完全中立,其是社会信息的数据化呈现,必然将社会领域中的关系与观念映射至智能决策过程。目前,字节跳动研发中心通过对此类歧视性数据结构的观察和分析,设定出相关的监管算法,能够在一定程度上对其予以识别和矫治,这也是比较实用可行的技术策略。第三,加强对算法研发人员的行业伦理规制。算法存在价值负荷,算法研发人员可将自身的价值观念与倾向偏好融入算法架构设计和代码编写,这种算法偏见所造成的决策影响远大于数据。所以,加强对算法研发人员和行业生态的伦理规范,增强技术专家们的道德自律,提升他们在决策算法设计过程中的公共意识,则是预防智能决策风险的必要之举。

(二)明确人工智能的辅助性定位,确保决策安全
人工智能无论是在经济社会领域中的应用,还是在政府治理场景中的嵌入,都应该坚持人本主义的导向,即智能技术的应用必须以不损害人类为底线原则。智能系统研发与应用的出发点就在于弥补人类在智识与行动力上的缺憾,有效应对外部压力,以更好地服务人类的生存发展需要。当人工智能日益发挥其治理功效时,我们不仅要对其技术魔力善加利用,还要保持清醒的认知态度,不能希冀于技术能够为我们纾解所有难题,更不能沉湎于技术万能论的赞歌之中。就行政决策体制中的智能依赖现象而言,必须明确人工智能技术在行政决策过程中的辅助性定位,在倡导技术应用的同时,始终做到人的主体性在场,不能将行政决策体制中的每个系统和每个环节都完全交由智能机器操控。

随着人工智能逐步循沿着弱人工智能——强人工智能——超人工智能的迭代路线不断升级,一旦智能机器在未来的某个时间迎来雷·库兹韦尔所言之“奇点”[21](p5),机器智能将超过人类智能,由其主导的行政决策将脱逸于人类的羁绊,决策安全风险极易出现失控状态。所以,在行政决策体制引入人工智能之初就必须确立技术辅助性的原则。一方面,将大量重复性以及价值无涉的决策相关事项交由机器处理,而涉及价值伦理判断的决策环节和重大利益影响的决策事项,就采取人工介入的方式来促进人机交互和人机合作,在释放技术功利的同时确保决策安全。另一方面,在人工智能介入行政决策的关键节点上要设置一系列的“安全阀”,构筑技术为恶的防火墙,当出现重大决策风险时就快速启动熔断机制进行止损,尽可能地将风险降至最低[22](p97-103)。同时,政府决策部门要注重智能决策的应急预案准备工作,对人工智能可能出现的各类风险提前加以预判,采取一系列前置性的风险应对措施,做到有的放矢、有备无患。

(三)逐步解密算法黑箱,推动决策透明
算法黑箱具有不同的生成逻辑,但均会影响决策透明的实现,进而引发公众和政府部门对其不可解释性的隐忧,甚至对人工智能应用于公共决策实践的正当性有所质疑。故而,应当依据算法黑箱的不同肇因,有针对性地加以研判并多维施策。

第一,人为设置的算法黑箱可通过政策监管的方式展开治理。政府部门通过出台相关政策文件,要求掌握算法的平台机构在智能决策实践中做到以下两点:一是适当公开算法流程,及时向政府决策部门和外部公众披露智能决策算法的设计理念、原则标准,说明算法架构体现了何种决策考量[23](p6),但不必公开所有代码和记录,否则容易导致产权侵犯以及隐私安全等问题。二是建立说明理由制度,这也是对决策利益相关者的权利救济手段,亦即当智能决策对公众的切身利益造成重大损害时,应当赋予公众相应的程序权利,使其能够要求政府部门联合平台机构就智能决策运行过程、推理情况等说明理由[17](p82-90)。

第二,认知障碍所致的算法黑箱则可通过宣传教育的方式,不断提升人们的算法素养。一方面,政府决策部门的领导干部要主动作为,积极应对人工智能时代的挑战,主动适应智能决策的转型要求,不断提升自身的技术涵养,强化执政能力建设,深刻认知智能技术对于优化行政决策体制的重要意义。另一方面,社会公众也要积极主动地参与到技术革命浪潮之中,增强自身的科学文化水平,提高对算法的科学认识,了解人工智能在政府决策中的应用逻辑,并善于利用智能技术参与行政决策过程。

第三,算法内部的技术黑洞只能通过技术进步的方式加以应对。算法因其内在技术限度而产生的黑箱问题一直饱受诟病,这种算法黑箱只有通过深度技术研发才能得以被打破,而实践证明科学界也在逐渐取得实质性的突破。目前,已有相关研究提出一种能够自我解释性的算法,其有助于人类能够真正窥探算法决策内部的技术奥秘,并证明智能决策何以做出[24](p16-26)。

(四)强化对资本权力的制约,提高决策可责性
通过前文对决策权力—算法权力—资本权力的权力结构分析,可以得知,除却技术本身可能引发的决策失误,以及政府部门的决策失当,很多决策责任应归咎于商业平台的牟利动机。从现有的技术应用水平来看,技术权力的本质往往都是资本权力,而政府决策失误与错误的情形则应当通过公共问责制的方式加以追责。所以,当前要重点强化智能决策过程中的资本权力规制,以政府扩权的方式防止智能霸权和资本僭越,进一步提高智能决策的可责性。

一方面,在现有的权力格局之中,无论是直面技术利维坦,还是应对拥有强大资本实力的平台机构,公众都无力完全承担起智能决策问责的重任,故只能托庇于政府公共权力来予以规制。同时,政府部门本身就兼具智能应用者与智能治理者的双重角色[25](p88-94),从公共责任伦理来看,政府部门理应有所作为。另一方面,通过权力转移的方式,将原先商业资本控制的技术权力移交至政府部门,这不仅可以压缩资本权力的任性空间,还有助于厘清智能决策网络中的权力关系,从而直接对政府部门展开决策问责,避免行政决策机关的责任推诿与转嫁,更好地实现权责统一。

从智能应用实践来看,商业平台机构主要通过掌握大数据资源和算法规则来实现对传统行政决策权力的抗衡,故政府部门对资本权力的制约也应当围绕二者展开。首先,政府部门应当高度重视大数据安全体系建设,在政企合作搜集行政决策数据资源同时,着力构建由政府部门独立掌握的大数据信息集成平台,控制信息主导权。其次,政府决策机构要注重算法专业人才引进与培养,打造算法决策智囊团队,尤其要将核心关键的智能决策算法掌握在政府部门,在减少对商业资本技术性依赖的同时,对资本权力的介入范围予以限制。最后,政府部门可以通过组建专业性的团队,对商业机构的数据使用、算法架构以及决策应用情况展开审查,并要求平台公司定期出具相关的责任报告,做到权责对应、问责有据。

五、结语
从技术演进的视角来看,人类社会的每一次重大科技变革都会向世人展现其福祸相依的双重面向,人工智能的技术浪潮更是如此。习近平总书记在中共中央政治局第九次集体学习时就曾强调,“要加强人工智能同社会治理的结合,开发适用于政府服务和决策的人工智能系统,加强政务信息资源整合和公共需求精准预测”“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”。随着人工智能技术在行政决策体制中的深度介入,资本裹挟与技术越位情形下的智能决策风险成为必须面对的现实议题。对此,我们既要“扬善”,积极发挥人工智能促进行政决策体制优化的技术效用,不能因风险存在而放弃人工智能时代的决策转型机遇。同时,更要“抑恶”,谨慎防治智能决策的系列衍生性风险,采取必要的因应策略,避免陷入技治主义的窠臼,不断促进技术进步与行政发展的深度融合,从而实现智能善治的发展目标。

参考文献:

[1]何哲.面向未来的公共管理体系:基于智能网络时代的探析[J].中国行政管理,2017(11).

[2]胡洪彬.人工智能时代政府治理模式的变革与创新[J].学术界,2018(4).

[3]申海波,韩璞庚.人工智能背景下的治理变迁及其路径选择[J].求索,2018(6).

[4]岳楚炎.人工智能革命与政府转型[J].2019(1).

[5]贾开.人工智能与算法治理研究[J].中国行政管理,2019(1).

[6]李晓方.人工智能概念的再界定与政府的治理回应:基于技术、市场和政治视角的分析[J].电子政务,2019(3).

[7]中国共产党第十九次全国代表大会文件汇编[M].北京:人民出版社,2017.

[8]张国庆.公共行政学(第三版)[M].北京:北京大学出版社,2015.

[9]彭国甫.中国行政管理新探[M].长沙:湖南人民出版社,2008.

[10]赵友华.人工智能时代优化民生政治参与的算法逻辑[J].宁夏社会科学,2019(5).

[11]王万良.人工智能及其应用[M].北京:高等教育出版社,2005.

[12]侯浩翔,钟婉娟.人工智能视阈下教育治理的技术功用与困境突破[J].电化教育研究,2019(4).

[13]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6).

[14]陈伟光,袁静.人工智能全球治理:基于主体、结构和机制的分析[J].国际观察,2018(4).

[15]张旺,刘戟锋.技术伦理学视域下的网络安全规范路径——以人工智能技术为例[J].湖湘论坛,2018(2).

[16]黄璜.人工智能之辨:计算本质、目标分类与议题划分[J].电子政务,2018(3).

[17]宋华琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大学学报(社会科学版),2018(6).

[18]贾开,蒋余浩.人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017(10).

[19]刘波.人工智能对现代政治的影响[J].人民论坛,2018(2).

[20]陈鹏.算法的权力:应用与规制[J].浙江社会科学,2019(4).

[21]雷·库兹韦尔.奇点临近[M].北京:机械工业出版社,2011.

[22]柳亦博.人工智能阴影下:政府大数据治理中的伦理困境[J].行政论坛,2018(3).

[23]R.Brauneis,EPGoodman.Algorithmic Transparency for the Smart City[M].Social Science Electronic Publishing,2017.

[24]张凌寒.算法规制的迭代与革新[J].法学论坛,2019(2).

[25]颜佳华,王张华.人工智能场景下公共行政技术责任审视[J].理论探索,2019(3).

[DOI编号]10.14180/j.cnki.1004-0544.2020.02.007

[中图分类号]D63

[文献标识码]A

[文章编号]1004-0544(2020)02-0060-09

作者简介:赵友华(1992—),男,安徽当涂人,华东政法大学政治学与公共管理学院博士生;蔡振华(1993—),男,湖南永州人,湘潭大学公共管理学院博士生。

责任编辑 申 华

奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-11-3 00:29

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表