奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 201|回复: 0

论人工智能发展风险的认知与规避

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2021-9-25 19:51:19 | 显示全部楼层 |阅读模式
扫码加微信
论人工智能发展风险的认知与规避
□王 璐1,韩璞庚2,3

(1.南京师范大学中北学院,江苏 镇江212300;2.南京信息工程大学 马克思主义学院,江苏 南京210044;3.江苏省社会科学院,江苏 南京210004)

[摘 要] 信息时代,人工智能技术的突飞猛进使人类社会生产力、生产关系产生颠覆性重塑。围绕“人工智能能否超过人类”的争论一直没有停息。人们在享受人工智能带来各种便利的同时,如何规避和消除人工智能可能产生的人类主体作用弱化消解、个人隐私受侵犯以及道德责任伦理冲击等系列风险,是人工智能发展亟待解决的重要问题。面对人工智能发展的滚滚浪潮,必须坚持科技服务人类的根本价值取向,既要看到人工智能给人类带来的诸多便利,抢先布局、赢得主动;也要正确处理科技理性与价值理性之间的关系,突出以人为本、强调公平正义、遵守伦理发展,打造人机相容的和谐文化,切实提高人民的福祉,更好服务新时代中国特色社会主义事业的健康发展。

[关键词] 人工智能;风险困境;认知与规避

近年来,随着信息技术的飞速发展,人工智能引爆的人类数字化生存正将人类带入一个难以置信的科幻世界。过去冰冷的机器,在人工智能作用下逐渐有了人类的智慧和温情。谷歌研发的阿尔法狗(AlphaGo)机器人,接连击败韩国的李世石、中国的柯杰等众多围棋高手,登上人类智力的巅峰;添加了神经网络的谷歌翻译软件,翻译水平已基本与人工翻译无异;索菲亚美女机器人,已经具备像人那样“风情万种”的感知,甚至可以和“男友”谈情说爱。人工智能不同寻常的技术发展,以及一件件令人咋舌的发明创新,不断模糊着机器与人的界限,冲击着人作为“万物之灵长”的主体地位。以致有人疾呼,未来人工智能将超过人类智能,机器人将统治、奴役人类,人类将会被当作动物送进动物园。面对这些矛盾和焦虑,笔者试图从人工智能的发展起源出发,分析其可能面临的风险困境,进而提出规避风险的对策建议。

一、在争论中兴起的人工智能
人工智能是伴随着计算机科学、大数据等技术突破而发展起来的,其萌芽可以追溯到世界上第一台计算机埃内阿克(ENIAC)的诞生,其真正发展始于1950年图灵在论文《计算机与智能》中提出的著名的“图灵测试”,证明了机器具备像人类一样智能的可行性。1956 年,在美国达特茅斯学院的一次研讨会上,人工智能的概念首次被正式提出,并作为重要的研究课题。在整个20世纪,人工智能的研究虽在不断深入,但受技术认知的局限,总体发展“波澜不惊”。然而在人工智能发展过程中,围绕“人工智能能否超过人类”的争论,却一直没有停息。

符号主义人工智能(Symbolic AI)认为,人类的认知是由不同符号、句法按照各种逻辑结构组合而成,只要计算机的存储功能足够大、运算速度足够快,计算机可以模拟人类智能。其代表人物西蒙(Simon)认为,智能机器与人是一样的,任何种类的智能活动都可以变成一套指令。他在20世纪60年代就曾预言,二十年之内,机器将能做到人所能做到的一切。这一观点遭到密勒(George Miller)、鲁道夫·阿恩海姆(Rodolf Arnheim)、罗斯·奎连(Ross Quillian)、约翰·赛尔(John Searle)等人的反对,他们认为计算机只能够进行符号处理,并不能把握语句与词语的意义,其与人类具有本质的区别;即使机器通过了图灵测试,但仅仅是证明机器在行为上与人的相似性,并不具有人类思维的特性。

联结主义人工智能(Connectionism AI)又称为神经网络人工智能(Neutral Network AI)认为智能的过程来自人类大脑的组织结构和运行模式,而不是源自计算机。其代表人物明斯基(Minsky)认为,思维是由许多不同类似神经元的智能主体组成的层级结构,这是简单的符号语言所无法模拟的。在符号主义人工智能和联结主义人工智能研究范式之外,还有一种被称为行为主义人工智能(Actionism AI)的研究方法,该方法认为,机器“智能”水平的高低不依赖于算法和预先设定的程序,关键在于如何主动适应外部环境并及时做出反应。

笔者认为,不管是符号主义研究方法,还是联结主义、行为主义路线,必须从辩证唯物主义出发思考人工智能与人的本质的关系。人是自然界的一部分,人通过实践把自然转化为“人的无机的身体”,使之成为人的存在的一部分。人工智能作为一种技术存在、社会存在,是人类认识自然、改造自然实践经验的总结物化,是计算机科学、哲学、社会学等多学科、多领域的有机组合。从某种程度上讲,人工智能是制造能像人一样做事情的机器的科学。智能机器所表现出来的独立思考、理解和反思等功能,是人类主体预先设定的特定程序的再现,即便一些具备自主学习能力智能行为体,其“智力”水平更多还是取决于人类为其提供的算力的快慢、算法模型的优劣,以及数据样本的多寡。这也决定着,机器始终是主人的机器,人永远是那个在前台表演的木偶的幕后牵线人。

二、人工智能发展面临的风险困境
近年来,随着算力增强、数据增多、算法优化,人工智能发展的基础更加扎实,一些新的应用层出不穷,人工智能正逐步走出实验室,迈向“脱虚向实”的新阶段。然而机遇总伴随着挑战,有学者认为,所有技术进步都有代价,技术引起的问题比解决的问题多,有害和有利的后果不可分离,所有技术都隐含着不可预见的后果。如今,这种后果有的业已显现,有的则成为未来发展的隐患。中国科学院院士谭铁牛指出:“人工智能的社会影响是多元的,既有拉动经济、服务民生、造福社会的正面效应,又可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等社会问题,以及利用人工智能热点进行投机炒作从而存在泡沫风险。”[1](p39)我们必须从哲学角度认真研析其问题成因,及时引导其走出风险困境。

(一)人的主体作用在弱化消解
人是社会的主体。人类因其“有思想、会创造”的特质,确保了社会主体的唯一性。传统计算机虽代行了人类的部分工作,但仅限于连接搜索、读取数据等经典意义上的常规性操作,在整个决策链条中,人发挥着不可替代、一锤定音的作用。随着信息文明向高级阶段突进,特别是万物智联时代的开启,人与物的壁垒被打破,社会上芸芸众生的人与五花八门的物连接成了一个有机整体。万物网虽极大方便了人类生活,然而人作为社会网络体系中一个节点的存在,使原本处于决策链顶层的人的作用相对消解。网络社区中人际交往在不断退化,计算机网络将人从世界中抽离出来,还原为可以轻易控制的数据流类型。在对事物的分析、决策中,人的作用将不再如过去那么重要或者不可替代,机器可以代表人类“预测一切、决定一切、安排一切”,人的主体作用在下降,社会的参与度在降低,势必产生客体主体化、主体客体化的逻辑混淆。在辩证唯物主义实践观中,人类通过实践活动改造自然界,并使自身达到自然性与社会性的和谐统一。根植大地、躬身实践,是人类有别于动物而不断创造出灿烂文明的重要标志。随着智能体的过度代劳,表面上带来了安逸和便利,但无形之中却限制甚至剥夺了人类实践的机会。有科学家预言,随着脑机接口等智能技术的发展,未来机器将会替代大脑以外所有的肉体器官,包括眼睛、耳朵、性器官、饮食器官等,人类千百万年进化而成的自然肉体将会被“废弃不用”。如果预言成真,人再也不是最初的自我,甚至异化为生活的附庸。

(二)智能服务与隐私保护的二元悖论
如何实现更好的服务,又确保个人隐私不受侵害,一直是信息技术发展不可回避的话题。时至今日,人工智能原有的风险隐忧不仅没有完全解决,一些新的矛盾问题也在不断涌现。近年来,人工智能的突飞猛进很大程度上源于数据挖掘和深度学习技术的重大突破。海量数据是人工智能迭代升级不可或缺的“食粮”,智能体“智能”水平的高低、提供服务的优劣,最根本的差别在于数据占有量的多寡、真伪度的高低。为了“训练”更“聪明”的智能体,一些单位采取合法与非法、公开与隐蔽、人们知情与不知情等多种渠道,肆意搜集整理人们的家庭信息、健康信息、购买喜好、日常活动轨迹等数据。这些数据在智能技术的强大驱动下,则可以提取生成个人支付能力、社交关系等高价值信息,进而生成或还原出一个人的“生活肖像图”。在万物智联的世界,人与“透明人”无异。人们所享受的人工智能的各种便利,某种程度上是个人隐私权的部分让渡或交换。人脸识别等数据如果没有妥善保管和合理使用,就会容易侵犯用户隐私。大数据时代,个人在互联网上的任何行为都会变成数据被沉淀下来,而这些数据的汇集可能最终导致个人隐私的泄露。人工智能作为人类认知世界、改造世界的一种技术存在,其发展演变始终不能背离辅助人、服务人的本源。妥善处理好智能服务与隐私保护的关系,已经成为当前人工智能发展必须面对的重大现实问题。

(三)人工智能不可忽视的伦理风险
随着人工智能“拟人化”程度的不断提高,一些人工智能体越来越深度融入人们的生活中,无人驾驶汽车、家庭管家、陪护机器人、智能导购等应用,极大解放了人的脑力和体力,成为人们工作生活不可或缺的一部分。人类社会生活也从以人类为中心的行为活动,演变为一定领域并不断扩大的人机合作活动。然而,从伦理角度来看,当机器代替人从事某些工作时,其工作过程中造成的过错或者过失应该由谁买单?是否应赋予人工智能系统一定的道德承载和社会责任?比如在严重拥堵的城市,很多人工驾驶的汽车违章行驶,自动驾驶汽车不违章就没法前行,是不是也可以把其系统设计成可以违章驾驶?再如,在即将发生车祸危险的时候,智能系统应该做怎样的选择也是棘手的伦理问题。从人工智能系统的运行机理看,人工智能算法看似与伦理价值无关,但算法“以数学方式或者计算机代码表达意见”的本质,决定着设计者的立场观点会有意无意地嵌入其中。某种程度上讲,一些人工智能系统很容易被训练数据的质量和算法中预设的前提所左右。算法偏见和数据偏差带来的最终结果将是决策的偏差,甚至是对决策者的误导。比如,营销产品时,商家可以通过数据过滤技术将产品的负面信息过滤掉,根据客户的特点、喜好等定向推送对自己有利的信息;又如,一些选举操纵事例,选民往往无法通过自主选择来阅读或看到自己希望读或看的东西,只能被动接受算法强推的结果,导致无法看清事物的真实面目。算法的“黑箱”特征,也使人工智能系统在决策判断上缺乏透明性、可控性。脸书研究团队曾在一次试验中安排两个智能机器人进行“交流”,在“交流”的过程中竟然产生了超出科学家预期的对话。无独有偶,微软开发的智能聊天机器人Tay在与网民上线互动时,竟然不时冒出性别和种族歧视语言。这些智能系统如果完全代行人类决策,就有可能带来不可预知的伦理风险,甚至危害整个社会利益。

(四)致命智能武器系统的人类生存担忧
战争,作为人类社会生存竞争的一种高级暴力活动,在国家、社会、种族关系调节中发挥着重要作用。过去,无论战争正义与否,锋利的大刀长矛、扣动枪支的扳机、可以将人类推向毁灭的核武器的按钮等,都始终掌握在人类的手中,人是操控武器的主人。随着人工智能的蓬勃兴起,无人飞行器、智能蜂群、无人潜航器等崭露头角,并被推向战场上敌对双方激烈对抗绞杀的“最前线”。这些披上智能外衣的各色武器装备,不再是过去战场上纯粹的“被指挥者”,它们拥有一定的自主行动权甚至自主“开火权”。这种人与武器装备的角色异位,使战争面临着失控的风险。在复杂战场上,这群毫无感情、不知疲倦的钢铁机器在受到通信干扰、网络攻击等各种不可知的情况下,极有可能对它的操控者“倒戈一击”,甚至对无辜的平民“乱开枪”,成为战场上的“麻烦”的制造者、人类的“终结者”。2015年7月,美国一台“发疯”的机器人曾“失手”将一名装配工人杀死。在中东战场上,武装到牙齿的美军,不时爆出一些高新技术武器装备“调转枪口”对准己方人员,造成严重的误炸误伤,至于伤害无辜平民的案例更是屡见不鲜。智能武器装备的广泛应用,也使发动战争的决策成本相对降低。借助深度学习、模拟仿真等智能技术,人们可以在开战前对战争全过程进行一次“彩排”“预演”或者“全景呈现”,战场将不再是过去那个“充满不确定性的领域”,战争也将不再是“国之大事、死生之地”,甚至失去人类的控制。冰冷的机器代替人成为战场上的主角,也将对正义战争理论产生影响,甚至严重冲击着二战后人类建立起来的世界军控体系。

三、人工智能发展的风险应对
马克思在《哲学的贫困》中写道:“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会。”[2](p222)技术虽然根植于特定的社会环境,但却作用和反作用于人类社会的演进发展。人工智能的快速兴起,既让人们享受了其所带来的极大便利,也让人们对其可能产生的风险隐患始终难以释怀。美国奇点大学创始人、谷歌技术总监雷·库兹韦尔曾将人类对待技术的态度分为敬畏、恐惧和谨慎三个阶段。作为技术活动主体的人,面对人工智能可能带来的些许便利,必须始终心怀敬畏、恐惧,采取更加谨慎的态度,树立正确的发展观,确立合理的需求观,构建人与人工智能相容共生的和谐社会。

(一)坚持以人为本的发展原则
每个人都拥有自己的内在价值,这种价值绝不能因技术的发展而被削弱、损害或压制,否则技术就失去了其发展的必然价值。人工智能既然是由人类所创造,就必须从属于人的主体地位,始终为人类服务。人工智能系统的开发应该尊重、保护并服务于人的身心完整和社会文化认同感。美国学者阿西莫夫在《我是机器人》一书中曾认为,机器人的宗旨是不能危害人类,而当人类可能受到侵害时机器人也不能袖手旁观而不顾。要始终坚守以人为中心的伦理道德,在系统建构、算法赋予中,要把“为人类造福”“为人民服务”作为原则底线,确保不能侵犯人的主体地位。2018年,在全国人工智能哲学与跨学科思维论坛上,苏令银建议将儒家伦理规范“忠”“恕”“仁”嵌入机器之中。在我国古代也一直有以道驭术的文化传统,例如庄子对“机械”与“机心”的探讨,墨家侧重工匠自身品德修养的要求等,确保机器通过学习人类来提升道德,拒绝做不道德的事。要注重完善机器的人性设计。人类不应该制造他们所能制造的每一种技术产品,而只应该制造那些或者对他们的同胞或是对他们自己必不可少的技术产品。在不断满足人类无止境的需求上,一方面要将机器的功能尽可能打造得更完美;另一方面要合理约束需求的边界,一味地贪婪,在下一刻就可能走向灭亡。20 世纪40 年代以来,人类为了在战场上追求对敌方更大的杀伤而发明了原子弹,然而却差点把人类和地球推向毁灭的边缘。规避人工智能风险,实际上是同人类的欲望和贪婪进行一场旷日持久的斗争。完善人性、合理确定需求,才是防范人工智能风险的治本之道。

(二)强化公平正义的建设导向
公平正义是人类社会文明发展的度量器,也是助推人类社会不断向前发展的重要推动力。人类对公平正义的追求,不仅是个意识形态命题,更重要的它还是个社会实践课题,一切公平正义都要靠行为来推动落实。任何对这一本质产生威胁的行为都是非正义的,也是伪公平的。人工智能的发展运用,承载的是现实客观世界,必须把确保社会公平正义作为出发点、落脚点。要提高人工智能系统的可解释性,系统的研发和使用过程必须透明,能力和目的必须经过公开讨论,系统所做的决策必须能够解释给所有受到人工智能系统直接或间接影响的人群,得到他们的理解和支持。任何个人和团体都不应该受到不公正的偏见、歧视或者侮辱。要提高人工智能系统的安全性,充分考虑系统可能出现的意外情况,设计并测试后备保障机制;特别是当人工智能系统偶尔出现不准确判断时,系统要能够准确评估出误判的可能性大小,当出现意外后果时能被随时中止。要提高人工智能系统的可信赖性,在系统全生命周期中实现包容性和多样性,建立有全部利益相关方参与的长期反馈机制。特别是对关系人工智能决策的关键数据和运行流程,以及数据采集、遴选、甄别、分析等活动要做到公开透明。要针对不同国家、不同地区和不同人群在思想、信仰、文化等方面的差异,更加突出用户的多元性和人机交互的包容性,确保不同的人在不同的环境条件下,都能平等享受到人工智能等质的服务。

(三)设定技术发展的伦理法则
机器伦理始于安德森的《走向机器伦理》一文,文中作者对机器伦理的概念作了解读和阐释。波斯特洛姆(Bostrom)、尤德科夫斯基(Yudkowsky)、索勒斯(Soares)等人认为,即使赋予智能体无害的目标,它也有可能无意识地与人类展开竞争,甚至危及人类自身。有专家学者甚至疾呼,在我们完全没有准备好的情况下有可能祸从天降。近年来,世界各国特别是西方发达国家越来越关注人工智能带来的伦理、法律和社会问题。2016年8月,联合国教科文组织会同有关部门发布了《机器人伦理报告初步草案》,欧盟相关机构随后相继出台发布了《欧盟机器人民事法律规则》《可信赖人工智能道德准则》等文件,明确提出要在人工智能和机器人领域构建更为完善的道德标准和伦理准则。美国在人工智能开发上,大力倡导“多利益相关方共同合作交流”机制,2017 年1 月,来自全球各地的人工智能专家,在美国加利福尼亚州阿西洛马联合提出“阿西洛马人工智能原则”,强调“应以安全、透明、负责、可解释、为人类做贡献和多数人受益等方式开发AI”[3](p106)。针对人工智能可能带来的伦理风险,我们既要从技术上搞好预先认知,也要从管理角度进行科学规范。要为人工智能划定伦理禁区。我国在《人工智能标准化白皮书2018》中,首次从政府层面提出中国关于人工智能伦理的人类利益原则和责任原则,但从现实看,我国人工智能产业还处在商业驱动的初级阶段,一些产品设计还建立在个人伦理自觉基础上。要加强人工智能伦理禁区立法,通过行业自律、制定指南等形式来约束管控人工智能可能带来的伦理挑战。当初克隆技术出现后,人们从法律上明令禁止对人的克隆,为克隆人划定了不可逾越的屏障。要强化人工智能系统的治理监管,使其具备优良的“伦理品质”。当智能系统对用户产生重大影响时,人类有权不受完全基于自动处理的决策的约束。每一个出场产品,都要为人类监督设定预定的“后门”。这个“后门”,可以通过人在回路中(Human- In- The- Loop,HITL)、人在回路上(Human-On-The-Loop,HOTL)或者人工控制(Human-In-Command,HIC)等来实现,确保人工智能产品牢牢控制在人类手中。

(四)打造人机相容的和谐文化
马克思说:“在手工操作制度下,手工劳动通常是任何一件产品中花费最大的因素;而在自动体系下,手工业者的技艺就日益为看管机器的简单动作所替代。”[2](p248)人工智能作为人类认识自然、改造自然经验的总结物化,秉承了过去三次工业革命的衣钵,使人类与机器的关系更加密不可分,把人类生产力提高到了一个新的高度。国外学者曾预言,未来十年,人工智能将代替超过40%的就业岗位。人工智能技术的应用极大延展并拓宽了人类改造自然的能力,而人类又通过不断的实践使人工智能技术得到了螺旋迭代提升。人与机器并不是“非此即彼”的“零和博弈”,而是一对和谐共生体。中国古代贤哲早就提出了“天人合一”的观念,强调人与自身、人与万物、人与社会之间的和谐共生关系。从社会发展的历史进程看,发展中的和谐才是真正的和谐,和谐的构建源于丰富的物质技术支撑。在科技产业革命日新月异不断发展的今天,科学技术已经成为关系国家民族复兴伟业,关联人民生活福祉的重要因素,成为世界各国竞相角逐的关键领域。人工智能作为当下人类社会发展的最高技术结晶,是和谐社会建构的重要力量,与人完全可以由共处走向共生、共融。从人的全面发展看,技术的进步除了满足人的生存需要外,它使人的思维得到拓展、个性得到解放,把人类推向了更高的自由。要以人的主体性为导向加强人工智能技术创新,搞好人类世界观、价值观的植入与融入,切实打造人与机器价值相同、理念相通的和谐共生世界。

四、结语
当前,我国正处于建设新时代中国特色社会主义重要阶段,向科学进军、向科技要生产力,已成为我国社会经济转型的重要引擎。习近平总书记指出:“中国要强盛、要复兴,就一定要大力发展科学技术,努力成为世界主要科学中心和创新高地。”[4](p246)人工智能作为新兴产业技术的重要代表,在推动我国实现高质量发展,开拓新时代中国特色社会主义现代化进程中发挥着重要作用。一方面,我们要按照科技强国要求,在日新月异的人工智能革命中抢先布局、赢得主动,在标准、制度等方面发出中国声音、拿出中国方案,不断提升技术创新在国家经济发展中的比重;另一方面,面对人工智能的滚滚浪潮,我们要从哲学的角度,拨开人工智能“万能论”“威胁论”等迷雾,坚决立起批判发展的旗帜。既要看到人工智能给人类带来的诸多便利,也要看到技术存在的些许弊端;既不能当技术的奴隶,为了技术而技术,也不能重蹈“闭关锁国”的覆辙,使自己落后于时代的发展。要始终从吸收利用、批判反思两个维度,科学分析评价新兴技术的作用限度,综合权衡科技理性与价值理性的关系,切实发挥好科学技术对我国现代化建设的推动作用。

参考文献:

[1]谭铁牛. 人工智能的创新发展与社会影响[J].中国人大,2019(3).

[2]马克思恩格斯选集:第1 卷[M]. 北京:人民出版社,2012.

[3]段伟文. 人工智能时代的价值审度与伦理调适[J].中国人民大学学报,2017(6).

[4]习近平谈治国理政[M]. 北京:外文出版社.2020.

[DOI编号] 10.14180/j.cnki.1004-0544.2020.12.016

[中图分类号] TP18

[文献标识码]A

[文章编号] 1004-0544(2020)12-0148-06

基金项目:江苏省高校哲学社会科学思政专项研究项目“人工智能视域下新时代大学生思想政治教育研究”(2020SJB1155)。

作者简介:王璐(1984—),女,江苏铜山人,南京师范大学中北学院讲师;韩璞庚(1963—),男,安徽潜山人,南京信息工程大学马克思主义学院教授、博士生导师,江苏省社会科学院研究员。

责任编辑 梅瑞祥

奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-11-24 23:33

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表