人工智能引发的治理挑战及其应对
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
收稿日期:2020-08-16
作者简介:詹江(1986-),男,湖北云梦人,广东财经大学金融学院讲师,博士,研究方向为金融科技与数字
经济;孙坤(1992-),男,河南信阳人,广东财经大学华商学院助理讲师,硕士,研究方向为风险
管理;李凡(1985-),女,湖北襄阳人,深圳大学中国经济特区研究中心副教授,博士,研究方向
为资源经济学㊁产业组织㊁计量经济学㊂
人工智能引发的治理挑战及其应对
詹㊀江1,孙㊀坤2,李㊀凡3(1.广东财经大学㊀金融学院,广东㊀广州㊀510320;
2.广东财经大学㊀华商学院,广东㊀广州㊀511300;
3.深圳大学㊀中国特区经济研究中心,广东㊀深圳㊀518060)
摘要:人工智能在助推社会生产力发展和经济增长方面具有重大优势,但其对人类社会也具有深层
次和颠覆性的挑战㊂当前,人工智能面临技术扩散难以管控㊁人工智能风险源的不可预知性以及人工智能治理的责任主体的边界不清晰等根源问题㊂虽然当前世界各国都不同程度地提出了对人工智能发展的引导规范,但人工智能治理体系尚未达成普遍共识和一致性框架,因此仍然需要进一步强化和提升对于人工智能治理体系在理论与实践两方面的探索㊂一方面要梳理人工智能治理的可行路径,同时也需要加强在实践层面的应对措施㊂关键词:人工智能治理;算法治理;算法歧视;数据治理;人工智能伦理
中图分类号:D63-39㊀文献标识码:A㊀文章编号:1003-7462(2020)06-0023-06
DOI :10.13977/ki.lnxk.2020.06.004
一㊁引言
在当前技术革新日益加快的时代背景下,AI 人工智能㊁大数据㊁云计算等新兴大数据技术的迅猛发展,成为了新一轮人工智能科技产业革命和产业结构性变革的重要技术驱动力量,人工智能已经渗入社会经济生活的各个方面,并且为未来经济增长提供持续发展的动力㊂
目前各级地方政府都加大对人工智能创新应用的重视,并结合自身优势和要素禀赋着力进行战略部署,分别有19个省份和16个市公布了人工智能产业发展规划,其中以北上广深为代表的一线城市具备良好的先发优势,尤其是深圳和上海已经成为首批人工智能产业的先导地区㊂
根据埃森哲对全球经济的预测研究,到2035年,人工智能产业的发展将有效提振全球经济下滑趋势,有效应用人工智能的发展,中国经济增长率有望上升至7.9%,增长额高达7.1万亿美元㊂此外根据麦肯锡的预测,人工智能产业将每年为中国经济增长贡献0.8至1.4个百分点㊂尤其此次疫情加速了人工智能技术为代表的数字经济的发展㊂人工智能产业的发展将迎来重要机遇期㊂
西方发达国家普遍已将人工智能的研发提高到未来战略的高度,对于人工智能技术应用于人类经济社会作出了大量前瞻性研究㊂但人类利用AI 技术的同时,也会带来一系列风险,其中有对人类道德认知㊁常识性伦理判断等的挑战,例如自动驾驶系统的安全性㊁达芬奇手术机器人事故㊁伪造视频deepfake 技术的滥用等㊂人工智能作为一种广泛影响人类经济生活的重要科学技术,应该采取何种政策加以规范和引导日益成为重要问题㊂随着新一代人工智能算法和产品的快速开发
和部署,人工智能在日常生活中扮演着越来越重要的角色,并对现代人类社会生活产生重大影响,加上其本身还在不断的动态发展之中,具有很大的不确定性,因此人工智能治理便显得日益重要㊂二㊁人工智能引发的挑战 风险与治理困境
人工智能技术的迅猛发展,使得目前针对人工智能的治理模式匹配不上新内容㊁新业态的不断发展,治理失效引发的一系列挑战没有有效解决,如用户隐私的泄露㊁算法的偏见与歧视,技术伪造等各类风险事件频繁发生,同时技术扩散难控制㊁责任主体不明㊁应用边界模糊等治理困境值得关注与加强研究㊂[1]
(一)人工智能技术引发的风险
1.数据隐私
大数据是推动人工智能的产生和持续发展的必要技术前提㊂人工智能算法在开发过程中,需要大量数据作为深度学习的数据测试㊂目前,人工智能企业的数据采集主要包括现场无差别采集㊁直接在线采集㊁网上公开数据源和商务采购等方式㊂在现场无差别采集时,由于无法提前预知采集的用户,难以获得用户的充分授权同意㊂而在直接在线采集时,由于人工智能系统通常由训练好的模型部署而成,对用户数据需要进行分析,因此很难保障用户的修改㊁撤回等权益㊂在网上公开数据源和商务采购时,由于目前数据共享㊁交易和流通的市场化机制不健全,存在一部分企业通过灰色渠道获得用户数据的现象,特别是在微软㊁IBM,Facebook和谷歌等公司与各大高校的研究合作中,大量用户仅授权用于学术研究的个人照片被作为算法数据来源并用于商业领域,而这些数据缺乏用户知情同意,因此引发了国外社会对隐私安全的广泛担忧㊂
2.算法歧视
算法歧视这一概念目前并未有明确的学术定义,一般认为指的是应用程序背后的人工智能算法有意或无意侵犯他人的权利或造成广泛歧视的社会影响㊂在商业领域主要体现为通过算法进行用户画像,并预测消费者的偏好模式进行差别定价,从而实现其商业利润㊂诸如阿里巴巴㊁腾讯㊁亚马逊等互联网的大平台企业也面临类似的潜在风险㊂这些互联网技术企业在其使用人工智能技术过程中通过不断获取用户隐私数据,并利用大数据㊁云计算㊁深度学习算法等技术进行数据分析,使之发展成为自身重要的数据资源和市场竞争优势[2],由于并未有严格的数据保护措施,其中包含了潜在的数据滥用风险,如亚马逊利用大数据技术的 杀熟 行为,本质上是一种价格歧视行为,构成了对消费者知情权的侵犯,甚至在某些场景下构成消费欺诈㊂一些掌握大量数据信息的企业利用数据分析用户信息,同样的服务和产品,对消费者进行差异定价,对老用户设置的价格高,搭售不必要的服务㊂此外,算法模型在实际运行过程中存在偏见和歧视的现象也多有发生,造成了较大的社会负面影响㊂如google图片的算法标注曾出现大量误判,造成对有色人种的种族歧视㊂微软人工智能语音聊天系统Tay也因包含大量种族主义歧视言论而上线仅一天就被迫下架㊂在某些特定情境下,算法歧视的危害在于它不仅会侵害公民的权利㊁自由,甚至会影响生命安全㊂面对来自社会各界的强烈批评与信任危机,越来越多的国际机构㊁政府㊁企业㊁社会组织等加入到治理的参与者行列,以共同解决算法带来的技术歧视等不良后果㊂[3]
3.技术伪造
深度伪造(Deepfakes)技术是近两年发展的一种基于深度学习的人物图像合成技术㊂随着更先进的算法技术的不断发展应用,视频㊁音频数据的内容伪造门槛逐渐降低,其甚至达到了伪造内容难以鉴别的程度㊂例如换脸(faceswap)技术,模拟真人声音㊁创造出非真实影像资料等等㊂这些具备极高欺骗性的深度伪造的技术应用也引发了诸多争议㊂
上述人工智能技术发展所带来的风险的根源在于 算法黑箱效应 ㊂而这些会对用户产生重要影响的信息对于算法或代码开发背后的生产商往往容易获取㊂掌握信息数据的主体,在法律缺失㊁监管不力情形下,具有过度追求商业利益的倾向㊂这正是具有人工智能技术背景的企业凭借算法
侵蚀用户利益的重要原因㊂
(二)人工智能技术发展困境的根源
人工智能技术的变革对人类社会秩序的挑战具有颠覆性,并且其深远影响还将持续下去,人工智能既有提高人类社会生产力发展的重大优势,同时也给人类社会带来前所未有的挑战㊂而人工智能技术发展困境的根源,是由于人工智能技术本身的固有性质所决定的㊂
1.技术扩散造成传播广泛不易控制
由于技术应用具有全球流动性,技术引致的风险也随之具有全球扩散效应,并对社会治理带来冲击挑战㊂目前与人工智能技术发展相关的法律仍然是一个技术盲区㊂由于人工智能技术更新发展的局限和不可预知性,监管部门很难在事前明确提出合适的技术监管和治理规则,事后的监管基本上也很难完全追随人工智能上一代技术更新的发展步伐,基本上很难得到有效实施㊂同时,人工智能的系统设计者在根本上赋予了人工智能的系统使用者自主进行深度学习的能力之后,人工智能自身的技术自主性和社会主体性使得目前对于人类和社会的技术监管和治理体系存在天然的缺陷,人类社会无法准确预测人工智能系统在人类社会现实和生活中的具体行动和轨迹,无法明确人工智能监管的对象和人工智能监管的范围㊂另外,人工智能监管技术涉及的业务范围广泛,应用的方式和形态也演进迅速,当人工智能越来越深入地嵌入到了人类的工作和日常生活中时,分布式㊁低成本㊁低门槛的新技术和人工智能的研发模式将导致人工智能监管方式和对象的高度粒子化,监管将在社会逐渐失去其效力㊂因此,目前的人工智能监管技术方法难以在下一代人工智能的技术发展中起到可以预期的作用和效果㊂
2.风险责任主体众多界定困难
从人工智能法律和道德层面考虑,当人工智能的载体如机器人是不是能够成为人格意义上的道德行为载体乃至法律意义上的民事主体地位,目前各界仍有争议㊂但有观点认为目前人工智能技术发展仍处于弱智能阶段,不具备独立思考的能力,因此无法对自己的道德和行为恰当地承担责任,对人工智能的法律责任的规范应主要以开发厂商和应用平台为主㊂当人工智能系统提供者出现了故障未能及时起到相关技术服务提供者所事先承诺的安全性能保障要求而出现故障导致的问题产生的,由人工智能系统的提供者承担责任㊂当人工智能发展到强智能阶段,主要特征是达到人工智能的自主决策程度,即根据大量的自主判断学习,人工智能提供者掌握了如何进行自主判断的人工智能标准,并根据人工智能标准的判断进行自主的选择时,应主要考虑人工智能系统自身所产生的法律后果和影响㊂例如美国麻省理工学院所研究和开发的 道德机器 就是提出了一个基于无人驾驶的商业伦理风险困境:如果人工智能的学习通过大量的数据在线学习和数据采样技术得到了机器人学习的最佳结果,这种情况就相当于一个机器人的学习得到了一个大多数的公众可以投票的结果,以大多数公众的看法和意见可以作为人工智能判断其好坏的依据和标准,并且以此作为其行动的重要依据㊂如何解决责任的划分问题因而变得尤其重要㊂同时风险和责任的明确就会因此变得相当复杂㊂目前来看,企业的风险责任承诺和商业保险责任承诺是一种对人工智能相关产品的风险责任明确的方法,但是未来,需要更加合理的风险责任主体承诺体系㊂因此通过明确各方主体责任这一路径将是人工智能的治理重点㊂
3.人工智能应用边界模糊不可预知
虽然当前世界各国都不同程度地提出了对人工智能发展的引导规范,但人工智能治理体系尚未达成全球共识和一致性框架㊂快速迭代的人工智能技术的一个弊端在于具有不确定的潜在风险,难以提前预估,使得人工智能自身所具有的 不可预测性和潜在的不可逆性本身就是一种实际的伦理风险 ㊂在伦理和人工智能的未来发展问题上,大多数从事伦理技术研究的学者与人工智能技术研究专家的观点和意见都存在较大的分歧,伦理学研究专家普遍认为对于人工智能技术研究要抱有审慎的原则,而人工智能技术研究专家则更大程度地看重人工智能技术所带来的工作效率的
改进㊂目前,对于先进的人工智能深度学习技术的研究相对缺乏,深度机器学习的能力和信息聚
合识别能力尚普遍缺少适用的技术上的识别方法,特别是在人工智能深度机器学习的方法逐渐成
熟并得到广泛应用时,机器学习的迭代速度识别能力已经远远超过了人工智能预估的迭代速度㊂
此外,人工智能以先进的大数据机器学习技术作为其基础,通过大数据和互联网的手段进行大数
据挖掘与信息采集,利用所采集获得的大量非深度结构化㊁不完全受控的大数据信息系统进行对
神经网络的学习,所得到的学习结果往往难以预测,具有高度黑箱化的数据特征㊂因而在技术自
我迭代中,可能出现非工程设计人员的开发意图,其智能化决策的程度与不可控风险成正比[4],不仅多数人无法理解其结果,甚至连开放算法的工程师也极有可能无法洞悉演化算法和迁移学习
的 黑箱 ,对算法本身做出清晰的解释㊂
三、人工智能治理应对的可能路径
随着当前我国以数字新基建㊁数据新要素为特征的新一波数字经济浪潮全面来临,推动全球
人工智能发展逐步从 探索期 向 成长期 过渡,在技术和产业上均进入重要的转型阶段,各
种相关风险层出不穷㊂虽然目前世界各国都出台了治理方案和对策㊂2016年6月,日本AI学会的
人工智能伦理研究委员会正式发布了人工智能伦理规范,要求相关研究工作人员严格遵守人工智
能伦理指标和草案;2019年5月OCED成员国共同签署‘政府间人工智能推荐性原则和建议“,
提倡负责任的技术发展态度;2019年6月我国也正式发布‘新一代人工智能治理原则 发展负
责任的人工智能“,把共担责任作为一条重要原则㊂但总体而言目前的治理框架仍相对滞后于人工
智能技术的发展,在此背景下,深入讨论人工智能治理问题已然成为人工智能全面新发展的重要
制约瓶颈和亟需突破的关键挑战㊂本文试图从平台治理㊁数据治理㊁算法治理层面提出具体的治
理路径㊂
(一)平台治理
所谓平台是指人工智能技术的开发主体㊁组织或企业㊂随着互联网平台的不断发展扩大,平
台治理既是人工智能平台对于自身的一种内部管理,也包括外部相关利益机构为了实现社会公共
利益而展开的共同参与㊂各方主体立足于数字时代人工智能发展的基础上,需要不断进行顶层设
计和深入探索㊂[5]
虽然政府部门已经尝试引入高技术手段对网络平台进行监管,新技术平台企业已经开始介入
政府规则制定和政策工具设计之中,但由于平台治理存在大量差异化㊁碎片化的场景生态模式,
在人员㊁技术和理念等方面仍旧存在很大滞后性,对平台治理研究和实践缺乏足够的关注㊂
今后,需要对平台治理的以下几个方面进行强化㊂一是政府部门需要打通 数据孤岛 ,平衡
数据开放㊁利用与保护㊂二是由于责任主体较多,有必要建立动态灵活的风险协同应对机制和利
益分享机制,促使各方主体激励相容㊂三是考虑多层次的综合治理路径㊂如从企业微观层面的自
我约束机制㊁中观行业层面的自治协同㊁宏观层面的法律规则和市场机制的选择㊂总之,强化多
层级协同治理方案是较为有效的平台治理路径㊂
(二)数据治理
随着近年来全社会数据的开放共享不断扩大,隐私保护问题日益突出,对此的监管治理也提
出了更高的要求㊂著名的国际安全咨询机构gartner认为数据安全治理不仅仅单单是一套用数据和
工具进行组合的数据产品和技术升级的解决方案,而是从数据决策层发展到数据技术支撑层,从
数据管理制度支撑到数据和工具的支撑,自上而下的一条贯穿整个数据治理组织和架构的完整数
据治理链条㊂组织内的各个治理层级之间都需要对于数据安全信息系统治理的基本目标和其宗旨
取得共识,确保其采取合理和适当的安全保护措施,以最有效的手段和方式有效保护数据安全信
息系统资源㊂
我们认为,数据治理包含数据技术治理和数据安全治理两个方面㊂数据技术治理从数据处理
技术本身而言,治理范围着重在企业内部,围绕数据来源㊁处理㊁应用等方面㊂而安全层面的数
据治理的挑战相对更大,需要综合多种法律㊁技术途径而实现㊂从现有情况来看,一些国际组织
和机构已公布了关于数据安全的政策标准㊂[6]例如,早在2018年欧盟的‘统一数据保护条例“就已正式生效,规定算法歧视的规制应确立数据无害化原则,确立了完善个人信息保护法律体系,
以制定个人信息保护为源头,民法㊁刑法㊁行政法等多部门法综合治理手段㊂2019年5月,‘欧
盟非个人数据自由流动条例“正式生效,‘条例“明确了欧盟成员国政府在非个人数据流动监管
领域须遵循的基本原则,即 自由流动㊁规则透明,公共安全保留 ㊂同样美国第一部为保护个人
隐私权而专门立法的‘隐私权法“㊁规范个人信息采集与处理的‘个人数据通知和保护法案“‘消
费者隐私权法案“等,初步形成了以隐私权为治理对象㊁通过各地立法为主要手段,以行业自律
为重要辅助相结合的方式㊂[7]就我国而言,2020年7月3日,全国人大正式公开‘数据安全法(草案)“并征求意见,反映出我国对数据安全的重视已上升到法律层面㊂各地方政府紧随其后,如深圳市也公布了 深圳特区数据条例 ,反映出各地方政府在数据安全治理方面的迅速跟进㊂但
总体而言目前我国数据安全法律体系尚处于加快建设和完善的情况下,同时人工智能数据安全标
准更偏落地应用,技术层面先行先试的策略使得监管往往不能面面俱到㊂这些实际情形也对我国
政府人工智能数据安全监管和企业数据安全治理提出了更高的挑战㊂
(三)算法治理
对于算法治理,首要原则是公开透明,即保障用户的知情权,同时应该以易于公众理解的形
式公开,对于获得公共公众信任具有非常大的意义㊂在具体策略上可以采取技术创新㊁风险量化㊁
算法审查等多种策略㊂
一是算法带来的问题可以通过算法技术的改进和创新予以克服㊂以优良算法代替不良算法的
途径破解算法本身带来的问题㊂如脸书发布的FairnessFlow工具会对涉及性别种族等某种不公平算
法做出警告㊂对于利用人工智能技术生成的伪造信息同样可以利用区块链的技术加以识别破解㊂
我们应该认识到一些问题存在的本身往往是技术创新的重要推力,通过技术对抗,技术创新的方
式,逐步优胜劣汰,从而消解一部分因技术带来的难题与挑战㊂二是可量化㊁可解释和可学习的
风险分析技术对保障人工智能的安全至关重要㊂[8]借鉴风险分析模型在金融领域的成功应用,如VAR的风险测度模型,同样可以将算法风险特征提供的信息以概率分布进行表示,然后用风险特征的分布估计目标实例的标签概率分布,最后实现风险指标的量化分析㊂三是加强算法公平㊁算法透明的审查机制㊂在数据的应用处理过程中,对于算法所涉及的各方主体还应设立合理的问责制,完善事后救济与责任承担制度㊂[7]
四、优化人工智能治理体系的实践对策
(一)加强人工智能法治生态,构建人工智能法治体系
一是努力建设人工智能法治生态㊂人工智能技术作为近年来的新兴技术,随之引致的风险日
益增加,对人工智能的治理成为了一个非常突出的问题㊂应尽快将人工智能治理纳入法治轨道,
探索相关的法治原则㊁标准和体系等法治生态的建设㊂运用法治思维和风险意识,提前应对可能
风险㊁规划治理方案和构建治理体系㊂人工智能发展发达地区应积极总结成功经验,探索是否具
备可复制㊁可操作的借鉴模式㊂
二是建立人工智能法治体系㊂考虑人工智能技术发展对现有治理体系的冲击,提前研判和应
对人工智能技术的发展对社会经济㊁法制伦理的广泛影响,在避免不可控因素和保障人工智能的
良性安全发展的前提下释放技术变革的潜能,努力达成人工智能治理体系的共识㊂影响人工智能
法治体系的构建应注重与顶层设计方案的契合,注重人工智能治理的前沿研究与实践应用的并重,
侧重于支持对人工智能产业规范的指导㊂同时由于其跨学科属性,在建设该学科发展中,应探索
适合产业发展需求的跨学科人才的培养模式㊂最后人工智能法制体系还应加强对未来人工智能治
理风险与挑战的趋势研判和应对措施㊂
(二)明确人工智能伦理的基本价值,建构人工智能伦理框架
如前所述,平台治理㊁算法治理㊁数据治理说到底在于对使用数据和技术背后的人的治理,数据作为生产要素的关键资源,也应该考虑在使用过程中的信息过滤的功能,通过良好的平台治理途径和相应的监管措施,尽可能地减少人类社会的偏见与歧视导致的算法污染,使其在提升人类生产效率的同时建立起公平㊁正义与向善的社会伦理规范,为原本中性的技术的利用提供健康的生存环境㊂因此,要在充分考虑人工智能技术需求和社会需求,同时以人类福祉为目的的前提下,实现人工智能的创新与发展㊂要从影响伦理风险治理的根本性㊁现实性问题入手,推进伦理与技术融合共生机制的生成㊂自2015年以来,国内外存在两个影响较为广泛的人工智能伦理共识:阿西洛马人工智能原则和IEEE组织倡议的人工智能伦理标准㊂尽管如此,在技术爆炸时代,仍有必要建立新型人工智能伦理治理框架㊂
首先,建立算法从业人员以及AI行业的伦理规范,从源头遏制与预防人工智能技术风险,从而规制算法设计与技术发展应用遵循人类的伦理与道德㊂其次是加强在AI的技术创新促进人类福祉和可持续性发展方面凝聚共识㊂[9]如利用人工智能技术主体的技术评估㊁社会公众的体验评估,全面提高人工智能技术伦理风险的科学性㊂最后可以考虑在企业层面筹建人工智能伦理委员会,研究制定伦理标准㊂规范的依据应当是技术只能作为实现人类福祉的手段㊂
(三)推进算法向善的技术进步,实现良性向善的算法社会
一是加强对算法技术的源头治理㊂考虑因果推理技术对于优化算法的重要性,[11]有研究者使用因果推理工具开发了一套严格的模型,结果表明因果模型能够有效捕获社会偏差,该模型使算法能够考虑到对个体产生的不同社会偏见,并有效地补偿这些偏差㊂二是加强算法科技人员的技术向善的伦理认同㊂向善性技术进步不仅着眼于技术创新,更加强调人工智能的目的不应违背人类伦理道德的基本方向,在使用过程中不作恶㊂向善性的要求包括考察人工智能是否以促进人类发展为目的,如和平利用人工智能及相关技术㊁避免致命性人工智能技术滥用;同时,也要求考察人工智能是否有滥用导致侵犯个人权利㊁损害社会利益的危险,例如是否用于欺诈客户㊁造成歧视㊁侵害弱势群体利益等㊂三是借助算法革命改善社会经济福利㊂积极利用新技术促进产业革命,重构新业态㊁新模式㊁新产业的发展,积极推动算法技术来推进人类社会福祉的良性实现㊂参考文献:
[1]上海赛博网络安全产业创新研究院.人工智能时代网络内容生态治理的机遇与挑战[J].信息安全与通信保
密,2020,(2).
[2]杨勤法,丁庭威.新时代人工智能技术发展的法律规制[J].科技与法律,2019,(5)
[3]汪怀君,汝绪华.人工智能算法歧视及其治理[J].科学技术哲学研究,2020,(2).
[4]唐林垚.人工智能时代的算法规制:责任分层与义务合规[J].现代法学,2020,(1).
[5]梁正,余振,宋琦.人工智能应用背景下的平台治理:核心议题㊁转型挑战与体系构建[J].经济社会体制
比较,2020,(3).
[6]孟小峰,刘立新.区块链与数据治理[J].中国科学基金,2020,(1).
[7]闫文光.从数据角度治理算法歧视[J].五邑大学学报(社会科学版),2020,(1).
[8]陈群,陈肇强,侯博议,王丽娟,罗雨晨,李战怀.人工智能风险分析技术研究进展[J].大数据,2020, (1).
[9]于雪,段伟文.人工智能的伦理建构[J].理论探索,2019,(6).
[10]陈思.算法治理:智能社会技术异化的风险及应对[J].湖北大学学报(哲学社会科学版),2020,(1).
责任编辑:温松。