智库中国 > 

人工智能安全的双重规制体系

来源:中国社会科学网 | 作者:赵精武 | 时间:2019-02-22 | 责编:李晓曼

赵精武 北京航空航天大学法学院

滥觞于20世纪初的人工智能因大数据、云计算的技术突破而重新焕发生机,技术革命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域技术的延展而蜕变。自劳伦斯·莱斯格(Lawrence Lessig)教授的《代码2.0》出版以降,新技术与规范之间在本质论层面产生了紧张关系。莱斯格教授将代码与法律的互动关系喻为东西海岸之争,用以说明究竟是技术塑造了法律规范,还是法律形塑了技术规范。他的核心观点直指要害,任何技术的规制路径都应当包含市场、架构、社会规范和法律四个维度,人工智能所特有的国家、社会、商业、伦理纵横交错的复杂利益关系导致人工智能的安全问题不断复杂化,从莱斯格教授处抽丝剥茧式觅得人工智能安全规制的完美答案已成奢望。

内外双重视角下的安全秩序

图灵意义上的人工智能是通过人类知识驱动推理的机械化运作方案,而随着云计算技术不断的衍化、迭代,现代意义上的人工智能由算法和数据耦合所构成,呈现出数据驱动计算运作机理。以机器学习能力为界,有学者将人工智能区分为“符号主义”的老派人工智能和“联结主义”的新人工智能;也有按人工智能的聪慧等级来划分,将人工智能分为弱人工智能与强人工智能(当前强弱区分说已经成为主流观点)。诚然,无论何种分类标准,都对人工智能的社会作用不谋而合,即人工智能正在颠覆人类既有的社会思维习惯和法律规制方案。此外,从国家竞争的角度来看,人工智能也是各国军备竞赛、争夺霸权的“隐形”战场,甚至有不少国家为了谋取优势地位而选择性忽略对人工智能脱缰所带来的伦理问题。人工智能所独有的政治性、社会性以及错综复杂的利益结构,需要从治理层面重视人工智能安全问题。一方面要从内部技术视角关注算法安全和数据安全,同时也要从外部视角关注伦理安全和国家安全。

人工智能的安全秩序包含算法安全、数据安全、国家安全、伦理秩序安全四个维度,传统规制人工智能观念正经历着迭代、升级,数字正义(digital justice)作为技术领域的全新秩序价值正发展成为普遍共识。数字正义并非仅关乎在线纠纷的解决,它的核心在于厘清科学技术产生各种类型纠纷的本源,以期利用法律、技术共同预防和解决纠纷的产生。作为人工智能安全价值基础的数字正义理论包含数据正义(data justice)、算法正义(algorithm justice)、国家安全、人类安全四层次的内涵。当前人们多将目光聚焦在数据正义(data justice)领域,欧盟的《统一数据保护条例》、中国纳入立法规划的《个人信息保护法》都是在信息自决的理念基础上对数据流动安全、数据使用公平问题所作的法律秩序安排。

算法规制与算法正义

囿于当今的技术条件和科技水平,我们可以预见,人类社会仍将长期处于弱人工智能时代,当前算法歧视、算法暴政已经直接威胁到人类科技与经济民主。有鉴于此,算法正义是这个时代需要关切的重点及难点,由人工智能安全的内部视角来观察人工智能规制,会发现其核心即是对算法设计本身的规制,弗兰克·帕斯奎尔(Frank Pasquale)认为一切算法的本质是黑箱,这一观点在技术层面的隐喻为:机器学习神经网络中存在隐层逻辑使得设计者无法对机器学习的优化结果做出合理的解释。但从算法的外部效应来看,黑箱具有相对性,所谓“算法黑箱”仅指对用户的不透明,对设计者来说算法是一种公开且透明的技术实践方案。因此,无论是要求算法设计者强制披露、算法设计者完成设计时自我验证以确保算法的有效性,还是充分尊重用户个人选择,赋予用户事后的算法解释权,以化解合同双方的力量不对等状态,限制“算法权力”,其重点都在于人工智能领域安全维护需要对作为沟通工具的算法进行规制。

真正拥有自我意识及感觉的“强人工智能”并不完全是“水中月,镜中花”。牛津大学人类未来研究所的Katja Grace及其研究小组在《人工智能何时超越人类》中指出,裹挟了过多周边技术,如区块链、量子计算、纳米科技、基因工程等技术的人工智能极有可能发展为互联网时代的“利维坦”。2017年IEEE发布《伦理一致的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》;同年2月,欧洲议会通过了针对人工智能科研人员和研究伦理委员会(REC)的一系列必须遵守的伦理准则——《人工智能伦理准则》(机器人宪章)。类似的规定都要求智能机器人的开发需要遵循人类利益的最大化原则,且机器人不得伤害人类。

关注人类整体利益

人工智能和基因科技使得作为自然人的主体性及其终极基础的理性与自由意志在未来智能社会中并非绝对具有正当性,人类的主体性正在被技术消解,在强人工智能来临之前,各国作为人工智能安全问题的命运共同体,应该达成相应的伦理共识——开发人工智能以重视人的安全为中心。人工智能发展本身涉及行为人之间复杂的经济政治关系,规制方案的设计应当尽可能提前,并遵循共同的理念,以过程化治理取代结果治理,易言之,人工智能的治理更多地应当呈现出一种行为规制的特点。但是,这样的过程性规制最终仍需要依附于人工智能特殊领域的事业活动来展开。我们应当警惕身披技术发展外衣的滥用行为,如避免人工智能自动化武器的开发与应用、防止人工智能在基因科技领域的滥用等。对国家安全而言,我们应当警惕在西方“超人文化”主导的时代环境下,人工智能的技术鸿沟所导致的被“永久边缘化”的风险。人工智能的安全有赖于人类命运共同体理念的实践,关注作为整体的国家利益、技术利益发展的同时,应当关注人类整体的利益。这种与超人思想截然不同的理念将进一步弥合“人工智能的冲突”,创造和谐的人工智能治理秩序。

霍金预言:“人工智能并非人类文明的终结者,真正会终结人类文明的是人类自身。”人工智能安全最终落脚点是人的安全,法律规制只是人工智能与安全秩序通约的一种工具,如何在人工智能技术内在体系与外部规制方案之间寻求内外兼备的平衡状态,创造和谐的人工智能治理秩序,是眼下必须思索的问题。

发表评论