【中文关键词】平等权;人工智能;算法黑箱;算法歧视;算法绑架
【摘要】人工智能技术的不断发展与普及使之已经或必将全面应用到人类社会的各个层面,但囿于信息的非公开、技术的不确定、法律法规尚不健全以及监管措施的缺位,在实际应用和推广中,普遍存在着诸如“算法黑箱、算法歧视、算法绑架”等现实问题,应当通过立法规范、行政监管和行业自治等诸多手段或举措进行有效监管。尤其是人工智能的内部推算系统技术,从而在新技术时代保障公民的平等权,避免技术性歧视行为。
【全文】
一、问题的提出
二、信息非公开所形成的“算法绑架”行为
(一)人工智能数据应用的非透明性的类型和范围
(二)人工智能应用数据信息非透明化的实证分析
三、“算法绑架”所导致的“算法歧视”行为
如何界定歧视现象?国际条约对“歧视”做出的定义是:联合国人权事务委员会《关于非歧视的第十八号一般性意见》“不得歧视”第七项指出:本公约中所使用“歧视”一词的含义指基于任何种族、肤色、性别、语言、宗教、政治或其他见解、国籍或社会出身、财产、出身或其他身份的任何区别、排斥、限制或优惠,其目的或效果为否认或妨碍任何人在平等的基础上认识、享有或行使一切权利或自由。[11]欧盟对于歧视的定义是:“如果某个人或团体因为具有性别、种族和民族、遗传特征、宗教、残疾、年龄、性取向等七种特征之一,而受到相对不利的对待,或者一项貌似中立的条款很可能对该人或该团体产生不利影响,则视为歧视。”[12]国际人权法认为凡是某些原因具有取消或损害机会均等或平等享有权利的区别、排斥或优惠措施,都构成法律上的歧视。[13]在现实生活中,人们在自然生理或社会经济方面存在明显的差异,以上差异不仅难以通过个人的努力加以克服,并且从根本上决定着社会竞争的成败。如果法律无视这些差异,进而将所有人视为抽象的和无差别的人格主体,并赋予相同的权利义务,最终将加剧社会阶层与民族群体之间的不公平。[14]
(一)传统意义上的歧视行为的界定与解析
可以看出,歧视的核心应该具有三个特点:第一是客观上具有存在非合理的区别待遇;第二是这种区别待遇是法律所禁止的;第三是会造成客观上的不公正、不平等的不良后果。[15]
可看出,以往对“歧视”概念的认定,主流观点是人权事务委员会在《关于非歧视的第18号一般性意见》中的“歧视”定义。主要的国际公约和大部分国内外学者都承认类似的观点。强调其核心是客观上具有存在不合理的区别待遇,而区别待遇的类型和理由是法律所禁止的,以及客观上由于区别待遇,所造成非公平公正等的不良后果。这类流派承认歧视源自主观的偏见或偏好,但不以主观要素为必要条件,更看重客观所造成的不良社会效果。
(二)现代意义上的歧视行为的界定与解读
建立在数据分析上的算法决策本质上是用过去预测未来,而过去的歧视和偏见则会在智能算法中固化并在未来得以强化。[26]随着人工智能技术的发展与推广应用,机器算法带来的歧视问题已不仅限于传统的种族、性别等其它因素,其范围还涉及到人类的日常生活和社会事务中,同时,也开始逐步影响人类社会制度和经济发展的方方面面,并且其中的构成方式越来越隐蔽,它们通常被披上一层合法的外衣,公众难以察觉。当然,人工智能并没有创造歧视的本身,而只是改变了歧视存在或产生的方式,也打破对以往歧视的传统认知,赋予了“歧视”更广阔的外延,为社会歧视现象的出现提供了新的渠道。
四、“算法歧视”损害平等权的实质行为
我国学者对平等权的解释具有代表性的有:1、平等权是公民的一项基本人权,它意指公民同等的依法享有权利和履行义务的自由度。2、“权利平等作为权利享有、行使、实现过程的基本原则,蕴含着三层含义:首先是主体的普遍性。在大致相同或相等的条件下所有主体皆为权利主体;其次是对于内容实质的同一性权利,以及内容数量的同一性,一切权利主体享有相同或相等的权利;最后则是权利救济的非歧视性在权利实现遇有障碍时法律无差别的给予救济和保障”。[27]当今学界普遍认可的观点是将平等权视同为是权利的保障和实现形式。对平等权的解释包括四部分:权利平等、义务平等、法律适用平等、法律界限平等,它们统一构成了法律上的平等权。
(一)人工智能语境下的新型侵权模式
(二)人工智能语境下的司法审判模式之变
(三)人工智能语境下对平等权损害之影响
自带逻辑缺陷的机器算法及其运算过程的不透明性,再加上并不客观完整的数据样本,以及人类对人工智能技术的滥用和对算法决策结果的盲目自信,种种因素综合起来,必然会导致算法歧视被进一步放大。人类环境又加速吸收这种歧视,基于机器对周围环境的深度学习能力,致使产生的歧视经循环扩大被固化下来,形成一种暗含的社会歧视现象,最终很可能会造成一种“自我实现的歧视性反馈循环”。[36]并且,由于各地生产力发展状况和科技实力的差异,不同地区的人们与人工智能相融合的程度是不同的,由此产生了收入的不平等、地位的不平等以及未来预期的不平等等“数字鸿沟”。[37]人工智能面临着沦为经济、政治、技术等方面强者把控特权的工具。而相比于社会资源的掌控者和算法规则的制定者,那些处在被动地位的公众由于他们有限的信息承受和接收能力,无法正确处理算法“黑箱”,不能自主把控数据信息所形成的算法决策,法律面前人人平等的原则将被消解。[38]
如上所说,若对这种“智能算法”不加以控制,将会产生极大的副作用。以非客观不完整的数据样本,再加上人类对智能技术的滥用和对算法决策结果的盲目自信,以及人工智能技术自带逻辑缺陷的机器算法及和运算的不透明性,各种因素叠加,导致算法被一步步放大。随之而来的是机器对周围环境的深度学习能力,致使产生的消极结果经循环扩大被固化下来,形成一种暗含的社会歧视现象,最终很可能会造成一种“自我实现的歧视性反馈循环”。[39]并且,由于各地生产力发展状况和科技实力的差异,不同地区的人们与人工智能相融合的程度是不同的,由此产生了收入的不平等、地位的不平等以及未来预期的不平等,“数字鸿沟”已经是不争的事实。[40]
五、行业与部门监管的共治之路
(一)制定相应的法律法规,弥补立法空白
1.立法的必要性
自从进入21世纪以来,科技高速发展,为了把握这个历史机遇,占领科学技术创新的制高点,我国制定了一系列法律或者规范性文件,但涉及到人工智能的法律文件更多的是如何要让其更好地发展,更多的是一种规划。由于新型不平等或歧视问题的出现,法律规范与技术手段需要完成维护平等、克服偏见的责任。现在可预测的是,未来如果缺失科学严谨的立法,会形成越来越清晰的监管空白地带,甚至可能会加深公众的信任危机,导致关键创新技术发展受阻。事实上,
(二)建立政府监管制度
除了建立一个上位的法律,再建立一个类似于银保证或电监会之类的监督委员会机构也是有必要的。这个机构由政府部门、行业协会、非政府组织、学术团体以及公共利益团体代表共同组建。之后,可由该部门依据上位法颁布一套专门适用于设计者、使用者与人工智能本身之间的规则,这套规则一来可补充上位法上的漏洞,二来可具体规定人工智能的设计、使用、责任之事项。有了具体的规则,算法绑架、算法歧视等有望大幅缩减。
(三)建立行业监管制度和推进技术创新
(责任编辑:徐亚文)
【注释】*本文系国家社会科学基金一般项目“公共服务中PPP模式行政法律制度研究”(项目批准号:16BFX052)。
**湖南大学法学院副教授。
[1]参见熊辉:《人工智能发展到哪个阶段了》,载《人民论坛》2018年第2期。
[2]参见中华人民共和国国务院:《新一代人工智能发展规划》,2017-07-08。
[3]参见刘宪权:《人工智能时代的刑事风险与刑法应对》,载《法商研究》2018年第1期。
[4]参见孙伟平:《关于人工智能的价值反思》,载《哲学研究》2017年第10期。
[5]参见王勇:《政府信息公开制度的法理基础》,载《中共中央党校学报》2005年第3期。
[6]同上注。
[7]高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,载《中国科技大学学报》2018年第1期。
[8]同上注。
[10]同前注[9]。
[11]参见国际人权法教程项目组编写:《国际人权法教程》,中国政法大学出版社2002年版,第398页。
[13]同前注[11],国际人权法教程项目组编写,第384页。
[14]参见[英]哈耶克:《自由秩序原理》(上册),邓正来译,三联书店1997年版,第105页。
[16]参见[美]安·韦伯:《社会心理学》,赵居莲译,桂冠图书出版公司(台北)1997年版,第203页。
[17]参见[奥]曼弗雷德·诺瓦克:《民权公约评注》,毕小青、孙世彦主译,生活·读书·新知三联书店2003年版,第46页。
[18]参见周伟:《论禁止歧视》,载《现代法学》2006年第5期。
[19]同前注[15],李薇薇文。
[20]参见朱振:《论人权公约中的禁止歧视》,载《当代法学》2005年第19期。
[21]参见苏令银:《透视人工智能背后的歧视》,载《中国社会科学报》2017年第005版。
[22]参见CaireC.Miller.WhenAlgorithmsDiscriminate[N].TheNewYorkTimes,2015.
[24]参见《中国青年报》,2018年3月15日第007版。
[26]同前注[21],苏令银文。
[27]参见都玉霞:《平等权的法律保护研究》,山东大学出版社2011年版,第67-69页。
[29]参见MatthewHutson.“Missingdatahinderreplicationofartificialintelligencestudies”,Science,February15,2018.
[30]参见曹建峰:《人工智能-机器歧视及应对之策》,载《信息安全与通信保密》2016年第12期。
[31]参见季卫东:《人工智能时代的司法权之变》,载《东方法学》2018年第1期。
[32]参见[美]博登海默:《法理学——法哲学及其方法》,邓正来、姬敬武译,华夏出版社1987年版,第478页。
[33]SeeP.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.
[35]同前注[31],季卫东文。
[36]同前注[21],苏令银文。
[37]同前注[4],孙伟平文。
[39]同前注[21],苏令银文。
[40]同前注[4],孙伟平文。
[41]参见腾讯研究院:《人工智能各国战略解读:英国人工智能的未来监管措施与目标概述》,载《电信网技术》2017年第2期。
[42]同前注[30],曹建峰文。
[43]参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期。
[44]同前注[43],吴汉东文。
[45]同前注[41],腾讯研究院。
[46]参见胡裕岭:《欧盟率先提出人工智能立法动议》,载《检察风云》2016年第18期。
[47]前引[4],孙伟平文。
[48]同前注[4],孙伟平文。
[49]参见张玉洁:《论人工智能时代的机器人权利及其风险规制》,载《东方法学》2017年第6期。
Sponsors:InstituteofLawandInstituteofInternationalLaw,ChineseAcademyofSocialSciences
Address:15ShatanBeijie,DongchengDistrict,Beijing100720