“后真相”背后的算法权力及其公法规制路径
肖冬梅
(湘潭大学法学院教授)
【摘要】操控民意是驱动“后真相”的关键力量,其实现有三步:先根据数据隐私群分选民,形成有不同偏向的群体;再利用个性化算法实现“千人千面”的信息推送,构筑信息茧房;最后通过精心选择、制作内容以搭售操控者意图,引导选民群体投票。算法本身不透明导致算法黑箱乃至算法霸权,数据本身又带有社会固有的不平等、排斥性和歧视痕迹,算法权力得以形成。算法权力带来的风险主要体现在:信息茧房效应蕴含群体极化之虞、“后真相”导致民主选举告急、“人群捕捞”恐慌冲击正常交易秩序、“算法共谋”催生限制竞争与垄断风险、算法偏见与歧视加剧社会结构固化。推动“后真相”的算法权力兼具软权力和资源权力属性,是一种弥散性权力。算法权力亟待技术与法律联袂治理,公法应主要通过强化行政监管权和国家数据主权来规制算法权力。
【关键词】后真相;算法权力;公法;规制路径
“Post-truth”中的“post”意指“超越”,即“真相”不再那么重要。《牛津英语词典》将其解释为:“客观事实的陈述,往往不及诉诸情感和煽动信仰更容易影响民意”。事实上,“后真相”现象不只出现在欧美大选和公投中,在全球各主权国家的社会政治生活中这种现象越来越司空见惯。伴随“后真相”时代的到来,原本支撑真相的两大基石崩溃,即作为普世性的理性原则以及作为经验性数据收集、统计、分析的客观性结论被广泛质疑。“后真相”背后是什么力量在操控民意、引导舆论?这种力量对人类社会意味着什么?是否需要规制这种力量?带着这三个问题,本文不辞浅陋,试图给出自己的解读,以期抛砖引玉。
一、“后真相”时代民意如何被操控?
英国CambridgeAnalytica公司擅长运用大数据分析人的心理并引导群体行为,其在特朗普当选、推动英国成功脱欧等政治事件中功不可没,可谓“后真相”时代的重要推动者。CambridgeAnalytica公司曾宣称其使用数据驱动通信的革命性方法,成为特朗普胜选中不可分割的部分。事实上,英美多起大数据驱动的政治事件意味着,看似客观的数据与算法,并不一定带给选民真相,也有可能引领选民步入误区,选民的自由选举权都可以被精准操控。那选民是如何一步步地被引导和操控的呢?条分细缕可知,这个过程涉及三个核心步骤:一是根据数据隐私类分选民形成有不同偏向的群体;二是利用个性化算法实现“千人千面”的信息推送构筑一个个“信息茧房”;三是通过精心选择、制作内容以承载操控者意图,引导选民群体进行投票。
(一)依据在线裸奔的数据隐私类分选民
(二)个性化算法推荐使得“信息茧房”“回音室”效应加剧
目前的个性化推荐算法大致可以分为四类,即基于人口统计学的推荐、基于内容的推荐、基于关联规则的推荐以及协同过滤,有些社交媒体、聚合平台乃至民意操控者不仅善用这些方法进行个性化推荐,甚至还能很好的结合用户性格特征进行有针对性的信息推送。专利申请“一种基于OCEAN模型的个性化推荐的方法与流程”就详细地描述了如何结合用户性格实现个性化的精准推荐。这类专利申请目前增长颇快,这意味着其广泛应用将接踵而至。
(三)精心选择、制作的内容承载着操控者的意图引导选民群体
二、推动“后真相”的算法权力及其属性
推动“后真相”现象产生的重要力量是一种新型的权力——算法权力。随着物联网、人工智能(下文简称AI)等技术的迅速发展与广泛应用,智能算法日益成为各个领域的高效决策工具。AI时代,由大数据驱动的算法已经成为新的权力代理人。尼葛洛庞帝20年前的论断——“计算不再只是和计算机有关,它决定我们的生存”正在被验证。而真正让大众深刻理解这个论断,是到了我们现在所处的这个时代,如今由大数据喂养、因算法成就的AI正由弱变强,智能算法日益成为决定我们生存方式的重要因素。虽然当前大多数的算法尚未真正智能,但在现实需求刺激下,算法已成为现代社会的主导力量。由此,算法被视为一种社会权力。正如英国学者ScottLash所言:“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”。
(一)“后真相”的推动力量——算法权力
(二)算法权力的属性
自动化决策的算法既在商业部门广泛使用,又深度参与了公共部门的决策。在商业部门进行算法自动化决策的多为有粘度的平台公司,平台与用户间的格式化协议,为彼此确立了权力支配关系。格式化用户协议一般不是协商的结果,而是由平台方提供,用户方被动接受,因而平台方享有充分的话语权和解释权,用户则完全处于被裁决的弱势地位,二者之间形成一种极不对称的权力关系。随着算法逐渐有了自主性和认知特征,甚至具备了自我学习的能力,算法将不再是纯粹的工具性角色。公共部门多指运用公共权力对社会进行管理的政府部门,在利用算法进行自动化决策的场景下,政府部门与民众之间是典型的权力支配关系。
(1)算法权力兼具软权力和资源权力属性。罗伯特基欧汉和约瑟夫奈将权力区分为行为权力和资源权力,而又将行为权力分为硬权力和软权力。“硬权力”是指传统的强制性军事、经济权力等,“软权力”(softpower)是指影响他人“自愿”行事的能力,如修昔底德的观念力量、哈贝马斯的交往权力等。算法权力兼具软权力和资源权力的特质,并非迫使他人去做其不想做的事或不做他想做的事,而是通过迎合偏好、抚慰情绪来吸引、引导他人做其想做的事,从而实现操控目的。
(2)算法权力当属弥散性权力。迈克尔·曼曾区分了两种相对应的权力类型——权威性权力和弥散性权力。权威性权力由明确的命令和有意识的服从组成。而弥散性权力则是以一种更加本能的、无意识的、分散的方式分布于整个人口之中,其所包含的不是命令和服从,而是一种理解,即这些实践是自然的、道德的或是从不言而喻的共同利益中产生的。弥散性权力在整体上体现了其中的集体性权力比个体性权力占比要更大,但其并非一成不变。
算法的目标受众分布广且分散,从权力属性来看算法权力当属弥散性权力。弥散性权力分散在特定场域的整个人群之中,其大小与同时参与的人数成正比。随着社交媒体的发达与被大众作为交流工具广泛利用,其同时段或阶段可集合以响应弥散性权力行为的人数几何倍于现实社会,因此这种弥散性权力所蕴含的力量远非以往任何一个历史时期可比。2016年以来全球民主政治领域的几大“黑天鹅事件”给世人的告诫之一便是这类弥散性权力的威胁切不可等闲视之。
区别于政治学中自上而下的操控和支配,算法权力在实际运作中的网络结构化和弥散性,使得其成为一种如福柯所言之“无所不在的权力”。大众传播机制在新技术环境下受到严重冲击,基于社交网络和算法的内容分发,正在成为大众传媒的新模式,但大众传媒的社会整合功能不应因模式转换而削弱或消失,能将各种人群整合起来的公共信息和公共议程仍需到达最广泛的人群,我们应警惕个性化算法可能带来的“信息茧房”问题。事实上,如果算法运用得当,反过来算法也可能成为刺破信息茧房的利器。
三、算法权力滥用的潜在风险
当前算法权力带来的风险,包括但不限于以下五个方面:一是资讯传播领域的“信息茧房”效应日益加剧蕴含群体极化风险;二是民主政治生活中的“后真相”现象频现导致民主选举告急;三是日常交易与消费中的“人群捕捞”恐慌挥之不去;四是“算法共谋”正催生出新的限制竞争与垄断风险;五是因算法偏见、歧视带来的社会结构固化趋势愈加明显。
(一)“信息茧房”“回音壁”效应加剧蕴含群体极化风险
大数据时代,人类逐渐放弃直觉和经验,选择相信自动化的算法决策。如今,数据为原材料,算法乃加工厂,各类新闻App合力实现“千人千面”的资讯推送,形成了一个个信息茧房,安于信息茧房的你我,每天接受的是算法筛选过的信息,算法只会保留和推送给我们感兴趣的信息,在日复一日的重复中,固化我们的偏见与喜好,我们就不再能接受异质化的信息和不同的观点。
“信息茧房”“回音壁”一旦形成,意味着进入了一个封闭系统,这个封闭系统内的群体成员与外部世界的交流会大幅减少、群体成员的观点和见解趋同,沉浸在自我的话语场中,脱离社会,听不进异见,长此以往,成员会产生盲目自信、心胸狭隘乃至偏激心理。“信息茧房”“回音壁”效应会导致群体极化和社会粘性的丧失。
(二)“后真相”现象频现导致民主选举告急
与军事权力相同之处在于,算法权力在不同场景之下亦有正义与非正义之分。算法有时是正义之师,有时难免为虎作伥。根据美国白宫2014年发布的大数据研究报告,算法歧视可能出于无意,也有可能是蓄意对弱势群体的盘剥。因为算法并非一种完全价值中立的科学活动,相反,不少算法隐藏着价值判断,隐含着歧视与不公,更有算法承载着利益集团的意志操控。
(三)“人群捕捞”恐慌背后的全民信任危机
算法自动化决策的广泛应用使得原有匿名化处理、知情同意等保护措施形同虚设。平台公司利用算法大规模收集数据,用户个体再难提供真正自愿的“同意”,来进行算法所需的共享和处理活动。在算法控制下的用户沦为生产链条上的一环,既需要作为生产者不断产生数据,又需要作为消费者不断反馈使用数据。平台公司通过Cookie、客户端程序等自行获取或者借助第三方平台系统获取用户数据。平台公司再对用户行为进行画像、标签或其他技术处理,向用户投放推荐与搜索结果,实现对用户购物的某种程度的操控。目前商业活动中的公平交易关系已严重受损,对消费者的掠夺可谓司空见惯。
(四)“算法共谋”对正常的市场竞争秩序带来冲击
共谋也称合谋,即市场上的几家企业通过合约或其他形式,共同决定产量或价格。事实上,如果市场上的几家企业进行价格共谋,那么它们的整体就类似于一个垄断者。为了获得更高利润,共谋者往往会限制产量,提高定价,其结果是消费者的福利受损。正因如此,各国都视共谋为违法行为。由于共谋是违法的,合谋者严守约定是合谋得以维持的基础,因此合谋者之间需要相互监督。在算法被广泛运用前,由于动态监测合谋者的价格并非易事,故参与合谋的企业越多,背弃合谋的行为就越难被发现,合谋者对背约者进行惩罚的激励也就更低,因而合谋也就更难被维持。故合谋只发生在竞争主体较少、集中度较高的市场结构下,而在竞争主体较多、集中度较低的市场结构下则不太可能出现。但随着大数据时代的来临,借助于算法,动态监测企业的价格行为以及对背约者实施惩罚都变得十分容易,合谋更容易达成,且不再会受到市场结构的限制。原本只能发生在集中性较高市场的合谋现象,现在也可以发生在集中性较低的市场了。
虽然价格算法可能带来正面效应,如可能带来数字经济整体效率的提升,但算法的广泛运用,将改变市场的结构特征,如高透明度、惩罚机制及准入门槛,从而使价格共谋更容易产生。有些情形下采用定价算法的公司间可能达成共谋,甚至有时“算法共谋”不可避免。当前,就有不少“数据巨人”企业为了谋取更大的利益,利用其掌握的数据和信息优势,与其他参与者进行“算法共谋”。
阿里尔·扎拉奇指出,根据层次不同,算法共谋可分为4种:一是信使形式,计算机通过执行人类预设计划而进行共谋。此时具体决策由人做出,算法仅仅是工具,与其它工具无异。二是中心辐射式场景,市场参与者们使用同一个定价算法(第三方提供),该算法给出的价格将成为卖家公认的市场价格,定价算法成为其中的枢纽中心。这种情形也被称为“轴辐合谋”,定价算法的提供者类似一根“轴”,利用算法进行合谋的参与者则好比通过轴相连的“辐”。这种情形下算法依然是工具,合谋决策依然是由参与合谋的人做出。三是预测型代理人场景,该情形之下无需企业高管介入,定价算法充当起了代理人,监控对手定价和市场数据,调整自己的定价。这种情形下所有参与合谋的企业各自设计自己的算法的运行结果依然可能达成合谋,但参与人的决策因素就相对较弱了。四是电子眼模式,算法在机器学习的过程中,自发找到了优化利润的途径。这个过程中人无法察觉到任何不正当竞争与垄断行为的痕迹,但合谋已经发生。在这四种合谋当中,人在决策过程中的作用是依次递减,而算法的作用则依次增加。可见,有了算法,共谋者更是如虎添翼,但监管者对于价格合谋问题的担忧却前所未有。
通过算法决策,事实上改变了算法使用者(“数据巨人”企业)与算法相对人(消费者)之间的平等地位,形成算法权力,侵害算法相对人的权益,冲击市场竞争秩序,损害市场自由竞争和消费者权益。随着算法的广泛运用,在我们所处的这个市场中,“亚当斯密的‘看不见的手’很有可能被‘算法之手’所取代”。
(五)“算法歧视”、“算法暴政”使社会结构固化趋势愈加明显
越来越多的事例表明,算法歧视与算法偏见客观存在。2016年美国白宫曾在其《大数据报告:算法系统、机会和公民权利》中考察了刑事司法、信贷等领域的算法歧视现象,并指出有必要在立法、技术和伦理方面给予救济。以美国Northpoint公司开发的犯罪风险评估系统COMPAS为例,根据其算法评估的结果,黑人犯罪风险高,其几率两倍于白人,对黑人存在明显歧视。亦有研究表明,私营平台和公共部门采用算法自动化决策,导致数百万人无法获得出租房屋、贷款和保险等服务。算法自动化决策还让不少人一直与心仪的工作失之交臂,如同被囚禁在“算法监狱”,难以企及这样或那样的机会。但由于算法自动化决策既不会公开,也不接受质询,既不提供解释,也不予以救济,其决策原因相对人无从知晓,更遑论“改正”,此之谓“算法暴政”。
四、算法权力的公法规制路径
是任由“代码为王”,让彼技术去治理此技术带来的问题,还是多管齐下对算法权力进行综合治理?这是当前人类社会面临的一个亟需做出回应的问题。与明目张胆的暴力实施和敌对性权力的争夺迥异的是,算法权力是一种普遍存在于社会运作和个人生活的“泛在”的权力,其往往表现为一种无处不在的行为引导和隐形的操控。算法权力的这种关系和网络特性使得权力无处不在。正因为如此,算法权力的规制不仅需要国家层面的治理,更包含对个人和群体行为的引导。而不管是国家管理还是对个体抑或群体行为引导,技术与法律往往都不可缺位,一方面,正如莱斯格等学者所倡议的“代码即法律”;另一方面,现实世界法律规则逐渐代码化。如通过代码设定在特定的场景中的可为和不可为,相比法律,代码设定得更为细致具体,其执行也更高效。但“道高一尺,魔高一丈”,技术迭代常常在须臾之间,白帽子与黑客间的博弈亦永无止境。代表治理一方的技术总有无能为力时,而法律无疑是立在技术之后的坚强壁垒。事实上,只有让技术与法律联袂,才有可能有效治理算法权力,问题的关键是需要明白在何时哪些情形下选择技术路径或法律路径为优选,这是亟待技术界与法律界共同携手来解决的问题。
对算法权力的法律规制,目前各国具体做法不一,但从路径选择来说,都在探索私法与公法齐上的综合规制模式。欧盟以赋予数据主体算法解释权、稀释算法权力为主,以赋予数据监管机构强监管权为辅。而美国则以在公共领域组建专门机构和人员构成问责主体进行算法治理为主,以赋予数据主体新型权利为辅。虽然有学者认为不管是欧盟的个体赋权治理路径还是美国的外部问责治理路径都存在局限,如前者在治理效率和集体行动、公共利益保护方面不尽人意,后者面临着技术鸿沟、执法权欠明晰、与商业秘密制度难以衔接等方面的挑战,但在算法治理这个全新的竞技场,不管是先行者的经验还是教训,对于我国构建有效的算法治理规则都是弥足珍贵的参照。
(一)强化行政监管部门算法监管权以制约算法权力
1.监管主体的专门化与专业化
由于算法决策应用的广泛性以及嵌入场景的复杂性,算法权力带来的社会风险事实上对行政权的专业性和知识性都提出了挑战,亟待建立专门且专业的算法监管机构,以实现业界所倡导的精细化、场景化监管目标。精细化、场景化监管框架的达成在我国面临的首要障碍是缺乏专门的具有专业能力的监管机构,要改变我国当前九龙治水的行政监管格局,将近两年陆续成立的政府数据服务局定位为专门且专业的数据与算法监管机构,明确其法律地位与职责,规定监管人员的任职资格条件,以确保监管者的专业能力,规范行政监管行为,打造能结合复杂的算法应用场景,制定精细化分类监管标准的专业队伍。
2.将算法决策主体行为和算法本身都纳为监管对象
算法监管是政府通过有关机构对算法设计者、使用者的算法决策行为进行的某种限制或规定。算法决策最初主要应用在商业领域,但越来越多的公共决策也正由算法辅助或替代执行,如犯罪预测类算法在法院量刑环节的应用、公共福利系统采用算法发放福利等。如今算法的设计者和使用者既有公共部门,也有私营平台公司,二者的算法决策行为都是行政监管机构的监管对象。
3.通过立法明确监管机构的监管权
4.采用分层分类的多元监管方式
根据算法权力的弥散性特性,对算法决策的行政监管可遵循风险导向原则,从结果监管、过程监管和场景监管分别展开,对算法采用分层分类的多元监管。如依据算法的可预测性、可解释性和通用性予以分类,对透明度低、架构复杂和威胁公共利益的算法类型进行识别,制定较为严格的监管标准。根据算法的预期用途、关键类型和可接受的错误类型等指标,提出设计、测试以及指导算法开发须符合安全边际的绩效标准。
因为风险规制是一种典型的“决策于未知之中”的领域,与其他传统行政活动很大的不同,在于风险规制者必将面临这种无知。算法的复杂性和算法权力的无形性,加剧了算法自动化决策所带来的社会风险规制的未知,因而行政法就需要在规制过程中引入风险评估、专家论证、信息披露以及公众参与等内容,以降低这种“未知”程度。鉴于算法的监管有较高的技术门槛,直接审查算法本身存在困难,成本也高,可尽可能通过对程序的监管来替代对算法进行直接审查,即通过强调编码公开、系统软件测试、开发公众参与程序等,实现透明化、公开和可问责等程序要求。美国依靠外部问责机制建立的算法治理模式虽然还有其局限,但其通过诉诸于专业性的行政机构或者组建外部监督主体,对算法决策可能潜藏的歧视、偏见和恣意进行审查,值得我们进一步考察其可资借鉴之处,譬如外部专家、行政机构和公众的协同,以及审查标准的构建等。
(二)强化国家数据主权制约算法权力
1.明晰跨境数据安全评估规定,提高数据控制者违法成本
我国于2017年实施的《网络安全法》已经对个人信息或重要数据本地化存储和管制性数据跨境传输作了相应的规定,在一定程度上对国家数据主权的维护提供了基本的法律保障,但是仍存在诸如安全评估规定不明、违法成本过低的缺陷。一方面,可在《网络安全法》修订或其实施办法中明确数据跨境的安全风险评估主体、程序与责任,将数据跨境传输的安全评估提升到总体国家安全层面,强化安全评估义务主体的责任。另一方面,还可借鉴欧盟《通用数据保护条例》(GDPR)中所规定的对违反该条例的服务提供者处以“高达20,000,000欧元或全球营业额4%的罚款”的做法,对于违反个人信息或重要数据本地化存储规定,以及未能依法履行数据安全评估义务的数据控制者进行重罚,以提高其违法成本。
2.加强数据资源的域外控制能力
结语
正如福柯所言,弥散性权力已经侵入生活的各个方面,无处不在,且具体而微。福柯主张权力是一种关系,其处于流动与循环的过程中。在人类社会的现实生活中,算法已展现出强劲且高效的选择、判断和决策的力量。面对算法这种新型权力,我们最初的新奇还未褪去,不可回避的风险却已接踵而至。面对日新月异的新技术挑战,近些年我们似乎已经习惯了“让子弹飞一会”,但“算法权力”这枚“子弹”的威力与速度已经远远超出了我们的预期,现有的社会秩序正在被打破,新型社会秩序亟待重构。
后真相时代对算法权力的规制,事关自由和秩序的冲突与协调。正如柏克所言,“自由不仅与秩序和美德共存,而且与秩序和美德共亡。”当前算法不仅决定着我们每天阅读什么内容,我们的就业机会、贷款额度、日常交易,甚至影响到政治乃至社会秩序与格局。当所有人都在争论哪种权力更好时,柏克还认为:“与权力的形式相比,对权力的限制更为重要。”因此规制算法权力,尤其是通过公法来规制算法权力,已经成了人类社会新时代的一个重要使命。