摘要:算法技术的蓬勃发展促进了平台经济的繁荣,但也引发了一系列平台算法失当问题,不仅阻碍了平台经济业态的可持续发展,而且严重危害了社会福利。实现平台算法良性监管,亟须对平台算法监管的正当性和实践举措进行深入探究。平台算法监管的逻辑起点源于算法运行的非中立性、算法技术发展的风险性、平台监管的模糊性和底层技术的责任嵌入性。当前平台算法监管面临着监管认知的非对称性、监管制度的缺位性以及监管重心的错位性三大困境。平台监管需要遵守参与主体多元性、技术发展宽容性、监管过程透明性、监管方式场景化、监管目标公平性五大核心要求,并基于监管手段和监管对象建立“法律—技术”监管、“法律—应用过程”监管、“规范—技术”监管、“规范—应用过程”监管、“技术—技术”监管、“技术—应用过程”监管六大监管模式。未来持续深化平台算法监管,需要构建“硬法”“软法”相结合的合意监管体系,建立技术监管技术的自动化监管模式,形成多主体共生演化的生态化监管网络,落实全流程覆盖的动态化监管机制。
关键词:平台算法;算法监管;平台监管;监管模式
基金:国家社会科学基金重大项目“国企混合所有制改革的实现路径选择研究”(20&ZD073);中国社会科学院登峰战略企业管理优势学科建设项目。
一、平台算法监管的逻辑起点
探究平台算法监管的逻辑起点,是为了明确平台算法监管的紧迫性、正当性与自洽性,即回答为什么要针对平台算法进行监管。平台算法监管的逻辑起点主要可以从技术逻辑、发展逻辑、现实逻辑和责任逻辑四个方面予以解读。
(一)技术逻辑:算法运行的非中立性
(二)发展逻辑:算法发展的风险性
在深度学习领域,基于人工神经网络结构的复杂层级使得输入数据与输出结果之间存在监管审计机构、社会公众甚至开发人员难以触摸和理解的“黑箱”,算法技术开发设计、系统数据输入、平台算法部署、算法自动化决策、决策结果输出等任一环节的缺陷都会引发难以估计和预测的系统风险[25]。平台在算法技术层、算法基础层、算法结果层之间分别产生技术类风险、数据类风险、决策类风险,三个层次之间相互依存、相互传导[26]。此外,算法设计运行的逻辑逐渐隐于暗处,表现出不可知性,体现为决策结果的算法外延与通过程序代码和内在计算过程实现的算法内核逐步分离,算法运行目的的隐蔽性逐渐增强。而对于平台运行内在机理的监管需要极高的技术水平和专业知识,当算法决策变得不可解释时,决策结果将会面临质疑,算法决策将会变得失控,算法信任将会面临危机。例如,在司法或者医疗领域,一旦算法决策产生的结果无法通过现有认知进行解释,其所产生的司法判决或医疗诊断就难以令人信服,平台算法的权威性就会受到挑战。
更进一步地,发展至宏观层面,算法黑箱、算法失当可能会产生扭曲消费者决策、损害市场竞争、影响收入分配功能等经济性风险,以及侵犯个人隐私、引发社会歧视、甚至损害生命健康和危害公共安全等社会性问题。因此,当人工智能发展逐步深化、算法应用场景逐步多元化、算法开发应用逐步分散化、深度学习模式逐渐隐蔽化时,为防止算法在发展过程中产生更多的技术、数据、决策类风险,就有必要厘清算法风险转化条件和转化逻辑,针对算法全生命周期建立完善的纵向监管机制,不仅对算法失当行为进行纠偏,而且对算法权力的过度膨胀进行约束,以防止算法在发展过程中扩大衍生风险。
(三)现实逻辑:平台监管的模糊性
国内算法监管实践仍聚焦于对算法应用的开发者及平台进行规制,算法监管的假定对象主要还是提供信息科技及互联网服务的平台企业。但是,随着算法在商业社会生活的深度嵌入,平台算法的自动化运行可能会产生“责任鸿沟”。“责任鸿沟”这一概念于2004年由安德利亚斯·马提亚提出,即算法可以进行自主学习和自动决策,使得算法技术的设计开发者、部署应用者和拥有者无法预测算法运行后果,个体无法对技术产生足够的控制权,即个体与算法运行过错结果之间存在“责任鸿沟”[27]。
一是问责机制模糊。尽管《中华人民共和国个人信息保护法》《关于维护新就业形态劳动者劳动保障权益的指导意见》《互联网信息服务算法推荐管理规定》等均规定平台算法服务提供者承担维护用户合法权益、保护用户数据信息安全、保证消费者公平交易等责任,但由于平台始终躲在所谓“算法中立”的掩体之后,平台通过算法的底层逻辑捕获数据、吸引流量,算法为平台充分实施交易市场规则以及各类市场主体之间的链接规则提供了技术支持,在平台交易界面内,传统的生产、消费、分配等过程中的中间环节被消解,这为平台利用算法自动化决策逃脱监管的牢笼提供了可能。在算法自动化决策运行机制下,当自动化决策的结果占主导地位而削弱人的主导性时,“机器”而非“人”的过错的论调甚嚣尘上。此外,算法引发的危机可能不仅仅由平台引发,而是由算法、数据、平台相互联结而产生的结果。因此,平台主观过错认定机制模糊不清的问题在人工智能时代进一步加剧,平台监管下问责机制的完善面临着挑战。
二是监管节点滞后。由于平台运行过程中难以对其不同责任主体进行责任认定,针对平台的监管往往会产生监管节点滞后的问题。监管机构只能从其决策结果导致的危害程度和危害范围对平台进行事后惩罚,平台监管沦为“被动监管”“运动性执法”[28],以致不仅难以达到事前监管的预防效果,而且会因监管无效削弱监管机构的权威性。
三是监管机制粗浅。由于单纯的平台监管难以摸清平台算法的运行机制,算法所特有的不透明性和隐蔽性导致社会公众难以理解平台运行的内部逻辑,平台算法技术的高度隐蔽性以及算法技术知识的高度专业化导致社会用户在面对平台算法技术的各类歧视行为、算法霸权行为、算法垄断行为时难以清晰观察,尤其是在平台个性化推荐与机器学习算法驱动下能够实现社会用户的三级价格歧视,且社会公众由于知识距离以及信息不完全等造成社会治理失灵,甚至可能会产生其聚焦点与问题点的社会治理错位、社会期望过分扩张、社会诉求超过平台企业释能边界的治理过度问题。因此,在监管过程中可能会出现“一刀切”、野蛮式监管,即过度强化平台的主体责任和社会责任,忽略算法运行的一般规则,人为拓宽平台的责任边界,以致监管过度,扼杀平台经济发展的活力,进而给平台经济发展带来较大的负面影响。
总之,“责任鸿沟”的出现导致平台监管存在问责机制模糊、监管节点滞后、监管机制粗浅三大问题。平台监管难以实现对算法失当行为和责任缺失行为的有效监管,针对平台运行的底层技术逻辑“平台算法”的监管迫在眉睫。
(四)责任逻辑:底层技术的责任嵌入性
平台企业控制着不可替代的核心算法,将平台各个模块嵌入由平台企业制定规则与提供交易服务的平台之上,平台双边用户成为算法逻辑下的具体参数且被全面数据化[29]。从技术角度出发,平台企业履行社会责任的过程本质上是以数字智能技术为底层技术支撑,通过大数据建构、算法创新以及平台服务界面等实现商业运作与社会运作,形成算法、技术驱动的社会责任履责模式。
2021年9月,中国发布《新一代人工智能伦理规范》,将“增进人类福祉”列为人工智能的首要原则,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求。《数据安全法》第二十八条规定:数据新技术研究开发,要“有利于促进经济社会发展,增进人民福祉”。《互联网信息服务算法推荐管理规定》提出,算法推荐服务提供者应当坚持主流价值导向,积极传播正能量,促进算法应用向上向善。随着人工智能的发展和机器学习的深化,人工智能算法深度应用的平台企业逐步成为数智经济时代下履行社会责任的主要经济载体,在数据、算力和算法的加持下,互联网平台在国民经济体系中的经济重要主体地位、资源配置能力和社会责任履责能力愈发凸显。
二、平台算法监管的困境与挑战
建立合意性的平台算法监管模式,需要厘清目前平台算法监管中存在的问题和面临的困境,并予以针对性破解。在此,基于对平台监管逻辑起点的讨论,剖析现有平台算法监管过程中存在的监管认知的非对称性、监管对象的分散性以及监管重点的不确定性三类挑战。
(一)监管认知的非对称性
实现多方协同有效监管,需要建立清晰且一致的监管认知,而目前平台监管过程中存在两类认知非对称性,分别是不同认知主体之间的监管认知非对称性以及抽象的法律与清晰的算法之间的非对称性,不同认知主体之间的非对称性又包括不同监管主体之间的认知非对称性和监管主体与平台之间的认知非对称性。
(二)监管政策的滞后性
(三)监管重心的错位性
数字经济时代下,算法正以前所未有的深度和广度涉入经济社会生活,特别是大数据和人工智能的发展使得算法得以突破“波兰尼悖论”,明确编码的决策系统也不再存在功能限制,算法可以实现自我学习、自我更新、自我发展。由此,算法的大面积应用是不可避免的,平台成为算法应用的重要主体,算法监管也在不同行业的平台经济中全面铺开。在目前监管政策处于试水阶段、监管资源有限的前提下,只有厘清监管重点和监管优先级,形成完整性、体系性的监管框架,才能避免“大而不细”“泛而不精”的监管误区。目前,从我国平台算法监管体系来看,仍然存在监管政策重点不明、监管目标模糊、监管措施难以落地等监管困境。
三、平台算法监管的核心要求
针对性突破平台算法监管的挑战,在保护平台算法创新活力的同时规范其发展方向,促进行业生态可持续发展,需要在监管过程中遵循参与主体多元性、技术发展宽容性、监管过程透明性、监管政策场景化要求,并最终保证监管结果的公平性。
(一)参与主体多元性
平台既是一个凝聚双边用户并制定规则的商业生态系统,又是将不同类型主体凝聚在一起的社会生态系统[34]。平台作为整个生态的中心和规则制定者,通过资格审查、交易规则制定、声誉机制设置等方式,为双边用户构建信任、安全、共赢的平台交易环境。2021年9月,《关于加强互联网信息服务算法综合治理的指导意见》印发,对促进算法生态规范发展作出了细化规定,明确表示应当树立算法正确导向,推动企业借助算法加强正能量传播,引导算法应用向上向善。如果平台算法应用失范,会对平台自身产生成长性挑战,其带来的负外部性也会通过生态圈网络传导至整个商业社会系统之中。
(二)技术发展宽容性
然而,强监管、细监管下的政策安排不仅对有限政府监管资源的利用配置提出了挑战,而且对平台经济能否在穿透式算法监管下保持其发展活力形成了阻碍。算法是平台经济发展的技术支撑,如何在平台算法监管的同时处理好秩序和活力的关系、自由和秩序的关系、安全和发展的关系,是监管过程中需要解决的问题。为此,在监管认知上,首先要明确强监管、细监管不等同于严监管,而是一种对技术发展保持包容、宽容理念的精准化的适度监管,监管过程中为平台经济下算法技术的成长和发展预留了生存空间。同时,以保护创新为基础,在保证算法自身安全、算法安全可控、算法应用安全[36]的基础上,确保平台算法技术在制度供给不断强化的背景下仍可以对平台经济进行技术赋能。在监管操作形式上,可以根据平台算法的全生命周期进行分阶段的监管设计:算法设计阶段对算法技术研发持支持包容态度,在促进技术向善的基础上保证平台经济创新性的活力源泉;在算法应用前和算法运行过程中采取精准化监管,进行算法运行评估测试和密切监控,避免平台算法的自动化决策结果引致的各类风险。
(三)监管过程透明性
监管过程透明性主要包括两大部分,分别是平台算法相对于监管部门和社会公众的透明性,以及监管制度、监管过程相对于监管对象和社会公众的透明性。
另一方面,要实现监管制度、监管过程相对于监管对象的透明性。应该明晰,算法透明只是通向算法可知的阶梯[37],进一步避免算法黑箱带来的监管障碍,需要监管制度的进一步完善和监管科技的进一步发展。近年来,政府出台了一系列平台监管、算法监管制度,但是缺乏对监管政策的解读和落地式措施实施,导致政策出台主体、政策实施主体、政策实施对象对政策的认知不同。平台在不断加强的政策供给下反而难以明晰自己的责任边界,导致平台发展无所适从,难以通过独立的监管政策解读进行自我整改纠偏。因此,监管政策也需要一定的透明度,即政策出台者负有向监管主体和监管对象进行政策解读的义务,使得各方主体树立一致的监管认知和责任边界认知。与此同时,针对不同平台企业的算法监管调查过程和结果也应该及时进行披露,既保证监管过程受行业协会和社会公众监督,又为同行业同类型平台进行算法自治提供参考。
(四)监管方式场景化
(五)监管目标公平性
四、平台算法监管的模式构建
近年来,国内外政府相继出台了各类算法监管法规和指导手册,包括针对算法技术即代码本身和算法应用过程中的各类监管模式。但是,目前的平台算法监管制度供给较为分散,监管模式尚未形成体系,事前、事中、事后监管位势下的监管主体及其使用的监管手段有较大差异,不同监管路径之间难以达成协同,平台算法监管的合意性闭环和良性循环面临挑战。为厘清不同监管模式下的监管主体、监管手段和监管客体,弥补原有监管模式体系性不足的缺陷,本文经过对平台算法监管手段和监管对象的系统性梳理,认为应当从监管手段和监管对象两个视角出发建立平台算法的全面性监管模式。
就监管手段而言,许可认为我国算法治理应当基于算法风险水平和自主性、工具性程度将算法进行类型化,基于法律治理、规范治理和代码治理的有机耦合塑造“模块化”的分级分类算法治理体系[36]。这一治理模式较为完整地归纳了算法监管的实现进路,但是其在研究中忽略了技术监管技术的可能性,仅仅将代码视为被监管的对象,而忽视了技术本身可以作为一种手段对平台算法进行监管。为弥补以上不足,本文认为,监管手段可以被划分为法律监管、规范监管和技术监管,即通过法律供给手段、社会规范手段和技术手段对算法进行监管。
就监管对象而言,平台特别是平台巨头在人工智能技术的加持下,为了有效链接双边市场,为广泛的人工智能开发人士提供了人工智能开放平台。在平台算法资源被有效利用的同时,算法技术也因此而出现危机。一方面,庞大的算法技术开发者群体在接受平台技术赋能的同时缺乏社会规范教育,平台算法在开发过程中可能并未纳入算法伦理思维和算法公平思维,算法技术本身存在算法脆弱性、算法黑箱、算法漏洞以及各类性能缺陷和结构性缺陷等技术风险[16],甚至专业人员也难以解释这种内在风险和内在不透明性。另一方面,平台作为算法的部署应用者和决策者,相对于算法开发人员来说,充当着算法安全“守门人”的角色,要防范算法在设计、开发、部署、应用、决策等过程中脱离人的掌控,在机器学习中实现不需要人的自主决定权的自动化决策结果。其不当利用过程可能会带来算法歧视、算法霸权、算法合谋等危害行业生态与社会秩序的诸多政治、经济、社会问题。因此,平台监管的监管对象可划分为算法技术本身以及算法应用过程。
基于此,本文建立了平台算法监管的“监管手段—监管对象”监管模式图(见图1),即未来针对平台算法的监管可以从“法律—技术”监管、“法律—应用过程”监管、“规范—技术”监管、“规范—应用过程”监管、“技术—技术”监管、“技术—应用过程”监管六大模式出发进行监管体系的系统性构建。
(一)法律监管
图1“手段—对象”监管模式
(二)规范监管
(三)技术监管
监管模式Ⅵ:“技术—应用过程”监管。“技术—应用过程”监管相较于“技术—技术”监管更容易实现。法律和算法在本质上具有同一性,二者均是为实现特定目的而构建出的一系列指令集,都具有降低认知负担、提高认知效率的功能[31]。因此,算法本身可以承担法律的一些职能,即用“算法”来规制“算法”。利用技术进行市场监管的方式由来已久,“监管科技”一词最早在金融行业发展起来,之后衍生为旨在使政府或行业方面的监管工作现代化的新型数字技术。在算法透明难以实现、算法解释有失偏颇的情况下,通过技术监管手段对算法进行规制就是一个更加行之有效的方案。《互联网信息服务算法推荐管理规定》指出,要建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。这一规定界定了算法推荐提供者的技术要求,相应地,政府、行业协会等亦可以通过开发相应技术介入平台算法决策过程,对算法应用进行行为监测和结果监测,通过大数据分析与计算来界定并监测算法失当行为,完善算法监管程序的技术漏洞。
五、深化平台算法监管的具体举措
(一)制度供给强化:构建“硬法”“软法”相结合的合意监管体系
平台经济作为数字经济的重要组成部分,已经充分涉入经济生活中的电子商务、在线教育、金融科技、数字媒体、物流等行业。技术的发展带来了生产方式和生活方式的变革,同时也需要监管制度为技术发展方向提供价值指引和适度规范。而平台算法监管的制度供给明显存在迟滞和落后,在监管重心和监管完整性上存在一定的制度缺位和错位,因此,需要加强“硬法”的制度供给。制度供给层面,要将合规与合乎道德、稳健安全、功能合意、社会与环境福祉、透明开放和敏捷治理等负责任的算法六大构成要件[21]纳入制度框架之中,建立完整的事前备案、风险监测、事后问责的算法监管框架,进一步完善“法律—技术”监管和“法律—应用过程”监管。具体而言,法律规制的机制设计要尽可能清晰界定不同应用场景下的平台算法风险及收益,对存在或者可能存在风险的算法进行算法解释和测试,在目标清晰化的基础上,为平台、用户、监管机构、行业协会等多方主体建立合适的行动策略结构,进行多种制度工具的完善和组合,最终为各方博弈的理想均衡状态创造条件[16]。
“硬法”的强制性、保障性、规范性与“软法”的灵活性、适应性、场景化相互补充,最终实现法律法规、技术规范与社会规范之间的良好衔接,打造合意性的“硬法”“软法”相结合的监管体系。
(二)监管技术提升:建立技术监管技术的自动化监管模式
在平台算法监管的法律监管、规范监管和技术监管三大手段之中,目前处于发展弱势地位的是技术监管,技术监管需要依赖的技术主体就是“监管科技”。监管科技的原始概念为“RegTech”,最早由英国金融行为监管局于2015年提出,具体含义为“利用新技术促使达到监管合规要求”。目前,监管科技仍主要应用于金融风险管理和金融企业合规运营方面。在平台算法监管领域,监管技术还处于萌芽阶段,但以技术治理技术、以算法监管算法已经成为公认的必不可少的监管手段。
从算法设计视角来看,可通过价值嵌入的算法设计技术和价值偏离的算法矫正技术进行技术设计[21]。价值嵌入的算法设计技术是将社会规范和平台责任标准嵌入算法之中,使得平台算法在深度学习中不断加强社会伦理和责任标准的正反馈,最终产生对社会、经济、环境负责任的自动化决策结果;价值偏离的算法矫正技术则是从算法的输入端、算法本身和输出端发现可能存在的价值偏离设计,对数据和程序进行自我治理,如通过技术手段来实现算法去偏见化[44]。总的来说,无论是价值嵌入的算法设计技术,还是价值偏离的算法矫正技术,都更加依赖于平台算法自设计视角,将社会规范嵌入算法的迭代升级中。
相应地,政府部门、行业机构也应开发相应的监管科技,从算法监督视角推动算法风险评估技术的落实,如算法监管沙箱的合理运用。在计算机安全领域中,沙箱可以作为一种为运行程序提供隔离环境的安全运行机制。与此相似,算法监管沙箱就是指将进行备案的算法在可观察、可控制和相对封闭的环境中进行试运行,由此判断算法技术的确定性、安全性、稳健性和决策结果的无偏性。在算法投入运行前对算法进行安全性、公平性监测并建立算法影响评估制度,无论是来自平台自组织、政府机构监管还是第三方审计机构审计,监管科技的运用都能够在较大程度上克服算法监管过程中的信息不对称,这种“技术”监管“技术”的自动化监管模式使得监管机构、第三方审计机构和平台自身均可在一定程度上突破信息不对称、技术不透明的屏障,在“黑箱”存在的情况下仍可审查和评判现有算法中存在的社会风险,甚至可以监测、评估算法的社会后果。通过对算法目的、风险和控制能力的技术监测,既增强了算法监管机构的监管能力,又缓解了事中与事后问责的监管压力。
(三)监管网络完善:形成多主体共生演化的生态化监管网络
《关于加强互联网信息服务算法综合治理的指导意见》在论述算法治理的主要目标时强调,要建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。其中,算法生态规范的具体内涵为:算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。相应地,建立良好的平台算法生态,要从平台商业生态圈与平台社会商业圈入手,保障生态圈内多方利益主体参与到积极推动平台算法向上向善发展的算法治理进程中来。
(四)监管位势全面:落实全流程覆盖的动态化监管机制
弥补平台算法监管过程缺位的问题,解决事后问责机制难以自圆其说的困境,应建立事前、事中、事后全流程覆盖的动态化监管机制。平台算法问责制度的构建基础在于算法设计者、拥有者、应用者或者控制者负有对算法技术和算法系统设计进行解释的义务,证明算法自动化决策合理性的义务,以及减轻算法滥用、算法失当行为可能带来的潜在危害或者负面影响的义务,如算法设计者、拥有者、应用者或控制者未履行其义务,则应根据责任认定机制予以追责。
事中则需要加强对算法运营的审查和算法正当程序的监督。以算法歧视为例,若算法的初始输入数据存在偏见和歧视,那么随着计算过程的循环和计算结果的深化,算法在机器学习中会加强对这种歧视的固化,最终构成恶性的“反馈循环”。而平台自身则很难或者没有意愿去改变这种数据“输入—输出”方式,这就需要监管机构或者行业组织在事中对算法程序的正当性进行监督,并督促算法应用者和控制者在算法应用过程中保障算法作用个体(用户)的知情权和自由选择权利,这种权利一般由平台的信息披露来实现。
事后监管则需要建立追责和补救机制。一旦发生危害政治经济安全、个人隐私保护和社会福利的行为,就需要依据事前监管的备案制度及时进行内容审查,确定追责点,落实被追责主体的法律责任,作出客观公正的判断。事后监管作为最为稳妥的传统规制手段,在平台算法的全流程监管中最具威慑力和权威性。Reform
参考文献
[1]张欣.从算法危机到算法信任:算法治理的多元方案和本土化路径[J].华东政法大学学报,2019(6):17-30.
[2]王卫华,董逸.平台资本主义:历史演进、现实逻辑和基本特征---基于政治经济学批判视角[J].理论月刊,2022(3):58-67.
[3]王正昌.数字平台的算法与监管[J].中国金融,2021(5):82-84.
[4]LEPRIB,OLIVERN,LETOUZE,etal.Fair,transparent,andaccountablealgorithmicdecision-makingprocesses[J].Philosophy&Technology,2018,31(4):611-627.
[5]EZRACHIA,STUCKEME.Artificialintelligence&collusion:whencomputersinhibitcompetition[J].UniversityofIllinoisLawReview,2017(5):1775-1810.
[6]魏露露.欧美网络平台监管制度的比较与借鉴[J].北京航空航天大学学报(社会科学版),2021(5):47-48.
[7]郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021(1):14-26.
[8]YAMPOLSKIYRV.Artificialsuperintelligence:afuturisticapproach[M].BocaRaton,FL:CRCPress,2015.
[9]VERBEEKPP.Accompanyingtechnology:philosophyoftechnologyaftertheethicalturn[J].Techné:ResearchinPhilosophyandTechnology,2010,14(1):49-54.
[10]苏敏,夏杰长.数字经济中竞争性垄断与算法合谋的治理困境[J].财经问题研究,2021(11):37-46.
[11]谭九生,范晓韵.算法“黑箱”的成因、风险及其治理[J].湖南科技大学学报(社会科学版),2020(6):92-99.
[12]张建楠,李莹莹,周佳卉,等.人工智能独立医用软件监管研究[J].中国工程科学,2022(1):198-204.
[13]王磊.第三方支付平台监管:进展、问题与完善建议[J].价格理论与实践,2021(8):28-34.
[14]张卫东.欧盟平台经济领域的反垄断监管及其借鉴[J].电子政务,2022(3):77-87.
[15]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4):63-75.
[16]苏宇.算法规制的谱系[J].中国法学,2020(3):165-184.
[17]江小涓,黄颖轩.数字时代的市场秩序、市场监管与平台治理[J].经济研究,2021(12):20-41.
[18]杜小奇.多元协作框架下算法的规制[J].河北法学,2019(12):176-190.
[19]张吉豫.构建多元共治的算法治理体系[J].法律科学(西北政法大学学报),2022(1):115-123.
[20]TURINGAM.Computingmachineryandintelligence[J].Mind,1950,59:433-460.
[21]肖红军.构建负责任的平台算法[J].西安交通大学学报(社会科学版),2022(1):120-130.
[22]MESTHENEEG.Technologicalchange:itsimpactonmanandsociety[M].NewYork:NewAmericanLibrary,1970.
[23]GUTMANM,RATHGEBERB,SYEDT.Actionandautonomy:ahiddendilemmainartificialautonomoussystems[C].DECKERMP,GUTMANNM(Eds).Robo-andInformationethics:SomeFundamentals.Münster:LITVerlag.2012.
[24]谭九生,杨建武.人工智能技术的伦理风险及其协同治理[J].中国行政管理,2019(10):44-50.
[25]唐要家,唐春晖.基于风险的人工智能监管治理[J].社会科学辑刊,2022(1):114-124.
[26]胡小伟.人工智能时代算法风险的法律规制论纲[J].湖北大学学报(哲学社会科学版),2021(2):120-131.
[27]MATTHIASA.Theresponsibilitygap:ascribingresponsibilityfortheactionsoflearningautomata[J].EthicsandInformationTechnology,2004,6(3):175-183.
[28]张凌寒.网络平台监管的算法问责制构建[J].东方法学,2021(3):22-40.
[29]徐智华,解彩霞.算法逻辑下平台从业者权利保护的危机及应对[J].西安交通大学学报(社会科学版),2022(1):155-162.
[30]阳镇,陈劲.数智化时代下的算法治理---基于企业社会责任治理的重新审视[J].经济社会体制比较,2021(2):12-21.
[31]蒋舸.作为算法的法律[J].清华法学,2019(1):64-75.
[32]赵鹏.私人审查的界限---论网络交易平台对用户内容的行政责任[J].清华法学,2016(6):115-132.
[33]宋保振,秦瑞标.算法推荐下信息公平失衡的法律应对[J].扬州大学学报(人文社会科学版),2022(2):42-55.
[34]肖红军,李平.平台型企业社会责任的生态化治理[J].管理世界,2019(4):120-144.
[35]张凌寒.平台“穿透式监管”的理据及限度[J].法律科学(西北政法大学学报),2022(1):106-114.
[36]许可.驯服算法:算法治理的历史展开与当代体系[J].华东政法大学学报,2022(1):99-113.
[38]梁正,余振,宋琦.人工智能应用背景下的平台治理:核心议题、转型挑战与体系构建[J].经济社会体制比较,2020(3):67-75.
[39]薛澜,赵静.走向敏捷治理:新兴产业发展与监管模式探究[J].中国行政管理,2019(8):28-34.
[40]CALISKANA,BRYSONJJ,NARAYANANA.Semanticsderivedautomaticallyfromlanguagecorporacontainhuman-likebiases[J].Science,2017,356(6334):183-186.
[41]周旅军,吕鹏.“向善”且“为善”:人工智能时代的算法治理与社会科学的源头参与[J].求索,2022(1):135-142.
[42]姜明安.软法的兴起与软法之治[J].中国法学,2006(2):25-36.
[43]柳经纬.论标准对法律发挥作用的规范基础[J].行政法学研究,2021(1):103-114.
[44]BOLUKBASIT,CHANGKW,ZOUJY,etal.ManistocomputerprogrammeraswomanistohomemakerDebiasingwordembeddings[J].AdvancesinNeuralInformationProcessingSystems,2016(29):1-9.
[45]孙清白.人工智能算法的“公共性”应用风险及其二元规制[J].行政法学研究,2020(4):58-66.
商慧辰,中国社会科学院大学商学院硕士研究生。
肖红军商慧辰.平台算法监管的逻辑起点与思路创新[J].改革,2022,(08):38-56.