ChinaLegalScience

【中文关键词】算法解释权;自动化决策;意思自治;信息不对称

【摘要】自动化决策广泛应用,算法的评分、排序决定和影响着相对人贷款、就业、信誉等诸多权益。但当算法作出不利甚至错误决策时,相对人无从知晓原因更遑论改正其错误决策,严重缺乏应有的救济。通过梳理现有法律资源发现,传统制度在自动化决策场景下均不敷适用,无法为相对人提供算法决策的解释。法律应配置独立的算法解释权,用以衡平自动化决策使用者与相对人不对称的权力关系,作为合同制度在人工智能时代的因应性变革。算法解释权的理论正当性亦可在贯彻意思自治原则、矫正信息不对称、分配风险负担等层面得到充分证成。算法解释权的内在构造具有独特的内容要求和双层架构,其具体制度应在兼顾效率和公平的原则下进行设计。

【全文】

一、问题的提出:自动化决策广泛应用带来的“算法暴政”

打开购物网站,页面会自动推荐用户感兴趣的商品,打开手机地图,导航功能会自动规划回家的最优路线……这些发生在日常生活的场景,都是算法根据我们在网络世界中留下的浏览历史、上网习惯、购物记录、位置数据等作出的评价和预测。这种算法根据大数据作出的打分、评价和推荐等称为自动化决策,它被广泛用于商业领域以提高客户点击率和交易利润率。人工智能的本质就是算法的自动化决策,正如Cloudera联合创始人兼首席技术官AmrAwadallah所说:“我不喜欢人工智能这个说法,更准确的说法是决策的自动化,我们如何来搜集数据,利用数据进行分析,并尽可能多地让机器做出一部分的决定。”[1]

和人的决策相比,算法的自动化决策具有相对客观、公正、高效等特点,因此其应用逐渐遍布社会生活各个领域。例如,我国某大学使用算法根据消费记录识别学生经济状况,帮助确定贫困生补助发放[2];银行广泛利用算法来对客户进行信用评估以决定是否发放贷款;美国教育部门使用算法对确定教师聘用合同是否续期;{1}12美国某些法庭中,法官利用算法来对罪犯重复犯罪的风险进行评估[3]。算法的自动化决策甚至通过国家公共部门在社会保障、医疗保健、公职人员监督和司法系统等领域,直接影响着人的各项基本权利。

但是由于历史数据的偏差,设计者嵌入的偏见,或者技术的不完善,算法经常做出错误的、歧视性的自动决策。例如美国航空公司的一位资深驾驶员称,由于机场人脸识别的算法将他与一位爱尔兰共和军领导人混淆,使得他先后80次在机场遭到拘禁[4]。美国一些法院的使用犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视[5]。有学者指出,私营企业和政府公共部门采用算法和大数据做出的自动决策,使得数百万人无法获得保险、贷款、出租房屋等一系列服务,如同被监禁在“算法监狱”。{2}然而,自动化决策的算法不公开、不接受质询,不提供解释、不进行救济,相对人无从知晓决策的原因,更遑论“改正”的机会,这种情况被学者称为“算法暴政”。{3}3-24

各国均试图解决自动化决策不透明对公民权利的危害,其共识是提高自动化决策算法的透明度,以接受公众监督和质询。例如,美国联邦贸易委员会技术研究和调查办公室进行独立研究,向FTC消费者保护调查员和律师提供有关算法透明度的培训和技术专业知识[6]。我国则针对魏则西事件成立联合调查组,要求百度采用以信誉度为主要权重的排名算法并落实到位,严格限制商业推广信息的比例对其逐条加注醒目标识,并予以风险提示[7]。然而,以上案例表明,提高算法透明度只能作为事先监管的手段,却无法救济已经受到自动化决策损害的人。

虽然此文研究的对象名为算法解释权,实则目的在于建立自动化决策相对人的事后救济机制。由于其以赋予自动化决策相对人权利为主要内容,故而以算法解释权为起点展开。自动化决策的算法既在私法领域的商业部门广泛使用,又深度参与了公共部门的决策。然而私法与公法两个领域均有独立的基本原则和运作规则,公共部门的自动化决策涉及到公权力的运行规则,相对人提起解释的权利基础与私法领域并不相同,故此本文将算法解释权的探讨局限于私法领域,即商业自动化决策,为了行文简洁下文均简称为自动化决策。

二、商业自动化决策情况下既有法律资源之不敷

算法解释的目的是使自动化决策的相对人了解对其不利的决定是如何做出的,以便在确有算法歧视和数据错误时提供救济。商业自动化决策下,算法解释可适用的法律资源应先通过梳理既有民商法制度寻找。自动化决策是根据用户与自动化决策使用者订立的合同实施的,当可能发生错误时,相对人可考虑的路径包括要求确认自动化决策的用户协议符合显失公平、欺诈、重大误解条件,也可以考虑适用民事合同相对人的违约请求权,侵权责任中的赔偿请求权,以及在商业场景中消费者的知情权。然而,现有法律资源面对自动化决策场景均有严重不足,适用场景与算法场景差异太大,效果并不符合算法解释问题的初衷,无法起到救济自动化决策的相对人的作用。

(一)合同效力制度不符合算法解释之场景

当自动化决策发生错误时,受到不利决策的相对人可考虑通过合同效力制度来救济。但经过梳理可发现,通过认定合同效力瑕疵无法获得自动化决策解释,其制度效果不符合算法解释的初衷。如2017年5月美国二手房销售网站Zillow被一位房主告上法庭,认为其使用的自动估价算法Zestimates严重低估了其房产价值,造成其二手房几年内无法售出合理价格,给销售造成了严重障碍[9]。相对人的诉求是Zillow能够为其估价提供合理解释,并重新合理评估其房屋价格。然而,这样的相对人的目的并不能通过合同效力制度得到实现。

第一,合同效力制度相悖于算法解释之目的。无论是重大误解、欺诈均为合同意思表示的“错误制度”,即表意人若知其情事即不为意思表示的,表意人可撤销其错误的意思表示。制度目的是为非自愿同意的合同的后果提供救济,回到当事人未缔结契约前的权利状态,而不是对实体不公平本身提供救济。{5}281然而,算法解释的目的是使当事人知情以修正,而非退出合同回到原始权利状态。相对人需要包含自动化决策的这份合同,以获得评估、预测、信贷等服务。

第二,难以认定自动化决策存在意思表示瑕疵。合同效力制度的手段是认定合同的缔结违反意思自治原则,而意思表示瑕疵分析均不适用于自动化决策错误的场景。自动化决策的目的显然不是故意使相对人陷于错误认识,很难从主观上认定自动化决策者意思表示具有欺诈的故意。在重大误解情景下,非出于救济需要,相对人不会主张“若知其情事则不为意思表示”。

(二)违约请求权无力救济自动化决策相对人

那么,相对人是否可以要求自动化决策使用者承担违约责任呢?遗憾的是,民事合同的违约请求权由于制度目的、程序与举证责任等因素,无法救济自动化决策的相对人。例如,淘宝网的用户协议要求用户接受自动化决策对于违约行为、支付风险的判定结果。“淘宝可依据您的用户数据与海量用户数据的关系来认定您是否构成违约:您有义务对您的数据异常现象进行充分举证和合理解释,否则将被认定为违约”、“淘宝会依照您行为的风险程度指示支付宝公司对您的支付宝账户采取取消收款、资金止付等强制措施”[10]。但用户很难通过违约请求权知晓具体算法决策的理由进而获得救济。

首先,违约请求权的制度目的在于依赖公权力保障当事人适当依照合同履行约定。一方面,合同中并未保证决策正确,如支付宝并未在合同中将决策合理正确作为合同义务。另一方面,算法解释的目的在于知晓错误决定是如何做出的,而知晓决策的考量因素和利用数据并非用户协议中明确约定的合同义务,例如支付宝没有提供具体封号、降低信用评分决定的证据的约定义务。

其次,算法自动化决策使用者多为面对海量用户的互联网平台。当用户不服自动化决策时,一般首先要走内部的申诉和处理流程,但其规则和程序完全由互联网企业设定,更不会在做出接受或否定申诉的决定时告知用户实质性的理由。

最后,如果自动化错误决策的相对人起诉至法院,按照民事诉讼的举证责任“谁主张谁举证”,相对人则需要在不知晓自动化决策规则的前提下,证明其决策是错误的。如前文提到的支付宝的用户协议,相对人需要“自证其无罪”。因此在现行算法自动化决策的使用者——网络平台早已形成网络治理的私权力情况下,{6}28以相对人一己之力对抗算法的错误决策基本不可能实现。

(三)不利的自动化决策不满足侵权责任之构成要件

受到不利决策的相对人可考虑主张侵权责任。由于自动化决策并无适用特殊归责原则的情形,因此一般适用于过错责任原则。但此路径受到侵权责任的过错、损害因果关系等构成要件的多重限制。

此外,也可思考特殊的侵权责任路径,即向算法开发者主张产品责任。产品责任属于特殊侵权责任,除了上文所述的一般侵权责任的主观过错、损害结果与因果关系的证明困难之外,产品责任的救济路径还面临更多的困境:其一,算法的法律地位是“产品”吗?我国的《产品质量法》对产品的定义为“经过加工、制作,用于销售的产品”[11]。而用于自动化决策的算法并无实体,甚至在知识产权领域尚未明确作为专利保护。其二,产品责任的核心是产品缺陷。错误的自动化决策有可能是算法本身缺陷造成的,也有可能是决策使用的错误数据造成的,而仅有算法本身的缺陷方可主张产品责任。但是,没有具体自动化决策错误的解释,无从了解错误决策的原因。

(四)消费者知情权无法提供真正的算法解释

相对人如主张消费者的知情权,算法的法律定位仍为企业的工具而非商品,并且算法使用者可主张算法属于商业秘密提出抗辩。

现有法律资源都无法为受自动化决策损害的相对人提供算法解释权提供的救济,而当算法自动化决策相对人受到损害时,提供救济又是切实的利益需要。考虑依据算法的法律定位而配置独立的算法解释权成为必要。

三、新的路径:配置独立的算法解释权

智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。{7}已有的法律秩序面对智能产业的发展显现出严重缺陷,现有人工智能时代的法律制度供给严重不足。愈是在此时越应保持法学研究的冷静与克制,避免草率地以“现象描述”方式创制权利。但当穷尽现有法律制度仍无法为相对人提供合理救济时,即应大胆配置新型权利,以弥补传统权利体系应对人工智能时代技术发展的不足。正如哈贝马斯所言“权利是一种社会构造”,{8}278算法解释权既符合公平正义的价值取向,又符合人工智能时代的需求和特征。

本文的算法解释权指的是,当自动化决策的具体决定对相对人有法律上或者经济上的显著影响时,相对人向算法使用人提出异议,要求提供对具体决策解释,并要求更新数据或更正错误的权利。在商业自动化决策领域探讨算法解释权配置的必要性,无法绕开的问题是,一份基于意思自治而同意参与自动化决策的民事合同,为何要超越合同配置给一方相对人额外的权利?算法解释权配置的目的究竟是什么?

包含同意自动化决策的合同,使得自动化决策者和相对人之间从平等的民事主体关系,转化为权力和支配关系。相对人地位不再平衡,合同制度需要作出因应性调整。创制算法解释权目的为平衡二者之间的不平等,为相对人提供额外制度救济以达成实质平等。此论断可从两个方面获得论证:其一,自动化决策者和相对人的权力维度是财富和市场地位差距的附属物;其二,算法解释权的配置可有效衡平此种差距。另外,算法解释权的确立可为人工智能技术的未来发展预留一定的空间。

(一)自动化决策双方之权力维度

自动化决策使用者与相对人之间存在着巨大的财富、地位、权力差距,合同的形式无法保证平等。算法自动化决策使用者多为面对海量用户的互联网平台,姑且不论垄断型网络企业与普通用户之间的财富差距,仅由于格式化用户协议的存在,双方就确立了权力支配关系。第一,用户协议不是经过协商的合同,提供格式合同的算法自动化决策使用者享有更为充分的话语权和解释权,因此其并非双方自我规制的结果,而是一方独占地单边规制的结果。第二,用户协议的格式合同的条款中,自动化决策使用者通过免责和排除条款将风险分配给相对人。合同出现争议时,格式合同赋予自动化决策使用者强大的能力。如支付宝的用户协议已经要求用户需“自证其清白”,在如此失衡的基础上想依合同实现由自动化决策者提供决策解释显得如同天方夜谭。第三,而格式用户协议中往往包含了对相对人的自我执行,因此也就根本不需要协商。实证研究也显示,相对人完全处于被裁决的弱势地位,并无实质性的交涉,网络平台内自设的申诉调解机制根本无法发挥救济作用。{9}

这种自动化决策使用者与相对人不对称的权力关系,达到了有史以来合同双方地位悬殊的顶峰。在亚当斯密时代,即英国工业革命期间,小工厂主身兼所有者与经营者于一身,不法奸商至多可以偶尔利用欺诈来骗取对方,合同制度中的意思表示错误制度尚可以应付此类问题。{10}随着贸易的扩大,股份公司兴起但仍以中小型企业为主,斯密的理论逻辑仍然成立。然而,当垄断市场形成,公司巨型化发展,定制化、反复化交易普及,格式合同日益增多后,合同双方不平等加剧,合同法制度被迫作出调整规制格式合同,甚至交由经济法来解决市场主体不再平等,传统手段失灵的问题。{6}如果说垄断市场下,企业与用户的地位仅仅是由于财富和市场地位差距的产物,那么自动化决策使用者与相对人之间还有知识垄断的鸿沟。这种基于财富、市场、知识技术地位带来的合同双方的悬殊地位,需要合同法制度创新予以应对。

(二)配置算法解释权以规制算法权力

算法解释权的配置,是合同制度应对当事人之间地位差距的加剧而做出的调整,这并非是合同法制度第一次因为双方权力差距而做出创新。这些创新的一致之处就在于额外配置权利或义务以使双方地位接近平等,保证意思自治与公平。比如消费者与商家的合同,法律施加给商家明码标价、质量担保、出具收费单据等义务;保险业发展后,面对保险合同双方实际地位的悬殊,合同制度赋予投保人享有有利解释的权利,即当合同需要解释时,偏向有利于弱势投保人的一方。产业革命后,劳资双方力量对比日益加大的情况下,合同制度甚至一定程度上牺牲了意思自治原则,允许劳动者订立集体合同,获得与雇佣者谈判的能力,以衡平双方实质上的地位不平等。而算法解释权的配置,即是在一份看似基于意思自治而缔结的民事合同之外,额外赋予相对人得到算法解释的权利,以对双方悬殊的地位做出纠偏的制度。

算法解释权应对了人工智能时代“算法”角色的转化,并为其未来法律定位发展的可能性预留了空间。当算法的功能较为依赖数据的情况下,责任更加难以从数据流和算法中被识别,只有算法本身才有可能提供合理的解释。以“算法”解释权为名,既强调了解释的对象,也考虑到了算法未来本身可能成为提供解释的主体。

四、算法解释权的理论正当性

算法解释权既是合同法顺应时代的制度创新,又是传统理论顺理成章的发展延续。算法解释权可消弭法律实然权利与应然权利的鸿沟,其理论正当性的证成充分说明,算法解释权并非心血来潮的创制,而具有传统权利的逻辑基础,是对现有的利害关系人权利畸轻的调适,目的是以新制度实现古老平等、自由、正义的目标。

(一)平等:算法解释权是信息不对称的矫正工具

平等的内涵随着时代变迁不断改变,早已从强调自由和人权的政治平等,扩展到强调资源和福利的经济平等,进而到强调机会和能力平等的社会平等。{12}人工智能时代的到来产生了新的不平等,而这种不平等更加隐蔽和严重——知识、信息获得和掌握的不平等。这种不平等甚至会转化为认知的不平等和能力的不平等,对人的权利和地位造成实质性影响。人工智能时代,自动化决策应用虽广泛但知晓算法知识者寥寥。相比商业合同中双方掌握价格、品质信息的不对称,自动化决策事项上的信息不对称堪称“黑箱”。而算法解释可在商业化决策领域促进此种信息获取和掌握上的平等。

信息不对称是现代契约理论中最为重要的部分之一。信息不对称是指这样一种情况,即缔约当事人一方知道而另一方不知道,甚至第三方也无法验证的信息。即使验证,也需要巨大的人力、物力和精力,在经济上是不合算的。{13}396信息的不平等影响意思表示的真实性,一方无法有效作出判断而引发不公平和低效率。故而民商法中许多重要制度都尽力扭转信息劣势一方的地位,以提高其经济地位与缔约能力,保障民商法意思自治、平等保护等精神内核。{11}6合同中一系列意思表示影响合同效力的制度,如重大误解、欺诈制度,对格式合同弱势当事人的保护就起到了“信息纠正”功能。{14}法律甚至创制看似偏向一方的制度来纠正信息不对称的地位,如保险法合同中的最大诚信原则与有利解释原则也源于保险合同的高度信息不对称性。{15}

算法解释权是自动化决策中信息不对称的有效纠偏工具,其作用在于使信息从信息优势方向信息劣势方流动,而达到双方衡平。民商法的私法属性不需公权力的强制执行力介入,仅通过制度设计来达到信息披露的目的,因此赋予信息弱势的相对人以算法解释权,使其得知不利自动化决策做出的具体原因,达到对信息不对称事后补救的效果。算法解释权合理性证成可在现行法律寻找类似制度。保险合同中,保险合同具有高度信息不对称性,保险公司需履行主动告知义务,且告知需遵循最大诚信原则。而自动化决策合同中,自动决策的算法完全处于“黑箱”中,仅需依相对人请求而履行告知义务,解释不利决策的原因。根据“举轻以明重”的原则,令信息优势更强者承担算法解释义务具有当然的理论正当性。

从效率角度考量,由自动化决策者承担算法解释的义务也更加节约交易成本。自动化决策者获取不利决策的成本最低,“信号发送”成本与相对人比较更低。在目前没有算法信息披露制度的情况下,此项义务由相对人主动提起,自动化决策者解释是成本最低的。

由此可见,算法解释权的确立是民商法的私法属性和意思自治原则使然。这是基于平等主体假设和意思自治基本原则采用的事后补救措施。与民商法中的其他类似制度相比,算法解释权加诸信息优势地位者的负担甚轻,甚至并非真正意义上的矫正工具,仅聊做补救而已。

(二)自由:算法解释权是意思自治的必然推论

意思自治原则为民事领域保障自由价值的基本原则。它允许民事主体以自己意思设立民事法律行为,对于保障民事主体的自由权利,体现民事主体人格利益的存在,保障个人尊严、社会公平正义至关重要。算法解释权是意思自治原则的应有内涵和必然推论。

当商家需面对大规模的用户时,只能依赖算法的自动化决策进行庞大的平台管理,通过用户协议获得用户对自动化决策的同意成为必然选择。即使用户协议中没有自动化决策的条款,用户接受自动化决策也因实践行为而成为了事实合同。故对算法解释的理论分析首先依合同理论展开。意思表示是合同效力的核心要素,而算法解释是当事人基于意思自治同意用户协议的必然推论。

通过整理知名互联网服务企业的用户协议可发现,其用户协议均包含获取用户对自动化决策知情同意的条款,即提示用户存在自动化决策,并要求用户服从自动化决策的结果[15]。用户同意的内容应该被合理的告知,任何人都不应该为自己所不了解的事情负有义务,这是意思自治的基本规则。{16}196用户同意的前提必然是知情,即知悉对存在自动化决策和风险的事先解释,换句话说,有了知情才有同意。那么,用户知情同意所需的告知义务是否延伸至事后解释呢?

如果事先解释已经能够提供用户应知的全部合理内容,事后解释殊无必要。然而,合同产生的风险并不能在签订合同的时候被完全地描述和预见。上文中淘宝对自动化决策语焉不详的事先解释,并不能使用户适度的知情。用户知情应包含事先和事后解释,这种安排类似于医疗合同中患者的知情权。自动化决策领域与医疗领域十分相像,算法使用人与医生都具有专业知识,用户和患者一样弱势,而使用网络和参与医疗一样必要。医疗合同中,即使医务人员事先履行了告知义务,并不排除患者在事后的知情权利,即了解自己接受治疗的具体情况。而由于患者很难真正理解医疗程序和风险,医务人员即使事先履行了告知义务,也不等于可以将医疗的风险和责任完全转嫁给患者。回到算法的自动化决策领域,当淘宝使用的算法可以判定用户是否违约,或者直接停止提供支付服务时,用户仅仅在事先知道有自动化决策显然不是真正和适度的知情。尊重用户要求事后解释的权利,应该是企业对于用户告知义务的合理内容。

从另一个角度论证,即使用户通过协议的提示预见到了自动化决策错误的风险,这是否可以排除事后解释的权利呢?显然不能。用户意思自治下的“同意”必然包含着用户有理由期望在发生危害和错误时,企业以公正和负责任的态度做出回应,否则将无从基于信赖利益接受用户协议。这种合理要求并不因服务协议中没有提及或排除而消失。与此类似的是,很多互联网企业提供的服务协议均要求用户放弃起诉的权利[16],如必须仲裁等条款,但用户要求法院裁决合同纠纷的权利并不因此消失。如果没有法院背后的公权力作为公正裁决和履行合同的保障,势必从一开始用户就不敢信任企业并接受用户协议。同样,也是基于这种基本的信赖用户才可能同意接受自动化决策。

由上得出结论,赋予用户要求自动化决策使用者事后解释的权利,是用户基于意思自治同意用户协议的应有之义。事后的算法解释,是合同意思自治必然衍生的权利,而且不可被事先解释所替代。

(三)正义:算法解释权是合同风险的合理分配

自动化决策是一种独特的“知识和无知的结合”,其带来的损害符合风险多样性、突发性和随机性的特点,是人工智能技术发展必然伴随的风险。{19}自动化决策的算法一旦发生错误,会给整个社会运行带来巨大风险。2010年由于算法的错误,美国股市道琼斯指数下跌达998.5点,一万亿美元财富蒸发[17]。然而,现状是由相对人承担全部风险:接受结果(无论对错)并自己提供数据推翻决策。决策错误可能由两个原因造成:其一是使用的数据错误,其二为算法本身的错误。而算法解释对此种错误造成的风险均可充分消解。如果为算法决策的数据错误,可通过对算法决策的解释发现自动化决策作出的依据,从而让用户获得更新数据获得重新决策的机会,避免错误数据被多个算法反复使用。如果为算法本身的错误,如算法本身有歧视因素(如性别歧视或种族歧视),则可通过算法解释充分避免在全社会带来更大范围的风险。

通过算法解释权将风险再分配给算法的开发者或使用者是基于以下考量:其一,算法的开发和使用者具有风险分散的能力。相对人的力量过于弱小,把风险分配给技术力量更为强大的算法开发者和使用者,可诱导可控制风险之人尽可能初期就降低风险避免损害发生。其二,自动化决策事实上的强制性。相对人提供数据接受自动化决策,看似基于私法的用户协议,但由于互联网行业垄断态势决定相对人无法“用脚投票”拒绝用户协议。如果拒绝则意味着无法获得贷款、租房、就业机会,自主隔绝于社会生活,因而具有事实上的强制性。虽然欧盟有法律提出相对人应享有“拒绝接受数字化决策,要求人为干预”的权利,但其仍停留在学理讨论阶段。{20}其三,保护相对人的信赖利益是算法开发者和使用者承担算法解释责任的基础。合理信赖之保护的不断加强为法律现代化进程中的主线之一。{21}受害人基于信赖利益委托算法使用个人数据进行自动化决策。法律这样分配风险有助于形成人对算法自动化决策的基本信任,而工业的发展、科技的研发等都需要一种信任模式的建立和良性运作。{22}

反对算法解释权可能源自担忧其限制技术创新降低社会效率。然而,算法解释权并非为了公平而牺牲效率的选择。效率价值可以体现在责任认定的具体规则上,或通过责任限额制度、保险制度与责任基金制度来分担责任,以防科技企业损失巨大无以为继。现在无可用法律资源对受害人进行救济,这种受害人完全无助的境地显然是违背基本公平正义理念的,是法律所应避免的。

基于以上讨论,人工智能发展迅猛而法律未及应对,商业自动化决策合同双方权力差距较一般的格式合同更为恶化,为衡平双方地位应配置独立的算法解释权。算法解释权是意思自治原则的必然推论,是合同信息不对称的矫正工具,也是对合同风险的合理分配。此番探讨引来下一个问题,如何设置算法解释权的内在构造与具体制度,以实现公平与效率的兼顾呢?

五、算法解释权的内在构造

(一)算法解释权的权利主体:自动化决策使用者与相对人

算法解释权的主体应为认为受到自动化决策不利决策的相对人,如经过算法评估不被雇佣的候选人,自动化信用评分体系拒绝批准贷款的相对人等。负有义务者为自动化决策的使用者,包括根据合同自动化决策的使用者如网络平台、保险公司、银行等,也包括使用自动化决策决定涉及资格、权利等事项的企业,如决策获得教育入学资格、雇佣合同续约资格等公司。需要指出的是,当算法的使用者无法提供解释时(如由于技术能力的限制),算法的开发者有义务进行协助,以为相对人提供具体决策的解释。

(三)算法解释权的双层结构:具体解释与更新解释

算法解释权具体内容应包括两个层次。第一层次为事后的具体解释,第二层次为事后更新解释。此外,还应对自动化决策者拒不提供解释或没有提供相对人满意的解释提供进一步协商和救济的选择。以上层次应为层层推进的关系,上一层次的解释完备后即排除下一层次的解释权利,以最大程度节约资源提高效率,减轻自动化决策使用人的负担。

1.事后的具体解释

举例而言,银行使用公民数据(如纳税记录、收入记录等)对用户进行信用评级决定是否发放信贷,用户可以申请信贷公司或算法提供者解释算法的功能和通用的逻辑(比如参与决策的数据类型和特征,以及决策树的类别),算法的目的和意义(进行信用评分以发放贷款),设想的后果(可能影响信用记录、影响利率)。在第二个层面,用户可以要求解释具体决定的逻辑和个人数据的权重,例如用户的信用评分结果参考了哪些数据以及这些数据在决策树或者模型中的权重。第一个层次的信息类似行政复议中对行政决定的合法性审查,通过对算法的决策基本情况的了解,用户有权知晓算法是否合法,是否包含有歧视因素等等。而第二个层面的审查类似行政复议中对行政决定的合理性审查,即每个数据在评分中所占的比重是否合理。否则,如果一个人被互联网信贷公司拒绝,他被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚每种因素所占比重和哪个因素导致自己被拒绝,解释权便形同虚设。

2.事后的更新解释

相对人在知晓有关不利决策的原因后,有两种选择:其一为发现不利决策是由算法错误引起的,可以要求算法使用人对自动化决策进行修正;其二为发现不利决策是由于使用的数据造成的,要么可以更新数据(提供正确或删除错误数据)要求重新自动决策,要么可提出退出自动决策。

第一种情况下,如果相对人发现不利决策是由算法引起的,如求职被拒者发现算法歧视年轻女性,则可以要求算法使用人更新自动化决策的算法。以事后救济为目的的算法解释权,必然包含了使权利状态回复公平正义的事后更新的请求权。第二种情况下,算法是根据历史数据做出的,如果相对人发现算法使用的历史数据错误,应有权提供正确数据,或消除错误数据的不利影响,要求重新作出决策,或者退出自动化决策。如前文房主起诉Zillow自动估价算法低估房产价值,如果发现由于错误数据造成,用户可以要求更新正确数据。如果此番解释仍不能使估价回归常态,用户有权要求退出自动估价的决策。应特别注意的是,这种退出自动化决策的权利应在前两个层次的解释权都无法解决的情况下方可适用。但此种退出决策的否决权十分必要,在相对人遭受不公又无法解决时,应赋予其不受自动化决策的权利。类似的情况是,当病人在了解摘除肿瘤或器官移植等医疗手术风险后,决定接受医生的手术,但并不意味着病人一定有义务完成手术,即手术中病人仍可使用否决权要求终止手术。

算法解释权内部的配置和内在构造属于基本的制度设计,应设有开放空间,给未来具有智能性的算法预留以一定程度法律地位的可能性。考虑到现阶段为相对人提供救济的必要性和紧迫性,应同时考虑权利实施中的具体规则,使此种权利能够尽快落地,实现从权利到利益的转化。算法解释权的具体制度应同时考虑效率与正义,其行使限制、程序等问题由于篇幅所限将另撰文详述。

六、结论:实现人工智能时代个案中的公平正义

算法的治理是人工智能时代的重大法律问题,可同时考虑设置事前的风险防范机制和事后的问责制。现有思考多为事先机制,即提高算法透明度,设置机器伦理制度,让算法接受公众和专家机构的质询和评估。然而涉及到事后监管的算法问责制时,复杂的智能和自主技术系统的法律地位问题与更广泛的法律问题交织在了一起。算法的问责制更能够确保有效地为造成的损害分配法律责任,对一个个具体受到自动化不利决策的个体来说,算法问责制可以彰显个案中的公平和正义。

(本文责任编辑松明)

【注释】基金项目:国家社会科学基金重大项目(16ZDA075)“信息法基础”

作者简介:张凌寒(1982—),女,河北张家口人,东北师范大学副教授,北京航空航天大学博士后研究人员,法学博士。

[1]参见《Cloudera联合创始人:AI还在决策自动化阶段》,《第一财经日报》2017年11月14日。

[3]Northpoint公司开发的犯罪风险评估算法COMPAS对犯罪人的再犯风险进行评估,并得出一个再犯风险分数,法官可以据此决定犯罪人所遭受的刑罚。参见BrennanT,DieterichW,EhretB.EvaluatingthePredictiveValidityoftheCompasRiskandNeedsAssessmentSystem.CriminalJustice&BehaviorAnInternationalJournal,2009,36(1):21-40.

[8]《欧洲通用数据保护条例》(GDPR)中在第71条明确提出了解释权,表述为被自动决策的人应该具有适当的保护,具体应包括数据主体的特别信息和获得人类干预,表达自己的观点,并且有权获得该评估决定的解释,并对决定提出质疑。

[11]《中华人民共和国产品质量法》第2条第2款。

[14]参见DiakopoulosN.Algorithmicaccountability:Journalisticinvestigationofcomputationalpowerstructures.DigitalJournalism,2015,3(3):398-415.此文中作者也提出了“algorithmpower”算法权力的概念。

【参考文献】{1}O'NeilC:Weaponsofmathdestruction:Howbigdataincreasesinequalityandthreatensdemocracy〔M〕.BroadwayBooks,2017.

{2}Davidow,B:WelcometoAlgorithmicPrison-theUseofBigDatatoProfileCitizensIsSubtly,SilentlyConstrainingFreedom.〔J〕.TheAtlantic,2014,20(2):12-17.

{3}LepriB,StaianoJ,SangokoyaD:TheTyrannyofDataTheBrightandDarkSidesofData-DrivenDecision-MakingforSocialGood〔M〕.TransparentDataMiningforBigandSmallData.SpringerInternationalPublishing,2017.

{4}WachterS,MittelstadtB,FloridiL.Whyarighttoexplanationofautomateddecision-makingdoesnotexistinthegeneraldataprotectionregulation〔J〕.InternationalDataPrivacyLaw,2017,7(2):76-99.

{5}〔英〕休柯林斯.规制合同〔M〕.郭小丽,译.北京:中国人民大学出版社,2014.

{6}周辉.变革与选择:私权力视角下的网络治理〔M〕.北京:北京大学出版社,2016.

{7}吴汉东.人工智能时代的制度安排与法律规制〔J〕.法律科学-西北政法大学学报,2017,35(5):128-136.

{8}〔德〕哈贝马斯.在事实与规范之间:关于法律和民主法治国的商谈理论〔M〕,童世骏,译.北京:生活读书新知三联书店,2003.

{9}胡平仁,杨夏女.以交涉为核心的纠纷解决过程——基于法律接受的法社会学分析〔J〕.湘潭大学学报(哲学社会科学版),2010,34(1):24-30.

{10}邢会强.信息不对称的法律规制〔J〕.法制与社会发展,2013,19(2):112-119.

{11}〔美〕佩德罗多明戈斯.终极算法:机器学习和人工智能如何重塑世界〔M〕.黄芳萍,译.北京:中信集团出版社,2017.

{12}俞可平.重新思考平等、公平和正义〔J〕.学术月刊,2017,49(4):5-14.

{13}张维迎.博弈论与信息经济学〔M〕.上海:三联书店,2012.

{14}刘大洪,廖建求,刘建新.消费信息不对称的法律规制〔J〕.法学论坛,2003,18(4):61-66.

{15}唐清泉.信息不对称下的激励与监控的模型分析〔J〕.中山大学学报(社会科学版),2001,41(2):119-125.

{16}董安生.民事法律行为〔M〕.北京:中国人民大学出版社,2002.

{17}〔英〕威廉葛德文.政治正义论(第1卷)〔M〕.何慕李,译.北京:商务印书馆,1982.

{18}〔德〕卡尔拉伦茨.德国民法通论(上册)〔M〕.王晓晔,译.北京:法律出版社,2003.

{19}杜仪方.风险领域中的国家责任——以日本预防接种事件为例证〔M〕//.姜明安.行政法论丛(第14卷),北京:法律出版社,2011:455-471.

{20}GoodmanBW.Asteptowardsaccountablealgorithmsalgorithmicdiscriminationandtheeuropeanuniongeneraldataprotection〔M〕//.29thConferenceonNeuralInformationProcessingSystems(NIPS2016),Barcelona.NIPSFoundation.2016.

{21}马新彦.信赖与信赖利益考〔J〕.法律科学,2000,(3):75-84.

{23}ZeilerMD,FergusR.Visualizingandunderstandingconvolutionalnetworks〔M〕//.Europeanconferenceoncomputervision.Springer,Cham,2014:818-833.

{24}MahendranA,VedaldiA.Understandingdeepimagerepresentationsbyinvertingthem〔M〕//.ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2015:5188-5196.

【期刊名称】《法律科学》【期刊年份】2018年【期号】3

Sponsors:InstituteofLawandInstituteofInternationalLaw,ChineseAcademyofSocialSciences

Address:15ShatanBeijie,DongchengDistrict,Beijing100720

THE END
1.什么是算法?算法设计有哪些基本方法?算法基本设计方法算法设计中列举法的效率问题如何解决? 在算法设计中,列举法(也称为穷举法或枚举法)是一种通过逐一列举所有可能情况来解决问题的方法。然而,列举法的效率问题主要在于其计算复杂性通常随着问题规模的增加而指数级增长,这使得它在处理大规模问题时效率低下。 https://blog.csdn.net/m0_61505785/article/details/144050327
2.什么是算法?常见的算法分类有哪些?什么是算法?常见的算法分类有哪些?相关知识点: 试题来源: 解析 答:算法指解决问题的方法或步骤,是计算机科学的核心内容之一。其包括:输入、输出、有限性、明确性和有效性五个要素,通常使用程序语言来描述。常见的算法分类包括: 贪心算法:采取当前最优的选择,从而使最终结果尽可能接近最优解。 动态规划算法:将问题https://easylearn.baidu.com/edu-page/tiangong/questiondetail?id=1767773586707891229&fr=search
3.K.O.《算法导论》——寻找算法真正入门路径这本要被淹没了,因为它有点阳春白雪,理论高度比前几本要高出不少。可贵的是作者研究的理论,是真正的 算法专业的理论,而不是《算法导论》那样用那么多数学说事。 作者质疑「计算机科学」这个名字,提出CS是研究计算,而不是计算机,这个观点让我印象很深刻。 https://www.douban.com/note/795313909
4.真正统治世界的十大算法10. 随机数生成 现在我们还没有一个“真正的”随机数生成器,但我们已经有了一些伪随机数生成器,这够用了。随机数生成器的用途非常广泛,从互联联络、数据加密、安全哈希算法、电子游戏、人工智能、优化分析,到问题的初始条件、金融等等,都有它们 最后,我想强调一下,上面这个列表经供参考,它并不完整。因为在机器学习https://maimai.cn/article/detail?fid=395232582&efid=aRtcr75j-oVVPJXATXh9WQ
5.冯少辉:真正支配世界的十种算法直白地讲,算法是指一切经过明确定义的计算过程,其将某个或者某组值作为输入内容,并产生某个或者某组值作为输出结果。因此,算法代表的是一系列计算步骤,用于将输入转换为输出。——资源来源:Thomas H. Cormen 与 Chales E. Leiserson(2009年),《算法导论》第3版。 http://yunrun.com.cn/tech/5470.html
6.这一次,真正理解回溯算法其他这一次,真正理解回溯算法 理解“回溯算法” 若人生可重来,如何才能在岔路口做出最正确选择,让自己的人生“最优”? 贪心算法,在每次面对岔路口的时候,都做出看起来最优的选择,期望这一组选择可以使得我们的人生达到“最优”。但不一定能得到的是最优解。https://www.saoniuhuo.com/article/detail-33254.html
7.关于“信息茧房”,误解真相和破解可见,真正的算法推荐系统远比“喜欢看蛋糕推荐蛋糕”要复杂得多,也深入得多、智能得多。把锅甩给技术和算法从来都是最简单不费力的方法,只不过这样一来人们就会拒绝更深入的反思和改变。 美国明尼苏达大学计算机系专门进行了实验,让两组人同时在协同过滤算法推荐的平台上获取内容:一组人对推荐结果进行“跟随”,一组https://zhuanzhi.ai/document/ea4415761381e6950b21c3d07728dec4?from=doc_sim_rec
8.为什么要稳定币?算法稳定币有什么用途?币种百科区块链2、算法稳定币旨在提高价格行情稳定性,无需中央机构,而且是去中心化的。这一般根据对供应进行预编程以配对财产情况来完成。 一个“算法”稳定币要想真正成功,这需要四个基本功能: 1、加速——迅速拓展能力,而且仍然能够抵挡主要的市场震荡; 2、偿付能力——对稳定币的支持的认可和信心; https://www.jb51.net/blockchain/889920.html
9.Netflix的海量封面图是怎么设计出来的?960万张图只选一张AVA 系统:真正的算法筛图 尽可能多、尽可能丰富、尽可能符合规律的的封面图,能给 Netflix 带来最直接的转化,精心挑选封面图这个事情……工作量太大了。AVA 系统就是用来解决这个「大量的封面图从哪里来」的问题。 著名剧集《怪奇物语》一集有大约 86000 个静态帧,这意味着10集一季的剧集当中,可以筛出接近 900https://www.uisdc.com/netflix-ava
10.“网络平台算法治理”系列评算法本身中立,但算法的规则制定、模型设计、数据分析等并非完全客观;算法固然是商业秘密,但算法应用涉及的往往是社会公共利益,滥用算法危害的是千千万万消费者的合法权益。 要真正打破算法“黑箱”,需要健全算法定价机制和信息披露机制,提升平台算法逻辑、定价规则等的透明度。此外,要畅通消费者的举报途径,http://bj.news.cn/20241127/0edbbb3abc2e4e40a18981a029ee4e77/c.html
11.透视算法黑箱:数字平台的算法规制与信息推送异质性本研究借鉴实验和逆向工程方法,通过设置若干虚拟账号与数字平台进行长时间真实互动,以尝试真正进入算法的政治化空间,分析算法规制对用户信息获取异质性的影响。实证结果揭示了数字时代算法规制的高度复杂化、精细化和隐蔽化。从信息主题维度看,算法增加了个体获得https://mp.weixin.qq.com/s?__biz=MjM5OTgyMzIxNw==&mid=2649727718&idx=1&sn=3b38a41b115648efa60d9e3f39ea6cc7&chksm=bf2e90f8885919ee268f3ed985786467775399b55aa528bae23ffe57677fac2fa3828831d717&scene=27
12.2023考研英语同源外刊文章:算法可能永远不会真正弄明白人类6、entrench [?n?trent?] vt. 确立,牢固;用壕沟围住;挖掘 vi. 侵犯;挖掘壕沟 7、evict [v?kt] vt. 驱逐;逐出 综上是-2023考研英语同源外刊文章:算法可能永远不会真正弄明白人类,希望对备考2023考研的小伙们有所帮助!预祝考生2023考研凯旋归来!https://www.kyjxy.com/beikao1/yingyu/1143.html
13.图形图像算法中必须要了解的设计模式(1)腾讯云开发者社区真正的识别处理,进行ORI区域识别。 这些预处理算法的顺序不同,将对结果产生很大的影响。 下面我们将以图像的边缘提取算法为例演示整个处理过程,为简单起见,假设有两个预处理过程(灰度化、梯度化)和一个核心算法(二值化边缘提取)。有两种处理顺序,分别如下: https://cloud.tencent.com/developer/article/1165835
14.以质取胜范文12篇(全文)总体看, 这两则案例中教师都在尝试运用新理念指导课堂教学, 都能给学生独立思考的时间, 在教学过程中强调通过“算法多样化”来培养学生的发散性思维。但教师都未能真正理解“算法多样化”的内涵, 两节课均未真正落实“算法多样化”。 案例1是笔者上公开课时的一个片段。笔者尊重学生的想法, 让他们选择自己喜欢的算法https://www.99xueshu.com/w/ikeyan9azu96.html