算法技术的法律规制研究
2024-01-04 10:55:32 | 来源:人民法院报
 

  一、算法的法律问题与传统法律规制的困境

  算法可简单理解为一系列解决问题的指令,只要给定初始条件,这一系列指令就会自动给出相应的答案。随着大数据及人工智能的深度应用,算法技术越来越多地融入日常生产及生活场景,也带来了法律规制的问题。

  算法技术广泛应用的同时,也产生了“大规模微型侵权”的典型风险。这种损害虽然对于个体而言其所遭受的法益侵害较小,但往往涉及人数众多,损害结果难以预料。这与传统侵权的“明确实质损害”特征构成鲜明对照。当然,在算法应用的不同场景下,损害的特征亦有所差异,对于算法的规制需要结合具体的应用场景进行有针对性的探讨。

  传统意义上算法应用的法律问题及挑战,主要表现为三个层面:

  一是算法黑箱可能挑战人类决策的知情权与自主决策。传统上应对的方式为主张对于算法进行公开,使算法能够为人们所明晰。然而,公开算法的源代码和架构仍不能使一般的公众明晰算法的功能;对于可解释性,基于大数据的算法与可解释性所要求的因果关系阐释具有完全不同的逻辑;另外,算法透明与可解释性也面临“算计”的问题以及知识产权侵权的风险。

  二是算法可能威胁个体的隐私与自由。传统上应对的方式为个人数据赋权与反算法歧视,通过赋予个体以相关数据权利来规制算法。然而,以赋权方式将抉择完全交由个人,存在更大的不公平风险,同时可能妨碍数据融合,不利于算法与数字经济的发展。

  三是算法可能导致歧视与偏见。传统主张通过反算法歧视方式进行规制。实际上,在算法中禁止运用身份因素,不是实现身份平等的直接渠道。社会总会尽可能地基于群体的平均表现对其进行评价,比起信息不对称产生的“抓瞎式”随机筛选所带来的不公,数据和统计至少为相关决策者提供了参考。

  因此,针对算法存在的以上问题,传统的规制手段都面临解释尺度、规制手段和可行性论证等难题,这要求对算法的法律规制应进行本源层面的反思。

  二、算法规制场景化原理及应用

  算法的风险在不同应用场景呈现差异化的表现,如平台用工算法的从业者劳动权利的损害,个性化推荐算法导致受众由于信息失控产生的恐惧感。从具体的侵权表现来看,以上场景具有典型的“大规模微型侵权”的特征,其侵权往往以存在的“风险”为损害的表征,注重行为的违法性,对于个人所遭受的法益侵害往往较小,但涉及人数众多。与之不同的是,在自动驾驶算法场景,其侵权损害有可衡量的确定性损害结果,具有传统的明确实质损害的特征。而版权过滤算法则介于明确实质性损害与大规模微型侵权之间,网络服务提供者违反版权过滤算法的注意义务,既存在具体的知识产权侵权行为表征,亦存在算法偏差对于“合理使用”等著作权限制制度的损害的广泛性风险。

  在算法规制中,算法公开、个人数据赋权、算法反歧视的方式面临困境的最根本原因在于,机械运用传统算法规制方式,将算法看作相对孤立的规制对象,未能结合具体场景进行思考,因而都不符合算法规制的场景化特征。算法并不像一般的有形物或某些无形物一样具有相对稳定的法律属性,可适用统一的法律框架。作为人机交互决策的算法并不具备物上的标准化特征,其法律属性会因为具体场景的不同而有所不同,因而算法法律规制的原理必须建立在场景化基础上。

  (一)平台用工算法的法律规制

  平台用工算法侵权属于典型的“大规模微型侵权”,如在外卖场景,强大的算法系统驱动和控制,客观上造成骑手困在算法系统的现象。在诸如必须30分钟内送达的配送时效及准时率的要求下,大量外卖骑手为避免差评维持收入而疲于奔命,出现在配送过程选择逆行、闯红灯等做法,危及自己的生命安全,也对交通安全构成隐患。另外,平台用工基于劳动组织和管理的需要,收集、处理从业者大量个人信息,以及密集跟踪、持续监控从业者工作状态,并采集生物识别、行踪轨迹等敏感信息,导致从业者个人信息隐私受到潜在威胁的法律风险。

  基于平台用工算法的场景特征,算法规制中需要基于公法规制和平台自治相结合的治理方式,培育和谐信任可持续的平台用工关系。如将算法公开的规制方式转化为以信任为核心的多元算法解释,结合人工、机器、事前和事后等多种解释方法,对评分评级、封号罚款等平台行为及时进行解释说明。平台用工规制重心应从“劳动关系”向“劳动权利”转向,以渐进式劳动基准不断完善劳动权利保障,形成公私协作治理的综合治理格局。

  结合服务平台的行业实践,在具体合作治理路径上,对于政府部门,通过明确“政府指导协议”的法律地位,合理确定、分配平台与配送合作商所应承担的劳动保护义务,并基于此落实平台用工行为的主体责任。对于平台企业,应对其主导和控制的劳动条件事项主动履行劳动保护义务。在合规义务方面,平台应主动使其处于关键环节控制的劳动条件项目符合国家有关标准(如专送骑手结算的单笔订单劳务报酬或综合计算薪资不得低于最低工资标准);在骑手路线规划的系统设计上避免“逆行”算法或不合理的配送时间要求;在平台规则设计与算法开发中充分考虑骑手的劳动强度。对于劳动者,通过劳动者个体、劳动者集体、劳动者权益代表者共同行使权利,保护劳动者的微型权益。灵活就业服务平台可通过协助维权系统帮助从业者在权利受侵害时及时实现救济,并发挥数据价值优势,基于灵活用工服务的实践经验,协助推动平台用工行业法治的建设,促进平台从业者权益保障制度不断完善。

  (二)个性化推荐算法的法律规制

  个性化推荐算法侵权亦属于典型的“大规模微型侵权”。个性化推荐的法律风险在于,个性化推荐需要收集个人信息,对于用户而言,因不透明而导致信息失控,使受众陷于恐惧;涉及用户画像的用户信息收集、共享、处理过程中,匿名化处理失效导致用户信息遭受侵害;基于算法推荐规则的不透明、不可知性,利用精准用户画像实施“大数据杀熟”,进行差异化定价。

  个性化推荐算法的场景化规制,需要首先强化信息控制者的风险防范规则,确立基于风险防范的个人信息使用规则。对于一些风险较大的项目,管理者必须设立规章,规定数据使用者应如何评估风险、如何规避或者减轻潜在伤害。相关网站可以利用用户的消费偏好与习惯进行个性化推荐,但不应利用敏感类信息。在保护匿名行为信息过程中,也应首先对其进行风险评估,当收集与处理此类信息的风险较低时,则应对其进行相对宽松的法律规制,要求信息的收集者与处理者承担部分责任。

  (三)自动驾驶算法的法律规制

  自动驾驶算法侵权则属于典型的“明确实质性侵权”,其侵权损害往往具有可衡量的确定性损害结果,损害发生的主观方面以过错为主。算法与产品融合并成为产品的一部分是自动驾驶算法的典型特征,车辆的驾驶者成为车辆监督者,成为自动驾驶算法规制问题的根源。由此所导致的法律规制的难点在于,自动驾驶产品缺陷的技术及法律责任认定的困难、自动驾驶对于现行保险制度的冲击(自动驾驶对于传统保险机制下投保主体、保险对象、保险内容以及责任分担等形成系统性的挑战)、被动接管规则的应用困境等。

  基于自动驾驶算法的场景化特征,在自动驾驶汽车设计缺陷的认定上,应通过“理性算法”标准,确认发生事故的自动驾驶汽车产品是否符合一个理性算法的注意义务标准,从而确定是否由生产者一方承担产品责任,以破解缺陷认定的障碍。同时,确立基于危险责任理论的无过错保有人责任制度,一体适用于所有机动车及交通事故类型;以无过错责任为归责原则,以现有民法典、道路交通安全法的责任框架下的侵权责任为依据,引入“理性车”标准,确定责任的承担主体,以应对责任分配的困境。

  (四)版权过滤算法的法律规制

  版权过滤算法的侵权兼有“大规模微型侵权”及“明确实质性侵权”的特征,因此介于两者之间。当前,网络服务提供者在内容分发的形式上发生了重大改变,算法过滤技术和算法推荐技术作为互联网平台内容治理的一体两面,协同发挥着作用,在推送内容前端通过版权过滤算法进行审查的要求是客观存在的。

  在此场景下,网络服务提供者基于版权过滤算法的注意义务要求,需要从行业技术发展水平和平台对著作权人的善意出发,承担相应的信息审查风险管理职责。同时,为了避免算法偏差对于“合理使用”等著作权限制制度的损害,需要构建对于用户权益保障的程序机制,如向因侵犯著作权而被过滤或删除上传内容的用户发送包含侵权情况说明的有效通知,为用户建立快捷高效的申诉处理流程,明确用户在收到侵犯著作权通知后可以提起确认不侵权之诉等。

  (五)生成式人工智能算法的法律规制

  生成式人工智能是算法的前沿方向,由其所产生的侵权具有“大规模微型侵权”的特征。我国当前的生成式人工智能算法治理主要以落实技术提供者责任为目的,从技术发展来看,并不利于我国在日益复杂的国际竞争形势下自主技术创新力度的提升。同时因生成式人工智能算法参与主体的多元性,单一责任主体的权责分配并不公平合理,不利于新兴行业的技术创新。因此,可以考虑以“最小防范成本原则”,即在相关参与主体中谁能够以较低成本作出防范,谁就应当承受未成功避免损失的责任,作为生成式人工智能算法更加适宜的规制路径。

  基于当前我国生成式人工智能算法规制的现实,应明确多方主体责任、多方监管,在降低束缚技术前提下,对侵权责任实现合理分配。在此情形下,算法开发与部署主体,需重点承担两类责任,一是承担算法透明的技术层面责任和对内容审核义务的一般监管责任;二是承担对用户侵权内容的特殊监管责任,支持维护个人、数据、平台算法框架下的权责均衡。

  三、以“大规模微型侵权”规制为核心的算法侵权的司法应对

  在司法层面,算法的司法规制需要融入场景化原理进行转型改造。一方面,对于具有明确损害和损害较大的算法决策,对个体权利损害的补偿是其主要目标;另一方面,对于损害不确定,特别是对于“大规模微型侵权”的算法侵害案件,算法的司法规制应采取公共治理的路径。

  在平台用工算法场景中,算法侵权往往以存在的“风险”为损害的表征,注重行为的违法性、不过度关注行为主体的主观过错,对于个人所遭受的法益侵害往往较小,但涉及人数众多,以外卖配送的平台用工算法场景为例,不合理的算法规则将会致使数千万在平台上就业的劳动者陷于权益受侵害的风险。另外,侵权诉讼中因果关系与损害结果常常难以确定,因此在救济手段上则需要对传统的事后单一的司法救济理念予以转变,通过事后救济与事前预防相结合,实现行政与司法、救济与预防的协调。

  有人认为,传统侵权责任法关注的重心是“单一行为的世界”,现代侵权责任法关注的重心则是“复杂活动的世界”。在传统社会或现代社会的传统侵权形态中,以归责救济功能为核心适用侵权法,具有较高的合理性。这类侵权往往发生在民事主体之间,损害的因果关系相对简单,侵权方的过错较为容易辨认,对被侵害方的救济与复原也相对容易。而在数字时代,侵权法的重心从规则救济转向威慑治理,具有不可避免性。从侵权法的威慑与治理功能出发,算法大规模微型侵权中的司法回应也应进行调整。在审理此类案件时,不宜对损害界定过宽,不宜将焦虑等非实质性风险纳入损害范围内。从侵权法的威慑与治理功能出发,引导行为人采取最优预防行为则是选择归责原则的核心因素之一。基于效用理论,采用“最小防范成本原则”,将证明责任界定给最可能导致风险的主体或者采取预防措施的成本最小的主体,更加符合效率标准。从侵权法的威慑与治理功能出发,算法侵权救济应适用停止侵害、排除妨碍、消除危险等具有事前防控性作用的救济方式。在损害较为明确而且损害数额较大的情形中,损害赔偿的数额可以按照实际损失确定。

  综上,本课题通过以场景化的基本进路、“大规模微型侵权”规制为核心的算法侵权的司法应对逻辑,对平台用工算法、个性化推荐算法、自动驾驶算法和版权过滤算法、生成式人工智能算法进行制度梳理和反思,并提出立足于司法机关公共治理定位且符合场景化原理的规制建议,期望为高速发展的数字经济和算法应用实践保驾护航。

  【中国人民大学、云账户(天津)共享经济信息咨询有限公司联合课题组,主持人:文继荣  丁晓东  邹永强】

责任编辑:黄东利