欧盟人工智能伦理准则概要
2019-04-19 14:53:34 | 来源:人民法院报 | 作者:宋建宝
  人工智能(Artificial Intelligence,简称AI)能够造福社会,让我们的世界变得更加美好,但同时在法律和伦理方面也带来了新的挑战。为了有效应对这些挑战并充分利用AI带来的新机遇,欧盟委员会于2019年4月8日以“建立对以人为本AI的信任”为题,发布了欧洲版的AI伦理准则,期望建立“以人为本、值得信任”的AI伦理标准,不断促进社会公众接受AI技术、应用AI技术。

  出台背景

  《欧洲人工智能战略》提出,AI应当坚持以人为本的价值观立场,AI本身并不是目的,只是服务人类的工具,其最终目的应当是增进人类福祉。因此,AI的开发应用需要全面融入社会价值观。欧盟是建立在尊严、自由、民主、平等、法治和人的基本权利(包括少数人的权利)等价值观之上的。这些价值观在盛行多元主义、非歧视、宽容、正义、平等、团结等欧盟成员国中也都获得普遍认同。

  此外,《欧盟基本权利宪章》规定了欧盟人民所享有的个人的、公民的、政治的、经济的和社会的各项权利。这些都为AI的开发应用提供了以人为本价值观的基础保障。

  信任是确保AI坚持以人为本价值观立场的前提条件。AI应当不断增强人们的能力,尊重人们的基本权利,不断赋能于人类,而不是取代人类,更不能奴役人类。因此,AI必须获得人们的信任。欧盟现有的监管制度,为AI的可信任性提供了强有力的法律保障。《通用数据保护条例》确立了个人数据保护的高标准,并要求采取措施,确保蓄意情况下和默认情况下的个人数据保护。《非个人数据自由流动条例》则消除了非个人数据自由流动的障碍,可以确保欧洲任何地方任何类型的数据都能够得到处理。最近通过的《网络安全法》将有助于增强人们对网络空间的信任,提议中的《电子隐私条例》也旨在增强人们对网络世界的信任。

  然而,AI技术带来了新的挑战。AI技术最突出的特点就是能够让机器不断地“学习”,并且在没有人类介入的情况下机器能够自行做出决定和执行决定。数据、算法和算力是人工智能的三个支撑基础,三者之间的关系,简单来说就是算法依据数据进行运算后做出决定并执行决定。但是,算法所依据的数据可能是不完整的,可能是被篡改过的,可能存在固有偏见,也可能仅仅是错误的。无论具体原因如何,这势必将引发一些不确定的结果,导致人们觉得AI技术是不可靠的。由此可得,AI要获得社会公众的信任,不仅要遵守法律规定,还应当符合伦理原则并确保避免意外伤害。

  据此,欧盟委员会认为,需要在现有监管制度的基础上制定伦理准则,供AI开发商、制造商、供应商和使用者在内部市场中予以采用,进而在所有成员国范围内建立通行的AI伦理标准。为此,欧盟委员会设立AI高级专家组,并委托起草AI伦理准则。AI高级专家组于2018年12月发布了伦理准则初稿,随后与利益相关者、欧盟成员国代表进行会商。根据相关反馈意见,AI高级专家组于2019年3月向欧盟委员会提交了修订后的AI伦理准则。

  主要内容

  欧盟AI高级专家组起草该伦理准则过程中,参考了欧洲科学与新技术伦理小组和欧洲基本权利机构的有关工作成果。为了实现“可信任AI”,本伦理准则确立了三项基本原则:(1)AI应当符合法律规定;(2)AI应当满足伦理原则;(3)AI应当具有可靠性。

  根据这三项基本原则和前述欧洲社会价值观,本伦理准则进一步提出了“可信任AI”应当满足的七项关键要求,具体包括:(1)人的自主和监督;(2)可靠性和安全性;(3)隐私和数据治理;(4)透明度;(5)多样性、非歧视性和公平性;(6)社会和环境福祉;(7)可追责性。虽然所有AI都应当满足这些关键要求,但是在实践中需要根据具体情况确定相应的实施标准,例如,用于阅读推荐的AI应用程序可能引发的风险肯定要比用于医疗诊断的AI应用程序引发的风险小得多,由此这两种AI应用程序对上述关键要求的实施标准也应当有所不同。

  欧盟委员会认为,AI高级专家组起草的这份伦理准则对制定AI发展政策具有重要的参考价值,鼓励AI开发商、制造商、供应商等利益相关者积极采用这些关键要求,以便为“可信任AI”的成功开发应用建立更为有利的社会环境。同时,欧盟委员会希望利益相关者积极提供意见和建议,以便评估本AI伦理准则是否需要进一步调整。

  需要指出,欧盟AI高级专家组起草的这份伦理准则并不具有法律上的约束力,因此对相关机构和人员不会产生任何新的法律义务。但是也确实需要注意,欧盟现有的一些法律规定已经体现了上述七项关键要求中的一项或者几项内容,例如安全、个人数据保护、隐私、环境保护等等。

  具体解释

  1.人的能动与监督

  人的能动,是以人为本价值观的具体体现。这要求人在由人—机构成的AI中仍然保持其主体性,AI应当增强人的自主性和保障人的基本权利,帮助个人根据其目标做出更好的、更明智的选择,进而促进整个社会的繁荣与公平,而不是减少、限制或者误导人的自主性。

  人的监督,可以确保AI不会削弱人的自主性或者造成其他不利影响。为此,要依据AI及其特定应用领域,确保适度的人为控制措施。人对AI的监督越少,AI就应当接受更广泛的测试和更严格的管理。事物之间的关系总是相互平衡的,因此反之亦然。人的监督可以通过相应的治理机制来实现,例如人机回环、人控回环等方法。同时,AI也必须保障公共管理部门能够依据法定职权对AI行使监管权。

  2.可靠性和安全性

  首先,“可信任AI”要求其所用算法必须具有可靠性和安全性,完全能够应对和处理AI整个生命周期内其自身发生的各种错误结果。其次,AI具有可靠性和安全性,要求AI能够抵御来自外部的各种攻击和不当干扰,不仅能够抵御那些公开的网络攻击行为,也同样能够抵御那些试图操控数据或算法的隐蔽行为。最后,“可信任AI”的决定必须是准确的,或者至少能够正确地反映其准确率,并且其结果应该是可重复的。

  此外,AI应当确保每一步都具有可验证的安全性。这就要求,AI运行过程中发生的各种意外后果和错误都必须进行最小化处理,甚至在可能情况下进行可逆性处理。同时,针对AI运行过程中可能发生的各种潜在风险,应当事先予以充分披露并建立相应的评估程序。

  3.隐私与数据治理

  隐私和数据保护在AI整个生命周期的所有阶段都必须得到保障。根据人们行为信息的数字化记录,AI不仅可以推断出个人的偏好、年龄和性别,还可以推断出他们的性取向、宗教信仰或政治观点。为了使人们能够信任AI的数据处理,AI必须确保人们对自己的数据拥有完全的控制权,并且确保人们不会因为这些数据而受到伤害或歧视。

  除了保护隐私和个人数据,高质量AI还必须满足一些额外要求。首先,AI应当采用高质量的数据集。当收集数据时,AI可能会反映出社会上的一些偏见,或者纳入一些误差或者错误。对于任何给定数据集的AI来说,这些问题必须在训练之前予以解决。其次,AI必须保证数据的完整性。AI所用方法和数据集在每个步骤,例如计划、训练、测试和应用等等,都必须进行测试和如实记录。最后,高质量AI必须严格管控其数据访问。

  4.透明度

  首先,AI应当具有可追溯性。AI要如实记录系统所做的决定及其生成决定的整个过程,包括数据收集描述、数据标记描述以及所用算法描述。其次,AI应当提供其组织化的决策过程、系统设计选择的理由以及相应的应用理由,不仅要确保其数据和系统的透明度,还要确保其业务模型的透明度。再者,结合已有应用案例,AI的能力与局限应当以适当方式充分披露给不同的利益相关者。最后,AI应当是可识别的,以确保使用者知道他们与哪一个AI正在进行交互,并且知道由谁对该AI负责。

  5.多样性、非歧视性和公平性

  AI所用数据集(包括用于训练的数据集和用于实际应用的数据集)可能会受到无意识的偏见、不完整性和不良治理模型的影响。持续的社会偏见可能导致间接的或直接的歧视。当然,一些伤害也可能是AI开发商、制造商、供应商,甚至使用者,故意利用偏见或者从事不公平竞争造成的。诸如此类的问题,在AI开发之初就应当予以解决。

  为此,AI开发商在开发过程中应当建立多样化的设计团队,建立保障参与机制,有助于避免这些问题。同时,开发商不断咨询在AI生命周期内可能直接或间接受到系统影响的利益相关者,也有助于解决这些问题。另外,AI开发商应当全面考虑不同人群的能力和需求,确保AI具有易用性,并尽力确保残疾人也能够便利、平等地使用AI。

  6.社会与环境福祉

  对于AI的影响,不仅要从个人的角度来考虑,还应当从整个社会的角度来考虑。人们应当认真考虑AI对社会公共治理活动的影响,特别是那些与民主决策过程有关的情形,包括意见形成、政治决策、选举活动等。此外,AI可以提高人们的社会技能,但同样也会导致人们社会技能的退化,因此AI对人们社会技能的影响也应当予以充分考虑。

  为了确保AI具有可信任性,还必须考虑AI对人类和其他生物的环境影响。在理想情况下,所有人类,包括后代在内,都应当受益于生物多样性和适宜居住的环境。这也同样适用于目前全球都在关注的AI解决方案的可持续发展问题。因此,人们应当鼓励AI的可持续性和生态保护责任。

  7.可追责性

  具有可追责性的AI,能够有力提升人们对AI的信任。为此,应当建立责任机制,确保人们能够对AI及其结果进行追责。AI的内部审核人员和外部审核人员对AI开展的评估以及相应的评估报告,是保障人们能够对AI进行追责的关键。因此,AI应当具有可审核性并确保人们能够容易地获得相关评估报告。

  首先,AI的潜在负面影响,应当事先予以识别、评估、记录并进行最小化处理。对于需求之间不可避免的权衡,应当以合理的方式进行解决并予以说明。其次,对于影响人们基本权利的那些AI应用程序,包括有关安全的一些重要应用程序,尤其应当确保其具有外部可审计性。当然,对于AI应用过程中发生的不公平的不利影响,应当提供可预期的、便利的、充分的补偿机制。

  实施计划

  为了确保本伦理准则能够在AI开发应用过程中得到实施,欧盟委员会将在欧盟内部启动有针对性的试点工作,同时将努力促进国际社会就“可信任AI”达成广泛共识。

  1.在欧盟内部启动试点工作

  为了确保本伦理准则的实施,欧盟委员会将在欧盟内部启动有针对性的试点工作,目的在于获得利益相关者的反馈。试点工作主要包括两部分:(1)针对AI利益相关者以及公共管理部门开展评估和反馈;(2)组织欧盟成员国和不同利益相关群体之间开展持续协商和加深认识。

  到2020年初,对试点阶段收到的各种反馈进行评估后,欧盟AI高级专家组将审查和更新本伦理准则。根据审查结果和实施经验,欧盟委员会将评估实施结果并提出后续工作计划。

  2.努力将伦理准则推向国际社会

  考虑到AI在数据流通、算法开发和产业投资方面的国际性,欧盟委员会将努力向全球推广本伦理准则,积极促进国际社会就“可信任AI”达成共识。为此,欧盟委员会将积极开展以下工作:

  加强与志同道合伙伴的合作。一方面,积极探索本伦理准则与第三国(例如日本、加拿大、新加坡)伦理准则的融合程度,然后在此基础上,为更大范围内伦理准则讨论做好准备。另一方面,尝试探索非欧盟国家的公司和国际组织测试和验证本伦理准则,从而为本伦理准则的“试点阶段”做出贡献。

  继续在国际讨论和倡议中发挥积极作用。主要包括:为G7集团和G20集团等多边论坛做出贡献;与非欧盟国家开展对话,组织双边和多边会议;为国际标准组织的相关标准化活动做出贡献;加强对公共政策的收集和传播,与相关国际组织开展合作。

  (作者单位:中国应用法学研究所)
责任编辑:邵倩雯
网友评论:
0条评论