德国税务算法规制的审思
2024-04-19 15:42:37 | 来源:人民法院报 | 作者:李晨茜
 

  人工智能技术已被许多国家广泛用于纳税人数据的采集、纳税申报的自动验证以及税务风险预测等税收领域,算法治税已是大势所趋。但在借助税务算法提高税收征管效率的同时,也应对其进行规制,以警惕算法技术异化导致的风险。本文对德国的相关制度进行梳理,反思其存在的局限之处。

  德国关于税务算法的规制主要体现在《德国税法通则》中,其相关规定是在欧盟《通用数据保护条例》为算法决策提供法律依据基础上的细化。《德国税法通则》对税务算法的规制主要从减轻税务算法对纳税人的不利影响出发,一方面,赋予纳税人算法权利,主要有保障纳税人知情权、赋予纳税人更正权和申请人工干预权;另一方面,建立税务算法监督机制,抑制算法的歧视和偏见。尽管该通则为税务机关借助算法作出税收裁决和保障纳税人算法权利作出了较为全面的规定,但囿于税收征管目的的实现和国家秘密的保护等因素,仍存在对税务机关的规制与纳税人权利保护力度不对称的问题。

  赋予纳税人算法权利

  规定算法决策者对数据主体的披露义务,畅通纳税人知情权,对涉税数据和算法规则的知悉,是纳税人行使其他权利的基础。然而,算法在运行过程中存在封闭性和不可解释的“黑箱”。算法透明要求税务机关公开算法底层数据和运行逻辑。《通用数据保护条例》第13条、第14条要求算法决策者应向数据主体公开信息,《德国税法通则》第32条规定了税务机关的信息披露义务,该条a款和b款规定税务机关在收集纳税人个人数据和未获得纳税人个人数据的情形下,有义务提供应当公开的信息。数据控制者应当在收集纳税人个人数据时,为数据主体提供确保合理与透明处理所必要的如下信息:数据收集的目的、法律依据、数据储存的期限及确定标准、是否存在算法自动化决策等,但《德国税法通则》在《通用数据保护条例》的基础上增加了算法披露义务的适用除外情形。

  《通用数据保护条例》第23条第1款将税务欺诈作为数据主体权利限制事项之一。《德国税法通则》第32条a款和b款中则规定,若算法信息公开会阻碍税务机关对与税务目的相关的事实和情况的调查或危及税收职能的有效履行,税务机关的算法披露义务可以因此豁免。此种限制过于泛化,很大程度上扩大了税务机关是否履行算法信息公开、解释义务的自由裁量,限缩了税务算法中对纳税人知情权的保护。

  《德国税法通则》第32条c款还规定了纳税人作为数据主体对数据的访问权,税务机关如果拒绝访问,则必须将拒绝访问的原因传达给数据主体。但该数据仅指原始数据,纳税人将被拒绝访问已经算法处理或算法输出的数据。如此一来,纳税人的行权范围受到限制,极大减损了对纳税人算法知情权的保障。

  赋予纳税人更正权和申请人工干预权

  《通用数据保护条例》第16条规定,数据主体应当有权要求控制者更正与其相关的不正确信息,且有权完善不充分的个人数据。为避免纳税人因过失而受税务算法自动决策的不利影响,应区分纳税人错误的“善意”与“欺诈”,如果纳税人存在“善意”错误,应给予其纠错的机会与权利。《德国税法通则》亦赋予纳税人纠错权,第173条允许纳税人在纳税申报时修改或撤销错误。但相较于第129条关于税务机关可以随时纠正行政行为发生的印刷错误、计算错误和类似的明显错误,纳税人纠错的权利显得不太平等。因为纳税人并不具备更正“类似的明显错误”的权利,且纳税人不可更正由于自身严重疏忽造成的错误,纳税人的容错范围相对较窄,二者的平衡仍需进一步思考。

  税务算法触发了税务行政范式的转变——从人工化到自动化、无人化,算法系统代为处理征管程序中的部分或全部环节。一方面,在税务算法自动化决策场景下,征管结果即时生成、即时执行,纳税人只能被动接受算法决策的结果。然而,算法决策可能并不能完全契合全部税务场景,尤其是会对纳税人合法权益产生重大影响的税务决策仍需税务人员的情感裁量。另一方面,在自动化模式下,纳税人陈述、申辩、要求听证等参与权和救济权都有被架空的风险。因此,《德国税法通则》第150条、第155条赋予了纳税人申请人工介入的权利,且税务机关直接在纳税申报系统中嵌入了请求人工干预的选项,以方便纳税人行使此权利。如果纳税人对税务风险评估结果存在异议,可以请求税务机关人工介入决策。但德国为纳税人提供的主要是事后的人工干预,且纳税人不能选择拒绝适用自动化风险评估结果。若税务机关经审查认为无需人工介入,纳税人仍要受算法自动化决策的约束。然而,相较于事前干预独立的分析判断,事后干预的中立性存在一定偏移,人工干预的决策结果在潜移默化中易受到算法模型分析的影响,这在一定程度上弱化了申请人工介入的救济功能。

  建立税务算法监督评估机制,规制算法歧视

  算法看似绝对理性、中立,但其本身可能会隐含主观的系统性偏见。税务算法的开发设计和建模之初,不可避免地以数据和代码的形式植入了设计者或决策者的个人价值,这种偏好嵌入到算法运行过程,从而影响征管决策的公正性。为保障和监督算法正常运行,《德国税法通则》规定了税务算法的适用范围,并确立了算法风险评估制度。《德国税法通则》第155条第4款限制了完全自动化决策的范围,税务机关只能对预扣税款、预付款的抵免、税收评估程序相关的征管活动使用完全自动化的流程进行独立处理。前述征管活动复杂程度较低,基本不需要税务人员情感的裁量,在这些领域适用自动化决策产生错误和偏见的概率较低。

  为评估算法模型是否实现了决策者的目标,《德国税法通则》第88条要求税务机关定期检查算法自动化风险评估系统,并随机筛查足量的税务算法决策结果。但该条款在实践操作上缺乏具体的指引,如“足量”的数量标准是多少,税务机关是否应当公开定期核查的结果等都未作明确的规定,这使审查的质量和效果大打折扣。

  除此之外,实际上《德国税法通则》并未充分考虑到税务算法决策与歧视或偏见等不正义问题的关联性,对完全自动化适用范围的严格限制虽然可以在一定程度上净化数据,确保数据的准确性,但缺乏对规制算法偏见或歧视的深入思考。

  【本文系重庆市教委人文社会科学类研究项目基地重点项目“突发公共事件背景下财政引导金融资金应急机制研究”的阶段性成果,立项编号:22SKJD017】

  (作者单位:西南政法大学经济法学院)

责任编辑:张婧