大数跨境

学术 | 人工智能在税务领域应用中的风险规制与制度回应(下)

学术 | 人工智能在税务领域应用中的风险规制与制度回应(下) 广信君达律师事务所
2025-11-26
2
导读:本文分成上下两篇,下篇将深入探讨人工智能在税务领域应用中的风险成因,并通过对国内外经验的借鉴,提出完善我国人工智能税务风险规制路径的建议,最终总结如何通过完善法律、技术和组织的协同规制体系来应对这些风


摘要

人工智能在税务领域的应用,既为征管效率的提升提供了可能,也带来了数据偏差、算法黑箱与责任模糊等风险。这些风险一方面源于数据和算法自身存在的内在缺陷,另一方面也反映出法律制度滞后所导致的结构性不足。本文在剖析我国现实困境的前提下,提出借助专门立法明确人工智能在税务领域的适用界限,完善纳税人权利保障和救济机制,并且构建跨学科协同的技术与组织规制体系,达成人工智能赋能与税收法治原则的协调一致。


本文分成上下两篇,下篇将深入探讨人工智能在税务领域应用中的风险成因,并通过对国内外经验的借鉴,提出完善我国人工智能税务风险规制路径的建议,最终总结如何通过完善法律、技术和组织的协同规制体系来应对这些风险。


关键词:人工智能、数字经济、智慧税务、算法风险、正当程序




本文上篇已对人工智能在税务领域应用所引发的多重风险进行了深入剖析,揭示数据质量、算法偏见及其带来的法治困境。这些问题不仅表明了现行法律体系在面对新兴技术挑战时的滞后性,更凸显了人工智能与税收法治之间的张力。可以说,尽管人工智能技术为税务征管带来了前所未有的效率与智能化,但其潜在的风险和对基本法律原则的冲击,依旧是亟待解决的重大课题。本篇将在上篇基础上进一步探讨人工智能在税务领域应用的根本性风险成因。


一、人工智能在税务领域应用中的风险成因


人工智能在税务领域应用的风险并非孤立存在,而是由技术内在缺陷以及法律制度发展滞后等多种因素共同作用产生的。


(一)法律与制度层面的风险成因:规则滞后与责任模糊


人工智能技术的迅猛发展显著超越了法律法规的更新速率,导致法律与制度的滞后性成为一个重要的风险成因。


1.数据治理规则模糊

我国在涉税数据治理方面主要是依靠《中华人民共和国个人信息保护法》《税收征管法》等法律里面的原则性规定,在数据质量标准、收集范围以及保密边界方面缺少细化的规则。《中华人民共和国个人信息保护法》虽然提出了“最小化原则”,但是对于“信息质量”的具体内涵并未明确指出,《税收征管法》虽然规定了税务机关可以和其他政府部门共享信息,然而却没有对数据收集标准、目的范围以及使用边界作出清晰的界定。[1]随着数据来源变得越来越多元化,像社交媒体、电商平台等都成为数据来源,税务机关的数据采集行为往往超出传统税收征管所需,若缺乏相应的合法性基础与合理性审查,容易导致数据过度收集和不当使用。


2.算法解释规则不清

虽然《中华人民共和国个人信息保护法》第二十四条给予了个人对于自动化决策的知情权以及解释请求权,不过对于“算法解释”具体包含哪些内容、范围是怎样的以及采用何种方式,法律并没有给出明确的指引。算法作为税收征管的关键工具,它的决策逻辑会直接对纳税人的权利产生影响,然而在实际操作中,税务机关大多时候以“技术机密”或者“商业秘密”为由,拒绝向纳税人说明算法的依据,这就使得纳税人很难去理解、质疑或者挑战AI做出的决策。


3.纳税人救济规则滞后

在人工智能赋能税收征管的背景下,纳税人对自动化决策的质疑与救济的途径目前仍不够完善。《中华人民共和国个人信息保护法》第二十四条给数据主体赋予了拒绝“纯自动化决策”的权利,不过在税务相关的场景当中,完全由人工智能做出的决策其实是比较少见的,更多时候呈现出来的是“人机协同”或者是“算法辅助决策”的形式,这样就使得该条款在适用上存在一定阻碍。算法不透明的特性使得纳税人很难获得足够多的信息,进而有效地行使行政复议或者诉讼的权利。现行的《中华人民共和国行政复议法》《中华人民共和国行政诉讼法》所提供的权利救济机制,在面对技术含量很高的税务决策时,也会显得应对乏力。


(二)技术层面的风险成因:算法自身的不完美性


除了数据层面存在的固有缺陷外,人工智能技术自身的运作机制同样也是其在税务领域应用中的重要风险来源。这些风险主要是因为算法存在不完美的情况而产生的,可以把它们归纳为算法偏差以及“黑箱”效应这两个方面。


1.算法偏差困境:系统性歧视与公平挑战

算法并非完全中立。在数据训练及决策推理过程中,它可能因多种因素对特定群体或者行为产生系统性歧视。这种偏差的出现并不是偶然发生的,它的根源可追溯至以下三方面:


数据样本存在偏差。用来训练模型的历史数据在来源方面、时间方面、区域方面或者行业方面若存在结构性失衡,那么算法就会在无意识的状态下学习并且把这种偏见给固化下来。例如,若某一特定行业(如电商行业)在历史审计中被过度关注,AI模型在完成训练之后,有可能会把这个行业的纳税人普遍都标记成“高风险”,这样一来就会导致这些纳税人受到不公平的税务审查。[2]这样的结果并不是因为纳税人个体的行为所导致的,而是算法对历史偏见进行了简单的复制以及放大,这对“同案同判”的税收公平原则造成了严重的挑战。


设计者的价值偏好。在算法的设计者进行模型构建、开展特征选择以及实施参数调整的过程当中,他们自身所有的主观价值判断以及存在的认知局限,会在不知不觉当中嵌入到算法里面。为了能够追求模型有较高的准确率,设计者有可能会牺牲掉模型应有的公平性,过度地去依赖某些比较容易获取到但可能存在着偏见的数据特征,这样一来就会导致算法做出的决策和税收法治所追求的公平正义相背离。


模型结构存在缺陷。一些复杂的深度学习模型,它们内部有非线性结构,而且参数之间的关系也很复杂,这就导致偏差很难被人工识别出来,也难以进行纠正。即便初始数据是中立的,设计意图也是中立的,但是模型在自我进化的这个过程当中,也有可能产生一些非预期的、带有歧视性的结果,而这就构成了算法本身所固有的不确定性风险。


2.“算法黑箱”效应:权力失衡与权利受损

“算法黑箱”指的是,算法在运行时的逻辑以及做出决策的过程,外界是没办法知道的,算法的输入即数据,输出即决策结果,这两者之间缺少透明的、能够解释清楚的逻辑链条。在税务领域中,算法黑箱的这种技术特性会带来双重的困境。


纳税人所拥有的“知情权”和“救济权”空洞化。税务行政行为有透明性以及可解释性,这是纳税人能够行使知情权的关键前提条件。然而,因为税务AI模型,尤其是深度学习模型,有非常高的复杂性,纳税人没有办法理解税务风险提示或者稽查决定的具体依据,无法知道是哪一笔交易、哪一项数据被算法标记成了异常,也没有办法去判断这个决策是否公正合理。这种信息不对称的状况直接虚置了纳税人的知情权,当纳税人对AI作出的不利决定提出不同意见的时候,由于没办法知道决策的逻辑,无法有针对性地去进行陈述和申辩,并提供有效的证据。这样一来,法律所赋予的申辩权、复议权和诉讼权就很难在实质上得到行使,从根本上削弱了纳税人的法律救济途径。


税务机关存在权力失衡与内部监督的困境。高度依赖人工智能做决策的模式之下,税务人员所扮演的角色有可能会被简单地归结为“算法执行者”,从而导致行政裁量权被算法“绑架”。这种人与机器关系的颠倒,导致本应由人类来行使的行政权力被非人格化的算法所控制,进而造成权力的失衡。由于算法具有复杂性和保密性的特点,税务机关内部的审计和监督部门也很难对算法是否公平、是否符合规定进行有效的评估,这就使得内部问责机制没办法有效运行,为权力滥用和不当决策提供了温床。


二、域外人工智能在税务领域应用的法律规制经验借鉴


随着人工智能的兴起,世界各国和地区已纷纷就其风险规制问题进行了立法与实践方面的探索。


(一)欧盟的“风险分级”与“数据主体权利保障”模式


欧盟是全球人工智能立法方面的先行者,它的规制体系重点在于“风险分级”与“数据主体权利保障”。《通用数据保护条例》(GDPR)是数据保护领域具有里程碑意义的立法,它对自动化决策的规制给人工智能在税务领域的应用提供了重要参考。虽然GDPR没有明确规定“算法解释权”,但其第十五条(访问权)与第二十二条(自动化决策限制)给数据主体提供了获取数据处理信息以及挑战自动化决策的法律依据,对缓解算法“黑箱”问题有一定帮助。第十五条规定了数据主体的访问权,使数据主体可以知晓其个人数据被处理的状况,从而便能保证纳税人对于影响自身权益的决策拥有基本的知情权。[3]第二十二条明确规定数据主体有权利不受仅仅基于自动化处理的决定约束,这就意味着对于涉及税务处罚或者纳税额度调整等影响公民核心权利的决定,必须有人员介入,纳税人也有权要求进行人工复核。


在GDPR的基础之上,欧盟颁布的《人工智能法案》进一步确立了AI系统的风险分级管理模式,它把AI系统划分成了“不可接受风险”“高风险”“有限风险”和“最低风险”这四大类别,考虑到税务领域所使用的AI系统,尤其是那些用于税务稽查、风险评估以及纳税信用评分的系统,是直接和公民的财产权利以及商业信誉相关联的,应被划分到“高风险”这个类别当中。[4]一旦这些系统被列为高风险系统,那么它就会受到非常严格的约束,这些要求包括必须有强制性的技术文档、数据治理义务、透明度义务以及人工监督机制等。这种以风险为依据的分级监管思路,为我国在修订《税收征管法》时划定AI应用的边界,提供了具体且有可操作性的参考。


(二)德国的“不涉自由裁量权”模式


德国在税收和行政法领域对人工智能进行的规制是有前瞻性的,《德国税收通则》第一百一十八条第3款有明确的规定,行政机关是可以使用自动化设备来作出行政行为的,不过这个行政行为不能涉及自由裁量权。这一规定给税务AI的应用划分了清晰的边界,即AI的应用范围是被严格限制在不需要行政机关进行价值判断和主观决定的事务性工作方面的,例如基于既定公式的税款计算、对发票进行自动比对等工作。而对于涉及税务违法行为认定、处罚尺度等,因涉及自由裁量权,法律明确禁止AI完全自动化。这一原则与我国的《中华人民共和国行政许可法》中关于自由裁量权的规定相符,为我国未来立法工作提供了范本。


(三)澳大利亚的“人机协同”理念


和德国的立法情况相呼应,澳大利亚在借助人工智能来开展税务征管工作中强调了“人机协同”这一核心理念。税务机构在运用人工智能系统完成风险分析之后,依旧需要税务官员来进行人工审查,并且做出最终的决策。这种实践模式突出凸显了“人”在最终决策过程中的核心地位,人工智能起到的是“辅助”作用,而并非“主导”作用。这样做避免了因人工智能决策的机械化以及“一致化”,从而导致对具体个案情境的忽视,且和我国所秉持的“以人为本”的法治理念是高度契合的。


三、我国人工智能在税务领域应用的风险规制路径构建


人工智能技术在税务领域的应用若缺乏有效的规制措施,将可能对纳税人的合法权益造成侵害,并对税收法治的公平正义原则构成挑战。笔者认为,应构建一套多维度、系统性的人工智能税务风险规制路径,在充分利用技术赋能的同时,最大限度地保障法治原则的落实,实现人工智能与依法治税的深度融合。


(一)制定人工智能在税务领域应用的专门性法律规范


我国可以采取“小步快跑”类型的立法策略,积极主动地去探索人工智能在税务领域应用的法律规范体系。笔者认为,在修订《税收征管法》时增设“智慧税务”专章或者由国家税务总局出台一部独立的《人工智能税务应用条例》,从立法层面来明确AI在税务领域的合法性、适用的边界范围以及基本的原则。在进行立法的过程当中,严格地把AI能够辅助开展的事务性工作和必须由人工来负责的自由裁量行为进行区分,例如数据审核、风险预警等工作由AI辅助完成,但是重大税务行政处罚、裁定等工作就必须由人工负责。此举旨在以《税收征管法》为依据,给AI划定权力的边界,避免它侵犯纳税人的合法权益。


在数据治理及隐私保护方面,应在《中华人民共和国个人信息保护法》的框架下,制定更加细致、更具可操作性的实施细则。要求税务机关在运用人工智能开展工作时,必须严格按照“合法、正当、必要”的原则,明确涉税数据的收集、处理、共享、销毁等环节的规范操作,并建立一个独立的第三方审计机制,确保数据的安全性。在《中华人民共和国个人信息保护法》第五条规定的“最小化原则”基础上,针对税务数据的特殊性,制定出更加严格的收集范围限定措施,防止数据被滥用,从根源上保障公民的隐私权利。


(二)完善纳税人权利保障与救济机制


借鉴GDPR的经验,让法律赋予纳税人一系列程序性的权利,保障纳税人在人工智能决策过程当中的合法权益。如引入“算法知情权”和“算法解释权”,税务机关对于那些可能会对纳税人权益产生影响的自动化决策,有责任提供能够让人理解的、清晰明白的决策逻辑说明,并且要在决定文书里面写清楚算法辅助决策这一事实,以此保障纳税人的知情权。构建“人机协同”的复核制度,明确规定只要是基于人工智能高风险算法作出的不利决定,纳税人就有权利要求进行人工复核。税务机关需要设立专门的复核程序,让税务人员重新审查所有的事实和证据,不受AI决策预设的影响,保障纳税人的“告知-听证”等正当程序权利得以实现。这一机制是保证个案能够实现正义的最后一道防线。


明确法律责任以及损害赔偿的机制,为纳税人提供有效的救济途径。应在《中华人民共和国国家赔偿法》的基础上,明确因算法缺陷或者数据错误导致行政行为违法并损害纳税人权益的赔偿责任主体。可以采用“推定过错”的原则,在没有办法证明AI决策不存在缺陷的情况下,就推定税务机关或者算法提供方是存在过错的,这样就能降低纳税人的举证负担。《中华人民共和国民法典》等相关的法律也应该明确因数据泄露等行为所造成的民事侵权责任,形成多层次的法律保障体系。


(三)技术与组织层面的协同规制


除了法律层面的完善,技术和组织层面的配套措施同样至关重要,三者应协同作用,形成一个闭环的规制体系。在技术层面上,为了解决“算法黑箱”问题,税务机关应该主动引入LIME、SHAP等可解释性人工智能技术,用可视化的方式呈现AI的决策依据,为人工审查以及纳税人理解和解释提供技术方面的支持。须健全数据治理与质量监控体系,设立一个由税务、法律和技术专家共同组成的跨学科数据伦理委员会,委员会负责审查AI应用的数据采集、模型训练以及决策的过程,预防和消除算法偏见。除此之外,还应该制定统一的数据质量标准,对多源数据的接入进行严格的审计和校验,从源头开始确保数据的真实性、完整性以及一致性。建立独立的算法审计团队,定期对算法的公平性、准确性和透明度进行评估,保证算法符合法律和伦理方面的要求,并且要向管理层和外部监管机构报告审计的结果,实现有效的内部监督。


在组织方面,必须强化“人机协同”这种模式,切实落实多层级的问责机制。应重新定位税务人员的角色,使其从单纯的“数据录入员”与“结果执行者”,转变成为“AI系统的监督者、管理者以及最终决策者”,并提升他们的技术和法律素养,以确保最终决策有合法性和正当性。除此之外,税务机关的内部要明确各个环节的权力和责任,对于没有按照规定履行审核义务,进而导致错误决策的税务人员问责。借助和第三方服务商签订相关协议,明确技术故障的责任承担,构建一个闭环的责任追究体系,确保任何一个环节出现的错误都能够得到追溯和纠正。


结束语


人工智能的引入,为我国税收治理现代化注入了前所未有的动能,然而技术的跃迁不能凌驾于法治的根基之上。税务行政是公权力运行的关键部分,我们应以制度为引领方向的先导,以纳税人的权利为核心内容,防止人工智能异化为新的不透明权力。在未来进行制度设计时,应该在保障纳税人权利、强化责任追究以及提升透明度的基础条件之下,合理地去界定人工智能的应用范围和边界,确立“人机协同”这样一种基本的运行模式,让人工智能真正成为依法治税的有力帮手,而不是成为对依法治税的挑战因素。在数字经济蓬勃发展的时代背景下,推动智慧税务的建设工作和税收法治形成良性的互动关系,才能实现技术进步和法治文明共同向前发展。




注释:

[1]参见杜津宇,王洪亮.税收征管数字化转型中的合成数据应用[J].税务研究,2023,(07):62-69.

[2]参见吴晓涵.关于大语言模型在税收领域应用的研究[J].张江科技评论,2024,(04):126-128.

[3]参见杨小强.国际比较视角下健全有利于高质量充分就业的增值税制度探讨[J].中国税务,2025,(08):31-33.

[4]参见李雪野.浅析RPA技术在税务领域的应用及发展[N]. 财会信报, 2024-09-23 (007). 





律师简介




吴迪 专职律师

(头像以作者照片为原型,使用ChatGPT和Midjourney绘制)

执业证号:14401201910114576

专注领域:人工智能新兴领域、大湾区法律制度协同与区际合作、知识产权等

澳门国际仲裁学会副研究员、广东省法学会工业法治研究会理事、第十一届广州市律师协会低空经济法律专业委委员、第三届广州市律兴律师业务发展研究院立法研究中心委员,TCIAC仲裁员、法律硕士。先后为多家大型国企、上市公司提供法律服务,主办诉讼案件近百宗,成功处理多起标的额高、法律关系复杂、涉及跨领域专业问题的重大案件。


程慧华 专职律师

执业证号:14401201910086379

专注领域:财税法律事务,公司法律事务,公司并购、合并、破产清算及民商事诉讼等

广东省农业农村厅金融库专家成员、广东省法学会工业法治研究会理事、第十一届广州市律师协会税务与海关业务专业委委员及财务与资产管理工作委委员、广东省破产管理人协会第一届审计专业委委员。具有执业律师、注册会计师、注册税务师多重执业资格,曾就职于某会计师(税务师)事务所有限公司长达13年,对各类型的企业财务报表审计、各类型项目的专项审计、税务规范核算、股权收购、企业合并等有着丰富的实操经验。



往期回顾



点击下图即可查看本公众号学术、以案说法合集文章

*声明:本微信订阅号对所有原创、转载、分享的内容、陈述、观点判断均保持中立,推送文章仅供读者参考。本订阅号发布的文章、图片等版权归作者享有,如需转载原创文章,或因部分转载作品、图片的作者来源标记有误或涉及侵权,请通过留言方式联系本订阅号运营者。谢谢!


供稿/校对 | 吴迪、程慧华
初审 | 品牌部
排版 | 林思容
核稿 | 朱惠婷
审定 | 朱 滔

【声明】内容源于网络
0
0
广信君达律师事务所
广东广信君达律师事务所成立于1993年1月,2012年11月合并改制为广东省第一家采用特殊的普通合伙形式、实行公司化运营和专业化分工的大型综合性律所,致力于打造成为华南地区首屈一指、全国行业排名前十的专业法律服务机构。
内容 0
粉丝 0
广信君达律师事务所 广东广信君达律师事务所成立于1993年1月,2012年11月合并改制为广东省第一家采用特殊的普通合伙形式、实行公司化运营和专业化分工的大型综合性律所,致力于打造成为华南地区首屈一指、全国行业排名前十的专业法律服务机构。
总阅读0
粉丝0
内容0