大数跨境

学术 | 人工智能在税务领域应用中的风险规制与制度回应(上)

学术 | 人工智能在税务领域应用中的风险规制与制度回应(上) 广信君达律师事务所
2025-11-24
2
导读:本文分成上下两篇,上篇从人工智能在税务领域应用的风险识别与分析的角度出发,提出了人工智能赋能税务行政的技术风险,包括数据质量风险、隐私与安全风险等,结合相关法律法规的分析,探讨人工智能应用带来的正当程

摘要

人工智能在税务领域的应用,既为征管效率的提升提供了可能,也带来了数据偏差、算法黑箱与责任模糊等风险。这些风险一方面源于数据和算法自身存在的内在缺陷,另一方面也反映出法律制度滞后所导致的结构性不足。本文在剖析我国现实困境的前提下,提出借助专门立法明确人工智能在税务领域的适用界限,完善纳税人权利保障和救济机制,并且构建跨学科协同的技术与组织规制体系,达成人工智能赋能与税收法治原则的协调一致。


本文分成上下两篇,上篇从人工智能在税务领域应用的风险识别与分析的角度出发,提出了人工智能赋能税务行政的技术风险,包括数据质量风险、隐私与安全风险等,结合相关法律法规的分析,探讨了人工智能应用带来的正当程序困境,归纳了纳税人知情权与救济权的减损问题。


关键词:人工智能、数字经济、智慧税务、算法风险、正当程序




人工智能在税务领域应用的风险识别与分析


税务行政作为公权力行使的核心领域,其引入新兴技术须经严格的法治审查。人工智能赋能税务行政,在提升行政效率的同时,也给传统税收法治原则带来前所未有的挑战。


一、技术赋能层面的风险:数据管理风险


(一)数据质量风险

数据的质量直接影响人工智能模型输出结果的可靠性,而涉税数据本身具有复杂性,这就使得数据质量方面的风险显得格外突出。[2]在“智慧税务”背景下,税务机关所使用的AI系统需要依靠海量的涉税数据,这些数据的来源已经远远超出了传统纳税人自主申报的范围,已经扩展到了银行、工商、海关等部门。数据量大幅度增多能够提高AI模型预测的精准程度,但是不同的数据源在采集标准、格式规范以及更新频率这些方面是存在差异的,在开展数据整合工作时容易出现偏差、冗余以及遗漏等状况,进而形成“外生偏见”,这种偏见并非由算法本身引发,而是数据输入端存在的固有缺陷造成的。若纳税人对新税收政策的理解不够准确,导致填报出现错误,又或者不同政府部门的数据字段定义不同,这些情况有可能会让AI模型在进行风险评估时,依据错误的信息得出不恰当的结论,从根本上对税收行政的准确性和公平性造成影响。


更深层次的风险是“内生偏见”。AI模型的核心逻辑是学习历史数据,并识别这些数据中的模式,其输出的公正性在很大程度上取决于训练数据是否“纯洁”,若训练数据包含了历史性或者结构性的不公,那么AI肯定会复制并且放大这种偏见,最后就会生成带有歧视性的决策结果。在税务领域,这种情况具体表现为样本偏差,如过度关注特定的行业或者纳税人类型;也有可能表现为标签偏差,如对纳税人的行为进行主观标记。[3]这种内生偏见会让AI的决策结果看上去是客观中立的,可实际上在无形中加剧税收的不公平,这与税收法定原则所包含的普遍适用性以及实质公平原则相违背。


(二)数据隐私与安全风险

为了实现精准的监管和高效的执法,税务机关有必要对纳税人进行全面的数据采集和分析。目前,数据采集的范围已经延伸到纳税人的银行流水、社保缴纳、交通出行记录等大量的个人信息领域。根据《中华人民共和国税收征收管理法》第八条的规定,税务机关负有为纳税人保密的义务。数据高度聚合之后产生了巨大的经济和社会价值,也让它成了网络攻击的首要目标,这种“数据金矿”效应意味着数据管理系统一旦被入侵,纳税人的商业秘密和个人隐私就会面临灾难性的泄露风险,就可能导致纳税人面临经济损失、名誉损害、身份被盗用等情况,直接侵犯了《中华人民共和国个人信息保护法》所确立的纳税人作为数据主体的隐私权和个人信息自主决定权。


虽然《中华人民共和国税收征收管理法》第八条以及《中华人民共和国民法典》第一千零三十九条都规定了国家机关及其工作人员的保密义务,但是因为权限管理不够严格,或者工作人员缺乏保密方面的意识,涉税数据还是存在着被非法使用或者被滥用的可能性。AI模型在进行数据分析工作时,可能在没有获得授权或者没有告知纳税人的情况下,把敏感信息用在非税收相关的目的。例如,用来评估税收风险的AI模型,其所输出的结果有可能会被用来对纳税人进行信用评级或者用于商业决策,此类行为违背了《中华人民共和国个人信息保护法》所确立的目的限制原则。


二、法律与行政程序层面的风险:正当程序困境


(一)纳税人“知情权”与“救济权”的减损

根据《中华人民共和国税收征收管理法》第八条的规定,纳税人是享有知悉税收法律法规以及程序相关权利的。然而,AI算法的运作机制一般被税务机关当作国家机密或者商业秘密,很难向社会公众进行公开,如此“算法不公开”和“纳税人知情权”之间就产生了冲突,这就导致纳税人无法知晓税务机关做出决策的依据,进而失去了提出质疑的基础。[4]从行政法理的角度来说,这是对行政正当程序里“告知-听证”原则的根本性挑战。在传统的行政行为当中,行政机关有责任向相对人告知其做出不利决定的事实依据和法律依据,并且要给相对人提供陈述、进行申辩的机会,但是在使用AI决策模式的情况下,由于存在信息不对称的问题,这一原则很难得到落实。这种看不见、让人难以理解的“算法黑箱”效应主要体现在以下方面:其一,深度学习、神经网络这类复杂算法的运作逻辑已经超出了普通人能够理解的范围,甚至连技术专家也很难完全解释清楚其决策的过程;其二,为了防止纳税人借助反向工程的方式来规避税收监管,税务机关一般会特意隐藏算法的细节内容。这种黑箱效应使得纳税人无法获得实质性的解释,从而在税务争议当中处于绝对的劣势地位。


(二)责任认定与追究的模糊性

当税务方面的决定是由AI系统作出的时候,纳税人寻求救济的权利会面临实质性减损。纳税人虽然有权利凭借行政复议或者行政诉讼对税务决定提出异议,但因纳税人无法理解AI作出决策的逻辑,就很难有效质疑税务决定的合法性或合理性,虽然《中华人民共和国个人信息保护法》第二十四条给予了个人要求对自动化决策结果进行解释的权利,但税务属于公法领域,此条款的效力以及具体的落实仍存疑。此困境也会因税务人员对AI决策存在过度依赖,变得愈加严重。随着AI赋能税务工作,税务人员有可能从“决策者”退化为“执行者”,若税务人员对智能系统盲目信任或自身知识储备不够,他们可能无法对AI作出的决策进行独立的判断和审查,只能机械地去执行系统给出的指令。这不仅削弱了税务行政的“人性化”特点,还使得纳税人在面对错误决策时,难以获得有说服力的解释,最终实质上就失去了寻求有效救济的途径。这种情况与行政诉讼当中的“合理性审查原则”相违背,也与《中华人民共和国行政诉讼法》所保障的公民诉权产生了冲突。


三、技术伦理层面的风险:公平正义与责任认定挑战


(一)税收公平原则的挑战

AI决策的“一致化”与算法偏见对不同纳税人税负的潜在影响共同构成了对税收公平原则的挑战。AI模型的目的是从大量的数据中寻找其中存在的规律,并依据这些规律对相似的案例作出一致性的判断。[5]这种“一致化”的决策方式虽然在一定程度上提高了工作效率,但却有可能忽略每个具体案例的特殊情形,可能会对个别纳税人造成不公正的对待。例如,纳税人因突发事件导致经营出现困难,然而AI模型却可能因其数据表现异常,就将该纳税人标记为高风险对象,并对其实施严格的监管措施,完全忽视该纳税人所面临的具体困境。行政行为应在合法范围内,与所追求的目标相适应,不能超出必要限度。这种“机械执法”对行政法中的比例原则构成了挑战。


训练数据存在的偏见可能会导致AI模型对特定群体产生歧视,进而间接影响该群体的税收负担。[6]例如,AI可能会依据地理位置、行业规模等非实质性因素,对某些纳税人进行更频繁的审查,这增加了纳税人的税收遵从成本,破坏了“同案同判”及税收公平原则。美国威斯康星州法院所使用的COMPAS算法,曾被用来预测被告再次犯罪的风险。但由于它过分依赖历史数据,对非裔被告作出了系统性偏高的再犯预测,引发了广泛的社会争议和法律争议。同样的问题在税务领域也可能出现,尤其是在算法决策缺乏有效评估机制、审计机制和纠偏机制的情况下。


(二)人工智能自动化决策的伦理困境

当人工智能做出的税务决定最终被证明存在错误,该由谁来承担责任,是税务机关,还是技术开发主体?在没有明确法律规定的情况下,税务机关和技术开发主体之间可能会互相推诿责任,这样一来,纳税人所遭受的损害就无法及时获得赔偿。目前,我国法律对于“自动化决策”所引发的法律后果,还没有给出明确的责任划分。不管是适用民法典里的侵权责任编,还是《中华人民共和国国家赔偿法》等行政法规,都存在模糊性,这不仅妨碍了纳税人寻求有效的救济途径,还使税务机关和技术公司在承担责任方面面临不确定的状况,与行政法中权责对等原则相悖。


人工智能技术在税务领域的应用,虽为税务行政带来了前所未有的高效性与智能化,但在其应用过程中所暴露出的技术与法律风险,亦不可忽视。数据质量的不确定性、算法决策的“黑箱”效应以及纳税人知情权与救济权的减损,已构成当前税务法治面临的重要挑战。这些问题不仅暴露了现行法律框架的不足,更揭示了数据与算法在权力运行中的深刻伦理问题。


基于此,单纯依赖现有的法律体系,已难以有效应对人工智能技术带来的复杂性和风险。在此背景下,下篇将进一步深入探讨人工智能在税务领域应用的风险成因,并结合国内外的相关立法与实践经验,提出完善我国人工智能税务风险规制路径的建议,最终总结如何通过完善法律、技术和组织的协同规制体系来应对相关法律风险。或许通过对纳税人权利保障机制的完善、跨学科协同规制体系的构建,以及技术与组织管理的深度融合,方能在保障法治精神的前提下,推动人工智能与税务法治的有机融合。



注释:

[1]参见杨小强,王森.人工智能在税务领域应用中的风险及规制[J].税务研究,2023,(02):69-75.

[2]参见杨小强,孙于依然.数字经济背景下海关与税务机关的协同共治研究[J].海关与经贸研究,2023,44(04):66-81.

[3]参见李荣辉,罗伟平,董立峰,肖倩.人工智能赋能税收征管现代化的思考[J].税务研究,2023,(08):60-66.

[4]参见吕铖钢.税务人工智能的中国进程:基于税法理论的框架性讨论[J].现代经济探讨,2021,(01):122-126.

[5]参见国家税务总局深圳市税务局课题组,李伟,王晓明,蒋军民,肖倩,陈东可,王霄鹏,冯茜芦,康小雪.以ChatGPT为代表的生成式人工智能在税务领域应用的思考和建议[J].税务研究,2023,(06):5-9.

[6]参见张福伟,吴波,苗玉刚.生成式人工智能及其产出物的税收治理路径[J].国家税务总局税务干部学院学报,2024,37(06):16-25.





律师简介




吴迪 专职律师

(头像以作者照片为原型,使用ChatGPT和Midjourney绘制)

执业证号:14401201910114576

专注领域:人工智能新兴领域、大湾区法律制度协同与区际合作、知识产权等

澳门国际仲裁学会副研究员、广东省法学会工业法治研究会理事、第十一届广州市律师协会低空经济法律专业委委员、第三届广州市律兴律师业务发展研究院立法研究中心委员,TCIAC仲裁员、法律硕士。先后为多家大型国企、上市公司提供法律服务,主办诉讼案件近百宗,成功处理多起标的额高、法律关系复杂、涉及跨领域专业问题的重大案件。


程慧华 专职律师

执业证号:14401201910086379

专注领域:财税法律事务,公司法律事务,公司并购、合并、破产清算及民商事诉讼等

广东省农业农村厅金融库专家成员、广东省法学会工业法治研究会理事、第十一届广州市律师协会税务与海关业务专业委委员及财务与资产管理工作委委员、广东省破产管理人协会第一届审计专业委委员。具有执业律师、注册会计师、注册税务师多重执业资格,曾就职于某会计师(税务师)事务所有限公司长达13 年,对各类型的企业财务报表审计、各类型项目的专项审计、税务规范核算、股权收购、企业合并等有着丰富的实操经验。



往期回顾



点击下图即可查看本公众号学术、以案说法合集文章

*声明:本微信订阅号对所有原创、转载、分享的内容、陈述、观点判断均保持中立,推送文章仅供读者参考。本订阅号发布的文章、图片等版权归作者享有,如需转载原创文章,或因部分转载作品、图片的作者来源标记有误或涉及侵权,请通过留言方式联系本订阅号运营者。谢谢!


供稿/校对 | 吴迪、程慧华
初审 | 品牌部
排版 | 林思容
核稿 | 朱惠婷
审定 | 黄福轩

【声明】内容源于网络
0
0
广信君达律师事务所
广东广信君达律师事务所成立于1993年1月,2012年11月合并改制为广东省第一家采用特殊的普通合伙形式、实行公司化运营和专业化分工的大型综合性律所,致力于打造成为华南地区首屈一指、全国行业排名前十的专业法律服务机构。
内容 3538
粉丝 0
广信君达律师事务所 广东广信君达律师事务所成立于1993年1月,2012年11月合并改制为广东省第一家采用特殊的普通合伙形式、实行公司化运营和专业化分工的大型综合性律所,致力于打造成为华南地区首屈一指、全国行业排名前十的专业法律服务机构。
总阅读2.0k
粉丝0
内容3.5k