大数跨境
0
0

国浩视点 | AIGC赋能数字政府法治建设的进路展望

国浩视点 | AIGC赋能数字政府法治建设的进路展望 国浩律师事务所
2026-02-04
2


摘 要

随着AIGC技术在数字政府领域的应用,其在强化跨部门协同、赋能数据驱动决策、提升政府治理科学性等方面展现显著价值,同时也推动了治理过程透明化、数据互通共享化与行政行为公正化目标的实现。但AIGC应用亦面临技术风险侵蚀行政领域、数据安全多重挑战及算法歧视侵蚀公平底线等问题。为实现AIGC技术赋能与数字政府法治建设的协同,需构建全链条规范治理体系,事前建立AIGC治理架构与制度,明确法律地位、完善评估机制;事中强化数据全生命周期管理,覆盖采集、训练、存储、流转等环节;事后通过分层透明、多元问责与权利救济,保障算法透明度与可问责性。


本文荣获河北省法学会行政法学研究会2025年年会优秀论文一等奖

目 录

一、技术赋能:重塑数字政务治理效能

二、目标导向:锚定法治建设核心维度

三、风险审思:剖析技术应用潜在隐患

四、进路展望:构建全链条规范治理体系

五、结语

01

技术赋能:重塑数字政务治理效能

AIGC技术应用于数字政府建设,能够强化跨部门协同治理效能、赋能数据驱动决策优化以及提升政府治理科学水平,进而重塑数字政府的治理效能。

(一) 强化跨部门协同治理效能

AIGC具有较高的自然语言理解能力和文本生成能力,能够消除政府不同部门之间的知识和专业术语壁垒,为政府实现跨部门协同提供关键支撑[注1]一方面,AIGC借助政务专用大模型的预训练机制,可以打破部门间专业术语壁垒和信息孤岛,实现治理资源的动态整合,契合“一网统管”的改革逻辑。另一方面,借助多模态数据处理技术,AIGC能够实现实时交互反馈跨部门的业务办理进度,推动行政组织扁平化,例如黑龙江“九天・海算政务大模型”是中国移动基于近年来积累的丰富数字政府建设经验所打造的面向政务领域的行业大模型,具备强大的政务事项理解能力、多维度的信息关联能力、面向复杂事项和复杂流程的多元交互能力,已完成十余万次政务问答,显著提升跨部门响应效率。相较于传统协同模式,AIGC通过技术适配性化解了政务数据格式不统一、部门利益壁垒等固有难题,为构建整体性治理体系提供技术基础。

(二) 赋能数据驱动决策优化

AIGC以技术特性为数字政府决策优化提供核心支撑,推动行政决策从经验主导向数据驱动转型[注2]。一方面是依托海量政务数据处理能力,AIGC可深度挖掘政策文本、民生反馈、监管记录等多源数据,通过可视化生成呈现决策参考,依托人工智能强大的计算和分析能力,,还通过引入数据采集技术、深度数字分析、精准建模以及高度仿真的虚拟环境等创新手段,推动政府决策向数据驱动、直观可视及全面优化的方向迈进。另一方面是借助人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)技术,AIGC能动态优化决策模型,捕捉人类偏好,减少逻辑推理中的错误,预测政策执行效果,例如预测公共服务覆盖度、风险预警精度,弥补传统经验决策的局限性。

(三) 提升政府治理科学水平

AIGC通过技术特性与行政治理需求的适配,从精准性、客观性、效率性三方面提升政府治理科学水平。在治理精准性上,AIGC依托用户画像技术深度分析公众需求数据,可识别农村、欠发达地区等特定群体的政务诉求差异,推动公共服务从普惠式供给向个性化适配转型,破解传统治理中一刀切的局限。在治理客观性上,其算法中立性可减少人为干预,如在行政处罚、行政许可等裁量场景中,AIGC基于预设规范与多维度数据生成处理方案,规避选择性执法、偏私行政等治理顽疾,契合行政法公平原则。在治理效率性上,AIGC能自动化处理文书生成、咨询回复等重复性政务,如“科大讯飞星火数字社工系统”实现事件分析报告急速生成,释放人力投入核心治理环节,既提升行政效能,又为治理质量优化提供空间,构建精准、公平、高效的科学治理体系。


02

目标导向:锚定法治建设核心维度

建设数字法治政府,应当以推进治理过程透明化、实现数据互通共享化以及保障行政行为公正化作为价值目标。

(一) 推进治理过程透明化

推进治理过程透明化是AIGC赋能数字政府法治建设的核心目标之一,其本质是通过技术适配性落实公法领域的民主原则、法治原则与基本权利保护原则,弥合传统数字治理中信息不对称与程序不完整的短板[注3]。从规范逻辑看,透明化的核心要求体现在两方面,一是决策依据与逻辑的公开,二是行政程序与结果的可追溯,而AIGC通过技术特性为这两项要求提供了实现路径。

在决策依据与逻辑的公开层面,AIGC可破解政务信息碎片化、专业化难题。一方面,AIGC依托自然语言处理技术,能整合分散于各部门的政策文本、法规条文与裁量基准,转化为通俗化解读内容,如政务大模型可将复杂的税收优惠政策、行政审批流程拆解为问答式指南,保障公众对决策依据的知情权。另一方面,针对AIGC辅助生成的决策方案,可通过可视化技术呈现数据来源、算法参数与推导逻辑,避免算法黑箱导致的决策正当性质疑,契合政府信息公开时以公开为常态、不公开为例外的原则。

在行政程序与结果追溯层面,AIGC可以满足程序正当这一数字政府法治建设要求。一方面,在交通违法自动处罚、社保待遇自动核算等自动化行政场景场景中,AIGC可嵌入程序告知功能,主动向行政相对人推送决策主体、依据与救济途径,弥补传统自动化行政中告知缺失的程序瑕疵。另一方面,AIGC的数据记录功能可完整留存治理全流程信息,例如公众意见收集记录、决策调整轨迹,进而为后续监督与权利救济提供依据。

(二) 实现数据互通共享化

实现数据互通共享化,是AIGC技术赋能数字政府法治建设的关键目标与核心价值载体,其深层逻辑在于通过技术特性与制度规范的协同,破解政务数据治理的双重困境,既以技术适配性打破数据孤岛对治理效能的桎梏,又以法治框架构建数据利用与安全保护的平衡机制,这一导向与我国《数据安全法》《个人信息保护法》确立的安全与发展并重立法精神高度契合,亦是数字政府建设中数治与法治深度融合的必然要求。

从技术适配性维度看,AIGC对数据互通共享的支撑具有不可替代性。一方面,AIGC依托大语言模型的语义解析与格式转换能力,可破解政务数据异构性难题,对不同格式、不同维度的政务信息,AIGC能通过预训练形成的政务语料库,将异构数据转化为统一交互语言,实现一次采集、多端复用,避免传统数据共享中因格式不兼容导致的流通阻滞。另一方面,AIGC多模态数据处理能力可兼容文本、音频、视频等多元政务数据类型,如对行政执法过程中的笔录文本、现场视频、语音记录等数据,AIGC能实现跨模态整合与共享,为跨部门协同治理提供完整的数据支撑。

从法治框架构建维度看,AIGC推动的数据互通共享绝非无边界的自由流通,而需严格遵循公法原则与专门立法的限定。一方面,依据我国《数据安全法》,需对政务数据实施分类分级保护,将涉及国家秘密、核心政务的敏感数据排除在开放共享范围之外,共享前需完成安全风险评估。另一方面,依据我国《个人信息保护法》,对包含个人信息的政务数据,共享时需履行告知义务,敏感个人信息需单独取得数据主体明示同意,且需通过匿名化、加密脱敏等技术手段保障数据安全,严禁超出法定职责范围或授权目的进行数据共享。

这种技术赋能与法治约束相结合的双重逻辑,既是AIGC推动数据互通共享的正当性基础,也是数字政府法治建设中保障安全与促进发展目标协同实现的关键路径。

(三) 保障行政行为公正化

保障行政行为公正化是AIGC赋能数字政府法治建设的价值目标之一,其本质是通过技术特性消解传统行政中的人为偏私风险,同时以公法原则与制度设计防范技术自身可能引发的算法不公,最终实现技术理性与价值理性在行政公正领域的协同[注4]

从技术赋能行政公正的维度看,AIGC的作用在于以算法中立性减少人为干预,保障行政行为公正化。一方面,在行政裁量场景中,AIGC可基于预设的法律规范、裁量基准与多维度客观数据生成标准化处理方案,避免因执法人员个人偏好、利益关联或认知局限导致的裁量失衡。另一方面,在公共资源分配场景中,AIGC可通过用户画像技术精准识别不同群体的需求差异,在数据驱动下实现资源分配的精准化公平,既避免传统普惠式分配对弱势群体的隐性忽视,也防止“关系行政”导致的资源倾斜。


03

风险审思:剖析技术应用潜在隐患

AIGC应用于数字政府法治建设,其风险主要表现为技术风险对行政领域的侵蚀、数据安全面临多重挑战以及算法歧视侵蚀公平底线这三个方面。

(一) 技术风险侵蚀行政领域

AIGC技术在数字政府中的应用并非无风险的工具,其技术特性衍生的固有风险可能侵蚀行政领域,打破传统行政法治的平衡状态,甚至引发合法性危机[注5]。这种风险侵蚀并非单一维度的技术故障,而是技术逻辑与行政法治逻辑的深层冲突,若缺乏有效规制,技术风险将转化为行政权力运行的偏差,损害数字政府的法治根基。

从风险类型看,技术风险对行政领域的侵蚀主要体现在不可追溯、信息失真以及技术失控三个方面。一是算法黑箱导致的行政决策不可追溯风险。AIGC的智能涌现依赖复杂的大模型训练与参数运算,其决策过程具有高度不透明性,即便行政机关自身也难以完整解释决策逻辑,这种黑箱特性与行政法说明理由原则直接冲突。二是技术缺陷引发的行政信息失真风险。AIGC存在生成虚假信息的缺陷,在政务信息公开、政策解读等场景中,可能扭曲法规条文、编造不存在的政策依据,如误将征求意见稿解读为生效法规,或虚构行政程序要求。这种信息失真不仅误导公众,更可能导致行政机关自身依据错误信息作出决策,引发行政行为违法或无效的后果。三是技术自主性扩张导致的行政权力失控风险。随着AIGC自主学习能力提升,其可能突破预设的应用边界,在未获授权的情况下介入限制公民权利的行政领域,形成技术越权。这种自主性扩张违背职权法定原则,本质是技术权力对行政权力的不当侵蚀,可能导致行政权运行脱离民主控制与法律约束。

从风险成因看,技术风险之所以能有效侵蚀行政领域,一方面,行政机关对AIGC技术原理、风险阈值的认知不足,存在技术依赖或监管能力不足的现象;另一方面,现有行政法制度多基于传统行政模式设计,对AIGC引发的新型风险缺乏针对性规制。这种认知不足、制度滞后的叠加,进一步放大了技术风险对行政领域的侵蚀效应,亟需通过技术规制、制度完善的双重路径予以化解。

(二) 数据安全面临多重挑战

AIGC在数字政府中的应用以海量政务数据为基础,但数据安全面临采集、训练、存储、流转全生命周期的多重挑战,这些挑战不仅涉及个人信息权益与企业商业秘密的保护,更可能危及国家数据主权与公共利益,若缺乏有效规制,将动摇数字政府法治建设的信任根基。

从数据处理的环节看,数据安全风险主要存在于数据采集、数据训练、数据存储以及数据流转这些环节。一是从数据采集环节看,风险集中于过度收集与来源违法。AIGC为提升模型精度,存在跨平台抓取政务数据的倾向,部分应用场景中,行政机关可能超出法定职责范围,要求AIGC采集与履职无关的个人信息,违反《个人信息保护法》的最小必要原则;更有甚者,部分AIGC模型可能未经授权爬取其他部门未公开的政务数据,导致数据采集丧失合法性基础。二是从数据训练与存储环节看,风险集中于泄露风险与合规缺失。在数据训练阶段,AIGC处理数据时可能因技术漏洞导致敏感信息外泄;在数据存储阶段,部分行政机关为降低成本,将AIGC训练数据存储于第三方云平台,若未采取加密、访问权限管控等措施,易引发无限期留存、未授权访问等问题,违反《个人信息保护法》对存储期限的要求。三是从数据流转环节看,风险集中于跨境风险与共享失控。一方面,若数字政府引入域外AIGC模型,其数据跨境传输可能违反《数据出境安全评估办法》,导致政务数据脱离我国法律监管;另一方面,AIGC推动的跨部门数据共享可能突破负面清单限制,将本应受限的敏感数据纳入共享范围,形成共享即泄露的风险闭环。

从风险特点看,AIGC引发的数据安全挑战具有全链条、高危害特征,需从技术防护与制度规制双重维度构建防控体系,方能实现数据利用与安全保障的协同,为数字政府法治建设筑牢数据安全屏障。

(三) 算法歧视侵蚀公平底线

AIGC在数字政府中的应用虽始终强调技术中立,但其算法设计与运行过程中潜藏的歧视风险,正通过行政决策、资源分配等环节侵蚀行政公平底线[注6],若不加以规制,可能加剧社会不公,动摇数字政府的合法性基础。

从风险产生原因分析,算法歧视的根源包含数据来源陈旧、主观价值偏差、数据标注偏见等三方面因素。一是训练数据的数据来源陈旧,存在历史性偏见。AIGC的算法模型依赖海量政务数据训练,若训练数据本身包含对特定群体的隐性歧视,算法将通过数据复刻放大这种偏见,形成数据驱动型歧视。二是模型设计的主观偏好导致的价值嵌入偏差。算法开发者可能在模型参数设置、目标函数设计中无意识注入主观偏好,如在行政许可审核模型中,将“企业注册地是否位于发达地区”设为高权重参数,间接歧视欠发达地区企业,这种价值偏差通过算法包装后,易被伪装为技术中立的客观决策。三是人类反馈强化学习技术会将数据标注偏见放大。在人类反馈强化学习技术应用过程中,标注者对AIGC输出结果的打分可能受个人认知局限影响,如对女性申请人的职业资格审核标准更严苛,这种偏见通过反复训练被算法固化,最终转化为系统性的行政歧视。

从行政领域的具体危害看,算法歧视的影响已渗透至行政裁量、资源分配、公共服务等关键场景。在行政处罚中,AIGC可能基于地域标签对同一违法行为作出差异化处罚,违背过罚相当原则;在公共资源分配中,算法可能因家庭收入数据偏差,挤占弱势群体权益;在政务服务中,智能咨询系统可能因语言理解偏差,对使用方言或非标准普通话的公众提供低质量服务,形成语言歧视。更严峻的是,算法歧视具有黑箱性,行政相对人难以举证证明歧视存在,即便察觉不公,也因无法解读算法逻辑而难以获得有效救济,导致权利救济失灵,进一步削弱公众对数字政府的信任。

AIGC算法歧视对行政公平的侵蚀具有隐蔽性、系统性、难救济特征,需从数据治理、算法规制、权利救济三方面构建防控体系,方能守住行政公平底线,保障数字政府建设的法治方向。


04

进路展望:构建全链条规范治理体系

在AIGC赋能数字政府法治建设过程中,可以通过事前建立AIGC治理架构与制度、事中强化数据全生命周期管理、事后实现算法透明度与可问责这三个方面,构建全链条规范治理体系。

(一) 事前构建:建立AIGC治理架构与制度

事前构建AIGC治理架构与制度,是防范技术风险、保障其合法嵌入数字政府法治建设的基础性工程,既为技术创新预留合理空间,又通过制度预设筑牢法治防线[注7],契合《生成式人工智能服务管理暂行办法》[注8]“发展和安全并重、创新和依法治理相结合”的监管原则。

从顶层立法架构看,需在专项立法中明确公共部门AIGC应用的特殊规则。一方面,应在立法中明确AIGC的法律地位,基于行政助手理论界定其功能边界,明确AIGC仅可辅助行政决策、提供政务服务,不得独立作出限制公民人身权、财产权的行政决定,且最终行政责任仍由行政机关承担,避免因技术主体化导致责任虚置。另一方面,需设立公共部门AIGC应用专章,规定应用前的合法性审查、风险评估、公众参与等强制性程序,例如对涉及公共资源分配、重大公共利益的AIGC应用,要求行政机关事前提交包括技术方案、风险防控措施、公法价值校验结果在内的评估报告,经上级主管部门或第三方专业机构审核通过后方可部署,确保技术应用从源头符合合法、正当、比例原则。

从具体机制设计看,需建立分级分类的事前规制工具[注9]。一方面,完善合法性与风险评估机制,评估内容应涵盖三方面,一是权限合法性,审查AIGC应用是否符合职权法定要求,是否存在超越行政机关法定职责范围的情形;二是公法价值兼容性,校验技术应用是否符合民主原则、法治原则、基本权利保护原则;三是风险等级判定,根据AIGC应用场景、影响范围、权利关联度,划分低、中、高三个风险等级,对高风险应用强制要求召开听证会,征求公众、专家、行业协会等多方意见,确保评估的全面性与客观性。另一方面,引入监管沙箱机制,针对AIGC在数字政府中的创新应用,选择特定区域或特定领域设立试验场,在可控范围内测试技术效能与风险,通过小样本数据训练与局部场景应用,积累技术适配经验与风险防控方案,待沙箱测试通过、风险可控后再逐步推广,避免一刀切式规制抑制技术创新,或无规制推广引发系统性风险。

从责任体系构建看,需明确事前阶段各主体的义务与责任[注10]。行政机关作为AIGC应用的主导者,负有应用规划义务与审核义务,需制定本部门AIGC应用清单,对技术选型、数据来源、风险防控措施进行严格审核;技术提供方作为算法开发主体,负有合规开发义务,需向行政机关提交算法原理、训练数据来源、风险提示等说明材料,不得隐瞒技术缺陷或潜在风险;第三方评估机构作为独立监督主体,负有客观评估义务,需基于专业技术与法律知识出具评估意见,对评估结果的真实性、公正性负责。同时,立法需明确责任追究规则,若行政机关未履行事前审核义务导致AIGC违法应用,需追究相关负责人的行政责任;若技术提供方提供虚假材料或隐瞒风险,需承担赔偿责任,情节严重的禁止参与政府采购;若第三方评估机构出具虚假评估报告,需取消其评估资质并承担连带赔偿责任,通过义务与责任对应,确保事前治理架构落地见效。

(二) 事中管控:强化数据全生命周期管理

AIGC在数字政府中的应用以数据为核心生产要素,其数据处理的合规性、安全性直接决定技术赋能的正当性[注11],因此事中阶段强化数据全生命周期管理,既是防范数据泄露、滥用等风险的关键举措,也是落实《数据安全法》《个人信息保护法》全流程安全要求的核心路径。

一是在数据采集与清洗环节,管控重点在于坚守合法、必要、准确原则,从源头阻断风险传导。一方面,数据采集需严格遵循职权法定与最小必要双重限制,行政机关委托AIGC采集政务数据时,需明确采集范围与目的,严禁通过一揽子授权、默认同意等方式规避告知义务。另一方面,数据清洗需建立去偏差、去敏感双重机制,针对采集的政务数据,AIGC需通过算法过滤历史偏见数据,避免数据偏差传导至后续环节[注12],同时对敏感数据实施脱敏处理,对国家秘密、核心政务数据直接排除在AIGC处理范围之外,通过物理隔离确保数据安全,防止因数据源头不洁而引发后续风险。

二是在数据训练与存储环节,管控核心在于构建技术防护、权限管控的双重屏障,防范数据泄露与滥用。一方面,在训练阶段需引入数据可用不可见技术框架,行政机关可通过联邦学习、差分隐私等技术,让AIGC在不接触原始政务数据的前提下完成模型训练;同时需建立训练过程动态监控机制,实时监测AIGC对数据的调用记录,对异常访问即时预警、阻断,确保训练过程全程可控。另一方面,在存储阶段需落实分类分级存储要求,依据《数据安全法》对数据的分级标准[注13],将政务数据划分为核心数据、重要数据、一般数据,核心数据需存储于政府自建的安全服务器,重要数据可存储于通过安全认证的第三方云平台,一般数据可采用常规存储方式,但需设定固定存储期限,到期后自动销毁,避免无限期存储。

三是在数据流转与销毁环节,管控重点在于明确流转边界、终结责任,实现数据全周期闭环管理。一方面,数据流转需建立负面清单、安全评估制度,行政机关需制定AIGC数据流转负面清单,明确禁止流转的敏感数据类型;对允许流转的数据,跨部门流转前需完成安全评估,跨区域流转需符合地方数据管理规定,跨境流转需通过《数据出境安全评估办法》规定的评估程序,严禁未经评估擅自流转。另一方面,在数据销毁环节需落实彻底性、可追溯要求,当AIGC停止应用或数据达到存储期限时,需采用技术手段彻底销毁数据,同时需留存销毁记录,形成销毁可追溯、责任可追究的机制,确保数据生命周期的终结环节同样合规。

(三) 事后保障:实现算法透明度与可问责

AIGC在数字政府中的应用,其算法黑箱特性与行政权运行的可追溯、可问责要求存在天然张力,事后保障环节聚焦算法透明度与可问责性的双重实现,该环节需通过透明机制破除黑箱、问责机制压实责任、救济机制保障权利的三维架构,将AIGC算法运行的事后规制纳入法治轨道,确保技术赋能不偏离行政法治的核心目标。

一是通过透明机制破除黑箱。算法透明度的实现需避免一刀切式要求,应基于AIGC应用场景的风险等级与影响范围,构建差异化、可操作的分层透明体系[注14]。对低风险场景,可采用结果透明、简单说明模式,向用户公开决策结果,并简要说明数据来源与核心依据;对中风险场景,需升级为过程透明、技术说明模式,行政机关需公开AIGC的算法逻辑框架、训练数据的类别与范围,同时通过可视化技术呈现算法推导过程,让相对人可清晰追溯结果生成路径;对高风险场景,需落实深度透明、第三方审计模式,除公开算法原理、数据来源、决策过程外,还需委托独立第三方机构出具算法合规审计报告,重点核查算法是否存在歧视性参数、是否符合公法原则,审计报告需向社会公开,接受公众监督。

二是通过问责机制压实责任。AIGC算法应用的可问责性,需明确行政机关、技术提供方以及审核主体的多元责任链条,避免互相推诿责任[注15]。一是行政机关承担最终责任。根据行政主体责任原则,即便AIGC由第三方开发,行政机关作为应用主导者,对算法生成的行政决定负最终责任,若因算法缺陷导致行政行为违法,行政机关需首先承担撤销决定、赔偿损失等责任,再依据合同约定或法律规定向技术提供方追偿。二是技术提供方承担过错责任。技术提供方需对算法的安全性、合规性负责,若因算法设计缺陷、隐瞒技术风险导致损害,需承担赔偿责任,情节严重的,应禁止其参与政府采购活动,甚至追究刑事责任,这一责任设定可倒逼技术提供方强化算法合规开发[注16]。三是审核主体承担监督责任。对高风险AIGC应用的第三方审计机构、事前评估机构,若未履行审核义务出具虚假报告,需承担连带赔偿责任,并取消其审核资质,通过责任绑定确保审核环节的客观性与公正性。

三是通过救济机制保障权利。算法透明度与可问责性的最终目标,是为相对人提供有效的权利救济途径。一是赋予算法异议权。相对人对AIGC生成的不利行政决定,可在法定期限内向行政机关提出算法异议,主张算法存在逻辑错误、歧视性参数或数据偏差,行政机关需在法定期限内进行审查,必要时委托第三方机构复核,复核结果需书面告知相对人。二是完善行政复议与行政诉讼衔接。在行政复议中,复议机关需将算法合规性纳入审查范围,重点核查算法是否符合法律规定、是否存在程序瑕疵;在行政诉讼中,若相对人主张算法违法,可适用举证责任倒置,由行政机关举证证明算法的合法性与合理性,若行政机关无法提供算法逻辑、审计报告等证据,需承担败诉责任,这一规则可破解相对人举证难的困境。三是建立算法纠纷专门救济渠道。可在各级政府法制机构设立算法纠纷调解委员会,吸纳法学专家、技术专家、社会代表组成调解团队,对算法争议进行居中调解,为相对人提供便捷、高效的非诉讼救济途径,弥补诉讼程序周期长、成本高的不足。


05

结 语

AIGC为数字政府法治建设提供了技术革新的契机,其在效能提升与价值实现上的潜力值得肯定,但技术风险与法治约束的张力亦需审慎应对。未来需以立法完善为引领,以机制细化为支撑,将AIGC应用牢牢嵌入法治轨道,既释放技术创新活力,又坚守民主、法治与基本权利保护的底线,最终推动数字政府在法治框架下实现高质量发展,为国家治理现代化注入持久动力。


注释及参考文献

上下滑动查看全部

[1] 参见张洪雷:《生成式人工智能参与数字政府建设的技术跃迁、目标导向与可行路径》,载《南昌大学学报(人文社会科学版)》2023年第4期。

[2] 参见刘绍宇:《论数字政府中人工智能的法律地位与规范体系——以人工智能立法为背景》,载《行政法学研究》2025年第1期。

[3] 参见白文静:《人工智能参与数字政府建设的范式革新——基于行政领域人工智能通用大模型(GovGPT)的交互性敏捷治理》,载《西北民族大学学报(哲学社会科学版)》2024年第3期。

[4] 参见汪玉凯,吴风:《人工智能赋能数字政府建设的机制与路径》,载《国家治理》2024年第19期。

[5] 参见张娟:《生成式AI嵌入数字政府建设的审思与展望——基于强人工智能视域》,载《财经问题研究》2024年第7期。

[6] 参见程圆圆:《生成式人工智能嵌入数字政府的技术路径、潜在风险与制度规制》,载《昆明理工大学学报(社会科学版)》2024年第6期。

[7] 参见张凌寒:《生成式人工智能的法律定位与分层治理》,载《现代法学》2023年第4期。

[8] 网信中国:《生成式人工智能服务管理暂行办法》,https://www.cac.gov.cn/2023-07/13/c_169089832 7029107.htm,2023年7月13日。

[9] 参见刘玮:《ChatGPT类生成式人工智能嵌入数字政府建设:可供、限制与优化——基于技术可供性视角》,载《情报理论与实践》2023年第10期。

[10] 参见张琳琳:《人工智能司法应用的责任归结困境与解决路径》,载《当代法学》2023年第5期。

[11] 参见霍俊阁:《ChatGPT的数据安全风险及其合规管理》,载《西南政法大学学报》2023年第4期。

[12] 参见董超,王晓冬:《生成式人工智能在数字政府建设中的探索、挑战及建议》,载《数字经济》2023年第11期。

[13] 参见张峰,于乐,马禹昇等:《数据安全分类分级研究与实践》,载《信息通信技术与政策》2021年第8期。

[14] 参见杜洁:《生成式人工智能赋能基层政务服务:技术嵌入、角色重塑与实践路径》,载《兰州文理学院学报(社会科学版)》2024年第2期。

[15] 参见房娇娇,高天书:《生成式人工智能辅助行政决策的算法隐患及其治理路径》,载《湖湘论坛》2024年第1期。

[16] 参见陈全真:《生成式人工智能与平台权力的再中心化》,载《东方法学》2023年第3期。

作者简介

梁蕾

国浩石家庄合伙人

业务领域:行政诉讼法

邮箱:lianglei@grandall.com.cn

李资睦

国浩石家庄律师

业务领域:数据合规、个人信息保护、民商事争议解决

邮箱:lizimu@grandall.com.cn

【 特别声明:本篇文章所阐述和说明的观点仅代表作者本人意见,仅供参考和交流,不代表本所或其律师出具的任何形式之法律意见或建议。】

【声明】内容源于网络
0
0
国浩律师事务所
传播法治理念、解读政策法规、研讨律师实务、分析典型案例、评析法律热点、透视财经信息、发布国浩动态。
内容 7464
粉丝 0
国浩律师事务所 传播法治理念、解读政策法规、研讨律师实务、分析典型案例、评析法律热点、透视财经信息、发布国浩动态。
总阅读13.2k
粉丝0
内容7.5k