致: 全体合伙人、律师及助理
发件人: AI律师事务所风险管理委员会主席
日期: 2025年11月20日
主题: 在法律诉讼中使用生成式人工智能的风险管理与职业责任
1.0 引言:目的与背景
本备忘录旨在根据西澳大利亚州最高法院(Supreme Court of Western Australia)发布的最新指导方针,为本所全体法律从业人员提供一个在使用生成式人工智能(Generative AI)辅助法律工作时必须遵循的明确框架。这份备忘录将最高法院的指导方针,转化为针对本所从业人员的强制性内部要求。
本所的立场是,我们必须以最审慎的态度驾驭这些新兴技术,确保其应用完全服务于客户利益并符合我们最高的职业标准。任何偏离都将是不可接受的。
请注意,本备忘录是律所内部的风险管理和最佳实践指南,所有从业人员必须严格遵守。

2.0 理解生成式人工智能:核心能力与根本局限
生成式AI并非一个具备思考或推理能力的实体。从根本上说,它是一种通过学习海量现有数据中的模式,来预测词语序列并生成新内容(如文本文档)的计算机系统。
最关键的一点在于,AI生成的内容绝不能被假定为正确。 其输出的质量和准确性完全依赖于其训练数据的范围和质量。
这一根本局限性对我们的工作具有重大影响:生成式AI 不能替代严谨的法律研究或人类律师基于经验的专业判断与监督。它是一个辅助工具,而非决策者。
因此,将AI生成的草稿直接用于客户建议或法庭文件,而未经过独立的、可验证的法律研究,本身即构成一种职业疏忽。 理解了这一核心局限,我们才能有效审视并防范其在法律实践中带来的具体职业风险。
3.0 首要原则:不可推卸的个人职业责任
无论我们使用何种技术工具,律师对提交给法院的文件的准确性、完整性和真实性都负有最终且不可推卸的个人责任。在使用AI辅助工作时,责任归属依然明确。
为杜绝任何模糊地带,风险管理委员会在此申明本所的根本立场,该立场不容丝毫妥协:
任何签署、认证或向法院提交文件的从业者,都将对文件的准确性和任何遗漏负全部责任。“文件由AI工具协助准备”不能作为任何错误或疏漏的辩护理由。
这意味着,在使用生成式AI时,每位从业者必须履行以下关键职责:
-
内容核实: 在签署或提交任何由AI辅助生成的文件之前,必须由您本人进行彻底的审查和核实,确保其中不存在任何误导性信息。 -
法律与事实依据: 您必须确保所有提交给法院的事实主张和法律论点都有适当、可查证的依据。 -
对法院的责任: 当法律从业者借助AI准备文件时,其对法院的责任和义务“尤为严峻”。
除了对文件内容负有个人责任外,保护客户信息也是一项至关重要的、不容妥协的义务。
4.0 关键风险识别与防范
以下从风险类别、 对法律实践的潜在影响、应对措施的角度,罗列与在法律工作中使用生成式AI相关的五大核心风险。所有从业人员必须对这些风险保持高度警惕。
-
过时信息
应对措施: 强制要求通过本所指定的权威法律数据库(如LexisNexis, Westlaw)进行交叉验证。任何未经核实的法律引用均不得出现在提交的文件中。
-
不完整性
潜在影响: AI在生成内容时可能会遗漏关键的法律论点、重要的事实细节或对客户有利的辩证思路,导致诉讼策略存在重大缺陷。
应对措施: 必须由经验丰富的律师对AI生成的内容进行全面的战略审查,确保论证的完整性和逻辑的严密性。
-
不准确与捏造
潜在影响: 这是最严重的风险。AI能够凭空捏造案例、判例或事实,并以极其自信和看似可信的方式呈现。在法庭文件中依赖此类‘幻觉’信息,无异于提交虚假证据,将导致灾难性的职业后果。
应对措施: 绝对禁止直接采信AI生成的任何案例或事实引用。所有引用都必须通过原始来源进行核实。提交任何包含捏造成分的文件将被立即上报至风险管理委员会,并启动正式的内部审查程序。
-
司法管辖区问题
潜在影响: AI可能混淆不同司法管辖区的实体法或程序要求,提供不适用于具体案件的法律和程序的建议或文件草稿。
应对措施: 必须确保所有提交给法院的文件内容完全符合具体案件的相关法律和程序规定。
-
偏见
潜在影响: AI的训练数据可能包含固有的社会偏见,导致其生成的内容带有歧视性或不公正的倾向。此外,AI无法理解特定案件中微妙的文化或情感需求。
应对措施: 在处理涉及敏感背景或弱势群体的案件时,必须对AI生成的内容进行审慎评估,警惕并纠正任何潜在偏见。
5.0 核心要务:保护客户机密
保护客户机密是律师职业的基石,任何疏忽都可能导致无法挽回的后果。在使用生成式AI工具时,特别是公开可用的工具,必须遵守最严格的保密规定。
严禁将任何机密信息、受禁制令限制的信息或受法律专业特权保护的信息输入到任何公共或不安全的生成式AI工具中。
这些公共工具的商业模式通常依赖于用户数据。您输入的任何信息都可能被其运营商永久保留、用于训练其模型,甚至在未来的输出中透露给第三方,这等同于将客户的机密信息发布在一个不受控制的公共领域。
目前,本所仅批准使用[内部部署的AI模型/指定的供应商XYZ]。任何从业人员在工作中使用其他AI工具前,必须通过IT部门和风险管理委员会的安全审查与批准。每位从业者都有责任确保客户的机密信息不被披露给任何未经授权的第三方。在使用任何AI工具前,您必须仔细审阅其数据使用和隐私政策,确保其安全级别符合我们的职业标准。
6.0 具体文件类型的应用准则与披露义务
除上述一般原则外,所有从业人员必须严格遵守:
-
誓章与证人陈述书: 这些文件旨在反映证人的个人认知,必须“用证人自己的话”来起草。严禁使用AI生成的内容替代证人自己的声音。AI可用于格式整理或语法检查,但绝不能用于生成实质性内容。
-
专家报告与意见:专家报告的起草必须遵守《统一专家证人行为准则》。AI生成的内容不能替代专家以其自己的语言和专业知识所表达的独立意见。我们指示与本所合作的专家,应审慎评估并倾向于在其报告中明确披露对AI的任何实质性使用,以维护其证词的透明度和可信度。
-
对其他诉讼方信息的处理:严禁使用生成式AI处理从诉讼其他方获得的信息(如在证据披露程序中获得的文件),除非是为了诉讼的正常进行、已获得法院的许可,或该信息已被法庭接纳为证据。
-
对法院和各方的披露义务:我们使用生成式AI的方式绝不能误导法院或其他诉讼方。在法院指示,或在必要、适当的情况下,我们应主动向法院和其他诉讼方披露在准备相关材料过程中对生成式AI的使用情况。在决定是否披露时,应优先考虑透明度。未能及时和适当地披露可能会被对方或法院视为试图掩盖准备过程或误导法庭,从而损害我们的信誉。如有疑问,应倾向于披露并咨询合伙人。
7.0 总结
本所致力于在法律实践中以负责任和符合最高职业道德标准的方式采用新技术。生成式AI有潜力成为强大的辅助工具,但前提是我们必须驾驭它,而不是被它误导。
本备忘录的核心要求可总结为:
所有从业人员在使用生成式人工智能时,必须进行严格的人工监督、事实核查,并绝对保障客户信息的机密性。
最后,我谨代表风险管理委员会郑重声明,本备忘录中概述的指导方针是本所的强制性政策。任何违反这些强制性政策的行为都将被视为严重的专业失当,不仅会引发内部纪律处分,更可能对您的个人执业资格以及本所的声誉和客户关系造成无法弥补的损害。
如有任何疑问,请随时与风险管理委员会联系。
声明: 以上邮件,纯属虚构。如有雷同,纯属巧合。

