过去一年里,法律圈关于 AI 的讨论,已经从“能不能用”悄然滑向“怎么用才不出事”。技术本身的进步很快,工具也越来越顺手,但诉讼是一种高度制度化的写作:它不是写给读者的随笔,而是写给法院、对方当事人以及未来可能复核你每一个字的审查者的正式文件。也正因为如此,法院对 AI 生成内容的态度并不浪漫——它不关心你用没用工具,关心的是你递交上去的那份文件,是否真实、可核、可追溯。近期有一则引发广泛关注的新闻:美国联邦法院在一宗专利纠纷中,对多名律师作出经济处罚,原因并非他们“使用 AI”,而是他们提交给法院的文件里出现了 AI 生成的虚假案例引用与错误引述。对外行读者而言,这听起来像一个“写作失误”;对法官而言,这却触碰的是司法程序最敏感的神经:法庭文件的可信度。更关键的是,法院把这类风险视为“可预见的”,因此把责任坚定地放回到律师职业义务上——签字的那个人,不能把锅推给工具。我们先把法院真正惩罚的点讲清楚。很多报道在标题上会写“律师用 AI 写诉状被处罚”,但如果只记住这句话,容易得出错误结论:仿佛只要用了 AI 就会挨罚。事实上,法院并没有把 AI 当作“禁品”,而是把“未经核实的 AI 生成内容”当作程序风险。你可以用 AI 帮你整理结构、润色语言、把事实材料写得更清楚;但只要触及法源层面——判例、法条、引述页码、段落号、出处链接——你就必须像对待一份来自实习生的草稿一样,逐条复核、逐条闭环。否则,一旦出现虚构判例或错误引述,法官不会关心你是因为“忙”还是“信任工具”,只会问一句最朴素的问题:你为什么没有核查?回到这起近期的“标杆案”。在堪萨斯州联邦法院审理的一宗专利侵权诉讼中,原告方律师提交的文件被发现包含 AI 生成的虚假案例引用与引述。法院最终对多名签字律师分别处以罚款,合计约 12,000 美元,并要求其中与 AI 生成内容直接相关的律师将该裁定向纪律机构报告。此类裁定之所以被称为“标杆”,并不因为金额有多高,而在于裁判思路异常清晰:第一,哪怕只有一名律师实际使用了生成式 AI,其他在文件上签字的律师也不能以“不是我写的”为由免责;第二,签字责任并不是“我相信团队”,而是“我确保提交前完成必要的核查”;第三,AI 幻觉已被普遍认知为生成式模型的固有缺陷,既然缺陷可预见,律师就必须通过流程控制把风险消解,而不是把风险带到法院面前。相关报道与裁定逻辑,在权威媒体已有较充分披露。如果说这起案件告诉我们“法院会罚”,那么另一类案件则更尖锐地说明“法院罚的到底是什么”。在犹他州一宗上诉程序中,有律师提交的文件引用了并不存在的判例,其中被媒体反复提及的例子是“Royer v. Nelson”。后续调查显示,文件由非持证人员或团队支持人员借助 ChatGPT 生成,律师本人未作充分审阅与核查即提交。法院的关注点并不是“谁按了生成按钮”,而是“谁把未经核实的内容递交给了法庭”。换句话说,哪怕 AI 只是被当作“打字员”,只要它生成了虚构判例而你没发现,问题仍然是你的专业失职:你把核查义务外包了。该案的后果往往也不止罚款,可能包括承担对方费用、退还客户费用、向公益机构捐赠等具有惩戒和教育意义的安排。更值得律所认真对待的是:在部分法官那里,罚款并不是终点,而只是起点。近年来的趋势是,一旦 AI 造成的引用错误被法官认定为“严重、反复、或显示出对职业义务的轻忽”,法院可能选择更具威慑力的处置方式,比如要求律师退出案件、将裁定送达客户或移送纪律程序,甚至在资格层面作出限制。对律师而言,这类后果的“疼痛感”远高于金额本身,因为它直接影响客户关系、行业声誉乃至执业前途。对于“从罚款升级到纪律性处置”的趋势,主流媒体亦有专门梳理。为什么法院对这类问题反应如此强烈?答案其实并不复杂。第一,虚构判例会直接消耗司法资源:法官与对方当事人需要花时间去查一个并不存在的引用,诉讼的时间与成本被无端抬高。第二,它破坏了对抗结构的公平:诉讼的基本前提是双方围绕真实的事实与真实的法源进行博弈,虚假引用会把对抗变成“打假”。第三,它伤害的是法庭文件作为一种制度文本的信用:当“引用”不再可信,法官就只能通过更强监管来维护程序秩序。也正因如此,许多裁定中反复强调的并非 AI 技术本身,而是律师把一个已被广泛认知的技术缺陷带入法庭,并且未通过职业化的质量控制来纠正。讲到这里,很多同行会追问一个更务实的问题:既然效率压力摆在那儿,律所到底该怎么“合规用 AI”?我的建议是,把 AI 想象成一个“极会写作、但可靠性极差的实习生”。你可以让它起草,你甚至可以让它给出多种论证思路,但你不能让它决定引用什么、也不能让它替你完成 cite-check。真正可落地的路径,不是简单喊一句“谨慎使用”,而是把 AI 纳入律所既有的质量控制体系,并把“可审计”作为硬标准。所谓“可审计”,首先意味着你要明确边界:AI 在事实梳理、结构组织、语言润色上的价值通常是正向的,但在生成判例清单、判例要旨、法条条文、引述页码与段落号方面,其风险是结构性的。很多翻车都来自一种心理错觉:AI 写得太像“正经法律文本”,以至于人会在潜意识里降低警惕,忽略了对引用的逐条核验。其次,可审计还意味着“来源闭环”:凡是出现在诉状、陈述、意见书里的法源(判例/法条/引述/统计数据),必须能够回溯到权威数据库或官方出版物;没有来源支撑的内容,哪怕论证再顺,也不应进入最终提交件。再次,可审计意味着“双人核查”的最低配置:起草者核一次,签字律师再核一次,关键案件可引入第三道核查(例如专业支持团队独立核验)。最后,可审计需要“留痕”:不仅是为了应对潜在质疑,更是为了让团队在高强度节奏下仍能保持可复制的质量水平,避免依赖个人记忆与临场谨慎。在对客户沟通上,很多团队也需要更新表达方式。客户问“你们用 AI 吗?”最容易犯的错误是回答得过于防御,或者过于轻描淡写。更专业、也更能建立信任的说法是:我们可以在不涉及法源真实性的环节使用工具提升效率,但所有法条、判例与引述均由执业律师在权威来源中逐条核验,并由签字律师承担最终责任。这样回答的核心,不是展示“我们很先进”,而是展示“我们有控制风险的制度”。回到文章的起点:AI 并不是“禁止入庭”,它只是要求法律写作回到一种更古老、也更硬核的标准——可验证性。生成能力再强,如果不能被核查、不能被追溯、不能被解释,就不适合进入法庭的正式文本。未来真正能够长期、稳定把 AI 用在诉讼与争议解决中的团队,不会是写得最快的团队,而是最先把 AI 纳入质量控制体系、让每一个引用都能回到权威来源、让每一次使用都能说清楚“我们做了什么核查”的团队。(注:文中案例信息主要依据公开报道整理。具体裁定条文、罚款金额与纪律移送细节,以法院裁定原文及官方记录为准。)