这起名为Angwin v. Superhuman Platform, Inc.的案件,于2026年3月11日在纽约南区联邦地区法院正式提起,属于拟议中的集体诉讼,原告是资深记者Julia Angwin。
被告Grammarly 是一家在英语世界知名度很高的写作辅助平台,最早以“语法检查、拼写纠错、标点和句式优化”出名,后来逐步扩展成一套 AI 写作工具。它的常见使用场景包括写邮件、改简历、润色论文、调整语气、重写句子,既有面向个人用户的浏览器插件和桌面端,也有面向企业、教育机构的团队产品。
原告诉状直指Grammarly核心争议功能“Expert Review”(专家评审):用户在使用该功能修改文本时,界面会直接弹出“Applying ideas from Julia Angwin”(采纳Julia Angwin的观点)的提示,同步附上原告的详细职业介绍,随后在具体句段旁,以这位“专属专家”的名义给出文本修改意见。原告明确主张,平台上线该功能前,从未征得她及其他被冒用姓名者的任何同意,却将这项绑定真人身份的功能纳入商业付费体系,直接借此获利。
诉讼发酵后,Grammarly火速宣布停用该功能,CEO也公开发布致歉声明。但与此同时,公司表态将对相关法律主张“强烈抗辩”。被告态度反复的回应,也让这场官司的行业争议进一步升级。
核心辨析:本案瞄准的是“人格标识商业化”红线
很多人第一时间会把这起官司归类为“AI训练数据侵权”,但这恰恰是对案件核心的误读,两者有着本质区别。
Grammarly现行隐私政策与帮助页面中,明确写明用户可自主设置,决定是否允许平台使用“用户上传内容”训练AI模型,这类争议始终围绕“平台能否用用户内容优化模型”的数据边界展开,属于AI内容训练的传统纠纷。但本案的诉状核心,完全避开了这一赛道,没有纠结“平台是否偷偷读取了原告的文章”,而是聚焦一个全新命题:
平台擅自将真实作者的姓名、身份、职业履历与公信力,嵌入付费用户的建议界面,刻意制造用户与真人专家的关联错觉,把个体人格标识直接转化为产品功能。
从法律定性来看,这起案件已经彻底从“数据使用边界”,滑向了“人格标识商业化使用边界”,两者的法律风险与侵权性质,完全不在一个维度。
不少人会提出疑问:姓名、职业简介都是公开信息,为何不能被平台使用?核心矛盾就在于:个人公开信息,绝不等于商业主体可以随意拼装成产品组件的资源。姓名可以被正常报道、客观评论、合理引用,但一旦被放在收费功能界面,承担产品背书、流量转化、提升可信度的商业作用,其法律性质就发生了根本性变化。
诉状特别强调,Grammarly并非单纯提及原告姓名,而是以其身份输出具体修改建议,还允许用户插入更详细的建议内容,这绝非普通的“姓名引用”,而是把真人的身份信用彻底融入产品体验,变成了付费功能的一部分。说白了,平台表面卖的是AI写作润色服务,实则偷偷售卖“借来的名人专业信用”,这才是侵权的核心。
法律关键:免责声明挡不住侵权,主观善意不代表行为合法
Grammarly方面的抗辩理由,主要集中在两点:一是功能界面已通过提示文字,标注建议来自AI而非真人亲自修改;二是设计初衷是帮助用户接触“有影响力的观点”,并非刻意让用户误认作者本人参与编辑。但从法律逻辑来看,这类抗辩很难站得住脚。
法律评判此类侵权行为,核心看客观行为是否将个人身份资源用于商业牟利,而非企业主观上是否有“刻意冒充”的恶意。即便平台在角落标注了“AI生成”的小字免责声明,也不能成为擅自调用真实人物姓名、增强产品说服力的合法理由。
普通用户的核心感知,从来不是不起眼的免责文字,而是界面上直白的“Applying ideas from Julia Angwin”,这种直观暗示带来的权威错觉,远非一句小字能抵消。这就好比商业广告,不能因为标注了“效果因人而异”,就随意冒用医生、律师、作家的姓名做转化工具,免责声明只能减轻混淆程度,绝不能让未经许可的人格标识使用合法化。
也正因如此,原告没有将诉讼重心放在版权侵权上,而是重点援引纽约、加州针对姓名、身份商业使用的专门法规:加州民法第3344条明确保护个人姓名、肖像不被擅自用于广告或产品销售;纽约民权法第50条规定,未经书面同意,为广告、交易目的使用在世自然人姓名、肖像等,属于明令禁止行为。同时原告主张平台构成不当得利,借助冒用身份的功能获得订阅收入,却未向被侵权人支付任何对价。
这起官司的诉讼路径格外清晰:原告告的不是“平台读了我的文章”,而是“平台拿我这个人,去卖它的付费服务”。
深层本质:AI时代,人格资产比文本内容更值钱
这起案件撕开了AI行业不愿承认的真相:生成式AI产品的核心竞争力,早已不是单纯的文本生成能力,而是“身份映射”带来的权威溢价。过去互联网平台争夺的是作品版权,现在AI平台争夺的是人格资产,两者的伤害程度天差地别。
作品被擅自使用,伤害仅停留在文本层面,顶多涉及版权收益损失;但人格被平台挪用,伤害会直接击穿职业信誉、公众认知与个人商业议价能力。原告在诉状中明确提出核心担忧:用户会将AI建议误认为她本人的意见,一旦建议质量不佳,公众会直接对她的专业能力产生负面评价。
对于靠专业信誉立足的记者、律师、咨询顾问、学者而言,这种低成本的“AI虚拟专家化”,本质是对个人职业品牌的掠夺。平台无需付出任何成本,就把专业人士多年积累的公信力,变成了7×24小时待命的AI功能,当事人不仅没有任何收益,还要承担名誉受损的风险,职业控制权完全被剥夺。
行业红线:三层风险叠加,远比文本抓取更敏感
这起官司的意义,早已超出Grammarly单个企业的范畴,所有写作类、知识服务类AI产品,都触碰着同一条不可逾越的红线:
平台可以学习公开世界的表达规律,但绝不能未经许可,把具体自然人的身份、声誉、职业信用,打包成可销售、可调用的功能组件。
相比单纯的公开内容抓取,这种身份挪用行为,叠加了三层不可忽视的核心风险:
1. 识别风险:从抽象风格学习,变成具体身份指认。AI公司常以“抽象学习风格”为借口规避责任,但一旦界面直接出现真实姓名、履历、代表作,所谓的抽象学习就彻底变味,变成了“指定专家给出意见”,用户感知直接从“风格参考”转为“真人背书”,混淆风险瞬间拉满。
2. 商业风险:个人身份变成产品转化部件。当这项功能被嵌入付费会员、增值服务,个人姓名就不再是普通公开信息,而是提升产品吸引力、带动营收的核心转化工具。法律对这种将个人身份直接嵌入交易结构的牟利行为,敏感度极高,也是侵权定性的核心依据。
3. 控制风险:剥夺个体对自身人格的商业决定权。平台常以“信息公开”为由,辩称未损害个人利益,但对专业人士来说,核心价值不在于公开内容本身,而在于自主决定“在什么场景、以什么身份、向谁提供专业意见”。同意公开作品,不等于同意成为AI软件的虚拟编辑;同意风格研究,不等于同意名字绑定陌生AI建议,人格权的核心,本就包含对自身商业呈现方式的绝对控制权。
中美对标:制度不同,但底层合规风险高度一致
这场诉讼发生在美国,纽约民权法、加州公众权(Publicity Right)与中国的人格权、姓名权、个人信息保护规则,分属不同法律体系,不能直接照搬判决逻辑,但底层问题完全相通,对国内AIGC产品、内容平台、知识付费工具有着极强的现实警示意义。
国内平台最需要警惕的核心风险,同样是未经授权,将自然人身份标识与AI生成内容功能性绑定,进而商业牟利。在中国法律框架下,这类行为会直接牵动姓名权、肖像权、个人信息保护合规,同时涉嫌构成虚假引人联想的不正当竞争,严重时还会引发名誉权、信用利益纠纷。
国内平台最容易踩的误区,就是把“数据可得”等同于“身份可用”,把“公开可见”等同于“商业可调”。AI时代最珍贵的资源,从来不是文本内容,而是人与内容之间的稳定社会信任关联,擅自挪用这份关联,就是触碰合规红线。哪怕是公开的律师、医生、学者信息,一旦与AI咨询、润色、点评功能绑定,让公众产生“真人授权、认可、参与”的联想,进而提升产品销量,就已经构成实质性侵权风险。
行动指南:平台、创作者、用户该如何守住边界
这场官司给行业敲响了警钟,不同主体的核心行动方向,其实已经十分明确:
对AI平台与内容平台:放弃侥幸,建立前置授权机制
第一,摒弃“公开信息即可随意使用”的错误认知,但凡将姓名、头像、履历、风格标签用于产品背书、商业转化,必须建立明确的事前授权机制,杜绝默认抓取;第二,所有绑定真人身份的AI功能,需提前完善授权证明、使用边界、收益分配、撤回机制,绝不能先上线再被动处理投诉;第三,放弃小字免责的侥幸心理,核心看普通用户是否会产生真人参与的错觉,这才是法律与市场评判的核心。
对创作者与知识IP:把姓名信用当成核心资产维权
第一,转变维权思路,不止保护作品版权,更要把姓名、职业信用当成可经营、可维权的核心人格资产;第二,提前明确自身身份标识的商业授权边界,对头像、姓名、风格的使用规则做好书面留痕;第三,发现平台侵权时,不只看是否引用文本,更要核查是否制造真人关联错觉,抓住人格标识侵权的核心维权点。
对普通用户:警惕AI制造的“权威幻觉”
使用各类AI写作、咨询、评审工具时,看到“某专家给出建议”“应用某作家观点”的提示,不要轻信内容本身,先核实该专家是否真实授权、平台是否明确标注关联关系。AI带来的不仅是内容幻觉,更危险的是权威幻觉,借助真人姓名背书的虚假建议,很容易误导用户做出错误决策。
行业终局警示:信任比文本更难被修复
这起官司的最终判决尚未出炉,Grammarly的抗辩与法院对“广告目的”“身份挪用”的认定,仍需等待司法程序推进,但现阶段已经可以确定:争议核心绝非普通AI内容训练,而是未经许可挪用真人身份与信用牟利。
无论判决结果如何,这起案件都给全行业留下了一句核心警示:AI时代,最容易被偷走的不是文章,而是文章背后的人格与信任。平台如果把专业人士多年积累的信任,当成低成本抓取的免费原料,这种行业乱象绝不会只出现在写作工具领域,未来会蔓延至法律、医疗、教育、咨询等所有知识服务赛道。
真正的合规底线,从来不是“先上线再 opt-out(被动退出)”,而是“先同意再 opt-in(主动授权)”,守住人格权的底线,才是AI行业可持续发展的前提。
