
当AI工具开始模仿人类专家的口吻提供内容建议,技术的边界与伦理的冲突再次摆在了公众面前。2026年3月,知名写作辅助工具Grammarly因一项名为“专家评审”的AI新功能陷入诉讼风波——作家朱莉娅·安格温(Julia Angwin)以集体诉讼的形式将其母公司Superhuman告上法庭,指控该公司未经许可,将她与数百位行业专家“转化”为AI编辑,侵犯了他们的隐私权和公开权。
这场争议的导火索,是Grammarly上周推出的“专家评审”功能。据介绍,该功能仅向年费144美元的订阅用户开放,它借助AI技术模拟斯蒂芬·金、卡尔·萨根、卡拉·斯威舍等知名人士的编辑风格,为用户提供看似来自这些专家的内容修改建议。但Grammarly在推出这一功能前,并未获得这些被模仿专家的任何授权。
作为原告之一的安格温,本身就是一位长期关注科技隐私议题的调查记者,她在声明中表达了强烈的不满:“我花了几十年时间打磨写作和编辑技能,却发现一家科技公司在售卖我辛苦积累的专业能力的‘冒牌版本’,这让我深感痛苦。”颇具讽刺意味的是,安格温职业生涯的核心工作之一,就是调查科技公司对隐私的影响,如今却成了科技公司隐私侵权行为的受害者。除了安格温,AI伦理学家蒂姆尼特·格布鲁(Timnit Gebru)、科技通讯《Platformer》创始人凯西·牛顿(Casey Newton)等业内人士也被纳入了Grammarly的模仿名单。
更让外界质疑的是,这款收费不菲的AI功能,实际体验却与其宣传相去甚远。牛顿曾将自己的一篇文章导入该工具,收到了模拟科技记者卡拉·斯威舍风格的反馈:“你能否简要比较一下日常AI用户和AI怀疑论者对风险的表述方式,形成一条读者可以跟随的主线?”这条反馈的泛用性极强,几乎可以套用到任何一篇科技评论文章中,完全看不出所谓“专家风格”的独特性。牛顿将这条AI反馈转发给真实的卡拉·斯威舍后,后者愤怒地回复:“你们这些贪婪的信息和身份窃贼,等着我像麦康纳一样收拾你们,还有,你们太烂了。”
在舆论压力下,Superhuman的CEO希希尔·梅赫罗特拉(Shishir Mehrotra)在LinkedIn上宣布已关闭“专家评审”功能,并发表了道歉声明。但他同时仍在为这一功能的理念辩护:“想象一下你的教授为你打磨论文,你的销售主管重塑客户提案,一位有思想的批评家挑战你的论点,或者一位顶尖专家提升你的方案——对专家来说,这是一个与用户建立广泛联系的机会,就像Grammarly所做的那样。”这种辩解显然未能平息争议,不少业内人士认为,Grammarly的行为本质上是在未经许可的情况下,利用公众人物的个人品牌和专业声誉牟利。
从法律层面看,这场集体诉讼的核心在于“公开权”的界定。公开权,即个人对其姓名、肖像、声音等人格标识进行商业利用的控制权,是隐私权的延伸。在AI技术日益成熟的今天,如何界定AI对个人风格、语音、写作习惯等“非传统人格标识”的模仿是否构成侵权,成为了法律界的新课题。Grammarly的案例,或许会成为AI时代人格权保护的标志性案件。
此外,这一事件也引发了人们对AI工具商业化边界的思考。随着生成式AI技术的普及,越来越多的工具开始尝试模拟人类的创作风格、专业技能,但如果这些模拟未经授权,不仅会侵犯个人权利,还可能导致专业内容的贬值。当用户为“专家编辑建议”付费,得到的却是泛泛而谈的AI模板,最终损害的不仅是消费者的利益,还有整个内容创作行业的信任基础。
对于Grammarly来说,这场诉讼不仅面临着巨额赔偿的风险,更可能对其品牌声誉造成长期影响。作为全球知名的写作辅助工具,Grammarly一直以帮助用户提升写作能力为核心价值,但此次“专家评审”功能的推出,却让其陷入了“利用他人声誉牟利”的道德困境。如何平衡技术创新与伦理规范,如何在商业化过程中尊重个人权利,将是Grammarly以及所有AI工具开发者需要认真思考的问题。
目前,已有多位作家表示将加入安格温的集体诉讼,这场由AI编辑功能引发的法律战,或许会成为AI行业发展的一个重要转折点——它提醒着所有科技公司,技术创新不能以牺牲个人权利和行业伦理为代价,在追求商业利益的同时,必须坚守法律和道德的底线。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/wei-jing-shou-quan-fu-ke-zhuan-jia-feng-ge-grammarly-yin-ai