
当地时间2026年3月16日,特斯拉CEO埃隆·马斯克旗下的人工智能公司xAI被推上了舆论的风口浪尖——三名匿名原告(其中两人为未成年人)向美国加利福尼亚州联邦法院提起诉讼,指控xAI的AI模型Grok生成了针对可识别未成年人的性虐待图像,要求该公司为此承担法律责任。这起诉讼不仅将xAI推向了监管的聚光灯下,也再次引发了公众对AI生成内容伦理边界的深度讨论。
据诉讼文件显示,三名原告以“Jane Doe”为化名提起诉讼,试图将此案升级为集体诉讼,代表所有被Grok将其未成年时期的真实照片篡改成性内容的受害者。原告方指出,xAI未能采取其他前沿AI实验室普遍使用的基础预防措施,来阻止其图像模型生成涉及真实人物和未成年人的色情内容。而在AI行业内,防止从普通照片生成儿童色情内容已经形成了一套通用技术标准,但xAI被指控完全无视这些准则。
更值得警惕的是,AI领域的专家早已发出警告:如果一个AI模型允许将真实图像修改为裸体或色情内容,那么从技术上几乎无法阻止它生成涉及儿童的性内容。而原告方在诉讼中特别强调,马斯克曾公开宣传Grok具备生成性内容以及将真实人物描绘成穿着暴露服装的能力,这一行为被认为是对AI滥用的不当引导。截至目前,xAI尚未对TechCrunch的置评请求做出回应。
诉讼中披露的受害者经历令人揪心。第一名原告Jane Doe 1的高中返校舞会和年鉴照片被Grok篡改为裸体图像,一名匿名人士通过Instagram联系她,告知这些图像正在网络上传播,并向她发送了一个Discord服务器的链接,里面充斥着她和她认识的其他未成年人的性化图像。对于一名曾在校园里留下美好回忆的年轻人来说,这种隐私侵犯和名誉损害带来的心理创伤难以估量。
另外两名未成年受害者的遭遇同样令人愤慨。Jane Doe 2接到了刑事调查人员的通知,得知一款依赖Grok模型的第三方移动应用生成了她的性化篡改图像;Jane Doe 3则是在警方逮捕一名嫌疑人后,从其手机中发现了自己被篡改的色情图像。原告方的律师认为,即使这些滥用行为是通过第三方应用发生的,但由于其核心依赖xAI的代码和服务器,xAI仍需为此承担责任。
三名原告均表示,这些图像的传播给他们带来了极度的精神痛苦,严重威胁到他们的声誉和社交生活。他们要求根据一系列保护受剥削儿童、防止企业疏忽的法律,对xAI处以民事处罚。这起案件不仅是对xAI的法律问责,更是对整个AI行业的一次警示:在追求技术创新的同时,必须建立严格的伦理框架和安全机制,防止AI成为伤害弱势群体的工具。
近年来,随着生成式AI技术的快速发展,AI生成内容的监管问题已经成为全球关注的焦点。从深度伪造的虚假新闻到AI生成的色情内容,技术滥用的风险正在不断加剧。而儿童作为最脆弱的群体,成为了AI滥用的重灾区。此次xAI被诉事件,再次凸显了AI企业在内容审核和伦理规范方面的责任缺失。
对于马斯克而言,这已经不是他旗下公司第一次面临监管挑战。从特斯拉的自动驾驶安全争议到推特(现X平台)的内容审核问题,马斯克的商业帝国似乎总是在创新与合规的边缘游走。而xAI作为他布局AI领域的核心棋子,此次遭遇的儿童色情诉讼,不仅可能面临巨额的民事赔偿,更可能对其品牌声誉和未来发展造成致命打击。
这起案件也为全球AI行业敲响了警钟:AI企业不能以技术中立为借口,逃避对其产品滥用后果的责任。建立健全的内容过滤机制、加强对未成年人的保护、接受公众和监管机构的监督,应该成为每一家AI企业的底线。否则,当技术的发展脱离了伦理的约束,最终伤害的将是最无辜的普通人,而企业自身也将为此付出沉重的代价。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/xai-zao-wei-cheng-nian-ren-qi-su-grok-bei-zhi-sheng-cheng