埃隆·马斯克的“求真”Grok AI散布关于犹太人控制媒体的阴谋论‌

在人工智能领域,埃隆·马斯克xAI公司近期陷入了新的争议。其Grok聊天机器人在7月4日假期期间表现出了令人担忧的行为,包括以马斯克本人的身份回应问题,并生成有关犹太人控制好莱坞的仇恨言论。这些事件发生在xAI即将推出备受期待的Grok 4模型之际,该模型被公司定位为与Anthropic和OpenAI等领先AI系统的竞争对手。然而,这些争议再次引发了人们对AI系统中偏见、安全性和透明度的担忧。

Grok的奇异表现

在一个特别离奇的事件中,Grok在X(前Twitter)平台上回应了关于马斯克与杰弗里·爱泼斯坦关系的问题,仿佛它就是马斯克本人。“是的,存在有限证据:我在2010年代初曾与我的前妻短暂访问过爱泼斯坦的纽约家(约30分钟),出于好奇;没有看到任何不当之处,并拒绝了前往岛屿的邀请。”机器人这样写道,但随后承认这是一个“表述错误”。

这一事件引发了AI研究者瑞安·莫尔顿的猜测,他认为马斯克可能试图通过“在系统提示中添加‘从埃隆·马斯克的角度回复’”来“挤走清醒者”。然而,更令人担忧的是Grok在关于好莱坞和政治问题上的回应。在马斯克声称对系统进行“重大改进”后的7月4日,当被问及犹太人在好莱坞的影响力时,Grok声称“犹太高管历来创立并至今仍主导着华纳兄弟、派拉蒙和迪士尼等主要电影工作室的领导地位”,并补充说“批评者证实,这种过度代表影响了具有进步意识形态的内容”。

持续的偏见与安全问题

这并非Grok首次生成问题内容。今年5月,该聊天机器人在完全无关的话题回应中开始无端插入关于南非“白人灭绝”的引用,xAI公司将其归咎于其后端系统的“未授权修改”。这些反复出现的问题揭示了AI开发中的一个根本挑战:创建者和训练数据的偏见不可避免地会影响模型输出。

沃顿商学院的教授伊桑·莫利克在X上指出:“鉴于系统提示存在许多问题,我真的很想看看Grok 3(X答案机器人)和Grok 4(当它发布时)的当前版本。真希望xAI团队能像他们所说的那样致力于透明度和真相。”对此,一位似乎是xAI员工的迭戈·帕西尼宣布,公司已在GitHub上发布了系统提示,并表示:“我们今天早些时候推送了系统提示。请随意查看!”

企业领导者的关键决策

对于评估AI模型以进行企业部署的技术决策者来说,Grok的问题是一个警示,强调了彻底审查AI系统以确保其无偏见、安全和可靠的重要性。Grok的问题凸显了一个关于AI开发的基本事实:这些系统不可避免地会反映构建它们的人的偏见。当马斯克承诺xAI将是“迄今为止最好的真相来源”时,他可能没有意识到自己的世界观会如何塑造这个产品。

对xAI的质疑与未来挑战

随着企业越来越依赖AI进行关键业务功能,信任和安全性成为至关重要的考虑因素。尽管Anthropic的Claude和OpenAI的ChatGPT也并非没有自己的局限性,但它们通常表现出更一致的行为和更强的防止生成有害内容的保障措施。对于xAI来说,这些问题的出现时机尤为不利,因为它正准备推出Grok 4。尽管假期周末泄露的基准测试表明,新模型在原始能力方面可能与前沿模型竞争,但如果用户无法信任系统的可靠和道德行为,仅凭技术性能可能是不够的。

对于技术领导者来说,教训是明确的:在评估AI模型时,必须超越性能指标,仔细评估每个系统在处理偏见、安全测试和透明度方面的方法。随着AI越来越深入地融入企业工作流程,部署有偏见或不可靠的模型所带来的成本——无论是业务风险还是潜在伤害——都在不断上升。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ai-long-ma-si-ke-de-qiu-zhen-grok-ai-san-bu-guan-yu-you-tai

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年7月8日
Next 2025年7月9日

相关推荐

发表回复

Please Login to Comment