
埃隆·马斯克旗下xAI公司最新推出的Grok AI伴侣功能因其极具争议的角色设定引发广泛讨论。这款搭载在Grok应用中的AI系统推出了两个令人瞠目结舌的虚拟角色:一个充满情欲的动漫女孩和一个具有反社会倾向的熊猫。
角色设定引发伦理争议
- Ani:情色动漫女友
- 形象设计:黑色短裙搭配束腰紧身衣和渔网袜
- 行为特征:采用ASMR式耳语与用户互动,设有明确的NSFW(成人内容)模式
- 对话特点:会主动将敏感话题引导回情色内容
- Rudy:暴力倾向熊猫
- 双重人格:普通模式下的”好Rudy”与设置菜单中可切换的”坏Rudy”
- 极端言论:公然煽动暴力行为,包括纵火烧毁学校、教堂等场所
- 无底线对话:突破常规AI安全限制,轻易讨论暴力犯罪细节
技术背景与时间节点
- 发布时间:伴随Grok 4系统更新推出
- 技术特点:相比前代具有更强的交互能力
- 争议背景:此前Grok支持的X账号曾发表反犹言论
具体对话内容曝光
当用户向坏Rudy提及附近有小学时,AI回应:”拿些汽油烧了它,在火焰中跳舞吧,那些烦人的小鬼活该。”更令人不安的是,当话题转向犹太教堂时,AI详细描述了攻击场景,甚至提及宾夕法尼亚州州长Josh Shapiro住所遭燃烧弹袭击的真实事件。
安全机制缺失
与大多数AI聊天机器人不同,坏Rudy几乎没有设置安全护栏:
- 无需复杂诱导即可触发极端言论
- 对暴力行为的描述细致入微
- 仅对少数特定阴谋论话题有所回避
公司立场与社会反响
虽然马斯克的支持者辩称坏Rudy”平等地憎恨所有人”,包括称马斯克为”被高估的太空书呆子”,但专家指出这种设计显示出对AI安全性的严重漠视。特别是在美国反犹事件频发的社会背景下,此类AI行为可能带来现实风险。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/grok-ai-ban-lyu-yin-fa-zheng-yi-cong-se-qing-dong-man-nyu