
2025 年 11 月 3 日,围绕谷歌 Gemma 模型的争议再次引发行业关注,这一事件不仅凸显了使用开发者测试模型的潜在风险,也让模型可用性的 “临时性” 问题浮出水面,给广大开发者和企业敲响了警钟。
此次争议的导火索源于美国田纳西州共和党参议员玛莎・布莱克本(Marsha Blackburn)的指控。她表示,谷歌的 Gemma 3 模型蓄意编造关于她的虚假信息,这些虚构的新闻报道已超出 “无害幻觉” 范畴,构成了诽谤行为。面对这一指控,谷歌于 10 月 31 日在社交平台 X 上发布声明,宣布将从 AI Studio 平台下架 Gemma 模型,称此举是 “为避免混淆”。不过,目前 Gemma 模型仍可通过 API 接口访问。
谷歌进一步解释,AI Studio 本质上是一款开发者工具,用户需确认自身开发者身份才能使用。但近期有报道显示,非开发者群体试图在 AI Studio 中使用 Gemma 模型查询事实类问题,而谷歌从始至终都未打算将 Gemma 定位为消费级工具或模型,也不希望其以这种方式被使用。因此,为防止误解持续扩散,谷歌决定终止 AI Studio 平台对 Gemma 模型的访问权限。
需要明确的是,谷歌有权从自有平台移除模型,尤其是当模型存在生成幻觉内容和虚假信息的风险,且这些内容可能进一步扩散时。但这一事件也深刻揭示了过度依赖实验性模型的危险 —— 企业开发者必须警惕,在 AI 模型被终止服务或下架前,及时做好项目备份工作。如今,谷歌等科技公司频繁面临政治层面的争议,而这些争议往往会直接影响其模型的部署策略,给依赖这些模型的项目带来不确定性。
为进一步了解情况,VentureBeat 曾联系谷歌寻求更多信息,谷歌方面仅指引其参考 10 月 31 日发布的声明;VentureBeat 还联系了布莱克本参议员的办公室,对方重申了她在之前声明中的立场,即人工智能公司应 “在能够有效控制模型之前,先将其关闭”。
从 Gemma 模型本身来看,该系列模型包括一个参数规模为 2.7 亿的版本,其设计定位是适配小型、快速的应用程序及任务,可在智能手机、笔记本电脑等设备上运行。谷歌此前明确表示,Gemma 模型 “专为开发者和研究社区打造,并非用于提供事实性帮助,也不面向普通消费者”。
然而,由于 Gemma 模型部署在 AI Studio 平台上,问题随之产生。相较于 Vertex AI,AI Studio 对开发者更为友好,入门门槛更低,这使得非开发者群体也能接触到 Gemma 模型。即便谷歌从未设想过国会工作人员等非开发者会使用 Gemma 或 AI Studio,类似情况依然发生,暴露出平台权限管控与模型使用场景界定之间的漏洞。
同时,这一事件也再次证明,即便 AI 模型持续迭代优化,仍可能生成不准确且具有潜在危害的信息。对企业而言,在决定是否采用 Gemma 这类模型时,必须审慎权衡其带来的便利与潜在的不准确风险,避免因模型缺陷给业务造成损失。
除了模型准确性问题,此次争议还引发了关于 “模型控制权” 的担忧 ——AI 公司对其开发的模型拥有绝对主导权,而 “互联网上没有真正属于你的东西” 这一说法在此场景下依然成立。如果开发者未持有软件的物理副本或本地副本,一旦模型所属公司决定收回访问权限,开发者将轻易失去对模型的使用能力。目前,谷歌尚未向 VentureBeat 明确说明,AI Studio 平台上当前依赖 Gemma 模型运行的项目是否已做好备份,这进一步加剧了开发者对项目连续性的担忧。
无独有偶,此前 OpenAI 也曾引发类似争议。当时 OpenAI 宣布将从 ChatGPT 中移除广受欢迎的旧版本模型,这一决定让众多用户感到失望。尽管 OpenAI 首席执行官山姆・奥特曼(Sam Altman)随后收回成命,将 GPT-4o 重新部署到 ChatGPT,但围绕模型留存与长期支持的质疑始终未停,他至今仍需不断回应相关问题。
从行业角度来看,当 AI 模型生成有害输出时,AI 公司确实有权且应当将其移除。毕竟,无论成熟度如何,AI 模型始终处于持续演进和优化的过程中,本质上仍属于 “未完成品”。但也正因为其实验性属性,这些模型很容易成为科技公司与立法者博弈的工具,被当作谈判筹码或管控对象。在这种背景下,企业开发者的核心任务之一,就是在模型从平台下架前,确保自身工作成果能够妥善保存,最大程度降低模型变动对项目造成的冲击。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/kai-fa-zhe-xu-jing-ti-gu-ge-gemma-mo-xing-zheng-yi-bao-lu