DeepSeek 有助于加速威胁检测,但同时也引发了国家安全担忧

DeepSeek 有助于加速威胁检测,但同时也引发了国家安全担忧

DeepSeek 及其 R1 模型不会浪费任何时间来实时重写网络安全 AI 规则,从初创公司到企业提供商等所有公司都在本月试行集成到他们的新模型中。

R1 是在中国开发的,基于纯强化学习 (RL),没有监督微调。它也是开源的,因此几乎每个全力投入开源架构、开发和部署的网络安全初创公司都对它具有吸引力。

DeepSeek 在该模型上投资了 650 万美元,在运行较低级别的 Nvidia H800 GPU 时,其推理基准性能可与 OpenAI 的 o1-1217 相媲美。与 OpenAI 的模型相比,DeepSeek 的定价设定了新标准,每百万代币的成本明显较低。深度搜索推理模型每百万输出代币收费 2.19 美元,而 OpenAI 的 o1 模型收费 60 美元。这种价格差异及其开源架构引起了 CIO、CISO、网络安全初创公司和企业软件提供商的关注。

(有趣的是,OpenAI 声称 DeepSeek 使用其模型 来训练 R1 和其他模型,甚至说该公司通过多个查询窃取了数据。)   

人工智能的突破与不断出现的隐患

美国国土安全部(DHS)网络安全和基础设施安全局(CISA )首任局长、最近担任SentinelOne首席公共政策官的克里斯·克雷布斯警告说,模型的安全性和可信度问题的核心在于审查制度和隐性偏见是否被纳入模型的核心 。

他说:“对批评中国共产党 (CCP) 的内容的审查可能‘嵌入’到该模型中,因此,应对这一设计特征可能会影响客观结果。”“中国人工智能模型的这种‘政治化’可能会支持……美国开源人工智能模型的开发和全球扩散。”

他指出,按照这种观点,让美国产品的获取渠道民主化应该会增强美国在海外的软实力,并削弱中国审查制度在全球的传播。“R1 的低成本和简单的计算基础让人怀疑美国剥夺中国公司获取包括 GPU 在内的西方尖端技术的权利的策略是否有效,”他说。“在某种程度上,他们实际上是在‘事半功倍’。”

Reco首席信息安全官兼多家安全初创公司顾问 Merritt Baer说:“事实上,使用西方互联网来源控制的更广泛的互联网数据(或许更确切地说是缺乏中国控制和防火墙)训练 [DeepSeek-R1] 可能是解决部分担忧的良方。我不太担心显而易见的东西,比如审查对习近平主席的任何批评,我更担心的是模型中难以定义的政治和社会工程。甚至模型的创建者是中国影响力运动系统的一部分这一事实也是一个令人不安的因素——但这不是我们在选择模型时应该考虑的唯一因素。”

DeepSeek 使用 Nvidia H800 GPU 来训练模型,这些 GPU 已获准在中国销售,但缺乏更先进的 H100 和 A100 处理器的性能,DeepSeek 正在进一步将其模型普及到任何有能力负担得起运行该模型的硬件的组织。社交媒体上充斥着估算和物料清单,说明如何以 6,000 美元的价格构建一个能够运行 R1 的系统。 

R1 和后续车型将被打造来规避美国的技术制裁,克雷布斯认为这是对美国人工智能战略的直接挑战。 

Enkrypt AI 的 DeepSeek-R1 红队报告发现,该模型容易生成“有害、有毒、有偏见、CBRN 和不安全的代码输出”。红队继续表示:“虽然它可能适用于范围较窄的应用程序,但该模型在操作和安全风险领域表现出相当大的漏洞,正如我们的方法中详细说明的那样。如果要使用此模型,我们强烈建议实施缓解措施。”  

Enkrypt AI 的红队还发现,Deepseek-R1 的偏见性比 Claude 3 Opus 高出三倍,生成不安全代码的脆弱性比 Open AI 的 o1 高出四倍,毒性比 GPT-4o 高出四倍。红队还发现,该模型产生有害输出的可能性比 Open AI 的 o1 高出十一倍。

在共享数据之前了解隐私和安全风险

DeepSeek 的移动应用程序目前占据全球下载量的首位,而网页版的流量也创下了历史新高,两个平台上共享的所有个人数据都被收集到中国的服务器上。企业正在考虑在隔离的服务器上运行该模型,以减少威胁。美国各组织都在商品化硬件上运行试点项目

中国情报机构可以访问在移动和网络应用程序上共享的任何数据。

中国《国家情报法》规定,企业必须“支持、协助和配合”国家情报机构。这种做法非常普遍,对美国公司和公民构成了巨大威胁,以至于美国国土安全部发布了数据安全业务咨询。由于这些风险,美国海军发布了一项指令,禁止 DeepSeek-R1 参与任何与工作相关的系统、任务或项目。

那些迅速试行新模式的组织正在全力投入开源,并将测试系统与内部网络和互联网隔离开来。目标是针对特定用例运行基准测试,同时确保所有数据保持私密。Perplexity 和 Hyperbolic Labs 等平台允许企业在美国或欧洲数据中心安全地部署 R1,使敏感信息不受中国法规的监管。请参阅该模型这一方面的出色总结。

初创公司Prompt Security的首席执行官、OWASP 大型语言模型 (LLM) 十强的核心成员 Itamar Golan认为,数据隐私风险不仅限于 DeepSeek。他指出:“组织也不应该将其敏感数据输入 OpenAI 或其他美国模型提供商。”“如果数据流向中国是一个重大的国家安全问题,美国政府可能希望通过战略举措进行干预,例如补贴国内人工智能提供商,以保持竞争性定价和市场平衡。”

认识到 R1 的安全漏洞后,Prompt 在模型推出后的几天内就增加了对检查 DeepSeek-R1 查询生成的流量的支持。

在对 DeepSeek 公共基础设施进行调查时,云安全提供商 Wiz 的研究团队发现一个 ClickHouse 数据库在互联网上开放,其中包含超过一百万行日志,其中包含聊天记录、密钥和后端详细信息。数据库上未启用任何身份验证,因此可能快速提升权限。

Wiz 研究的发现凸显了快速采用未大规模建立在强化安全框架上的 AI 服务的危险。Wiz 负责任地披露了这一漏洞,促使 DeepSeek 立即锁定了数据库。DeepSeek 的初步疏忽强调了任何 AI 提供商在引入新模型时都应牢记的三个核心教训。

首先,在启动模型之前,进行红队测试并彻底测试 AI 基础设施的安全性。其次,强制执行最低特权访问并采用零信任思维,假设您的基础设施已被攻破,并且不信任跨系统或云平台的多域连接。第三,让安全团队和 AI 工程师协作并掌握模型如何保护敏感数据。

DeepSeek 创造了一个安全悖论

克雷布斯警告称,该模型的真正危险不仅在于其制造地点,还在于其制造方式。DeepSeek-R1 是中国科技行业的副产品,而私营部门和国家情报目标密不可分。用防火墙保护模型或在本地运行模型作为保障措施的概念是一种幻想,因为正如克雷布斯所解释的那样,偏见和过滤机制在基础层面已经“根深蒂固”。

网络安全和国家安全领导人一致认为,DeepSeek-R1 是中国和其他一些国家将推出的众多具有卓越性能和低成本的模型中的第一个,这些模型将对所有收集的数据进行控制。

底线:开源长期以来被视为软件领域的民主力量,这种模式产生的悖论表明,如果民族国家愿意,他们可以轻易地将开源武器化。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/deepseek-you-zhu-yu-jia-su-wei-xie-jian-ce-dan-tong-shi-ye

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年2月3日 下午12:00
Next 2025年2月3日

相关推荐

发表回复

Please Login to Comment