五角大楼加速自研大模型,与Anthropic合作破裂后开启AI替代方案

五角大楼加速自研大模型,与Anthropic合作破裂后开启AI替代方案

2026年3月17日,据彭博社援引五角大楼首席数字与人工智能官卡梅伦·斯坦利的消息,在与AI初创公司Anthropic彻底分道扬镳后,美国国防部正积极推进自研大语言模型(LLM),以替代Anthropic的AI技术,相关工程已启动并即将投入实战使用。这一举措标志着双方持续数周的合作争端正式画上句号,也折射出美国军方在AI技术自主可控上的强硬立场。

此次合作破裂的核心矛盾集中在AI技术的使用权限与伦理边界上。此前Anthropic与美国国防部曾达成一份价值2亿美元的合同,但在合同细节谈判中,双方就军方对AI系统的无限制访问权产生严重分歧。Anthropic坚持要求在合同中加入条款,禁止五角大楼将其AI用于针对美国民众的大规模监控,以及部署无需人类干预即可自主开火的致命性武器。然而,这一涉及AI伦理的核心诉求并未得到五角大楼的让步,最终导致合作彻底崩盘。

在Anthropic退出后,美国国防部迅速转向其他AI巨头寻求合作。OpenAI迅速填补空白,与五角大楼达成了新的合作协议;与此同时,埃隆·马斯克旗下的xAI也宣布其Grok模型将被用于美军机密系统。尽管有零星报道称双方仍存在和解的微小可能,但五角大楼此次明确启动自研替代方案的举动,显然已决心彻底摆脱对Anthropic技术的依赖。更值得关注的是,美国国防部长皮特·赫格塞斯已将Anthropic列为供应链风险,这一通常针对外国竞争对手的严厉 designation,意味着所有与五角大楼有合作关系的企业都将被禁止与Anthropic开展业务。目前Anthropic已就此向法院提起诉讼,挑战这一限制措施。

五角大楼此次加速自研大模型的举动,凸显了美国军方在AI技术领域的战略焦虑。随着AI在情报分析、战场决策、武器系统等军事领域的应用日益深入,技术自主性已成为国家安全的核心议题。一方面,军方希望获得不受限制的AI访问权限以满足作战需求;另一方面,AI企业出于伦理风险、品牌形象和商业利益的考虑,试图对技术使用设置边界。这种需求与价值观的冲突,正在重塑科技巨头与政府部门的合作模式。

从行业影响来看,此次事件可能引发AI企业与政府合作的连锁反应。未来AI企业在与国防部门合作时,将不得不更加审慎地平衡技术商业化与伦理责任,而政府部门则可能进一步加大对本土AI技术的投入,以减少对商业公司的依赖。对于Anthropic而言,虽然失去了军方的大额订单,但坚守AI伦理底线的举动可能为其赢得更多科技行业和公众的认可;而五角大楼的自研之路能否成功,将取决于其在AI技术研发上的投入速度与技术积累,毕竟大模型的开发需要长期的技术沉淀和大量资源投入。

这一事件也为全球AI伦理治理提供了典型案例。在AI技术快速军事化的背景下,如何在国家安全需求与人类伦理底线之间找到平衡,已成为各国政府、科技企业和国际社会共同面临的挑战。五角大楼此次的强硬立场和自研举措,可能会推动更多国家加速军事AI的自主研发,同时也将促使国际社会加快制定AI军事应用的伦理准则与监管框架。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/wu-jiao-da-lou-jia-su-zi-yan-da-mo-xing-yu-anthropic-he-zuo

Like (0)
王 浩然的头像王 浩然作者
Previous 2天前
Next 2天前

相关推荐

发表回复

Please Login to Comment