
Meta与Cerebras携手,推出超高速Llama API
Meta今日宣布与Cerebras Systems达成合作,共同推出全新的Llama API,为开发者提供比传统GPU解决方案快18倍的推理速度。这一宣布是在Meta首届LlamaCon开发者大会上做出的,标志着Meta正式进入AI计算销售市场,与OpenAI、Anthropic和Google等公司在快速增长的AI推理服务市场中展开直接竞争。
Cerebras技术为Meta API加速
Cerebras的首席营销官Julie Shin Choi在新闻发布会上表示:“Meta选择了Cerebras作为合作伙伴,共同为开发者提供他们所需的超快速推理服务,通过新的Llama API。我们非常兴奋能宣布我们的首个CSP超大规模合作伙伴关系,为所有开发者提供超快速推理服务。”
Cerebras的AI芯片为Meta的Llama API提供了显著的速度优势。据Artificial Analysis的基准测试显示,Cerebras系统为Llama 4 Scout提供超过每秒2600个令牌的处理能力,而ChatGPT大约为每秒130个令牌,DeepSeek则约为每秒25个令牌。
从模型提供商到全服务AI基础设施公司
此次合作标志着Meta AI战略的重大转变,从主要作为模型提供商转变为提供全方位AI基础设施服务的公司。通过提供API服务,Meta不仅为其AI投资创造了新的收入来源,同时保持了其对开放模型的承诺。
Meta强调,它不会使用客户数据来训练自己的模型,且使用Llama API构建的模型可以转移到其他主机上,这与一些竞争对手更为封闭的方法形成鲜明对比。
全球数据中心网络支持
Cerebras将通过其遍布北美的数据中心网络为Meta的新服务提供支持,包括位于达拉斯、俄克拉荷马州、明尼苏达州、蒙特利尔和加利福尼亚州的设施。Cerebras的首席营销官Choi解释说:“目前,我们所有提供推理服务的数据中心都在北美。我们将以Cerebras的全部容量服务Meta,工作负载将在所有这些不同的数据中心之间平衡。”
提供多种高性能推理选项
除了Cerebras之外,Meta还宣布与Groq合作,为开发者提供除传统GPU推理之外的多种高性能推理选项。Meta进入推理API市场,凭借其卓越的性能指标,有可能打破由OpenAI、Google和Anthropic主导的市场格局。
Llama API的广泛应用前景
Llama API的推出将开启一系列之前因性能限制而无法实现的新应用类别,包括实时智能体、低延迟语音对话系统、交互式代码生成和即时多步推理等。这些应用都需要在短时间内完成多个大型语言模型的调用,而现在这些调用可以在几秒钟内完成,而非几分钟。
开发者生态系统受益
对于开发者来说,Llama API提供了一个强大的工具,用于微调和评估模型。从Llama 3.3 8B模型开始,开发者可以生成数据、进行训练并测试自定义模型的质量。Meta表示,它不会使用客户数据来训练自己的模型,这为开发者提供了额外的保障。
Meta的独特优势
Meta拥有30亿用户、超大规模数据中心和庞大的开发者生态系统,使其处于独特地位。Cerebras的演示材料指出,与Cerebras技术的集成将帮助Meta在性能上超越OpenAI和Google约20倍。
展望未来
Llama API目前处于有限预览阶段,Meta计划在未来几周和几个月内进行更广泛的推广。对超快速Llama 4推理感兴趣的开发者可以通过在Llama API中选择Cerebras模型选项来请求早期访问。
随着AI技术的不断发展,速度已成为关键因素。Meta与Cerebras的合作表明,在未来的AI领域,不仅仅是模型的能力重要,更重要的是它们处理信息的速度。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-fa-bu-llama-api-su-du-jiao-openai-kuai-18-bei-yu