混合专家模型 (MoE)
-
ZAYA1:基于 AMD GPU 训练的 AI 模型达成里程碑,打破 NVIDIA 算力垄断
Zyphra、AMD 与 IBM 经过一年合作研发,成功推出首个完全基于 AMD GPU 及配套平台训练的大规模混合专家(Mixture-of-Experts,MoE)基础模型 Z…
-
法国 Mistral 推出 AI Studio:以欧洲本土模型为核心,打造企业级 AI 快速开发平台
2025 年 10 月 24 日,法国知名 AI 初创公司 Mistral 正式发布 Mistral AI Studio—— 一款面向企业的 AI 生产级开发平台。该平台是对 20…