近期开源的 Llama 4 系列模型因基准测试成绩与实际表现差异较大而陷入争议,但 MoE 架构已成为未来 AI 大模型的主流范式之一,英伟达也开始针对 MoE 架构优化计算硬件。
在 AI 基础设施峰会上,阿里云推出了支持超大规模 MoE 混合精度训练的高性能训练框架 FlashMoE,并在算力、存储、网络和安全等方面进行了全面布局,以提升其在 AI 基础设施领域的竞争力。
近期开源的 Llama 4 系列模型因基准测试成绩与实际表现差异较大而陷入争议,但 MoE 架构已成为未来 AI 大模型的主流范式之一,英伟达也开始针对 MoE 架构优化计算硬件。
在 AI 基础设施峰会上,阿里云推出了支持超大规模 MoE 混合精度训练的高性能训练框架 FlashMoE,并在算力、存储、网络和安全等方面进行了全面布局,以提升其在 AI 基础设施领域的竞争力。