Omni-Infer v0.7.0 已经发布,超大规模 MoE 模型推理加速技术 Omni-Inferv0.7.0正式上线,带来面向超大规模混合专家(MoE)模型的高效推理加速能力。v0.7.0核心亮点OmniCache新增对MLA(Multi-HeadLatentAttentio... 奈飞网 2025-12-12 1 #moe
美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity 美国人工智能初创企业ArceeAI近日发布了全新的开放权重模型系列Trinity,涵盖已上线的TrinityNano与TrinityMini,以及预计于2026年1月发布的TrinityLarge。该... 奈飞网 2025-12-02 3 #模型公司 #moe #人工智能
全球首个“纯 AMD”训练 MoE 大模型 ZAYA1 发布 AMD联合IBM及AI新锐Zyphra推出ZAYA1——全球首款完全基于AMD硬件训练的MoE基础模型,完成14Ttokens预训练,整体表现媲美Qwen3系列,数学与STEM推理能力在未进行指令微调... 奈飞网 2025-11-25 2 #amd #moe