登录之后可以开启更多功能哦
传统 MoE(混合专家)架构通过增加专家数量提升模型能力,却常受困于边际收益递减与高昂的通信开销。今日,美团 LongCat 团队发布了全新模型 LongCat-Flash-Lite,
7月23日的清晨,阿里巴巴正式推出了其全新的開源 AI 編程模型 ——Qwen3-Coder。這款模型標誌着千問系列中的一次重大突破,採用了混合專家(MoE)架構,擁有高達480億的參數量,其中可
小米正式进军高性能开源大模型赛道。近日,公司发布了全新基础语言模型 MiMo-V2-Flash,并同步以 MIT协议全面开源 模型权重与推理代码。该模型以“超高速、高效率”为核心卖点,在推理、代码