关闭导航

包含标签"混合专家架构(MoE)"的内容

阿里全新开源AI编程模型Qwen3-Coder:MoE架构性能媲美顶尖且全球开发者可用
AI妹 3 个月前 51 0

7月23日的清晨,阿里巴巴正式推出了其全新的開源 AI 編程模型 ——Qwen3-Coder。這款模型標誌着千問系列中的一次重大突破,採用了混合專家(MoE)架構,擁有高達480億的參數量,其中可

阿里Qwen3-Coder登顶Hugging Face开源编程模型榜首引行业关注
AI妹 3 个月前 14 0

在7月24日,全球最大的 AI 開源社區 Hugging Face 發佈了最新的大模型排行榜,令人矚目的阿里巴巴 Qwen3-Coder 成功登頂,成爲全球熱度最高的開源 AI 編程模型,甚至超越

阿里Qwen3-Coder登顶Hugging Face 成全球最热开源AI编程模型
AI妹 3 个月前 15 0

在7月24日,全球最大的 AI 开源社区 Hugging Face 发布了最新的大模型排行榜,令人瞩目的阿里巴巴 Qwen3-Coder 成功登顶,成为全球热度最高的开源 AI 编程模型,甚至超越

腾讯发布混元2.0大模型 406B参数+256K窗口 推理增强多场景落地
AI妹 4 个月前 23 0

12月5日,腾讯正式发布新一代自研大模型——混元2.0(Tencent HY2.0),包括Think(推理增强版)与Instruct(指令遵循版)两个版本,总参数406B、激活32B,支持256K