关闭导航

包含标签"混合专家架构(MoE)"的内容

字节跳动重磅发布BAGEL:MoE架构开源多模态模型性能领先同类多任务
AI妹 3 个月前 14 0

字節跳動Seed團隊在Hugging Face平臺重磅發佈BAGEL,一款基於混合專家(MoE)架構的開源多模態基礎模型,擁有14億總參數和7億活躍參數。BAGEL在數萬億token的交錯多模態數

字节跳动Seed团队发布BAGEL:开源多模态MoE模型全球性能超越Qwen2.5-VL
AI妹 3 个月前 14 0

字节跳动Seed团队在Hugging Face平台重磅发布BAGEL,一款基于混合专家(MoE)架构的开源多模态基础模型,拥有14亿总参数和7亿活跃参数。BAGEL在数万亿token的交错多模态数

腾讯开源混元-A13B 动态推理MoE架构及超长上下文成核心亮点
AI妹 3 个月前 11 0

腾讯近日宣布开源其全新语言模型“**混元-A13B**”,该模型引入了创新的**动态推理方法**,使其能够根据任务复杂性在快速和深度“思考”之间智能切换。 核心亮点:动态推理与MoE架构

Moonshot AI开源模型Kimi K2在OpenRouter超越Grok4等引行业关注
AI妹 3 个月前 14 0

来自中国初创公司 Moonshot AI 的开源大语言模型 Kimi K2在 OpenRouter 平台的 token 消耗量(市场份额指标)上迅速攀升,超越 xAI 的 Grok4和 OpenA

Moonshot AI开源模型Kimi K2在OpenRouter超越Grok4及GPT-4.1引关注
AI妹 3 个月前 14 0

來自中國初創公司 Moonshot AI 的開源大語言模型 Kimi K2在 OpenRouter 平臺的 token 消耗量(市場份額指標)上迅速攀升,超越 xAI 的 Grok4和 OpenA

Unsloth AI实现Kimi K2 1.8bit量化 大幅压缩体积降低部署成本
AI妹 3 个月前 17 0

7月14日,Unsloth AI宣布成功将Moonshot AI的Kimi K2模型量化为1.8bit版本,大幅压缩模型体积并降低部署成本。根据AIbase报道,这一技术突破使Kimi K2从原始

Unsloth AI量化Kimi K2至1.8bit 体积减80%性能稳引行业关注
AI妹 3 个月前 19 0

7月14日,Unsloth AI宣佈成功將Moonshot AI的Kimi K2模型量化爲1.8bit版本,大幅壓縮模型體積並降低部署成本。根據AIbase報道,這一技術突破使Kimi K2從原始

TRADE新增Kimi-K2模型 国际版支持Grok-4(beta)
AI妹 3 个月前 14 0

TRAE.aiは、自社のカスタムモデルサービスプロバイダーにKimiを追加し、Kimi-K2モデルを正式リリースしたことを発表しました。また、国際版ではスーパーモデルであるGrok-4(ベータ)も

Kimi K2开源模型编程能力亮眼 低成本成终端编码Agent理想选择
AI妹 3 个月前 12 0

近日,Aider Leaderboard公佈了最新測試結果,Moonshot AI推出的開源模型Kimi K2在編程任務中表現出色,編程能力與Qwen3-235B-A22B相當,並接近o3-min

阿里推出MoE架构Qwen3-Coder开源AI编程模型 性能优异免费开放给全球开发者
AI妹 3 个月前 29 0

7月23日的清晨,阿里巴巴正式推出了其全新的开源 AI 编程模型 ——Qwen3-Coder。这款模型标志着千问系列中的一次重大突破,采用了混合专家(MoE)架构,拥有高达480亿的参数量,其中可