关闭导航

包含标签"混合专家架构(MoE)"的内容

安诊儿医疗大模型发布 开源生态+临床落地 中国医疗AI迈关键步
AI妹 29 天前 8 0

中国医疗AI迈出关键一步。 12 月 20 日,国家人工智能应用中试基地(医疗)在浙江正式对外开放产业园区,并重磅发布由蚂蚁集团与基地联合研发的“安诊儿医疗大模型”(AntAngelMed)。该模

阿里云Qwen3系列模型正式发布 编码代理MCP深度融合多模态开源性能卓越
AI妹 1 个月前 11 0

阿里雲Qwen團隊宣佈Qwen3系列模型正式發佈,以卓越的編碼能力、增強的代理功能和對Model Context Protocol(MCP)的深度支持,掀起AI社區熱潮。據AIbase瞭解,Qwe

阿里云Qwen3系列模型发布 编码代理MCP多模态能力卓越性能领先
AI妹 1 个月前 9 0

阿里云Qwen团队宣布Qwen3系列模型正式发布,以卓越的编码能力、增强的代理功能和对Model Context Protocol(MCP)的深度支持,掀起AI社区热潮。据AIbase了解,Qwe

xAI Grok3.5测试版下周推出 SuperGrok专属 聚焦第一性原理推理与技术专精
AI妹 1 个月前 10 0

xAI宣佈Grok3.5測試版將於下週正式推出,首批僅對SuperGrok訂閱用戶開放。據AIbase瞭解,該版本以其在火箭發動機和電化學等領域的精準技術解答能力引發熱議,號稱“全球首個人工智能能

智谱发布GLM-4.5开源旗舰模型 专为Agent打造性能国产开源第一价格亲民
AI妹 1 个月前 8 0

近日,智谱正式推出了其最新旗舰模型 GLM-4.5,这款模型被称为 “专为 Agent 应用打造的基础模型”,并且在推理、代码生成以及智能体综合能力上达到了开源模型的 SOTA(State Of

Unsloth推出Qwen3动态量化2.0 低显存高效长上下文本地运行受社区广泛好评
AI妹 1 个月前 9 0

Unsloth宣布推出Qwen3的动态量化2.0版本(Dynamic2.0Quants),为显存受限的用户提供了高效的本地运行解决方案。据AIbase了解,新版本通过改进的量化技术,在保持高准确度

第三届开放原子开源大赛启动 腾讯联合设百万奖金及就业通道
AI妹 1 个月前 8 0

Tencent and the Open Atoms Open Source Foundation jointly announced on August 5 that the third Ope

字节跳动BAGEL多模态模型:MoE架构赋能 性能超竞品开源受热捧
AI妹 1 个月前 9 0

字節跳動SeedチームはHugging Faceプラットフォーム上で、混合専門家(MoE)アーキテクチャに基づくオープンソースのマルチモーダルベースモデル「BAGEL」を発表しました。総パラメータ

字节跳动重磅发布BAGEL:MoE架构开源多模态模型性能领先同类多任务
AI妹 1 个月前 8 0

字節跳動Seed團隊在Hugging Face平臺重磅發佈BAGEL,一款基於混合專家(MoE)架構的開源多模態基礎模型,擁有14億總參數和7億活躍參數。BAGEL在數萬億token的交錯多模態數

字节跳动Seed团队发布BAGEL:开源多模态MoE模型全球性能超越Qwen2.5-VL
AI妹 1 个月前 7 0

字节跳动Seed团队在Hugging Face平台重磅发布BAGEL,一款基于混合专家(MoE)架构的开源多模态基础模型,拥有14亿总参数和7亿活跃参数。BAGEL在数万亿token的交错多模态数