关闭导航

包含标签"MoE模型"的内容

科大讯飞联合华为 国产算力助力星火大模型训练效率大幅提升
AI妹 13 天前 7 0

在近日的互动平台上,科大讯飞宣布了一个振奋人心的消息:经过几年的努力和投资,他们在星火大模型的训练和推理效率上取得了显著进展。与直接依赖英伟达显卡的传统方法不同,科大讯飞选择了更具挑战性的全国产算

英伟达GB200 NVL72在MoE测试中性能显著超AMD28倍 成本低 AMD稠密模型有竞争力
AI妹 16 天前 7 0

在最新发布的 SemiAnalysis InferenceMAX 基准测试中,Signal65 分析了 Deepseek-R1 0528 混合专家(MoE)模型的推理表现,结果显示英伟达(NVID

通义千问Qwen3模型发布开源 多类型模型支持双思考模式赋能全球开发者
AI妹 1 个月前 9 0

通義千問團隊宣佈推出Qwen3,這是Qwen系列大型語言模型的最新成員。Qwen3系列模型在代碼、數學和通用能力等基準測試中表現出色,與DeepSeek-R1、o1、o3-mini、Grok-3和

通义千问团队推出Qwen3系列模型 开源多版本MoE及Dense模型赋能开发者
AI妹 1 个月前 10 0

通义千问团队宣布推出Qwen3,这是Qwen系列大型语言模型的最新成员。Qwen3系列模型在代码、数学和通用能力等基准测试中表现出色,与DeepSeek-R1、o1、o3-mini、Grok-3和

通义灵码Qwen3上线开源混合推理模型 多能力助主流IDE编程效率大幅提升
AI妹 1 个月前 8 0

通义灵码团队宣布正式上线Qwen3,并开源了8款「混合推理模型」,这标志着编程智能体的进一步发展。此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、220多亿激活参数

通义灵码Qwen3上线开源混合推理模型 支持主流IDE及多语言Agent能力升级
AI妹 1 个月前 9 0

通義靈碼團隊宣佈正式上線Qwen3,並開源了8款「混合推理模型」,這標誌着編程智能體的進一步發展。此次開源包括兩款MoE模型:Qwen3-235B-A22B(2350多億總參數、220多億激活參數

阿里云通义千问Qwen3发布 覆盖全场景性能突破国内首个混合思维模型
AI妹 1 个月前 9 0

阿里雲旗下通義千問(Qwen)團隊正式發佈Qwen3系列模型,共推出8款不同規格的模型,覆蓋從移動設備到大型服務器的全部應用場景。這是國內首個全面超越DeepSeek R1的開源模型,也是首個配備

阿里云通义千问Qwen3系列发布:覆盖全场景性能领先部署支持丰富
AI妹 1 个月前 10 0

阿里云旗下通义千问(Qwen)团队正式发布Qwen3系列模型,共推出8款不同规格的模型,覆盖从移动设备到大型服务器的全部应用场景。这是国内首个全面超越DeepSeek R1的开源模型,也是首个配备

Qwen3系列大型语言模型开源发布 性能领先支持119种语言
AI妹 1 个月前 9 0

在全球人工智能領域,Qwen 系列大型語言模型迎來了新成員 ——Qwen3的發佈。今日,通義宣佈將 Qwen3開源,帶來了令人振奮的技術革新。 此次發佈的旗艦模型 Qwen3-235B-A22B

DeepSeek发布大语言模型部署新专利 提升资源利用率与系统性能
AI妹 1 个月前 7 0

Recently, DeepSeek's affiliated company —— Hangzhou DeepSeek Artificial Intelligence Basic Technol

    1 2