关闭导航

包含标签"内存效率"的内容

英伟达Llama-Nemotron开源模型 推理交互多维度创新突破
AI妹 1 个月前 10 0

近日,英伟达正式推出了其最新开源模型系列 ——Llama-Nemotron,该系列模型不仅在推能力上超越了 DeepSeek-R1,更是在内存效率和吞吐量上实现了显著提升。根据最新发布的技术报告,

英伟达Llama-Nemotron开源模型:推理超竞品 效率内存优且支持128K上下文
AI妹 1 个月前 8 0

近日,英偉達正式推出了其最新開源模型系列 ——Llama-Nemotron,該系列模型不僅在推能力上超越了 DeepSeek-R1,更是在內存效率和吞吐量上實現了顯著提升。根據最新發佈的技術報告,

DeepSeek发布最新V3模型技术论文 探讨大模型扩展挑战与硬件设计思考
AI妹 1 个月前 8 0

近日,DeepSeek 团队发布了关于其最新模型 DeepSeek-V3的一篇技术论文,重点讨论了在大规模人工智能模型训练中遇到的 “扩展挑战” 以及与硬件架构相关的思考。这篇长达14页的论文不仅

DeepSeek发布DeepSeek-V3技术论文 探讨大模型扩展挑战与硬件架构思考
AI妹 1 个月前 7 0

近日,DeepSeek 團隊發佈了關於其最新模型 DeepSeek-V3的一篇技術論文,重點討論了在大規模人工智能模型訓練中遇到的 “擴展挑戰” 以及與硬件架構相關的思考。這篇長達14頁的論文不僅

Omni-R1音频问答模型:基于Qwen2.5-Omni+GRPO优化,创MMAU新纪录文本推理关键
AI妹 1 个月前 7 0

最近,一项来自 MIT CSAIL、哥廷根大学、IBM 研究所等机构的研究团队提出了一个名为 Omni-R1的全新音频问答模型。该模型在 Qwen2.5-Omni 的基础上,通过一种名为 GRPO