关闭导航

包含标签"128K上下文"的内容

小米推进AI大模型核心战略 MiMo团队攻坚千亿参数目标高薪揽才
AI妹 1 个月前 21 0

12月5日,小米集团合伙人、总裁卢伟冰在社交媒体透露:公司AI大模型业务过去四个季度投入环比增速超50%,目前进展“已超出董事会预期”,并宣布将AI与“现实世界深度结合”列为未来十年核心战略。同时

DeepSeek V3.2系列发布 核心DSA升级性能对标闭源且开源可商用
AI妹 1 个月前 19 0

DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示: - V3.2在128k 上下文场景下与 GPT-5互有胜负 - V3.2-Special

DeepSeek-Math-V2开源:236B MoE数学近GPT-4o,编程能力对标闭源巨头
AI妹 1 个月前 23 0

11月27日,DeepSeek 团队在 Hugging Face 扔出236B 参数巨兽——DeepSeek-Math-V2,采用 MoE 架构,活跃参数仅21B,上下文一口气拉到128K tok

    1 2