微软今日发布全新的实时文本转语音模型 VibeVoice-Realtime-0.5B。尽管模型规模仅为0.5B,但却具备接近实时的语音生成能力,最快可在约300毫秒内开始发声,实现“话未说完音已先
近日,美国初创公司Arcee AI宣布推出其新系列的 Trinity 模型,旨在在竞争激烈的开源 AI 领域中重新定义美国的地位。与许多当前主流的开源大语言模型(LLM)相比,这些模型的训练全部在
法国独角兽 Mistral AI 于12月2日推出 Mistral3系列模型,包括3B、8B、14B 三个小型密集模型及迄今最强的 Mistral Large3,覆盖从边缘设备到企业级推理的全场景
DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示: - V3.2在128k 上下文场景下与 GPT-5互有胜负 - V3.2-Special
2阿里巴巴通义实验室今日正式开源 Z-Image-Turbo-Fun-Controlnet-Union,这款全新 ControlNet 模型标志着其 Z-Image 系列图像生成生态的重大扩展。作
芯片巨头英伟达周一在加州圣地亚哥举行的 NeurIPS 人工智能大会上宣布了新的基础设施和人工智能模型,此举旨在加速构建物理人工智能(Physical AI)的基础技术,该领域包括能够感知现实世界
12月1日 — 中国人工智能初创公司深度求索(DeepSeek AI)发布了DeepSeek-V3.2系列模型。该模型包括DeepSeek-V3.2及其高计算增强版DeepSeek-V3.2-Sp
DeepSeek今日正式发布 DeepSeek-Math-V2,这款6850亿参数的混合专家(MoE)模型成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的数学推理大模型。该模型基于
Meta AI 实验室今日在 Hugging Face 平台上推出了一款创新型大模型,专为验证和优化链式思维(Chain-of-Thought, CoT)推理而设计。该模型名为“CoT-Verif
11月27日,DeepSeek 团队在 Hugging Face 扔出236B 参数巨兽——DeepSeek-Math-V2,采用 MoE 架构,活跃参数仅21B,上下文一口气拉到128K tok
emlog1 个月前
发表在:欢迎使用emlog这是系统生成的演示评论