DeepSeek 发布 V3.2(标准版)与 V3.2-Speciale(深度思考版),官方评测显示: - V3.2在128k 上下文场景下与 GPT-5互有胜负 - V3.2-Special
vLLM团队发布首个“全模态”推理框架vLLM-Omni,将文本、图像、音频、视频的统一生成从概念验证变成可落地代码。新框架已上线GitHub与ReadTheDocs,开发者可立即pip安装并调用
在近日举行的技术发布会上,vLLM 团队正式推出了 vLLM-Omni,这是一个面向全模态(omni-modality)模型的推理框架。这一新框架旨在简化多模态推理的过程,并为新一代能够理解和生成
芯片巨头英伟达周一在加州圣地亚哥举行的 NeurIPS 人工智能大会上宣布了新的基础设施和人工智能模型,此举旨在加速构建物理人工智能(Physical AI)的基础技术,该领域包括能够感知现实世界
阿里通义正式发布了其最新的生图模型 Z-Image。该模型在发布首日便迅速登顶 Hugging Face 的趋势榜,下载量达到惊人的50万次。Z-Image 以仅6亿个参数的规模,实现了与大型模型
DeepSeek今日正式发布 DeepSeek-Math-V2,这款6850亿参数的混合专家(MoE)模型成为全球首个以开源形式达到国际数学奥林匹克(IMO)金牌水平的数学推理大模型。该模型基于
一款名为 YPrompt 的聊天式提示词工程工具上线,旨在帮助用户更高效地生成和优化提示词。YPrompt 通过与用户的对话,深入挖掘需求,自动生成专业的提示词,像是一位精通需求分析的产品经理,帮
阿里巴巴通义实验室近日重磅开源全新图像生成模型 Z-Image,该模型凭借仅 6B 的参数规模,实现了高效的图像生成与编辑,其视觉质量已接近国际领先商业模型的三倍参数级别(约20B)。Z-Imag
巨人网络AI Lab 近日联合清华大学 SATLab、西北工业大学,重磅推出了三项音视频领域的多模态生成技术成果:音乐驱动的视频生成模型 YingVideo-MV、零样本歌声转换模型 YingMu
11月25日,腾讯混元正式宣布开源全新 OCR 模型 HunyuanOCR。该模型参数仅10亿(1B),依托混元原生多模态架构打造,在多项业界 OCR 应用榜单中斩获 SOTA(最先进水平)成绩,