关闭导航

包含标签"PyTorch"的内容

字节跳动PHD-Transformer:高效预训练长序列 支持2M上下文提升LLM训练效率
AI妹 3 个月前 14 0

字節跳動宣佈推出高效預訓練長度縮放技術(Efficient Pretraining Length Scaling),通過創新的Parallel Hidden Decoding Transforme

字节跳动Vidi多模态模型:精准时间检索 超长视频性能超GPT-4o等主流模型
AI妹 3 个月前 14 0

字節跳動宣佈推出全新多模態模型Vidi,專注於視頻理解與編輯,首版核心能力爲精準的時間檢索功能。據AIbase瞭解,Vidi能夠處理視覺、音頻和文本輸入,支持長達一小時的超長視頻分析,在時間檢索任

字节跳动Vidi多模态模型:视频时间检索性能超GPT-4o
AI妹 3 个月前 12 0

字节跳动宣布推出全新多模态模型Vidi,专注于视频理解与编辑,首版核心能力为精准的时间检索功能。据AIbase了解,Vidi能够处理视觉、音频和文本输入,支持长达一小时的超长视频分析,在时间检索任

小米MiMo-7B开源大模型发布 轻量化+强化学习赋能顶级推理能力
AI妹 3 个月前 29 0

小米正式在Hugging Face平台发布其首个专为推理(Reasoning)设计的开源大模型——MiMo-7B。据AIbase了解,MiMo-7B通过从预训练到后训练的强化学习(RL)优化,展现

加州大学圣克鲁兹分校全新OpenVision视觉编码器:多样模型与灵活高效部署
AI妹 3 个月前 11 0

加州大學聖克魯茲分校近日宣佈推出 OpenVision,這是一個全新的視覺編碼器系列,旨在爲 OpenAI 的 CLIP 和谷歌的 SigLIP 等模型提供替代方案。OpenVision 的發佈爲

加州大学圣克鲁兹分校推出OpenVision视觉编码器系列替代CLIP/SigLIP高效灵活
AI妹 3 个月前 17 0

加州大学圣克鲁兹分校近日宣布推出 OpenVision,这是一个全新的视觉编码器系列,旨在为 OpenAI 的 CLIP 和谷歌的 SigLIP 等模型提供替代方案。OpenVision 的发布为

加州大学新発表OpenVision視覚エンコーダ:多様性・効率性を兼ね備えたAI画像処理基盤
AI妹 3 个月前 14 0

カリフォルニア大学サンタクルズ校は最近、OpenVisionの発表を発表しました。これは、OpenAIのCLIPやGoogleのSigLIPなどのモデルに代わる新しい視覚エンコーダーシリー

复旦腾讯联合研发DICE-Talk 身份情感分离生成逼真说话人视频解决表情跳变
AI妹 3 个月前 15 0

由復旦大學與騰訊聯合研發的DICE-Talk說話人視頻生成工具於近日正式發佈,以其卓越的情感表達能力和逼真的人物表現引發行業熱議。AIbase通過整合社交媒體最新動態及公開信息,爲您深度解析這一技

复旦腾讯DICE-Talk技术突破:身份情感分离高效生成逼真的情感说话人视频
AI妹 3 个月前 15 0

由复旦大学与腾讯联合研发的DICE-Talk说话人视频生成工具于近日正式发布,以其卓越的情感表达能力和逼真的人物表现引发行业热议。AIbase通过整合社交媒体最新动态及公开信息,为您深度解析这一技

复旦腾讯联合开发DICE-Talk:身份情感分离的情感说话人视频生成工具
AI妹 3 个月前 14 0

A video generation tool for speaker videos named DICE-Talk, jointly developed by Fudan University