咱们天天聊 AI 多牛逼,能写诗、能画画、还能跟你唠嗑到天亮。但你有没有想过,当 AI 看视频的时候,它真的“看懂”了吗? 你可能会说:“当然了,都能识别猫猫狗狗、人山人海了!” 打住!识别物
咱們天天聊 AI 多牛逼,能寫詩、能畫畫、還能跟你嘮嗑到天亮。但你有沒有想過,當 AI 看視頻的時候,它真的“看懂”了嗎? 你可能會說:“當然了,都能識別貓貓狗狗、人山人海了!” 打住!識別物
在7月26日召开的2025世界人工智能大会(WAIC2025)上,上海人工智能实验室正式发布并开源了名为『书生』的科学多模态大模型 Intern-S1。这一全新的模型旨在克服传统科研方法在分析复杂
字節跳動 發佈了一款名爲 BAGEL 的開源多模態基礎模型,擁有70億個活躍參數,整體參數量達到140億。 BAGEL 在標準多模態理解基準測試中表現出色,超越了當前一些頂級開源視覺語言模型
字节跳动 发布了一款名为 BAGEL 的开源多模态基础模型,拥有70亿个活跃参数,整体参数量达到140亿。 BAGEL 在标准多模态理解基准测试中表现出色,超越了当前一些顶级开源视觉语言模型
字節跳動SeedチームはHugging Faceプラットフォーム上で、混合専門家(MoE)アーキテクチャに基づくオープンソースのマルチモーダルベースモデル「BAGEL」を発表しました。総パラメータ
字節跳動Seed團隊在Hugging Face平臺重磅發佈BAGEL,一款基於混合專家(MoE)架構的開源多模態基礎模型,擁有14億總參數和7億活躍參數。BAGEL在數萬億token的交錯多模態數
字节跳动近日正式发布其最新开源多模态基础模型——BAGEL(Big Advanced Generalized Embodied Learner),以70亿个有效参数的规模,开启多模态AI模型的新阶
字節跳動は最近、最新のオープンソース多モーダル基礎モデルである「BAGEL(Big Advanced Generalized Embodied Learner)」を正式に発表しました。70億個の有
阿里千问视觉模型在第三方空间推理榜单SpatialBench夺得前两名:Qwen3-VL13.5分、Qwen2.5-VL12.9分,大幅领先Gemini3.0Pro Preview(9.6分)与G
emlog1 个月前
发表在:欢迎使用emlog这是系统生成的演示评论