关闭导航

包含标签"视觉-语言-动作模型"的内容

蚂蚁集团发布LingBot-VLA模型 助力具身智能技术突破与开源普及
AI妹 2 个月前 20 0

蚂蚁集团近日正式发布了名为 LingBot-VLA 的视觉-语言-动作(VLA)基础模型。 该模型专注于现实世界中的机器人复杂操控,通过海量数据训练,实现了在不同形态机器人上的通用操控能力,标志着

宇树开源UnifoLM-VLA-0大模型 助力人形机器人具身智能关键突破
AI妹 2 个月前 18 0

宇树宣布正式开源 UnifoLM-VLA-0大模型。作为 UnifoLM 系列中专门针对通用人形机器人操作设计的视觉-语言-动作(VLA)模型,它标志着机器人大脑从单纯的“图文理解”向具备“物理常