
1 月 23 日消息,如何将视觉语⾔基础模型(Vision Language Models, VLMs)应⽤于机器⼈以实现通⽤操作是具身智能领域的⼀个核⼼问题,这⼀⽬标的实现受两⼤关键挑战制约:
上海智元新创技术有限公司官方今日发文称,北⼤携⼿智元机器⼈团队 提出 OmniManip 架构 ,基于以对象为中⼼的 3D 交互基元,将 VLM 的高层次推理能力转化为机器⼈的低层次高精度动作。
针对⼤模型幻觉问题和真实环境操作的不确定性,OmniManip 引⼊了 VLM 规划和机器⼈执⾏的双闭环系统设计,实现了操作性能突破。目前项⽬ 主⻚ 与 论⽂ 已上线, 代码与测试平台即将开源 。
此外,OmniManip 具备通⽤泛化能⼒,不受特定场景和物体限制。团队已将其应⽤于数字资产⾃动标注 / 合成管道,实现⼤规模的机器⼈轨迹⾃动采集。该研究团队将开源泛化操作⼤规模数据集和对应的仿真评测基准。
据IT之家此前报道,以“天才少年”身份加入华为的 稚晖君于 2022 年底宣布离职 ,创业智元机器人。2024 年 9 月 3 日, 智元机器人完成 A++++++ 轮融资 ,估值已超过 70 亿元,得到了包括北汽、上汽、比亚迪在内的国内汽车巨头支持。
目前,智元机器人量产的 第 1000 台通用具身机器人 已于本月(1 月 6 日)正式下线,其中包括 731 台双足人形机器人(远征 A2 / 灵犀 X1)和 269 台轮式通用机器人(远征 A2-D / A2-W)。