近期,FigureAI公司发布了其创新的通用型视觉语言动作(VLA)模型Helix,这款模型实现了对人形机器人上半身的高速连续控制,并融合了感知、语言理解与学习控制功能,为家庭机器人应用开辟了新的前景。这一模型的推出,标志着人形机器人灵活性的又一次飞跃。用户只需通过简单的自然语言指令,即可让机器人抓取几乎所有家庭小物件,从而简化了家务操作,使其更加智能和便捷。
Helix模型的核心优势在于其卓越的物体泛化能力。据FigureAI透露,该机器人能够在没有预先演示的情况下,处理数千件杂乱物品,包括玻璃器皿、玩具、工具等,展现出极高的适应性和灵活性。它不仅能够独立作业,还能与其他机器人协同完成复杂的长期任务,例如合作整理陌生的杂货。这种多机器人协作能力为机器人在家庭环境中的实际应用提供了更多元化的场景。
在具体操作中,Helix模型展现了出色的场景理解与语义解析能力。例如,当用户发出“捡起沙漠物品”的指令时,机器人不仅能识别并抓取符合该描述的物品(如玩具仙人掌),还能选择最近的手臂执行精确动作。这种从语言到动作的无缝转换,极大提升了人形机器人在非结构化环境中的实用性。
值得一提的是,Helix模型采用了创新的双系统架构,包括系统1和系统2。系统1是一个拥有80M参数的视觉运动策略模型,以200Hz的频率处理动作指令;而系统2则是一个基于7B参数的开源视觉语言模型(VLM),以7-9Hz的频率确保物体及场景的泛化能力。这种解耦架构使得两个系统能够各司其职,从而实现高效的控制和协调。
© 版权声明
本网站上的所有资源均来源于本网站,所有网址和文章版权均归原作者所有。如有侵权行为,请将相关证明发送至以下电子邮件地址:dxsen@qq.com