微软发布Rho-alpha模型,机器人可通过语言指令执行复杂任务
5 天前

据The Robot Report报道,微软研究院于2026年1月21日发布了新型AI模型Rho-alpha,旨在提升机器人在复杂真实环境中的自主操作能力。该模型基于Phi视觉-语言家族开发,首次融合视觉、语言与触觉感知,可将自然语言指令直接转化为机器人控制信号,支持双手协同任务。Rho-alpha具备动态调整行为和接受人类实时纠正的能力,采用真实数据与Azure仿真生成的合成数据联合训练,以解决数据稀缺问题。目前,该模型正在双臂及类人机器人平台测试,未来将通过早期访问计划向研究机构开放。