pxRobotLearning

pxRobotLearning是一个端到端的平台,用于开发、训练、验证和部署物理人工智能系统。它将仿真优先开发、数据收集、模仿学习、强化学习和优化推理整合到一个单一、连贯的流程中,可以从研究扩展到实际部署。

pxRobotLearning
  • 以仿真为中心的学习流程
  • 灵活的学习算法
  • 仿真到实际的适应与微调
  • 生产就绪部署和多模式学习

我们提供什么

Isaac Sim 基于仿真的流程

  • 高保真仿真基础
    该学习流程基于 Isaac Sim 构建,为机器人交互和数据生成提供物理上逼真的环境。
  • 可扩展的训练环境
    支持大规模并行仿真,以实现高效的政策训练和评估
  • 灵活的场景和传感器配置
    支持快速设置机器人模型、传感器和任务场景

强化学习与模仿学习算法

  • 多种强化学习算法选项
    提供一系列适用于不同机器人任务的先进强化学习算法。
  • 通过示范进行模仿学习
    支持从通过远程操作或脚本策略收集的专家数据中进行学习
  • 统一培训框架
    允许在同一流程中无缝组合或切换强化学习 (RL) 和迭代学习 (IL) 方法。

多物理场仿真间传输

  • 跨引擎验证
    支持在 PhysX、Newton 和 MuJoCo 之间进行仿真间数据迁移,以提高泛化能力。
  • 物理感知鲁棒性测试
    政策会受到各种动态因素、联系和约束的影响。
  • 降低模拟器偏差
    缓解过度拟合单一物理引擎的问题

仿真到实际的微调

  • 渐进式域适应
    利用真实世界数据对在模拟环境中训练的策略进行微调
  • 弥补现实差距
    解决动力学、传感和驱动方面的差异
  • 安全高效的部署
    实现从仿真到物理机器人的逐步过渡

使用 ONNX 和 TensorRT 实现高性能部署

  • 标准化模型导出
    将训练好的模型转换为 ONNX 格式,以便进行与框架无关的部署。
  • TensorRT优化推理
    在边缘和嵌入式GPU上实现低延迟、高吞吐量的执行
  • 可用于生产环境的运行时栈
    专为稳定且可扩展的机器人部署而设计

视觉-语言模型与视觉-语言-动作学习

  • 多模态感知与推理
    整合视觉和语言理解能力以完成复杂任务
  • 视觉-语言-行动(VLA)政策
    使机器人能够将高级指令映射到低级动作
  • 针对机器人领域的微调
    将预训练的多模态模型适配到真实的机器人环境和任务中

机器人学习平台提供端到端的工作流程,将仿真、学习、适应和部署整合到一个统一的系统中。该平台结合了高保真仿真、灵活的学习算法、强大的仿真到实测迁移能力、可直接用于生产的部署方案以及先进的多模态学习功能,从而能够面向广泛的实际应用,实现智能机器人行为的可扩展和可靠开发。

pxPerception

pxPerception是一个高精度感知平台,适用于在复杂真实环境中运行的移动和工业机器人。它通过紧密集成的传感和感知流程提供强大的空间理解能力,即使在弱光、杂乱或动态场景等具有挑战性的条件下,也能实现可靠的定位、建图和交互。

pxPerception 的设计理念是先进行仿真验证,再从现实到虚拟的工作流程,它支持基于数字孪生的开发,并加速从感知研究到生产就绪系统的过渡。

Seyond Robin W with pxIMU
  • 面向移动和工业机器人及人形机器人的高精度感知解决方案
  • 专为弱光、仓库和工业环境设计,具有强大的传感性能
  • 实现高精度空间感知,用于导航、定位和交互
  • 提供一个用于机器人感知集成和定制的开放式开发平台
  • 支持基于数字孪生的仿真和合成数据生成

我们提供什么

激光雷达-惯性测量单元融合感知与定位

  • 紧密耦合的激光雷达-惯性测量单元集成
    IMU与LiDAR传感同步,在采集点云数据的同时提供运动和姿态信息。
  • 感知运动的点云生成
    惯性测量可补偿扫描过程中的运动畸变,从而提高动态运动下的数据质量
  • 与基于点云的定位融合
    将惯性约束与几何匹配相结合,可以提高定位的鲁棒性和精度。
  • 在严苛条件下表现稳定
    集成式设计提高了在快速运动、稀疏几何形状和部分退化环境下的可靠性。

CUDA加速的SLAM

  • 基于 CUDA 的 GPU 加速
    核心SLAM组件在GPU上并行处理,以实现密集点云的实时处理。
  • 高性能扫描匹配和状态估计
    加速的配准和估计使得大规模环境下的低延迟操作成为可能。
  • 基于SDF的地图重建
    支持用于密集三维映射和场景建模的TSDF和ESDF表示
  • 用于规划和碰撞检查的地图
    生成的地图可直接供下游规划和控制模块使用。

基于点云的检测与分割

  • 基于点云的原生3D感知
    感知直接作用于 3D 数据,不受光照和视觉外观的影响。
  • 从检测到分割
    提供目标检测、语义分割和实例级理解
  • 几何和基于学习的方法
    结合经典几何学和数据驱动模型,实现稳健的感知
  • 对环境有丰富的语义理解
    使机器人能够在复杂场景中识别障碍物、结构和功能区域
Partners

pxTeleopForceXR

Meta Quest 3 Apple Vision Pro M5
  • 具备力反馈功能的AR/VR远程操作 + 自定义视觉和力引导
  • Factr/Robot 作为引导臂,Meta Quest 3 / Apple Vision Pro 作为 XR 设备
  • 仿真中的数据集收集:Isaac Sim 用于第一阶段原型测试
  • Isaac Lab 集成用于与人工纠正/干预进行培训
  • ZeroMQ 和 DDS 中间件作为通信替代方案

要让带有力反馈的XR远程操作达到“正确”的手感,很少能一步到位——尤其是在任务、工具和原型硬件频繁变化的情况下。同时,视觉模仿学习VLA方法需要涵盖多个任务的高质量数据集,而强化学习通常受益于人机交互修正,这种修正在训练过程中注入人类意图作为稳定信号。

PxForceXRTeleop通过集成AR/VR + 力反馈远程操作堆栈简化了这一流程,该堆栈具有自定义视觉和力引导功能。在操作员端,它支持以FACTR 为模板的引导臂设置,并且在需要更高保真度的力反馈时,还可以与机械臂配对作为触觉设备

在第一阶段测试和快速迭代中,PxForceXRTeleop 利用NVIDIA Omniverse Isaac Sim来验证交互和指导,同时收集结构化演示以生成数据集。对于HIL-RL ,它以Isaac Lab为目标平台,支持人类能够高效地提供干预和纠正的训练工作流程。

通过ZeroMQ (高吞吐量流)和DDS 中间件(实时消息传递)保持集成的模块化和易于部署的特性,并提供可配置的运行时行为,用于扩展、过滤、安全限制、指导策略和触觉配置文件。