跨本体视触觉多模态数据集发布 包含超6万分钟机器人感知数据

1月26日,国家地方共建人形机器人创新中心联合相关研究团队发布“白虎-VTouch”跨本体视触觉多模态数据集。该数据集包含超过60000分钟的机器人交互数据,涵盖视觉、触觉、关节位姿等多模态信息,是目前规模最大的同类开源数据集之一。

据悉,该数据集覆盖家政服务、工业制造、餐饮服务等日常场景,包含380余项任务类型,涉及500多种常见物品的操作数据,涵盖了轮臂机器人、双足机器人及手持智能终端等多种本体构型。通过系统采集真实物理交互过程中的触觉与视觉信息,该数据集能够为提升机器人对物理环境的理解能力、实现更精细稳定的操作提供数据支持。

在技术实现层面,研究团队建立了多机器人同步数据采集平台,能够同时支持十余种传感器的高带宽数据采集,并确保多模态数据的时序一致性。数据集采用的视触觉传感器可记录物体接触过程中的细微形变与压力分布变化。

目前,该数据集的首批6000分钟数据已在开源平台发布,相关技术文档与使用说明将陆续公开。研究团队表示,希望该数据集能够为机器人精细操作算法的研发提供基础资源,推动服务机器人在家庭助老、生活协助等场景中的实际应用能力提升。

(总台记者 张静)

展开阅读全文

更新时间:2026-01-29

标签:科技   体视   数据   触觉   机器人   团队   操作   传感器   构型   精细   视觉

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top