您现在的位置:智能制造网>工控网>资讯列表>安光所在大场景下基于视觉的多机器人全局定位方面取得新进展

安光所在大场景下基于视觉的多机器人全局定位方面取得新进展

2025年03月27日 14:06:22 人气: 7941 来源: 安徽光学精密机械研究所
  近日,中国科学院合肥物质科学研究院安光所光电子中心计算机视觉团队研发出适用于大场景的多机器人协同定位新技术。相关研究成果发表在机器人领域国际Top期刊IEEE Robotics and Automation Letters (IEEE RA-L)上。
 
  在智能机器人领域,基于视觉的同步定位与地图构建技术(SLAM)因视觉传感器具有成本低、部署灵活、信息量丰富等优势,成为行业研究热点。在大规模环境中,通过共享地图数据实现协同作业可大幅提升工作效率。然而,实现多机器人系统中不同机器人间的全局定位(Multi-Robot Global Localization, MR-GL)依然面临诸多挑战。特别是在机器人初始位姿未知、环境动态变化剧烈的情况下,不同机器人间视角差异造成的数据数据匹配困难,动态场景对算法的实时性与鲁棒性(一个系统在面临着内部结构或外部环境的改变时也能够维持其功能稳定运行的能力)提出了更高要求。此外,如何在保障精度的同时快速完成多机协同定位,是影响协同任务能否成功执行的关键因素之一。
 
  针对上述难题,研究团队创新性地提出了一种融合语义与几何三重约束的图匹配多机器人全局定位方法——SGT-MGL。该方法首先提取场景中对象的语义与几何特征,并通过拓扑结构刻画其空间分布关系。为增强对象的区分性,研究人员基于语义信息与相对距离构建了三角形描述符,进一步提升了特征辨识度。考虑到语义与几何信息的互补特性,创新性提出了一种融合语义标签、空间夹角及相对距离信息的三维直方图描述符,有效提升了三角形描述符的稳定性与不变性。为进一步降低噪声干扰,研究团队采用"由粗到精"的匹配策略,提出了一种由全局几何结构筛选关键点位,并结合局部与全局图匹配方法,实现了多机器人间的高精度六自由度(6-DoF)(三维位置+三维朝向)姿态估计。实验结果表明,该方法在提升全局定位精度方面具有显著优势。
 
  实验数据显示,该技术在复杂动态环境中的定位精度较传统方法提升显著。其创新性的三重约束机制,既保证了算法在视角差异下的鲁棒性,又通过分级处理兼顾了运算效率,为未来智能医院、智能工厂等场景的多机器人协同作业提供了关键技术支撑。
 
  该项工作的第一作者为王凡博士后,通讯作者为张文副研究员和刘勇研究员。本研究得到了国家自然科学基金、合肥物质院院长基金和国家重点研发计划的支持。
 
所提出的多机器人全局定位方法在KITTI08序列数据集上的应用
全年征稿/资讯合作 联系邮箱:1271141964@qq.com
版权与免责声明
1、凡本网注明"来源:智能制造网"的所有作品,版权均属于智能制造网,转载请必须注明智能制造网,https://www.gkzhan.com。违反者本网将追究相关法律责任。
2、企业发布的公司新闻、技术文章、资料下载等内容,如涉及侵权、违规遭投诉的,一律由发布企业自行承担责任,本网有权删除内容并追溯责任。
3、本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
4、如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

企业推荐

更多