场景地图创建是机器人执行复杂多样化任务的基础,机器人与用户智能交互需求的日益提高,对复杂大场景环境的自主感知和地图创建提出了新的要求。项目针对项目任务要求,取得了如下研究进展:1)针对不同场景对里程计任务的要求,本研究提出了基于视觉和IMU融合的位姿估计方法,有效结合了二者优势,提高了移动机器人位姿估计的精确性和鲁棒性;提出了基于自适应特征的精确位姿估计方法,有效解决了稀疏场景下特征点提取困难,鲁棒性不高的问题。2)针对机器人三维彩色地图创建问题,本研究提出了基于深度学习的特征描述子的闭合回路检测方法,在提高图形特征鲁棒性的同时有效解决了位姿估计造成的累积误差;提出基于关键帧的移动机器人局部三维地图创建方案,采用八叉树的方式存储地图有效降低地图的大小和内存占用;提出一种基于点线特征融合的移动机器人三维地图创建方法,有效增强了机器人在低纹理和光照变化大的场景中地图创建的鲁棒性。3)针对三维场景识别分类、检测、语义分割问题,本研究提出了基于局部共享特征的处理模型和基于学习上采样的语义分割网络,提高了场景语义分割精度;提出了基于分通道卷积的语义分割网络,实现了场景实时语义分割;提出了融合深度学习和掩模的场景语义识别分类、检测方法,有效准确获取场景中散乱多目标的类别和6D位姿信息;提出了基于数据预处理的点云语义分割网络和基于扩张点卷积空间金字塔池化的点云语义分割网络,增强了点云局部特征获取能力,提高了场景分割精度。4)针对层次式复合三维语义地图研究,本研究分别创建了场景二维、三维视觉特征描述词典,通过深度学习的方式充分丰富视觉特征信息,并有效提高了特征的鲁棒性;提出了基于目标标签和场景标签的双监督语义节点识别方案,改善了在复杂语义节点的分类,提高了场景分类精度;提出了基于体素化点云标记拼接的语义地图创建方法,实现了实时创建三维语义地图。项目任务成果共发表11篇论文,其中SCI/EI源刊论文8篇,2篇EI收录源刊,1篇EI收录会议论文;申请国家发明专利6项,培养博士研究生2名,硕士研究生9名。项目技术成果委托湖南省产商品质量监督检验研究院进行了检验,技术指标全部达到或超过项目合同书要求。 2100433B