ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

基于ROS机器人的3D物体识别与三维重建(三)基于ROS的3D物体识别

2021-12-21 21:03:11  阅读:593  来源: 互联网

标签:仿真 ROS 物体 点云 识别 进行 模板 3D


Kinect2相机标定与点云数据获取

1、介绍

对于机器人而言,获取目标物体和环境信息是它进行后续行为决策的基础,本章将主要对机器人的3D物体识别能力进行研究,对环境信息的感知研究将在后续章节进行。作为机器人完成功能任务的重要基础能力之一,目标识别在机器人技术中具有重要地位,像工业机器人需要准确识别出目标工件并计算其在工位上的位置姿态以便完成抓取放置任务,移动机器人需要识别出环境中障碍物的信息的完成避障,安防机器人需要准确识别出目标物进行报警等。

在(一)已经介绍到,3D物体识别的方式目前主要有模板匹配、形状匹配、点云匹配、机器学习等四种方式,并对四种方式的主流算法和优缺点进行了介绍,这里不再重复叙述。其中,模板匹配和点云匹配是现在工业生产中主要使用的方法,在无人驾驶、工业机器人、移动机器人中有广泛的应用,机器学习中基于深度学习的方法也正方兴未艾,像PointRCNN等识别模型取得了很好的效果。综合市场技术应用情况和现有的实验条件,本文主要研究基于模板匹配的3D物体识别方法。

本节内容是基于在Gazebo中构建的3D物体识别仿真环境中进行的,因为构建的仿真kinect相机采用默认的内参数即可,在这一部分中我们省略相了机标定的环节。虽然不进行该环节,但仍然要认识到相机标定在物体视觉识别过程中的重要性。在完成了仿真环境搭建后,分别进行了二维图像上的基于ORB特征的物体识别和基于LINEMOD算法的基于模板匹配的3D物体识别。

2 基于Gazebo搭建物体识别仿真环境

2.1 Gazebo简介

Gazebo仿真引擎的主要特点
Gazebo是Dr. Andrew Howard等人于2002年创建的机器人仿真工具,它加速了机器人的设计、模拟、算法验证和创建的真实场景进行系统测试。它具备室内和室外的机器人仿真能力,有稳健的物理引擎、高质量的图形、编程接口,它的主要特性如上图所示。

1) 它以ODE等物理引擎为基础开发,可以进行各种刚体模拟诸如碰撞检测等。
2) 提供高质量的渲染功能,可以对光线、阴影和纹理贴图进行渲染。
3) 可以生成多种传感器的数据,像Kinect相机、激光雷达等,而且可以进行噪声的仿真。
4) 具备与ROS通讯的各种传感器插件。
5) Gazebo的模型库中具有PR2、Turtlebot等常用的机器人模型。
6) 可以进行TCP/IP通信。
7) 可在浏览器进行云端仿真。
8) 具备实用的各类命令行工具,方便我们进行机器人设计、算法验证等开发工作。

2.2 创建仿真环境

在gazebo中创建一个空的world文件,添加Turtlebot机器人URDF模型。通过Building Editor创建室内环境,添加桌子、啤酒、可乐等物体sdf模型,创建的室内仿真环境如下图所示。
在这里插入图片描述
因为创建的仿真环境用于物体识别,所以其中Kinect相机的仿真尤为重要。Kinect相机模型是通过URDF语言创建的,主要通过link、joint、gazebo、sensor、plugin等标签进行描述,并且在plugin标签中设置相机的内参和发布的话题。

随后,需要控制机器人在仿真环境中移动,获取仿真环境中kinect相机的数据。通过安装Turtlebot第一代机器人的仿真包,编写key_teleop节点控制机器人在仿真世界中的运动,在rviz中添加RobotModel、Pointcloud2、Image等信息订阅相应的Topic话题。下面图3.2.3和图2.3.4分别展示了Rviz中信息的显示和话题节点通信。
Rviz实时显示界面
节点通信图

3 三维物体识别

3.1 基于模板匹配的物体识别流程

完成仿真环境的搭建后,便可以基于此进行物体识别的研究。这部分主要采用模板匹配的思想来进行物体识别,模板匹配有离线的3D模型数据库构建和在线物体识别两个管线。

构建3D模型数据库主要有以下几种方式:
1) CAD几何重建。通过Solidworks、UG等建模软件对目标物进行重建,该方法适用于对尺寸已知的物体进行重建,主要用在机械领域。但也存在缺陷,需要对物体进行精确的测量,对测量技术要求较高,并且要浪费大量人力。
2) SfM重建。通过相机拍摄不同位置的目标物,通过运动恢复结构技术进行物体的模型重建。缺点是物体重建的计算机运算过程耗费时间过长。
3) 扫描设备重建。通过扫描仪进行物体重建,缺点是目前市面上的3D扫描仪价格十分难得昂贵,很难普及应用。
4) RGB-D相机视觉SLAM技术三维建模。通过视觉SLAM技术进行物体建模。这是近年来的研究热点,缺点是目前通过这种方法建模的精度并不是很高。

本部分我们主要采用CAD几何重建方法,使用Solidworks制作物体模型,保存为stl格式文件上传至离线数据库进行训练。在构建了物体的几何模型后,我们需要在这些模型上使用LINEMOD等方法提取特征并加以描述,将特征编码保存在离线数据库中。

在线的管线主要是实时的获取点云数据,并进行滤波、去外点等处理,然后提取特征点并进行描述,然后使用kd-tree或ICP等算法进行匹配。

模板匹配中完整的流程如下图所示:
在这里插入图片描述

3.2 基于二维模板的物体识别

(一) ORB特征点介绍

物体识别的流程基本是一致的,大都经过特征点提取、特征描述、特征匹配等过程,基于模板匹配的算法中,3D视觉中的模板是物体的三维模型,二维的模板便是便是图像本身。在进行基于物体模型识别的研究之前,先探讨二维图像的识别,提取图像的特征点进行匹配,以了解物体识别的过程。

二维图像识别的特征点众多,本文我们主要采用ORB(Oriented FAST and Rotated BRIEF)特征,它对旋转和尺度具有很好的鲁棒性。该特征由改进的旋转FAST特征点和BRIEF描述子构成。因此,对一张图片进行ORB特征提取也就变成了提取FAST角点并计算方向,然后计算对应角点的BRIEF描述子的过程。下图描述了FAST特征的表现形式。图中,对像素位置p进行亮度提取,然后以其为原点的圆周选取了一定数量的像素,若存在连续一定数量的像素亮度与p位置亮度在一定阈值范围内明显区别,则确定该角点为FAST,在使用过程中需要对每个像素进行遍历操作。

图3.3.2 FAST特征点

完成关键点提取后还需要使用灰度质心法来计算角点的主方向,具体计算过程在下图详细描述:
在这里插入图片描述
随后计算描述子,BRIEF是由0和1组成的128维的向量,记录了在关键点的图块区域内随机相邻两像素的大小比较结果,若某像素比一个像素大为1,小则为0。构建图像金字塔进行多层关键点和描述子的求解,而且还记录了上述求取的旋转方向,因此使用该描述子可以保证在尺度、旋转上的鲁棒性。

上述便是ORB特征点和描述子的整个提取过程,接下来使用通过OpenCV3库编写程序进行特征匹配的实验,程序算法流程如下图
在这里插入图片描述

进行ORB特征提取后进行匹配的结果如下图3.3.5所示,可见该特征在匹配效果上对旋转、移动、尺度等具有良好的鲁棒性。

(二) Gazebo二维图像识别仿真

介绍完ORB特征后,接下来在3.2节创建好的Gazebo环境中进行基于二维模板的识别实现(识别场景中的啤酒罐模型)。Find_object_2d是ROS中常用于二维物体模板匹配识别功能包,可以对图像提取SURF、ORB、SIFT等主流特征,支持RGB相机和RGB-D两类相机,并且还可以对物体的尺寸大小和位姿进行估计,在基于二维模板匹配识别仿真中主要使用该库进行实验。

下面分别完成RGB相机和RGB-D相机的仿真:
1、RGB相机仿真
在gazebo创建好的环境中,添加啤酒罐的模型,启动仿真环境,在find_obect的节点中订阅camera/rgb/image_raw话题。随后对识别的物体进行二维图像的ORB特征点提取,结果如下图所示。
在这里插入图片描述
将提取的特征保存在数据库中,随后进行在线的识别,识别结果如下:
在这里插入图片描述
我们还可以输出尺寸大小、单应矩阵。由相机模型中对位姿求解部分的描述得知,单应矩阵可以表示两个平面之间的映射,所以我们可以该功能包输出的单应矩阵来恢复位移变换信息,所得结果如下表所示:
在这里插入图片描述
2、深度相机识别仿真
上述RGB相机的识别过程只能确定物体的二维坐标信息,并且尺度还不能确定,而通过深度相机可以很好的解决这些问题,下面是对深度相机的仿真。

流程同RGB相机物体识别过程类似,只是在find_object_2d节点订阅的话题中增加的深度图像话题/camera/depth/image_raw,识别结果如下图所示,图中白点为识别的ORB特征点,并将识别到的物体以粉色线框进行了标注。
在这里插入图片描述

在终端输出检测结果如下表,其中使用xyz表示空间位置,用四元数表示物体的旋转姿态。这里的四元数可以通过一定的公式转换成旋转矩阵R。
在这里插入图片描述
最后,利用现有Kinect2设备进行了真实情况下的物体识别,识别情况如下图,左侧图片为离线制作好的二维特征模板,右侧为实时物体识别用黄色边框标注出的目标物体。
在这里插入图片描述

3.3 基于三维模型的物体识别

(一)LINEMOD介绍
上小节介绍了二维模板的物体识别,但是在识别过程中只能识别特定角度的图像,在实际应用过程中受到了极大的限制,本小节将探讨基于三维模型的模板匹配识别方法,解决多角度识别问题。在模板匹配的众多算法中,LINEMOD已经得到了广泛的认可,在三维物体识别方面具有很好的稳定性。

任何一种模板匹配算法都需要进行模板的渲染提取,LINEMOD算法类似,通常是通过相机围绕坐标系原点,采集不同角度和距离的模板,记录相对位姿,如 下图所示:
在这里插入图片描述
对不同角度和距离的模板提取过程如下图所示,主要提取彩色边缘的梯度特征和深度表面法向量特征,这是离线进行的,提取后会存储到数据库中,在绪论部分已经进行了介绍。
在这里插入图片描述

LINEMOD算法使用RGB图像的梯度方向作为特征,而不是梯度的大小,分别计算RGB三个通道的梯度,取梯度值最大的通道的梯度方向。采用滑窗的方式对图像进行一定邻域范围相似度计算。并且,在进行计算式采用了SSE的方式同步数据处理,因此速度更快。同时,采用了主方向扩散到邻域的方式增强算法对微小旋转平移的容错能力,扩散原理如下图所示。
在这里插入图片描述
(二)Gazebo中3D物体识别实验
由于在ORK(Object Recognition Kit)中集成了LINEMOD算法,所以接下来将使用ORK该ROS功能包完成对于coke模型的3D物体识别,仍在二维模板匹配小节中创建的仿真环境中进行。实验过程主要分为三个步骤,首先要创建物体的三维模型,通过UG或者Solidworks等CAD软件建立模型并将其上传至数据库,然后使用LINEMOD算法对这些模型进行训练,最后在物体识别程序选择LINEMOD方式进行3D物体识别。
因为ORK是基于CouchDB存储模型训练的数据,因此需要提前安装CouchDB,这是一个面向文档和WEB的数据库管理系统,可以很方便的通过浏览器进行进行管理。
首先将创建好的可乐罐模型添加到数据库当中,如下图所示,图中左下方的数字串代表在数据库存储的ID号。
在这里插入图片描述
然后使用object_recognition_linemod下的training.ork进行模型的训练,然后保存在CouchDB数据库中,如下图所示:
在这里插入图片描述
打开Gazebo中的识别仿真环境,通过ROS系统的的参数映射机制,将/camera/rgb/image_raw、/camera/rgb/image_info、/camera/depth/image_raw和/camera/depth/image_info等话题重映射到ORK可以订阅的话题,运行ORK中object_recognition_core模块的检测节点,识别方式选用LINEMOD,在RVIZ中添加Image、PointCloud2和Object_ork节点程序(若识别到物体该节点会发布消息)。RVIZ获取Gazebo仿真环境界面和识别效果分别如下图
在这里插入图片描述
在这里插入图片描述
由图可以看出,通过LINEMOD对三维模型进行模板匹配,Turtlebot准确的识别出可乐罐的模型,图中白色覆盖部分为识别区域,并显示了coke字样,识别相似率达到了96.4%。

4 桌面物体检测

在之前通过基于ORB特征的find_object_2d和基于LINEMOD算法ORK实现了二维模板匹配和三维模板匹配的3D物体识别,这些都需要通过离线的方式制作好模板才可进行识别。但对于机器人而言,面对的物体不一定是提前获知的,仍需要对物体进行一定操作(比如抓取放置等),这便涉及到了目标检测的问题。由机器人的抓取大多是基于平面上的物体,所以本节将针对桌面物体检测这一特定背景的问题进行研究。

4.1 桌面物体检测流程

对桌面物体的检测可以分为以下几个步骤:
(1)通过标定好的Kinect相机获取点云数据,然而这些数据是ROS格式的,需要转换为PCL点云数据格式,方便使用PCL点云库进行数据处理。
(2)通过PCL点云库的segmentation模块将点云中所有的平面检测出,并通过设定一定范围内高度的阈值,检测出桌面。
(3)将检测出的桌面的点云删除,将其上方的一定范围高度的点云设定为物体的点云集合。
(4)在物体点云集合中通过KD-Tree进行搜索,把分割出的每一个点云簇当做是一个物体。

4.2 算法实现

首先,在ROS工作空间下src中创建一个功能包object_detection,创建时需要添加roscpp 、 std_msgs 和 message_runtime 等依赖项,其中std_msgs用于输出string文字,message_runtime用于定义非标准消息类型输出检测物体的名称和坐标。随后编写在该功能包下创建msg文件夹,在该文件夹下创建Coord.msg非标准消息类型,内容如下图3.4.1所示,使用catkin_make编译后生成Coord.h文件,便完成了非标准消息类型的创建。
在这里插入图片描述
编写桌面物体检测的程序节点objects_3d,该程序流程如下:

(1) 首先在main函数中,订阅了turtlebot发布的/camera/depth/points话题,当检测到后将点云数据传到ProcCloudCB回调函数中(该函数是整个算法实现的核心部分,下面进行详细介绍),该函数进行物体检测,最后将检测的结果通过publish对象coord_pub发布到话题/objects_3d。同时,在main函数中还发布了一下的主题:

	obj_maker 用于在RVIZ中标注物题的空间位置
	segmented_plane 用于在RVIZ中显示检测出来的平面集合
	segmented_objects 用于在RVIZ中显示检测出来的物体集合

(2)接下来对ProcCloudCB函数进行详细介绍:

  1. 回调函数的输入参数sensor_msgs::PointCloud2 &input是三维点云的数组;
  2. 创建一个tf转换器tf_listener进行点云数据的坐标系转换,因为获取的点云数据是基于 相机坐标系的,在机器人使用过程中是基于机器人自身的的坐标系完成功能任务;
  3. 通过pcl::fromROSMsg函数将ROS格式的点云数据转换为PCL点云库可使用的格式;
  4. 设置滤波器对象pcl::PassThroughpcl::PointXYZRGB,x、y、z三个方向的滤波范围分别限制在(0.3,1.5)、(0,1.5)、(-1.5,1.5),随后范围外的点云数据将会被过滤掉;
  5. 使用segmentaion对过滤后的点云进行RANSAC平面提取,将检测到的平面存储在planeIndices->indices中;
  6. 通过遍历所有平面,找出高度在一定范围内的平面作为桌面;
  7. 再将桌面上方一定高度范围内的点云集合设定为目标物体的点云数据,并将桌面中的数据剔除后对目标物体的点云进行KD-Tree邻近搜索,将分离的点云簇分割后认定为是一个物体。
  8. 对分割的每个物体进行体积统计,使用DrawBox函数绘制边界框,用DrawText函数在边界框位置绘制物品的标号。

下篇博客节介绍在视觉SLAM基础理论(主要是参考《视觉SLAM十四讲》,相当于学习笔记啦,哈哈 _

标签:仿真,ROS,物体,点云,识别,进行,模板,3D
来源: https://blog.csdn.net/rayso9898/article/details/122072537

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有