基于卷积神经网络的三维点云家居物体识别方法的研究与实现开题报告
2020-02-18 19:37:22
1. 研究目的与意义(文献综述)
近几年,伴随着人工智能、智能家居的快速发展,越来越多的服务型机器人出现在我们的视野中,而在室内环境下的物体识别是服务机器人的必备技能。目前,基于二维图像的物体识别已经有很多研究成果[1][2],然而相对于二维图像识别而言,三维点云不仅可以提供更多几何信息,且数据的采集不受光照影响,规避了二维图像识别遇到的光照、姿态等问题,因此基于三维点云的室内家居物体识别逐渐引起了人们的重视。
在国外,针对三维物体识别的研究起步较早,点签名法[3]是最早提出的基于深度信息描述的方法,这是一种基于局部特征的识别方法,其利用法向量定义旋转角度,通过与旋转角度相关的有向距离完成识别;基于全局特征的方法从背景中分割出目标物体,通过对整体形状特征进行描述完成识别[4];随着人工智能的发展,深度学习在三维物体识别中大放异彩,而由于点云形式不规则,大多数研究人员将此类数据转换为常规3d体素网格[5]-[7]或集合的图像[6][8]。 这种方法保留了点的空间位置信息,但是点云数据量巨大和3d-cnn的固有计算量较高,导致方法开销很大。在保证计算效率的同时,往往需要降低分辨率,从而造成了精度损失。基于此,斯坦福大学的qi等人提出了 pointnet框架[9],该框架直接使用原始点云作为输入,使用一个简单的对称函数最大池函数来解决点云的无序性问题,并利用t-net“迷你网络”解决点云的刚性旋转不变性问题,实验证明这种模型具有较高的准确率。国内对三维物体识别的研究起步较晚,不过近些年随着机器视觉领域的兴起,也有一些三维物体识别方面的论文见诸发表。例如山东大学提出的pointcnn[10],通过让输入点学习“x变换”,让 cnn 更好地处理不规则和无序的点云数据。
由于深度学习的热潮,加之其在物体识别中极好的鲁棒性,三维物体识别多是基于深度神经网络的,而随着pointnet的提出,直接处理点云数据的方法逐渐成为主流。
2. 研究的基本内容与方案
基本内容:
1)通过阅读文献,了解利用三维点云进行物体识别的过程。研究现有的识别方法,同时分析比较当前技术识别率与识别速度,以及其适用范围,重点研究基于深度卷积神经网络的三维点云物体识别技术。
2)研究直接处理点云的深度学习框架,包括pointnet,pointnet 等,了解其原理及优缺点。结合室内家居物体的特征,在已有的深度学习框架上进行优化改进,使其尽可能在家居物体识别领域提高准确率。
3. 研究计划与安排
第一阶段(第1周—第3周):阅读相关参考文献,完成外文资料翻译及文献摘要撰写,并交予指导教师检查。
第二阶段(第4周—第9周):熟悉所选用的算法,运用所学的数学以及计算机理论知识,完成算法的实现,提出改进方案。
第三阶段(第10周—第13周):实现算法的改进,在公共数据集上测试算法性能,完成与已有的同类算法的比较实验,对算法的结果进行分析。
4. 参考文献(12篇以上)
[1] i. armeni, o. sener, a. r. zamir, h. jiang,i. brilakis, m. fischer, and s. savarese. 3d semantic parsing of large-scaleindoor spaces. in proceedings of the ieee international conference on computervision and pattern recognition, 2016. 6, 7 [2] guo b, huang x, zhang f, et al.classification of airborne laser scanning data using jointboost[j]. isprsjournal of photogrammetry amp; remote sensing, 2015, 100:71-83.
[3] wu z, song s, khosla a, etal. 3d shapenets: a deep representation for volumetric shapes[c]// ieeeconference on computer vision and pattern recognition. ieee, 2014:1912-1920.
[4] maturana d, scherer s. voxnet: a 3dconvolutional neural network for real-time object recognition[c]// ieee/rsjinternational conference on intelligent robots and systems. ieee, 2015:922-928.