中文摘要
近年来,三维场景重建与定位是计算机视觉领域中重要的研究方向。随着自动驾驶技术与工业机器人技术的不断发展,对于场景重建精度与定位准确度的要求也不断提高。如何利用各种传感器采集到的数据,完成对场景的精确重建与定位,是非常有价值和应用前景的研究方向。
目前这一领域中存在着许多挑战:在重建方面,使用传统方法对大场景一次性建图会产生漂移误差,同时效率较低,而采用分区域重建的方法又依赖于准确的融合技术;在定位方面,由于光照环境的变化,定位时刻的环境细节特征与地图重建时刻存在差异,在匹配上存在难度;同时,基于传统单目相机的视觉定位的视场较小,有时无法捕捉到足够多的特征进行定位。这些挑战共同限制了建图的精确性与定位的鲁棒性。
针对以上挑战,本文提出了一种重建与定位流程:首先利用传感器数据,生成场景局部点云,然后对局部点云进行拼接融合,合成整体场景高精度点云,最后利用全景相机实现在场景中的定位。
本文主要的研究内容包括:
1.采用了三个平行的局部重建算法:基于视觉的SfM算法、基于激光雷达的LOAM算法与基于图像激光扫描仪的方法,完成对清华园局部场景的重建任务,为针对不同环境的重建任务在设备和算法选择上提供了参考;
2.提出一种由粗到精的点云配准算法,对局部场景点云进行融合,生成全局高精度点云。该算法融合了传统特征提取与神经网络的方法,能够在不依赖于初始转移矩阵的情况下具有较为鲁棒的配准结果。
3.提出一种跨模态鲁棒匹配的视觉定位算法,完成了基于先验点云场景中的定位任务。该算法通过将2D-3D匹配问题转换为2D-2D匹配问题,能够在仅使用全景相机,且不预先对场景进行任何布置的情况下实现定位。
关键词:三维重建;定位;点云配准;神经网络;高精度地图
ABSTRACT
Inrecentyears,3Dscenereconstructionandlocalizationisanimportantresearchdirectionincomputervisionfield.Withthecontinuousdevelopmentofautonomousdrivingtechnologyandindustrialrobottechnology,therequirementsfortheaccuracyofreconstructionandlocalizationarealsoincreasing.Therefore,howtousethedatacollectedbyvarioussensorstoaccuratelyreconstructthesceneandlocateinit,isaveryvaluableandpromisingresearchdirection.
Atpresent,therearemanychallengesinthisfield.Intheaspectofreconstruction,thetraditionalmethodwillproducedrifterrorandlowefficiencyinthereconstructionoflargesceneinonetime,whilethemethodofsubregionalreconstructionreliesonac-curatefusiontechnology.Intheaspectoflocalization,duetothechangeofilluminationenvironment,thedetailedfeaturesofthelocationtimearedifferentfromthoseofthemapreconstructiontime,soitisdifficulttomatchthem.Futhermore,thevisuallocal-izationtechonologybasedontraditionalmonocularcamerahasasmallfieldofview,sosometimesitcannotcaptureenoughfeaturesforlocalization.Thesechallengestogetherlimittheaccuracyofmappingandtherobustnessoflocalization.
Aimingattheabovechallenges,areconstructionandlocationprocessisproposedinthisthesis.Firstly,localpointcloudsaregeneratedfromsensordata,andthenthelocalpointcloudsaresplicedandfusedtosynthesizehigh-precisionpointcloudsofthewholescene.Finally,thepanoramiccameraisusedtorealizethelocationinthescene.
Themainresearchcontentsofthisthesisinclude:
1.Threeparallellocalreconstructionalgorithmsareadopted:visualbasedSFMalgorithm,lidarbasedLOAMalgorithmandimage-laserscannerbasedmethod,tocom-pletethereconstructiontaskofthelocalsceneofTsinghuaUniversity,whichprovidesareferencefortheselectionofequipmentandalgorithmforreconstructiontasksindif-ferentenvironments;
2.ACoarse-to-finepointcloudregistrationalgorithmisproposedtointegratethelocalpointcloudsandgeneratetheglobalhigh-precisionpointcloud.Thisalgorithmcombinesthetraditionalfeatureextractionandneuralnetworkmethods,andcanachieverobustregistrationresultswithoutrelyingontheinitialtransfermatrix.
3.Across-modalrobustmatchingvisionlocationalgorithmisproposedtoaccom-plishthelocationtaskbasedonaprioripointcloudscene.Bytransformingthe2D-3Dmatchingproblemintoa2D-2Dmatchingproblem,thealgorithmcanrealizepositioningusingonlythepanoramiccameraandwithoutanylayoutofthesceneinadvance.
Keywords:3Dreconstruction;localization;pointcloudregistration;neuralnet-work;highprecisionmap
目	录
第1章	引言	1
1.1研究背景及意义	1
1.2研究现状	3
1.2.1视觉三维重构	3
1.2.2点云配准	8
1.2.3图像特征描述	12
1.2.4视觉定位	14
1.3本文工作	15
1.4论文结构	17
第2章	局部三维场景重建	18
2.1	引言	18
2.2基于视觉的SfM三维重构	18
2.2.1算法简介	18
2.2.2COLMAP简介	19
2.2.3实验及结果	20
2.3基于激光雷达的LOAM三维重构	21
2.3.1算法简介	21
2.3.2实验设备	22
2.3.3实验及结果	22
2.4基于激光扫描仪的三维重构	23
2.4.1LeicaBLK360	23
2.4.2扫描结果	24
2.5本章小结	25
第3章	基于由粗到精的点云配准	26
3.1	引言	26
3.2点云粗配准	26
3.2.1局部特征描述子	26
3.2.2基于点特征的全局粗匹配	28
3.3基于深度学习的点云精配准	30
3.3.1模型结构	31
3.3.2损失函数	32
3.4实验与结果	33
3.4.1数据采集	33
3.4.2全局点云配准实验	34
3.4.3算法评价	35
3.5本章小结	40
第4章	基于2D-3D的图像-激光跨模态匹配定位	42
4.1	引言	42
4.2点云-平面映射	43
4.2.1虚拟视点图像生成	43
4.2.2实验结果	45
4.3全景畸变校正	46
4.3.1全景成像原理	46
4.3.2畸变校正原理	47
4.3.3实验结果	48
4.4基于SOSNet的图像特征提取与匹配	49
4.4.1网络结构及损失函数	50
4.4.2特征提取与匹配结果	51
4.5基于对极约束的定位算法	53
4.5.1对极约束	53
4.5.2定位实验	54
4.6本章小结	55
第5章	总结与展望	57
5.1工作总结	57
5.2工作展望	58
插图索引	59
表格索引	61
参考文献	62



















