三维点云分割综述(中)

第二部分介绍基于点云的传统的分割方法。

第三部分介绍基于深度学习的语义分割方法。

摘要

点云分割算法(PCS)主要基于从几何约束和统计规则出发制定的严格的人工设计的特征。PCS的主要过程是将原始3D点分组为非重叠区域。这些区域对应于一个场景中的特定结构或对象。由于这种分割过程不需要有监督的先验知识,因此所得到的结果没有很强的语义信息。这些方法可以分为四大类:

基于边缘的、基于区域增长的、基于模型拟合的和基于聚类的四种方法。

基于边缘的分割

基于边缘的PCS方法是将基于二维图像方法直接应用转换为三维点云,这种方法主要用于PCS的早期阶段,由于物体的形状是由边缘来描述的,因此可以通过寻找靠近边缘区域的点来解决PCS问题。基于边缘的方法的原理是定位亮度快速变化的点,这类似于一些二维图像分割方法。根据文献的定义,基于边缘的分割算法主要分为两个阶段:

(1)边缘检测,提取不同区域的边界;

(2)边缘点分组,通过对(1)中的边界内的点进行分组来生成最终的分割。

例如,在一些论文中,作者设计了一种基于梯度的边缘检测算法,将三维直线拟合到一组点上,并检测曲面上单位法向量方向的变化。在文献中,作者提出了一种基于高级分割基元(曲线段)的快速分割方法,可以显著减少数据量。与文献中提出的方法相比,该算法既精确又高效,但它只适用于距离图像,可能不起作用。(具体文献可以查看原文)

基于边缘的算法由于其简单性,使得pc机能够快速运行,但只有在提供具有理想点的简单场景(如低噪声、均匀密度)时才能保持良好的性能。其中有些方法仅适用于深度图像而不适用于三维点。因此,这种方法目前很少应用于密集和/或大面积的点云数据集。此外,在三维空间中,这种方法通常会产生不连续的边缘,不需要填充或解释程序,就不能直接用于识别闭合段。

基于区域增长的分割

区域生长是一种经典的PCS方法,至今仍被广泛应用。它将两个点或两个区域单元之间的特征相结合,以测量像素(2D)、点(3D)或体素(3D)之间的相似性,并将它们合并在一起(如果它们在空间上接近并且具有相似的表面特性)。Besl和Jain[144]提出了两步初始算法:

(1)粗分割,根据每个点及其符号的平均曲率和高斯曲率选择种子像素;

(2)区域生长,在区域生长中,基于可变阶二元曲面拟合,使用交互区域生长来细化步骤(1)的结果。

最初,这种方法主要用于二维分割。在PCS研究的早期阶段,大多数点云实际上是2.5D机载激光雷达数据,其中只有一层在z方向有视野,一般的预处理步骤是将点从三维空间转换为二维栅格域[145]。随着更容易获得的真实三维点云,区域增长很快被直接应用于三维空间。这种三维区域生长技术已广泛应用于建筑平面结构的分割[75]、[93]。

与二维情况类似,三维区域生长包括两个步骤:

(1)选择种子点或种子单元;

(2)区域生长,由一定的原则驱动。在设计区域生长算法时,需要考虑三个关键因素:相似性度量、生长单元和种子点选择。

对于标准因子,通常使用几何特征,例如欧几里德距离或法向量。例如,Ning等人。[106]以法向量为判据,使得共面可以共享相同的法向。Tovari等人。[146]应用法向量、相邻点到调整平面的距离以及当前点和候选点之间的距离作为将点合并到种子区域的标准,该种子区域是在手动过滤边缘附近区域后从数据集中随机选取的。Dong等人。[104]选择法向量和两个单位之间的距离。

对于生长单元因子,通常有三种策略:

(1)单点;

(2)区域单元,如体素网格和八叉树结构;

(3)混合单元。

在早期阶段,选择单点作为区域单位是主要的方法[106],[138]。然而,对于海量点云,逐点计算非常耗时。为了减少原始点云的数据量,提高计算效率,例如在原始数据中用k-d树进行邻域搜索[147],区域单元是三维区域生长中直接点的替代思想。在点云场景中,体素化单元的数量小于点的数量。这样,区域发展进程就可以大大加快。在这种策略的指导下,Deschaud等人。[147]提出了一种基于体素的区域生长算法,通过在区域生长过程中用体素代替点来提高效率。Vo等人。[93]提出了一种基于八叉树的自适应区域生长算法,通过对具有相似显著性特征的相邻体素进行增量分组来实现快速曲面片分割。作为精度和效率的平衡,混合单元也被提出并通过一些研究进行了测试。例如,肖等。[101]结合单点和子窗口作为生长单元来检测平面。Dong等人。[104]采用基于单点和超体素单元的混合区域生长算法,在全局能量优化之前实现粗分割。

对于种子点的选择,由于许多区域生长算法都是以平面分割为目标,通常的做法是先为某个点及其相邻点设计一个拟合平面,然后选择对拟合平面残差最小的点作为种子点[106],[138]。残差通常由一个点与其拟合平面之间的距离[106]、[138]或点的曲率来估计。非均匀性是区域增长的一个重要问题[93]。这些算法的精度依赖于种子的生长准则和位置,它们应该根据不同的数据集进行预定义和调整。此外,这些算法计算量大,可能需要减少数据量,以便在精度和效率之间进行权衡。

基于模型拟合分割

模型拟合的核心思想是将点云与不同的原始几何图形进行匹配,通常被认为是一种形状检测或提取方法。但是,当处理具有参数几何图形/模型的场景时,例如平面、球体和圆柱体,模型拟合。

也可以看作是一种分割方法。最常用的模型拟合方法是建立在两种经典算法上的,Hough变换(HT)和随机样本一致性(RANSAC)。

HT:HT是数字图像处理中一种经典的特征检测技术。它最初在[148]中提出,用于二维图像中的直线检测。HT[149]有三个主要步骤:

(1)将原始空间的每个样本(例如,二维图像中的像素和点云中的点)映射到离散化的参数空间中;

(2)在参数空间上放置一个带有单元格数组的累加器,然后对每个输入样本进行投票

(3)选取局部得分最大的单元,用参数坐标表示原始空间中的一个几何段。HT最基本的形式是广义Hough变换(GHT),也称为标准Hough变换(SHT),它是在[150]中引入的。

RANSAC:RANSAC技术是另一种流行的模型拟合方法[158]。一些关于基于RANSAC的方法已经发表。强烈建议您进一步了解RANSAC家族及其效果,尤其是在[159]-[161]中。基于RANSAC的算法有两个主要阶段:(1)从随机样本中生成假设(假设生成)和(2)对数据进行验证(假设评估/模型验证)[159],[160]。在步骤(1)之前,与基于HT的方法一样,必须手动定义或选择模型。根据3D场景的结构,在pc机中,这些通常是平面、球体或其他可以用代数公式表示的几何图元。

RANSAC族,算法根据其性能和基本策略分类

基于聚类分割

基于聚类的方法广泛应用于无监督PCS任务。严格地说,基于聚类的方法不是基于特定的数学理论。该方法是具有相同目标的不同方法的混合,即将具有相似几何谱特征或空间分布的点组合成相同的均匀模式。与区域生长和模型拟合不同,这些模式通常没有预先定义[166],因此基于聚类的算法可用于不规则对象分割,例如植被。此外,与区域生长方法相比,基于聚类的方法不需要种子点[109]。在早期,K均值[45]、[46]、[76]、[77]、[91]、均值偏移[47]、[48]、[80]、[92]和模糊聚类[77]、[105]是基于聚类的点云分割家族中的主要算法。对于每种聚类方法,可以选择具有不同特征的几个相似性度量,包括欧几里德距离、密度和法向量[109]。从数学和统计学的角度来看,聚类问题可以看作是一个基于图的优化问题,因此在PCS[78]、[79]、[167]中尝试了几种基于图的方法

1)K-means:K-means是一种基本的、广泛应用的无监督聚类分析算法。它将点云数据集分为K个未标记类。K-means聚类中心不同于区域生长的种子点。在K-means算法中,在每一步迭代过程中,每一个点都要与每一个聚类中心进行比较,当吸收一个新的点时,聚类中心会发生变化。K-means的过程是“聚类”而不是“增长”。它已被用于ALS数据的单树冠分割[91]和屋顶的平面结构提取[76]。Shahzad等人。[45]朱等。[46]利用K-均值在TomoSAR点云上建立facade分割。K-means的一个优点是它可以很容易地适应各种特征属性,甚至可以用于多维特征空间。K-means的主要缺点是有时很难正确地预先定义K的值

2)模糊聚类:模糊聚类算法是K-means的改进版本。K-means是一种硬聚类方法,即样本点对聚类中心的权重为1或0。相比之下,模糊方法使用软聚类,这意味着一个样本点可以属于多个具有一定非零权重的聚类。文献[105]将模糊C-均值(FCM)算法和可能性C-均值(PCM)两种模糊算法相结合,提出了一种无初始化框架。该框架在三点云上进行了测试,包括一个单扫描TLS室外数据集和建筑结构。实验表明,模糊聚类分割在平面曲面上具有良好的分割效果。Sampath等人。[77]利用模糊K-均值从ALS点云分割和重建建筑物屋顶。

3)Mean-shift:与K-means相比,Mean-shift是一种经典的非参数聚类算法,因此避免了K-means[168]–[170]中预定义的K问题。它已被有效地应用于城市和森林地形的ALS数据[80],[92]。也采用了单点云[48]的平均值,使之能在同一个点上移动。由于簇数目和每个簇的形状都是未知的,所以均值偏移产生了高概率的过分段结果[81]。因此,它通常被用作分区或优化之前的一个预分段步骤。

4)基于图优化:在2D计算机视觉中,引入图形来表示像素或超像素等数据单元已被证明是一种有效的分割策略。在这种情况下,分割问题可以转化为图的构造和划分问题。受2D中基于图的方法的启发,一些研究将相似的策略应用到PCS中,并在不同的数据集中取得了结果。例如,Golovinskiy和Funkhouser[167]提出了一种基于最小割集的PCS算法[171],通过使用k近邻构造一个图。min-cut被成功地应用于室外城市目标检测[167]。[78]还使用最小割来解决ALS-PCS的能量最小化问题,每个点都被认为是图中的一个节点,每个节点通过一条边与其3Dvoronoi邻域相连。

过度分割、超体素和预分割

为了降低计算成本和噪声带来的负面影响,一种常用的策略是在应用计算量大的算法之前将原始点云过度分割成小区域。体素可以看作是最简单的过分割结构。与二维图像中的超像素类似,超体素是感知上相似体素的小区域。由于超体素可以大幅度减少原始点云的数据量,且信息损失小,重叠最小,因此通常使用超体素。

在执行其他计算开销较大的算法之前进行的预分片。一旦超分割(如超体素)被生成,这些超分割将被输入到后处理的PCS算法而不是初始点。最经典的点云过分割算法是体素云连通性分割(VCCS)[173]。该方法首先对点云进行八叉树体素化。然后采用K均值聚类算法实现超体素分割。然而,由于VCCS采用固定的分辨率,并且依赖于种子点的初始化,在非均匀密度下分割边界的质量无法得到保证。

参考文献

向上滑动阅览

[52]S.Gernhardt,N.Adam,M.Eineder,andR.Bamler,“Potentialofveryhighresolutionsarforpersistentscattererinterferometryin

urbanareas,”AnnalsofGIS,vol.16,no.2,pp.103–111,2010.

[53]S.Gernhardt,X.Cong,M.Eineder,S.Hinz,andR.Bamler,“Geometricalfusionofmultitrackpspointclouds,”IEEEGeoscience

andRemoteSensingLetters,vol.9,no.1,pp.38–42,2012.

[54]X.X.ZhuandR.Bamler,“Super-resolutionpowerandrobustnessofcompressivesensingforspectralestimationwithapplicationto

spacebornetomographicsar,”IEEETransactionsonGeoscienceandRemoteSensing,vol.50,no.1,pp.247–258,2012.

[55]S.Montazeri,F.Rodr′guezGonzalez,andX.X.Zhu,“Geocodingerrorcorrectionforinsarpointclouds,”′RemoteSensing,vol.10,

no.10,p.1523,2018.

[56]F.RottensteinerandC.Briese,“Anewmethodforbuildingextractioninurbanareasfromhigh-resolutionlidardata,”inInternational

ArchivesofPhotogrammetryRemoteSensingandSpatialInformationSciences,vol.34,pp.295–301,2002.

[57]X.X.ZhuandR.Bamler,“Demonstrationofsuper-resolutionfortomographicsarimaginginurbanenvironment,”IEEETransactions

onGeoscienceandRemoteSensing,vol.50,no.8,pp.3150–3157,2012.

[58]X.X.Zhu,M.Shahzad,andR.Bamler,“Fromtomosarpointcloudstoobjects:Facadereconstruction,”in2012TyrrhenianWorkshop

onAdvancesinRadarandRemoteSensing(TyWRRS),pp.106–113,IEEE,2012.

[59]X.X.ZhuandR.Bamler,“Let’sdothetimewarp:Multicomponentnonlinearmotionestimationindifferentialsartomography,”

IEEEGeoscienceandRemoteSensingLetters,vol.8,no.4,pp.735–739,2011.

[60]S.Auer,S.Gernhardt,andR.Bamler,“Ghostpersistentscatterersrelatedtomultiplesignalreflections,”IEEEGeoscienceandRemote

SensingLetters,vol.8,no.5,pp.919–923,2011.

[61]Y.Shi,X.X.Zhu,andR.Bamler,“Nonlocalcompressivesensing-basedsartomography,”IEEETransactionsonGeoscienceand

RemoteSensing,vol.57,no.5,pp.3015–3024,2019.

[62]Y.WangandX.X.Zhu,“Automaticfeature-basedgeometricfusionofmultiviewtomosarpointcloudsinurbanarea,”IEEEJournal

ofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,vol.8,no.3,pp.953–965,2014.

[63]M.SchmittandX.X.Zhu,“Datafusionandremotesensing:Anever-growingrelationship,”IEEEGeoscienceandRemoteSensing

Magazine,vol.4,no.4,pp.6–23,2016.

[64]Y.Wang,X.X.Zhu,B.Zeisl,andM.Pollefeys,“Fusingmeter-resolution4-dinsarpointcloudsandopticalimagesforsemantic

urbaninfrastructuremonitoring,”IEEETransactionsonGeoscienceandRemoteSensing,vol.55,no.1,pp.14–26,2017.

[65]A.Adam,E.Chatzilari,S.Nikolopoulos,andI.Kompatsiaris,“H-ransac:Ahybridpointcloudsegmentationcombining2dand3d

data.,”ISPRSAnnalsofPhotogrammetry,RemoteSensing&SpatialInformationSciences,vol.4,no.2,2018.

[66]J.Bauer,K.Karner,K.Schindler,A.Klaus,andC.Zach,“Segmentationofbuildingfromdense3dpoint-clouds,”inProceedingsof

theISPRS.WorkshopLaserscanningEnschede,pp.12–14,2005.

[67]A.Boulch,J.Guerry,B.LeSaux,andN.Audebert,“Snapnet:3dpointcloudsemanticlabelingwith2ddeepsegmentationnetworks,”

Computers&Graphics,vol.71,pp.189–198,2018.

[68]H.Su,V.Jampani,D.Sun,S.Maji,E.Kalogerakis,M.-H.Yang,andJ.Kautz,“Splatnet:Sparselatticenetworksforpointcloud

processing,”inProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,pp.2530–2539,2018.

[69]G.Riegler,A.OsmanUlusoy,andA.Geiger,“Octnet:Learningdeep3drepresentationsathighresolutions,”inProceedingsofthe

IEEEConferenceonComputerVisionandPatternRecognition,pp.3577–3586,2017.

[70]C.Choy,J.Gwak,andS.Savarese,“4dspatio-temporalconvnets:Minkowskiconvolutionalneuralnetworks,”inProceedingsofthe

IEEEConferenceonComputerVisionandPatternRecognition,pp.3075–3084,2019.

[71]F.A.LimbergerandM.M.Oliveira,“Real-timedetectionofplanarregionsinunorganizedpointclouds,”PatternRecognition,vol.48,

no.6,pp.2043–2053,2015.

[72]B.Xu,W.Jiang,J.Shan,J.Zhang,andL.Li,“Investigationontheweightedransacapproachesforbuildingroofplanesegmentation

fromlidarpointclouds,”RemoteSensing,vol.8,no.1,p.5,2015.

[73]D.Chen,L.Zhang,P.T.Mathiopoulos,andX.Huang,“Amethodologyforautomatedsegmentationandreconstructionofurban3-d

buildingsfromalspointclouds,”IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,vol.7,no.10,

pp.4199–4217,2014.

[74]F.Tarsha-Kurdi,T.Landes,andP.Grussenmeyer,“Hough-transformandextendedransacalgorithmsforautomaticdetectionof3d

buildingroofplanesfromlidardata,”inISPRSWorkshoponLaserScanning2007andSilviLaser2007,vol.36,pp.407–412,2007.

[75]B.Gorte,“Segmentationoftin-structuredsurfacemodels,”inInternationalArchivesofPhotogrammetryRemoteSensingandSpatial

InformationSciences,vol.34,pp.465–469,2002.

[76]A.SampathandJ.Shan,“Clusteringbasedplanarroofextractionfromlidardata,”inAmericanSocietyforPhotogrammetryand

RemoteSensingAnnualConference,Reno,Nevada,May,pp.1–6,2006.

[77]A.SampathandJ.Shan,“Segmentationandreconstructionofpolyhedralbuildingroofsfromaeriallidarpointclouds,”IEEE

Transactionsongeoscienceandremotesensing,vol.48,no.3,pp.1554–1567,2010.

[78]S.UralandJ.Shan,“Min-cutbasedsegmentationofairbornelidarpointclouds,”inInternationalArchivesofthePhotogrammetry,

RemoteSensingandSpatialInformationSciences,pp.167–172,2012.

[79]J.Yan,J.Shan,andW.Jiang,“Aglobaloptimizationapproachtoroofsegmentationfromairbornelidarpointclouds,”ISPRSjournal

ofphotogrammetryandremotesensing,vol.94,pp.183–193,2014.

[80]T.Melzer,“Non-parametricsegmentationofalspointcloudsusingmeanshift,”JournalofAppliedGeodesyJag,vol.1,no.3,

pp.159–170,2007.

[81]W.Yao,S.Hinz,andU.Stilla,“Objectextractionbasedon3d-segmentationoflidardatabycombiningmeanshiftwithnormalized

cuts:Twoexamplesfromurbanareas,”in2009JointUrbanRemoteSensingEvent,pp.1–6,IEEE,

[82]S.K.Lodha,D.M.Fitzpatrick,andD.P.Helmbold,“Aeriallidardataclassificationusingadaboost,”inSixthInternationalConference

on3-DDigitalImagingandModeling(3DIM2007),pp.435–442,IEEE,2007.

[83]M.Carlberg,P.Gao,G.Chen,andA.Zakhor,“Classifyingurbanlandscapeinaeriallidarusing3dshapeanalysis,”in200916th

IEEEInternationalConferenceonImageProcessing(ICIP),pp.1701–1704,IEEE,2009.

[84]N.Chehata,L.Guo,andC.Mallet,“Airbornelidarfeatureselectionforurbanclassificationusingrandomforests,”inInternational

ArchivesofPhotogrammetry,RemoteSensingandSpatialInformationSciences,vol.38,pp.207–212,2009.

[85]R.Shapovalov,E.Velizhev,andO.Barinova,“Nonassociativemarkovnetworksfor3dpointcloudclassification,”inInternational

ArchivesofthePhotogrammetry,RemoteSensingandSpatialInformationSciences,vol.38,pp.103–108,2010.

[86]J.Niemeyer,F.Rottensteiner,andU.Soergel,“Conditionalrandomfieldsforlidarpointcloudclassificationincomplexurbanareas,”

inISPRSannalsofthephotogrammetry,remotesensingandspatialinformationsciences,vol.3,pp.263–268,2012.

[87]J.Niemeyer,F.Rottensteiner,andU.Soergel,“Contextualclassificationoflidardataandbuildingobjectdetectioninurbanareas,”

ISPRSjournalofphotogrammetryandremotesensing,vol.87,pp.152–165,2014.

[88]G.Vosselman,M.Coenen,andF.Rottensteiner,“Contextualsegment-basedclassificationofairbornelaserscannerdata,”ISPRS

journalofphotogrammetryandremotesensing,vol.128,pp.354–371,2017.

[89]X.Xiong,D.Munoz,J.A.Bagnell,andM.Hebert,“3-dsceneanalysisviasequencedpredictionsoverpointsandregions,”in2011

IEEEInternationalConferenceonRoboticsandAutomation,pp.2609–2616,IEEE,2011.

[90]M.Najafi,S.T.Namin,M.Salzmann,andL.Petersson,“Non-associativehigher-ordermarkovnetworksforpointcloudclassification,”

inEuropeanConferenceonComputerVision,pp.500–515,Springer,2014.

[91]F.Morsdorf,E.Meier,B.Kotz,K.I.Itten,M.Dobbertin,andB.Allg¨ower,“Lidar-basedgeometricreconstructionofborealtypeforest¨

standsatsingletreelevelforforestandwildlandfiremanagement,”RemoteSensingofEnvironment,vol.92,no.3,pp.353–362,

2004.

[92]A.Ferraz,F.Bretar,S.Jacquemoud,G.Goncalves,andL.Pereira,“3dsegmentationofforeststructureusingamean-shiftbased

algorithm,”in2010IEEEInternationalConferenceonImageProcessing,pp.1413–1416,IEEE,2010.

[93]A.-V.Vo,L.Truong-Hong,D.F.Laefer,andM.Bertolotto,“Octree-basedregiongrowingforpointcloudsegmentation,”ISPRS

JournalofPhotogrammetryandRemoteSensing,vol.104,pp.88–100,2015.

[94]A.Nurunnabi,D.Belton,andG.West,“Robustsegmentationinlaserscanning3dpointclouddata,”in2012InternationalConference

onDigitalImageComputingTechniquesandApplications(DICTA),pp.1–8,IEEE,2012.

[95]M.Weinmann,B.Jutzi,S.Hinz,andC.Mallet,“Semanticpointcloudinterpretationbasedonoptimalneighborhoods,relevantfeatures

andefficientclassifiers,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.105,pp.286–304,2015.

[96]D.Munoz,J.A.Bagnell,N.Vandapel,andM.Hebert,“Contextualclassificationwithfunctionalmax-marginmarkovnetworks,”in

2009IEEEConferenceonComputerVisionandPatternRecognition,pp.975–982,IEEE,2009.

[97]L.Landrieu,H.Raguet,B.Vallet,C.Mallet,andM.Weinmann,“Astructuredregularizationframeworkforspatiallysmoothing

semanticlabelingsof3dpointclouds,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.132,pp.102–118,2017

[98]L.Tchapmi,C.Choy,I.Armeni,J.Gwak,andS.Savarese,“Segcloud:Semanticsegmentationof3dpointclouds,”in2017International

Conferenceon3DVision(3DV),pp.537–547,IEEE,2017.

[99]X.Ye,J.Li,H.Huang,L.Du,andX.Zhang,“3drecurrentneuralnetworkswithcontextfusionforpointcloudsemanticsegmentation,”

inProceedingsoftheEuropeanConferenceonComputerVision(ECCV),pp.403–417,2018.

[100]L.LandrieuandM.Boussaha,“Pointcloudoversegmentationwithgraph-structureddeepmetriclearning,”inProceedingsoftheIEEE

ConferenceonComputerVisionandPatternRecognition,pp.7440–7449,2019.

[101]J.Xiao,J.Zhang,B.Adler,H.Zhang,andJ.Zhang,“Three-dimensionalpointcloudplanesegmentationinbothstructuredand

unstructuredenvironments,”RoboticsandAutonomousSystems,vol.61,no.12,pp.1641–1652,2013.

[102]L.Li,F.Yang,H.Zhu,D.Li,Y.Li,andL.Tang,“Animprovedransacfor3dpointcloudplanesegmentationbasedonnormal

distributiontransformationcells,”RemoteSensing,vol.9,no.5,p.433,2017.

[103]H.Boulaassal,T.Landes,P.Grussenmeyer,andF.Tarsha-Kurdi,“Automaticsegmentationofbuildingfacadesusingterrestriallaser

data,”inISPRSWorkshoponLaserScanning2007andSilviLaser2007,pp.65–70,2007.

[104]Z.Dong,B.Yang,P.Hu,andS.Scherer,“Anefficientglobalenergyoptimizationapproachforrobust3dplanesegmentationofpoint

clouds,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.137,pp.112–133,2018.

[105]J.M.BioscaandJ.L.Lerma,“Unsupervisedrobustplanarsegmentationofterrestriallaserscannerpointcloudsbasedonfuzzy

clusteringmethods,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.63,no.1,pp.84–98,2008.

[106]X.Ning,X.Zhang,Y.Wang,andM.Jaeger,“Segmentationofarchitectureshapeinformationfrom3dpointcloud,”inProceedings

ofthe8thInternationalConferenceonVirtualRealityContinuumanditsApplicationsinIndustry,pp.127–132,ACM,2009.

[107]Y.Xu,S.Tuttas,andU.Stilla,“Segmentationof3doutdoorscenesusinghierarchicalclusteringstructureandperceptualgrouping

laws,”in20169thIAPRWorkshoponPatternRecognitoninRemoteSensing(PRRS),pp.1–6,IEEE,2016.

[108]Y.Xu,L.Hoegner,S.Tuttas,andU.Stilla,“Voxel-andgraph-basedpointcloudsegmentationof3dscenesusingperceptualgrouping

laws,”inISPRSAnnalsofPhotogrammetry,RemoteSensing&SpatialInformationSciences,vol.4,2017.

[109]Y.Xu,W.Yao,S.Tuttas,L.Hoegner,andU.Stilla,“Unsupervisedsegmentationofpointcloudsfrombuildingsusinghierarchical

clusteringbasedongestaltprinciples,”IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,no.99,

pp.1–17,2018.

[110]E.H.LimandD.Suter,“3dterrestriallidarclassificationswithsuper-voxelsandmulti-scaleconditionalrandomfields,”ComputerAidedDesign,vol.41,no.10,pp.701–710,2009.

[111]Z.Li,L.Zhang,X.Tong,B.Du,Y.Wang,L.Zhang,Z.Zhang,H.Liu,J.Mei,X.Xing,etal.,“Athree-stepapproachfortlspoint

cloudclassification,”IEEETransactionsonGeoscienceandRemoteSensing,vol.54,no.9,pp.5412–5424,2016.

[112]L.Wang,Y.Huang,Y.Hou,S.Zhang,andJ.Shan,“Graphattentionconvolutionforpointcloudsemanticsegmentation,”inProceedings

oftheIEEEConferenceonComputerVisionandPatternRecognition,pp.10296–10305,2019.

[113]J.-F.Lalonde,R.Unnikrishnan,N.Vandapel,andM.Hebert,“Scaleselectionforclassificationofpoint-sampled3dsurfaces,”inFifth

InternationalConferenceon3-DDigitalImagingandModeling(3DIM’05),pp.285–292,IEEE,2005.

THE END
1.三维点云深度学习算法综述【综述】三维点云深度学习算法综述,sota pointcloud - 知乎 (zhihu.com) 码上AI 关注 weixin_70923796的博客 137 3D视觉工坊 2027 作者丨小白@知乎来源丨https://zhuanlan.zhihu.com/p/157791868编辑丨深蓝学院本文是对<Deep Learning for 3D Point Clohttps://blog.csdn.net/weixin_45295333/article/details/138523452
2.基于深度学习的三维点云处理方法研究进展第51 卷第 5 期/2024 年 3 月/中国激光 综述 基于深度学习的三维点云处理方法研究进展 吴一全*,陈慧娴,张耀 南京航空航天大学电子信息工程学院,江苏 南京 211106 摘要 随着传感器技术的不断发展,三维点云被广泛应用于自动驾驶,机器人,遥感,文物修复,增强现实,虚拟现实 等领域的视觉任务中 . 然而 ,直接应用收集https://www.opticsjournal.net/Articles/GetArticlePDF/OJeb4150232c7fa1bc
3.「3D点云深度学习」综述:三维形状分类目标检测与跟踪点云分割等这篇论文是第一个专门针对点云的深度学习方法的综述。此外,论文全面涵盖了分类,检测,跟踪和分割等不同应用。图1显示了三维点云的现有深度学习方法的分类。 图1:三维点云深度学习方法分类。 这项工作的主要贡献可以概括如下: 1)据我们所知,这是第一篇全面涵盖多个重要点云相关任务的深度学习方法的综述论文,包括三https://cloud.tencent.com/developer/article/1639485
4.基于深度学习的点云语义分割综述点云语义分割作为三维场景理解和分析的关键步骤,受到了研究者的广泛关注。深度学习具有优良的高层语义理解能力,基于深度学习的点云语义分割已成为当前研究的热点。首先,从语义分割的概念出发,简要叙述了点云语义分割的优势和现存的挑战;进而详细介绍了点云分割算法和常见的数据集,重点对点云语义分割领域中基于点排序、https://www.cnki.com.cn/Article/CJFDTotal-JGDJ202004002.htm
5.一文尽览基于点云多模态的3D目标检测算法综述!(Point/Voxel/论文将三维点云划分为一定数量的Voxel,经过点的随机采样以及归一化后,对每一个非空Voxel使用若干个VFE(Voxel Feature Encoding)层进行局部特征提取,得到Voxel-wise Feature,然后经过3D Convolutional Middle Layers进一步抽象特征(增大感受野并学习几何空间表示),最后使用RPN(Region Proposal Network)对物体进行分类检测与https://developer.aliyun.com/article/1142967
6.自动驾驶高清地图生成技术综述汽车技术基于三维点云的道路或车道提取已广泛应用于高精地图的生成过程中。激光雷达点云具有很高的精度,通常达到毫米级精度,并包含被扫描物体的几何信息。三维点云的道路提取是利用分割完成的。Ibrahim等人指出,二维道路网络不能提供任何物体相对位置的深度线索,而且二维道路网络中较小的基础设施变化也不是最新的[70]。Ibrahim等https://www.auto-testing.net/mobile/21-0-117098-1.html
7.基于深度学习的三维目标检测算法综述算法语言 基于深度学习的三维目标检测算法综述 邵昀岑 (东南大学 软件学院,江苏 南京 211189)摘 要:随着自动驾驶行业的快速发展,基于深度学习的三维目标检测技术也得到了快速发展,目前自动驾驶汽车主要依赖图像与激光雷达点云进行环境感知。基于这两种数据的三维目标检测技术可提取出物体的空间结构信息,包括物体的https://wenku.baidu.com/view/4666c94e757f5acfa1c7aa00b52acfc789eb9f20.html
8.史上最全基于深度学习的3D分割综述(RGB为了避免这些复杂性,研究人员将整个点云投影到一个球体上(见图6底部)。例如,Wu等人[152]提出了一个名为SqueezeSeg的端到端管道,其灵感来自SqueezeNet[53],用于从球形图像中学习特征,然后由CRF将其细化为循环层。类似地,PointSeg[148]通过整合特征和通道注意力来扩展SqueezeNet,以学习鲁棒表示。其他相关算法还有[153]https://www.shangyexinzhi.com/article/5397310.html
9.深度学习中的三维点云数据分类算法研究其中自动驾驶的车辆常常使用LiDAR作为传感器获取周边点云数据,点云分类算法赋予原始点云的语义信息有助于车辆行驶速度的调整和行驶方向的选择。近年来基于深度学习的点云数据分类技术在模拟点云数据上取得了长足的发展,但在具有噪声和背景的真实点云数据的分类任务上仍是一个具有挑战的问题。首先,本文探讨了如何将孪生http://cnki.nbsti.net/KCMS/detail/detail.aspx?filename=1021095363.nh&dbcode=CMFD
10.自动驾驶视觉感知算法技术综述自动驾驶视觉感知算法技术综述 近些年,深度学习进入到视觉感知的各个领域,取得不错的成绩,因此,我们梳理了一些经典的深度学习算法。 环境感知 是自动驾驶的第一环,是车辆和环境交互的纽带。一个自动驾驶系统整体表现的好坏,很大程度上都取决于感知系统的好坏。目前,环境感知技术有两大主流技术路线:https://www.51cto.com/article/753817.html
11.基于计算机视觉的施工现场工人不安全行为识别方法研究.pdf(4)深度学习算法综述小结 计算机领域的目标检测与对象识别算法、人体姿态估计算法、动作识别算法 均为本研究中不安全行为的识别提供有效支持。考虑到不安全行为识别所需的细 度、实时性等要求,实现精细化分割与更精准定位的Mask R-CNN、人体骨骼细 部特征以及效率更高OpenPose算法、能有效处理长时间序列的LSTM 网络等https://max.book118.com/html/2021/0203/8070116076003045.shtm
12.深度学习技术在自动驾驶中的应用AET深度学习方法特别适合于从摄像机和lidar(光探测和测距)设备获取的2d图像和3d点云中检测和识别对象。在自动驾驶中,三维感知主要基于激光雷达传感器,它以三维点云的形式提供对周围环境的直接三维表示。激光雷达的性能是根据视场、距离、分辨率和旋转/帧速率来衡量的。3D传感器,如Velodyne?通常具有360度水平视野。为了高速行http://www.chinaaet.com/article/3000110152
13.三维点云数据超分辨率技术基于深度学习的三维点云处理方法研究进展. 中国激光. 2024(05): 143-165 . 2. 朱婧怡,杨鹏程,孟杰,张津京,崔嘉宝,代阳. 基于曲率特征的文物点云分类降采样与配准方法. 中国光学(中英文). 2024(03): 572-579 . 3. 龙佳乐,杜梓浩,张建民,陈富健,关浩源,黄克森,孙瑞. 基于图像分割的点云去噪方法. http://www.chineseoptics.net.cn/en/article/doi/10.37188/CO.2021-0176
14.博创基金微展示第28期张志远:基于深度学习的三维点云配准研究但是,由于基于深度学习的三维点云配准技术发展时间较短,仍有许多棘手的问题未能很好的解决,如配准精度较低,对外点鲁棒性较差等。针对上述问题,在科技部科技创新2030“新一代人工智能”重点项目子课题、国家自然科学基金等项目支持下,从鲁棒特征描述子学习、配准网络框架改进、虚拟匹配点分布修正、两阶段硬匹配策略设计等https://gs.nwpu.edu.cn/info/2490/18307.htm
15.基于自注意力机制的点云分类分割摘要:3D点云由于其无序性以及缺少拓扑信息使得点云的分类与分割仍具有挑战性. 针对上述问题, 我们设计了一种基于自注意力机制的3D点云分类算法, 可学习点云的特征信息, 用于目标分类与分割. 首先, 设计适用于点云的自注意力模块, 用于点云的特征提取. 通过构建领域图来加强输入嵌入, 使用自注意力机制进行局部https://c-s-a.org.cn/html/2024/1/9341.html