第二部分介绍基于点云的传统的分割方法。
第三部分介绍基于深度学习的语义分割方法。
摘要
点云分割算法(PCS)主要基于从几何约束和统计规则出发制定的严格的人工设计的特征。PCS的主要过程是将原始3D点分组为非重叠区域。这些区域对应于一个场景中的特定结构或对象。由于这种分割过程不需要有监督的先验知识,因此所得到的结果没有很强的语义信息。这些方法可以分为四大类:
基于边缘的、基于区域增长的、基于模型拟合的和基于聚类的四种方法。
基于边缘的分割
基于边缘的PCS方法是将基于二维图像方法直接应用转换为三维点云,这种方法主要用于PCS的早期阶段,由于物体的形状是由边缘来描述的,因此可以通过寻找靠近边缘区域的点来解决PCS问题。基于边缘的方法的原理是定位亮度快速变化的点,这类似于一些二维图像分割方法。根据文献的定义,基于边缘的分割算法主要分为两个阶段:
(1)边缘检测,提取不同区域的边界;
(2)边缘点分组,通过对(1)中的边界内的点进行分组来生成最终的分割。
例如,在一些论文中,作者设计了一种基于梯度的边缘检测算法,将三维直线拟合到一组点上,并检测曲面上单位法向量方向的变化。在文献中,作者提出了一种基于高级分割基元(曲线段)的快速分割方法,可以显著减少数据量。与文献中提出的方法相比,该算法既精确又高效,但它只适用于距离图像,可能不起作用。(具体文献可以查看原文)
基于边缘的算法由于其简单性,使得pc机能够快速运行,但只有在提供具有理想点的简单场景(如低噪声、均匀密度)时才能保持良好的性能。其中有些方法仅适用于深度图像而不适用于三维点。因此,这种方法目前很少应用于密集和/或大面积的点云数据集。此外,在三维空间中,这种方法通常会产生不连续的边缘,不需要填充或解释程序,就不能直接用于识别闭合段。
基于区域增长的分割
区域生长是一种经典的PCS方法,至今仍被广泛应用。它将两个点或两个区域单元之间的特征相结合,以测量像素(2D)、点(3D)或体素(3D)之间的相似性,并将它们合并在一起(如果它们在空间上接近并且具有相似的表面特性)。Besl和Jain[144]提出了两步初始算法:
(1)粗分割,根据每个点及其符号的平均曲率和高斯曲率选择种子像素;
(2)区域生长,在区域生长中,基于可变阶二元曲面拟合,使用交互区域生长来细化步骤(1)的结果。
最初,这种方法主要用于二维分割。在PCS研究的早期阶段,大多数点云实际上是2.5D机载激光雷达数据,其中只有一层在z方向有视野,一般的预处理步骤是将点从三维空间转换为二维栅格域[145]。随着更容易获得的真实三维点云,区域增长很快被直接应用于三维空间。这种三维区域生长技术已广泛应用于建筑平面结构的分割[75]、[93]。
与二维情况类似,三维区域生长包括两个步骤:
(1)选择种子点或种子单元;
(2)区域生长,由一定的原则驱动。在设计区域生长算法时,需要考虑三个关键因素:相似性度量、生长单元和种子点选择。
对于标准因子,通常使用几何特征,例如欧几里德距离或法向量。例如,Ning等人。[106]以法向量为判据,使得共面可以共享相同的法向。Tovari等人。[146]应用法向量、相邻点到调整平面的距离以及当前点和候选点之间的距离作为将点合并到种子区域的标准,该种子区域是在手动过滤边缘附近区域后从数据集中随机选取的。Dong等人。[104]选择法向量和两个单位之间的距离。
对于生长单元因子,通常有三种策略:
(1)单点;
(2)区域单元,如体素网格和八叉树结构;
(3)混合单元。
在早期阶段,选择单点作为区域单位是主要的方法[106],[138]。然而,对于海量点云,逐点计算非常耗时。为了减少原始点云的数据量,提高计算效率,例如在原始数据中用k-d树进行邻域搜索[147],区域单元是三维区域生长中直接点的替代思想。在点云场景中,体素化单元的数量小于点的数量。这样,区域发展进程就可以大大加快。在这种策略的指导下,Deschaud等人。[147]提出了一种基于体素的区域生长算法,通过在区域生长过程中用体素代替点来提高效率。Vo等人。[93]提出了一种基于八叉树的自适应区域生长算法,通过对具有相似显著性特征的相邻体素进行增量分组来实现快速曲面片分割。作为精度和效率的平衡,混合单元也被提出并通过一些研究进行了测试。例如,肖等。[101]结合单点和子窗口作为生长单元来检测平面。Dong等人。[104]采用基于单点和超体素单元的混合区域生长算法,在全局能量优化之前实现粗分割。
对于种子点的选择,由于许多区域生长算法都是以平面分割为目标,通常的做法是先为某个点及其相邻点设计一个拟合平面,然后选择对拟合平面残差最小的点作为种子点[106],[138]。残差通常由一个点与其拟合平面之间的距离[106]、[138]或点的曲率来估计。非均匀性是区域增长的一个重要问题[93]。这些算法的精度依赖于种子的生长准则和位置,它们应该根据不同的数据集进行预定义和调整。此外,这些算法计算量大,可能需要减少数据量,以便在精度和效率之间进行权衡。
基于模型拟合分割
模型拟合的核心思想是将点云与不同的原始几何图形进行匹配,通常被认为是一种形状检测或提取方法。但是,当处理具有参数几何图形/模型的场景时,例如平面、球体和圆柱体,模型拟合。
也可以看作是一种分割方法。最常用的模型拟合方法是建立在两种经典算法上的,Hough变换(HT)和随机样本一致性(RANSAC)。
HT:HT是数字图像处理中一种经典的特征检测技术。它最初在[148]中提出,用于二维图像中的直线检测。HT[149]有三个主要步骤:
(1)将原始空间的每个样本(例如,二维图像中的像素和点云中的点)映射到离散化的参数空间中;
(2)在参数空间上放置一个带有单元格数组的累加器,然后对每个输入样本进行投票
(3)选取局部得分最大的单元,用参数坐标表示原始空间中的一个几何段。HT最基本的形式是广义Hough变换(GHT),也称为标准Hough变换(SHT),它是在[150]中引入的。
RANSAC:RANSAC技术是另一种流行的模型拟合方法[158]。一些关于基于RANSAC的方法已经发表。强烈建议您进一步了解RANSAC家族及其效果,尤其是在[159]-[161]中。基于RANSAC的算法有两个主要阶段:(1)从随机样本中生成假设(假设生成)和(2)对数据进行验证(假设评估/模型验证)[159],[160]。在步骤(1)之前,与基于HT的方法一样,必须手动定义或选择模型。根据3D场景的结构,在pc机中,这些通常是平面、球体或其他可以用代数公式表示的几何图元。
RANSAC族,算法根据其性能和基本策略分类
基于聚类分割
基于聚类的方法广泛应用于无监督PCS任务。严格地说,基于聚类的方法不是基于特定的数学理论。该方法是具有相同目标的不同方法的混合,即将具有相似几何谱特征或空间分布的点组合成相同的均匀模式。与区域生长和模型拟合不同,这些模式通常没有预先定义[166],因此基于聚类的算法可用于不规则对象分割,例如植被。此外,与区域生长方法相比,基于聚类的方法不需要种子点[109]。在早期,K均值[45]、[46]、[76]、[77]、[91]、均值偏移[47]、[48]、[80]、[92]和模糊聚类[77]、[105]是基于聚类的点云分割家族中的主要算法。对于每种聚类方法,可以选择具有不同特征的几个相似性度量,包括欧几里德距离、密度和法向量[109]。从数学和统计学的角度来看,聚类问题可以看作是一个基于图的优化问题,因此在PCS[78]、[79]、[167]中尝试了几种基于图的方法
1)K-means:K-means是一种基本的、广泛应用的无监督聚类分析算法。它将点云数据集分为K个未标记类。K-means聚类中心不同于区域生长的种子点。在K-means算法中,在每一步迭代过程中,每一个点都要与每一个聚类中心进行比较,当吸收一个新的点时,聚类中心会发生变化。K-means的过程是“聚类”而不是“增长”。它已被用于ALS数据的单树冠分割[91]和屋顶的平面结构提取[76]。Shahzad等人。[45]朱等。[46]利用K-均值在TomoSAR点云上建立facade分割。K-means的一个优点是它可以很容易地适应各种特征属性,甚至可以用于多维特征空间。K-means的主要缺点是有时很难正确地预先定义K的值
2)模糊聚类:模糊聚类算法是K-means的改进版本。K-means是一种硬聚类方法,即样本点对聚类中心的权重为1或0。相比之下,模糊方法使用软聚类,这意味着一个样本点可以属于多个具有一定非零权重的聚类。文献[105]将模糊C-均值(FCM)算法和可能性C-均值(PCM)两种模糊算法相结合,提出了一种无初始化框架。该框架在三点云上进行了测试,包括一个单扫描TLS室外数据集和建筑结构。实验表明,模糊聚类分割在平面曲面上具有良好的分割效果。Sampath等人。[77]利用模糊K-均值从ALS点云分割和重建建筑物屋顶。
3)Mean-shift:与K-means相比,Mean-shift是一种经典的非参数聚类算法,因此避免了K-means[168]–[170]中预定义的K问题。它已被有效地应用于城市和森林地形的ALS数据[80],[92]。也采用了单点云[48]的平均值,使之能在同一个点上移动。由于簇数目和每个簇的形状都是未知的,所以均值偏移产生了高概率的过分段结果[81]。因此,它通常被用作分区或优化之前的一个预分段步骤。
4)基于图优化:在2D计算机视觉中,引入图形来表示像素或超像素等数据单元已被证明是一种有效的分割策略。在这种情况下,分割问题可以转化为图的构造和划分问题。受2D中基于图的方法的启发,一些研究将相似的策略应用到PCS中,并在不同的数据集中取得了结果。例如,Golovinskiy和Funkhouser[167]提出了一种基于最小割集的PCS算法[171],通过使用k近邻构造一个图。min-cut被成功地应用于室外城市目标检测[167]。[78]还使用最小割来解决ALS-PCS的能量最小化问题,每个点都被认为是图中的一个节点,每个节点通过一条边与其3Dvoronoi邻域相连。
过度分割、超体素和预分割
为了降低计算成本和噪声带来的负面影响,一种常用的策略是在应用计算量大的算法之前将原始点云过度分割成小区域。体素可以看作是最简单的过分割结构。与二维图像中的超像素类似,超体素是感知上相似体素的小区域。由于超体素可以大幅度减少原始点云的数据量,且信息损失小,重叠最小,因此通常使用超体素。
在执行其他计算开销较大的算法之前进行的预分片。一旦超分割(如超体素)被生成,这些超分割将被输入到后处理的PCS算法而不是初始点。最经典的点云过分割算法是体素云连通性分割(VCCS)[173]。该方法首先对点云进行八叉树体素化。然后采用K均值聚类算法实现超体素分割。然而,由于VCCS采用固定的分辨率,并且依赖于种子点的初始化,在非均匀密度下分割边界的质量无法得到保证。
参考文献
向上滑动阅览
[52]S.Gernhardt,N.Adam,M.Eineder,andR.Bamler,“Potentialofveryhighresolutionsarforpersistentscattererinterferometryin
urbanareas,”AnnalsofGIS,vol.16,no.2,pp.103–111,2010.
[53]S.Gernhardt,X.Cong,M.Eineder,S.Hinz,andR.Bamler,“Geometricalfusionofmultitrackpspointclouds,”IEEEGeoscience
andRemoteSensingLetters,vol.9,no.1,pp.38–42,2012.
[54]X.X.ZhuandR.Bamler,“Super-resolutionpowerandrobustnessofcompressivesensingforspectralestimationwithapplicationto
spacebornetomographicsar,”IEEETransactionsonGeoscienceandRemoteSensing,vol.50,no.1,pp.247–258,2012.
[55]S.Montazeri,F.Rodr′guezGonzalez,andX.X.Zhu,“Geocodingerrorcorrectionforinsarpointclouds,”′RemoteSensing,vol.10,
no.10,p.1523,2018.
[56]F.RottensteinerandC.Briese,“Anewmethodforbuildingextractioninurbanareasfromhigh-resolutionlidardata,”inInternational
ArchivesofPhotogrammetryRemoteSensingandSpatialInformationSciences,vol.34,pp.295–301,2002.
[57]X.X.ZhuandR.Bamler,“Demonstrationofsuper-resolutionfortomographicsarimaginginurbanenvironment,”IEEETransactions
onGeoscienceandRemoteSensing,vol.50,no.8,pp.3150–3157,2012.
[58]X.X.Zhu,M.Shahzad,andR.Bamler,“Fromtomosarpointcloudstoobjects:Facadereconstruction,”in2012TyrrhenianWorkshop
onAdvancesinRadarandRemoteSensing(TyWRRS),pp.106–113,IEEE,2012.
[59]X.X.ZhuandR.Bamler,“Let’sdothetimewarp:Multicomponentnonlinearmotionestimationindifferentialsartomography,”
IEEEGeoscienceandRemoteSensingLetters,vol.8,no.4,pp.735–739,2011.
[60]S.Auer,S.Gernhardt,andR.Bamler,“Ghostpersistentscatterersrelatedtomultiplesignalreflections,”IEEEGeoscienceandRemote
SensingLetters,vol.8,no.5,pp.919–923,2011.
[61]Y.Shi,X.X.Zhu,andR.Bamler,“Nonlocalcompressivesensing-basedsartomography,”IEEETransactionsonGeoscienceand
RemoteSensing,vol.57,no.5,pp.3015–3024,2019.
[62]Y.WangandX.X.Zhu,“Automaticfeature-basedgeometricfusionofmultiviewtomosarpointcloudsinurbanarea,”IEEEJournal
ofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,vol.8,no.3,pp.953–965,2014.
[63]M.SchmittandX.X.Zhu,“Datafusionandremotesensing:Anever-growingrelationship,”IEEEGeoscienceandRemoteSensing
Magazine,vol.4,no.4,pp.6–23,2016.
[64]Y.Wang,X.X.Zhu,B.Zeisl,andM.Pollefeys,“Fusingmeter-resolution4-dinsarpointcloudsandopticalimagesforsemantic
urbaninfrastructuremonitoring,”IEEETransactionsonGeoscienceandRemoteSensing,vol.55,no.1,pp.14–26,2017.
[65]A.Adam,E.Chatzilari,S.Nikolopoulos,andI.Kompatsiaris,“H-ransac:Ahybridpointcloudsegmentationcombining2dand3d
data.,”ISPRSAnnalsofPhotogrammetry,RemoteSensing&SpatialInformationSciences,vol.4,no.2,2018.
[66]J.Bauer,K.Karner,K.Schindler,A.Klaus,andC.Zach,“Segmentationofbuildingfromdense3dpoint-clouds,”inProceedingsof
theISPRS.WorkshopLaserscanningEnschede,pp.12–14,2005.
[67]A.Boulch,J.Guerry,B.LeSaux,andN.Audebert,“Snapnet:3dpointcloudsemanticlabelingwith2ddeepsegmentationnetworks,”
Computers&Graphics,vol.71,pp.189–198,2018.
[68]H.Su,V.Jampani,D.Sun,S.Maji,E.Kalogerakis,M.-H.Yang,andJ.Kautz,“Splatnet:Sparselatticenetworksforpointcloud
processing,”inProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition,pp.2530–2539,2018.
[69]G.Riegler,A.OsmanUlusoy,andA.Geiger,“Octnet:Learningdeep3drepresentationsathighresolutions,”inProceedingsofthe
IEEEConferenceonComputerVisionandPatternRecognition,pp.3577–3586,2017.
[70]C.Choy,J.Gwak,andS.Savarese,“4dspatio-temporalconvnets:Minkowskiconvolutionalneuralnetworks,”inProceedingsofthe
IEEEConferenceonComputerVisionandPatternRecognition,pp.3075–3084,2019.
[71]F.A.LimbergerandM.M.Oliveira,“Real-timedetectionofplanarregionsinunorganizedpointclouds,”PatternRecognition,vol.48,
no.6,pp.2043–2053,2015.
[72]B.Xu,W.Jiang,J.Shan,J.Zhang,andL.Li,“Investigationontheweightedransacapproachesforbuildingroofplanesegmentation
fromlidarpointclouds,”RemoteSensing,vol.8,no.1,p.5,2015.
[73]D.Chen,L.Zhang,P.T.Mathiopoulos,andX.Huang,“Amethodologyforautomatedsegmentationandreconstructionofurban3-d
buildingsfromalspointclouds,”IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,vol.7,no.10,
pp.4199–4217,2014.
[74]F.Tarsha-Kurdi,T.Landes,andP.Grussenmeyer,“Hough-transformandextendedransacalgorithmsforautomaticdetectionof3d
buildingroofplanesfromlidardata,”inISPRSWorkshoponLaserScanning2007andSilviLaser2007,vol.36,pp.407–412,2007.
[75]B.Gorte,“Segmentationoftin-structuredsurfacemodels,”inInternationalArchivesofPhotogrammetryRemoteSensingandSpatial
InformationSciences,vol.34,pp.465–469,2002.
[76]A.SampathandJ.Shan,“Clusteringbasedplanarroofextractionfromlidardata,”inAmericanSocietyforPhotogrammetryand
RemoteSensingAnnualConference,Reno,Nevada,May,pp.1–6,2006.
[77]A.SampathandJ.Shan,“Segmentationandreconstructionofpolyhedralbuildingroofsfromaeriallidarpointclouds,”IEEE
Transactionsongeoscienceandremotesensing,vol.48,no.3,pp.1554–1567,2010.
[78]S.UralandJ.Shan,“Min-cutbasedsegmentationofairbornelidarpointclouds,”inInternationalArchivesofthePhotogrammetry,
RemoteSensingandSpatialInformationSciences,pp.167–172,2012.
[79]J.Yan,J.Shan,andW.Jiang,“Aglobaloptimizationapproachtoroofsegmentationfromairbornelidarpointclouds,”ISPRSjournal
ofphotogrammetryandremotesensing,vol.94,pp.183–193,2014.
[80]T.Melzer,“Non-parametricsegmentationofalspointcloudsusingmeanshift,”JournalofAppliedGeodesyJag,vol.1,no.3,
pp.159–170,2007.
[81]W.Yao,S.Hinz,andU.Stilla,“Objectextractionbasedon3d-segmentationoflidardatabycombiningmeanshiftwithnormalized
cuts:Twoexamplesfromurbanareas,”in2009JointUrbanRemoteSensingEvent,pp.1–6,IEEE,
[82]S.K.Lodha,D.M.Fitzpatrick,andD.P.Helmbold,“Aeriallidardataclassificationusingadaboost,”inSixthInternationalConference
on3-DDigitalImagingandModeling(3DIM2007),pp.435–442,IEEE,2007.
[83]M.Carlberg,P.Gao,G.Chen,andA.Zakhor,“Classifyingurbanlandscapeinaeriallidarusing3dshapeanalysis,”in200916th
IEEEInternationalConferenceonImageProcessing(ICIP),pp.1701–1704,IEEE,2009.
[84]N.Chehata,L.Guo,andC.Mallet,“Airbornelidarfeatureselectionforurbanclassificationusingrandomforests,”inInternational
ArchivesofPhotogrammetry,RemoteSensingandSpatialInformationSciences,vol.38,pp.207–212,2009.
[85]R.Shapovalov,E.Velizhev,andO.Barinova,“Nonassociativemarkovnetworksfor3dpointcloudclassification,”inInternational
ArchivesofthePhotogrammetry,RemoteSensingandSpatialInformationSciences,vol.38,pp.103–108,2010.
[86]J.Niemeyer,F.Rottensteiner,andU.Soergel,“Conditionalrandomfieldsforlidarpointcloudclassificationincomplexurbanareas,”
inISPRSannalsofthephotogrammetry,remotesensingandspatialinformationsciences,vol.3,pp.263–268,2012.
[87]J.Niemeyer,F.Rottensteiner,andU.Soergel,“Contextualclassificationoflidardataandbuildingobjectdetectioninurbanareas,”
ISPRSjournalofphotogrammetryandremotesensing,vol.87,pp.152–165,2014.
[88]G.Vosselman,M.Coenen,andF.Rottensteiner,“Contextualsegment-basedclassificationofairbornelaserscannerdata,”ISPRS
journalofphotogrammetryandremotesensing,vol.128,pp.354–371,2017.
[89]X.Xiong,D.Munoz,J.A.Bagnell,andM.Hebert,“3-dsceneanalysisviasequencedpredictionsoverpointsandregions,”in2011
IEEEInternationalConferenceonRoboticsandAutomation,pp.2609–2616,IEEE,2011.
[90]M.Najafi,S.T.Namin,M.Salzmann,andL.Petersson,“Non-associativehigher-ordermarkovnetworksforpointcloudclassification,”
inEuropeanConferenceonComputerVision,pp.500–515,Springer,2014.
[91]F.Morsdorf,E.Meier,B.Kotz,K.I.Itten,M.Dobbertin,andB.Allg¨ower,“Lidar-basedgeometricreconstructionofborealtypeforest¨
standsatsingletreelevelforforestandwildlandfiremanagement,”RemoteSensingofEnvironment,vol.92,no.3,pp.353–362,
2004.
[92]A.Ferraz,F.Bretar,S.Jacquemoud,G.Goncalves,andL.Pereira,“3dsegmentationofforeststructureusingamean-shiftbased
algorithm,”in2010IEEEInternationalConferenceonImageProcessing,pp.1413–1416,IEEE,2010.
[93]A.-V.Vo,L.Truong-Hong,D.F.Laefer,andM.Bertolotto,“Octree-basedregiongrowingforpointcloudsegmentation,”ISPRS
JournalofPhotogrammetryandRemoteSensing,vol.104,pp.88–100,2015.
[94]A.Nurunnabi,D.Belton,andG.West,“Robustsegmentationinlaserscanning3dpointclouddata,”in2012InternationalConference
onDigitalImageComputingTechniquesandApplications(DICTA),pp.1–8,IEEE,2012.
[95]M.Weinmann,B.Jutzi,S.Hinz,andC.Mallet,“Semanticpointcloudinterpretationbasedonoptimalneighborhoods,relevantfeatures
andefficientclassifiers,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.105,pp.286–304,2015.
[96]D.Munoz,J.A.Bagnell,N.Vandapel,andM.Hebert,“Contextualclassificationwithfunctionalmax-marginmarkovnetworks,”in
2009IEEEConferenceonComputerVisionandPatternRecognition,pp.975–982,IEEE,2009.
[97]L.Landrieu,H.Raguet,B.Vallet,C.Mallet,andM.Weinmann,“Astructuredregularizationframeworkforspatiallysmoothing
semanticlabelingsof3dpointclouds,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.132,pp.102–118,2017
[98]L.Tchapmi,C.Choy,I.Armeni,J.Gwak,andS.Savarese,“Segcloud:Semanticsegmentationof3dpointclouds,”in2017International
Conferenceon3DVision(3DV),pp.537–547,IEEE,2017.
[99]X.Ye,J.Li,H.Huang,L.Du,andX.Zhang,“3drecurrentneuralnetworkswithcontextfusionforpointcloudsemanticsegmentation,”
inProceedingsoftheEuropeanConferenceonComputerVision(ECCV),pp.403–417,2018.
[100]L.LandrieuandM.Boussaha,“Pointcloudoversegmentationwithgraph-structureddeepmetriclearning,”inProceedingsoftheIEEE
ConferenceonComputerVisionandPatternRecognition,pp.7440–7449,2019.
[101]J.Xiao,J.Zhang,B.Adler,H.Zhang,andJ.Zhang,“Three-dimensionalpointcloudplanesegmentationinbothstructuredand
unstructuredenvironments,”RoboticsandAutonomousSystems,vol.61,no.12,pp.1641–1652,2013.
[102]L.Li,F.Yang,H.Zhu,D.Li,Y.Li,andL.Tang,“Animprovedransacfor3dpointcloudplanesegmentationbasedonnormal
distributiontransformationcells,”RemoteSensing,vol.9,no.5,p.433,2017.
[103]H.Boulaassal,T.Landes,P.Grussenmeyer,andF.Tarsha-Kurdi,“Automaticsegmentationofbuildingfacadesusingterrestriallaser
data,”inISPRSWorkshoponLaserScanning2007andSilviLaser2007,pp.65–70,2007.
[104]Z.Dong,B.Yang,P.Hu,andS.Scherer,“Anefficientglobalenergyoptimizationapproachforrobust3dplanesegmentationofpoint
clouds,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.137,pp.112–133,2018.
[105]J.M.BioscaandJ.L.Lerma,“Unsupervisedrobustplanarsegmentationofterrestriallaserscannerpointcloudsbasedonfuzzy
clusteringmethods,”ISPRSJournalofPhotogrammetryandRemoteSensing,vol.63,no.1,pp.84–98,2008.
[106]X.Ning,X.Zhang,Y.Wang,andM.Jaeger,“Segmentationofarchitectureshapeinformationfrom3dpointcloud,”inProceedings
ofthe8thInternationalConferenceonVirtualRealityContinuumanditsApplicationsinIndustry,pp.127–132,ACM,2009.
[107]Y.Xu,S.Tuttas,andU.Stilla,“Segmentationof3doutdoorscenesusinghierarchicalclusteringstructureandperceptualgrouping
laws,”in20169thIAPRWorkshoponPatternRecognitoninRemoteSensing(PRRS),pp.1–6,IEEE,2016.
[108]Y.Xu,L.Hoegner,S.Tuttas,andU.Stilla,“Voxel-andgraph-basedpointcloudsegmentationof3dscenesusingperceptualgrouping
laws,”inISPRSAnnalsofPhotogrammetry,RemoteSensing&SpatialInformationSciences,vol.4,2017.
[109]Y.Xu,W.Yao,S.Tuttas,L.Hoegner,andU.Stilla,“Unsupervisedsegmentationofpointcloudsfrombuildingsusinghierarchical
clusteringbasedongestaltprinciples,”IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,no.99,
pp.1–17,2018.
[110]E.H.LimandD.Suter,“3dterrestriallidarclassificationswithsuper-voxelsandmulti-scaleconditionalrandomfields,”ComputerAidedDesign,vol.41,no.10,pp.701–710,2009.
[111]Z.Li,L.Zhang,X.Tong,B.Du,Y.Wang,L.Zhang,Z.Zhang,H.Liu,J.Mei,X.Xing,etal.,“Athree-stepapproachfortlspoint
cloudclassification,”IEEETransactionsonGeoscienceandRemoteSensing,vol.54,no.9,pp.5412–5424,2016.
[112]L.Wang,Y.Huang,Y.Hou,S.Zhang,andJ.Shan,“Graphattentionconvolutionforpointcloudsemanticsegmentation,”inProceedings
oftheIEEEConferenceonComputerVisionandPatternRecognition,pp.10296–10305,2019.
[113]J.-F.Lalonde,R.Unnikrishnan,N.Vandapel,andM.Hebert,“Scaleselectionforclassificationofpoint-sampled3dsurfaces,”inFifth
InternationalConferenceon3-DDigitalImagingandModeling(3DIM’05),pp.285–292,IEEE,2005.