(2021年整理)kNN算法综述

认证主体:宁夏凯米世纪网络科技有限公司

IP属地:宁夏

统一社会信用代码/组织机构代码

91640100MA774ECW4K

2、;k近邻算法;机器学习;文本分类abstract:knnalgorithm,afamousstatisticalmethodofpatternrecognition,whichisoneofthebestalgorithmsfordealingwithtextcategorization,isplayinganimportantroleinmachinelearningclassificationalgorithm,anditisoneofthesimplestalgorithmsinmachinelearni

3、ng.thispapermainlysummariestheknnalgorithmanditsrelatedliterature,anddetailedintroducesitsmainidea,principle,implementationstepsandspecificimplementationcode,aswellasanalyzestheadvantagesanddisadvantagesofthealgorithmanditsvariousimprovementschemes.thispaper

4、alsointroducesthedevelopmentcourseofknnalgorithm,itsimportantpublishedpaper.inthefinal,thispaperintroducestheapplicationfieldofknnalgorithm,andespeciallyintextcategorization.keywords:knnalgorithm,kneighboralgorithm,machinelearning,textclassification1引言分类是数据挖掘中的

5、核心和基础技术,在经营、决策、管理、科学研究等多个领域都有着广泛的应用。目前主要的分类技术包括决策树、贝叶斯分类、knn分类、人工神经网络等。在这些方法中,knn分类是一种简单、有效、非参数的方法,现已经广泛应用于文本分类、模式识别、图像及空间分类等领域。本文从各个角度对knn算法进行较为全面的总结。本文的结构如下:在第二部分,主要介绍knn算法的基本原理、思想、实现步骤、java实现代码以及发展历程和经典论文。第三部分是对knn算法的诸多不足之处进行的讨论,并给出一些改进的方案。第四部分介绍的是knn算法如何处理多标签数据。第五部分介绍了knn算法目前的主要应用领域,并着重说明了其在文本分类

6、中的出色表现。2knn算法简介2.1算法引入knn算法是机器学习里面比较简单的一个分类算法,整体思想比较简单:计算一个点a与其他所有点之间的距离,取出与该点最近的k个点,然后统计这k个点里面所属分类比例最大的,则点a属于该分类。下面用一个例子来说明一下:电影名称打斗次数接吻次数电影类型californiaman3104romancehesnotreallyintodudes2100romancebeautifulwoman181romancekevinlongblade10110actionroboslayer3000995actionampedii982action简

7、单说一下这个数据的意思:这里用打斗次数和接吻次数来界定电影类型,如上,接吻多的是romance类型的,而打斗多的是动作电影。还有一部名字未知(这里名字未知是为了防止能从名字中猜出电影类型),打斗次数为18次,接吻次数为90次的电影,它到底属于哪种类型的电影呢?knn算法要做的,就是先用打斗次数和接吻次数作为电影的坐标,然后计算其他六部电影与未知电影之间的距离,取得前k个距离最近的电影,然后统计这k个距离最近的电影里,属于哪种类型的电影最多,比如action最多,则说明未知的这部电影属于动作片类型。在实际使用中,有几个问题是值得注意的:k值的选取,选多大合适呢?计算两者间距离,用哪种距离会更好呢

8、?计算量太大怎么办?假设样本中,类型分布非常不均,比如action的电影有200部,但是romance的电影只有20部,这样计算起来,即使不是action的电影,也会因为action的样本太多,导致k个最近邻居里有不少action的电影,这样该怎么办呢?没有万能的算法,只有在一定使用环境中最优的算法。2.2算法指导思想knn算法的指导思想是“近朱者赤,近墨者黑”,由你的邻居来推断出你的类别。先计算待分类样本与已知类别的训练样本之间的距离,找到距离与待分类样本数据最近的k个邻居;再根据这些邻居所属的类别来判断待分类样本数据的类别。2.3算法计算步骤1.算距离:给定测试对象,计算它与训练集中

9、的每个对象的距离;2.找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻;3.做分类:根据这k个近邻归属的主要类别,来对测试对象分类。2.4相似性度量用空间内两个点的距离来度量。距离越大,表示两个点越不相似。距离的选择有很多13,通常用比较简单的欧式距离。欧式距离:deucx,y=j=1d(xj-yj)212=x-y(x-y)t12马氏距离:马氏距离能够缓解由于属性的线性组合带来的距离失真,是数据的协方差矩阵。dmahx,y=x-y-1(x-y)t曼哈顿距离:dmanx,y=j=1dxj-yj切比雪夫距离:dchex,y=maxj(|xj-yj|)闵氏距离:r取值为2时:曼哈顿距离;

10、r取值为1时:欧式距离。dminx,y=j=1d(xj-yj)r1r,r1平均距离:davex,y=1dj=1d(xj-yj)212弦距离:|2表示2-范数,即|x|2=j=1dxj2dchordx,y=2-2j=1dxjyj|x|2|y|212测地距离:dgeox,y=arccos1-dchordx,y2meancharacterdifference:dmcdx,y=1dj=1d|xj-yj|indexofassociation:12j=1dxjl=1dxl-yjl=1dylcanberrametric:j=1d|xj-yj|(xj+yj)czekanowskicoefficie

11、nt:1-2j=1dminxj,yjj=1d(xj+yj)coefficientofdivergence:1dj=1dxj-yjxj+yj2122.5类别的判定投票决定:少数服从多数,近邻中哪个类别的点最多就分为该类。加权投票法:根据距离的远近,对近邻的投票进行加权,距离越近则权重越大(权重为距离平方的倒数)2.6优缺点2.6.1优点1.简单,易于理解,易于实现,无需估计参数,无需训练;2.适合对稀有事件进行分类;3.特别适合于多分类问题(multi-modal,对象具有多个类别标签),knn比svm的表现要好。2.6.2缺点1.懒惰算法,对测试样本分类时的计算量大,内存

12、开销大,评分慢;2.当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的k个邻居中大容量类的样本占多数;3.可解释性较差,无法给出决策树那样的规则。2.7常见问题2.7.1k值的设定k值选择过小,得到的近邻数过少,会降低分类精度,同时也会放大噪声数据的干扰;而如果k值选择过大,并且待分类样本属于训练集中包含数据数较少的类,那么在选择k个近邻的时候,实际上并不相似的数据亦被包含进来,造成噪声增加而导致分类效果的降低。如何选取恰当的k值也成为knn的研究热点。k值通常是采用交叉检验来确定(以k=1为基准)。经验规则:k一般低于训练样本数的平

13、方根。2.7.2类别的判定方式投票法没有考虑近邻的距离的远近,距离更近的近邻也许更应该决定最终的分类,所以加权投票法更恰当一些。2.7.3距离度量方式的选择高维度对距离衡量的影响:众所周知当变量数越多,欧式距离的区分能力就越差。变量值域对距离的影响:值域越大的变量常常会在距离计算中占据主导作用,因此应先对变量进行标准化。2.7.4训练样本的参考原则学者们对于训练样本的选择进行研究,以达到减少计算的目的,这些算法大致可分为两类。第一类,减少训练集的大小。knn算法存储的样本数据,这些样本数据包含了大量冗余数据,这些冗余的数据增了存储的开销和计算代价。缩小训练样本的方法有:在原有的样本中删掉

15、一个大小为k的的按距离由大到小的优先级队列,用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组,分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列5.遍历训练元组集,计算当前训练元组与测试元组的距离,将所得距离l与优先级队列中的最大距离lmax6.进行比较。若l=lmax,则舍弃该元组,遍历下一个元组。若llmax,删除优先级队列中最大距离的元7.组,将当前训练元组存入优先级队列。8.遍历完毕,计算优先级队列中k个元组的多数类,并将其作为测试元组的类别。9.测试元组集测试完毕后计算误差率,继续设定不同的k值重新进行训练,最后取误差率最

16、小的k值。2.9knn算法的java实现代码publicclassknn/**设置优先级队列的比较函数,距离越大,优先级越高*/privatecomparatorcomparator=newcomparator()publicintcompare(knnnodeo1,knnnodeo2)if(o1.getdistance()=o2.getdistance()return-1;elsereturn1;/**获取k个不同的随机数*paramk随机数的个数*parammax随机数最大的范围*return生成的随机数数组*/pu

17、bliclistgetrandknum(intk,intmax)listrand=newarraylist(k);for(inti=0;ik;i+)inttemp=(int)(math.random()*max);if(!rand.contains(temp)rand.add(temp);elsei-;returnrand;/**计算测试元组与训练元组之前的距离*paramd1测试元组*paramd2训练元组*return距离值*/publicdoublecaldistance(listd1,listd2

18、)doubledistance=0.00;for(inti=0;id1.size();i+)distance+=(d1.get(i)-d2.get(i)*(d1.get(i)-d2.get(i);returndistance;/**执行knn算法,获取测试元组的类别*paramdatas训练数据集*paramtestdata测试元组*paramk设定的k值*return测试元组的类别*/publicstringknn(listlistdatas,listtestdata,intk)priorityqueue

19、pq=newpriorityqueue(k,comparator);listrandnum=getrandknum(k,datas.size();for(inti=0;ik;i+)intindex=randnum.get(i);listcurrdata=datas.get(index);stringc=currdata.get(currdata.size()-1).tostring();knnnodenode=newknnnode(index,caldistance(testdata,currdata),c);pq.add(n

20、ode);for(inti=0;idatas.size();i+)listt=datas.get(i);doubledistance=caldistance(testdata,t);knnnodetop=pq.peek();if(top.getdistance()distance)pq.remove();pq.add(newknnnode(i,distance,t.get(t.size()-1).tostring();returngetmostclass(pq);/**获取所得到的k个最近邻元组的多数类*parampq存储k个

21、最近近邻元组的优先级队列*return多数类的名称*/privatestringgetmostclass(priorityqueuepq)mapclasscount=newhashmap();intpqsize=pq.size();for(inti=0;ipqsize;i+)knnnodenode=pq.remove();stringc=node.getc();if(classcount.containskey(c)classcount.put(c,classcount.get(c)+1);elseclasscount.put(c,

25、oc.hawaiiintlconf.systemssciences,1968c.j.stoneconsistentnonparametricregression,ann.stat.,vol.3,no.4,pp.595-645,1977.wclevelandrobustlocally-weightedregressionandsmoothingscatterplots,j.am.statisticalsoc.,vol.74,pp.829-836,1979.t.a.brown&j.koplowitz,theweighted

26、nearestneighborruleforclassdependentsamplesizes,ieeetrans.inform.theory,vol.it-25,pp.617-619,sept.1979.r.short&k.fukanaga,anewnearestneighbordistancemeasure,proc.fifthieeeintlconf.patternrecognition,pp.81-86,1980.theoptimaldistancemeasurefornearestneighbor

27、classification,”ieeetrans.informationtheory1981j.p.mylesandd.j.hand,themulti-classmetricprobleminnearestneighbordiscriminationrules,patternrecognition,1990n.s.altmananintroductiontokernelandnearest-neighbornonparametricregression,1992min-lingzhang&zhi-huazhouml-knn:a

29、nn算法的诸多不足之处也逐渐显露,因此许多knn算法的改进算法也应运而生。针对以上算法的不足,算法的改进方向主要分成了分类效率和分类效果两方面。分类效率:事先对样本属性进行约简,删除对分类结果影响较小的属性,快速的得出待分类样本的类别。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。分类效果:采用权值的方法(和该样本距离小的邻居权值大)来改进,han等人于2002年尝试利用贪心法,针对文件分类实做可调整权重的k最近邻居法waknn(weightedadjustedknearestneighbor),以促进分类效果;而li等人于20

31、样本;或在原来的训练样本集中选取一些代表样本作为新的训练样本;或通过聚类,将聚类所产生的中心点作为新的训练样本。主要方法的文献25-26。这些方法筛选合适的新训练样本,对于大训练样本集,这个工作量是非常巨大的。第二类,采用快速算法,快速搜索到k个最近邻。knn算法要找到k个最近邻的点,则要计算测试点到所有训练样本的距离,然后找出其中k个距离最小有数据点,当训练样本非常大时,knn算法就不切实际了,为了加快knn搜索过程,主要的方法,其中一个方法是部分距离计算,文献27中提出一种基于小波域部分距离计算的knn搜索算法,文献28提出快速算法(kwenns)。另外一种方法是,引入高效的索引方法,高效

32、的索引方法可以大大降低k个最近邻的计算开销,特别是在高维空间中体现更为明显,文献29提出了一种新的索引结存模型,有的算法虽然能够有效降低k个最近邻的计算开销,提高了knn的分类速度,但它们无法保证进行全局的最优搜索。3.1.2优化相似度度量方法基本的knn算法基于欧基里德距离来计算相似度,这种计算距离的度量标准造成了knn算法对噪声特征非常敏感。为了改变传统knn算法中特征作用相同的缺陷,可在度量相似度的距离公式中给特征赋予不同权重,特征的权重一般根据各个特征在分类中的作用设定。可根据特征在整个训练样本库中的分类作用得到权重,也可根据其在训练样本的局部样本(靠近待测试样本的样本集合)中的分类

33、作用得到权重。人们研究了各种学习调整权值的方法,从而提高了knn分类器的性能。3.1.3优化判决策略传统knn的决策规则一个明显的缺点是,当样本分布密度不均匀时,只按照前k个近邻顺序而不考虑它们的距离会造成误判,影响分类的性能。而且在实际设计分类器时,由于一些类别比另一些类别的训练样本更容易获得,往往会造成训练样本各类别之间目数不均衡,即是训练样本在各个类中的数目基本接近,由于其所占区域大小的不同,也会造成训练样本的分布不均匀。目前改进的方法有均匀化样本分布密度;文献30等对knn的决策规则进行了改进,很好地解决了当各类数据分布不均匀时knn分类器分类性能下降的问题,文献31利用大量近邻集来

34、代替knn中的单一集合,并通过累加近邻的数据集对不同类别的支持度,获得相对可信的支持值,从而改善了近邻判决规则。3.1.4选取恰当的k值由于knn算法中几乎所有的计算都发生在分类阶段,而且分类效果很大程度上依赖于k值的选取,k值的选择很重要。k值选择过小,得到的近邻数过少,会降低分类精度,同时也会放大噪声数据的干扰;而如果k值选择过大,并且待分类样本属于训练集中包含数据数较少的类,那么在选择k个近邻的时候,实际上并不相似的数据亦被包含进来,造成噪声增加而导致分类效果的降低。如何选取恰当的k值也成为knn的研究热点。3.1.5多种算法集成除了上述的各种方法外,也有研究者将knn分类方法和其他

40、)不存在检索trmq,收集参数集tj,trjr=1,2,n,由公式(1计算corr(tj),并存储etj值;存储新矩阵trmq,其中x=x1,x2,xmt,y=difft1,difft2,difftqt(2)使用公式(2)计算待分样本与训练集各样本的距离。for(inti=1;ithresholdandjlujlcntmax&0,其他(5)rj=dcntjconst+skconst+s2(6)其中threshold和const为常数,s为拉普拉斯平滑因子。具体4.3算法的时问复杂度分析在上述fkmc中,仅利用du的k个最近邻的局部信息进行du的排序分类,省去了非常耗时的全局训练过程,这

42、类算法之一,必然有其十分广泛的应用。在这里仅仅列举一些常见的应用,并重点介绍以下knn算法在文本分类中的应用。5.1knn算法的主要应用领域1)模式识别,特别是光学字符识别;2)统计分类;3)计算机视觉;4)数据库,如基于内容的图像检索;5)编码理论(最大似然编码);6)数据压缩(mpeg-2标准);7)向导系统;8)网络营销;9)dna测序;10)拼写检查,建议正确拼写;11)剽窃侦查;12)相似比分算法,用来推断运动员的职业表现。5.2knn算法处理文本分类问题5.2.1文本分类介绍文本自动分类最初是应信息检索(ir)系统的要求而出现的。随着全球互联网络的普及

45、页面,下载调度时会做不同的调度策略;在做页面信息抽取时,会根据页面分类的结果做不同的抽取策略;在做检索意图识别的时候,会根据用户所点击的url所属的类别来推断检索串的类别。5.2.2文本分类过程以internet中的文本为例,待分类文本以html格式存储的半格式化的web页面、文档为主,也是当前internet信息的主要组织形式。文本知识挖掘就是要发现其中隐含的规则,以便于实现internet数据挖掘的智能化,离开了文本知识挖掘,智能化是不能实现的。最常用的文本知识挖掘方法是基于文档特征向量空间模型(characteristicvectorspacemodel,cvsm)的。1

THE END
1.信息检索报告(精选13篇)实习报告做完之后,结合课题,根据检索信息,写出综述文献上交。(200-300字左右) 在本次信息检索与利用实习报告结束后,我再次了解了电子商务物流问题,电子商务物流是最近几年的新兴产业,同时在电子商务物流系统中,也存在着许许多多的问题。 物流成本问题是我国B2C电子商务物流发展所要解决的首要问 https://www.liuxue86.com/a/5142179.html
2.ai论文写作带数据怎么做一、ai论文写作带数据怎么做 在人工智能(AI)领域,撰写一篇论文是非常重要的任务。论文的质量和内容对于推动AI研究的发展具有重要意义。本文将介绍如何在AI论文中引入数据,并提供一些实用的技巧和步骤。 数据的重要性 在AI研究中,数据是至关重要的。数据可以用于验证假设、训练模型以及评估算法的性能。因此,论文中充分https://tool.a5.cn/article/show/77516.html
3.利用神经网络进行文本分类算法综述(持续更新中)作者认为已有的直接使用LSTM作为文本分类模型并直接将LSTM的最后一个输出作为后续全连接分类器的方法面临两个问题:(1)这种方式一般都是与word embedding整合在一起(即输入onehot经过一个embedding层再进入LSTM),但是embedding训练不稳定,不好训练;(2)直接使用LSTM最后一个输出来表示整个文档不准确,一般来说LSTM输入中后https://www.jianshu.com/p/4c25d331f5f0
4.KNN算法余弦knn算法步骤mob6454cc76bc4a的技术博客1.1 解决监督学习中分类问题的一般步骤 1.2 什么是消极(惰性)的学习方法 2 首先从一个实例讲起 3 KNN分类算法入门 3.1.1算法综述 3.1.2算法思想 3.2 KNN三要素详解 3.2.1 关于距离的衡量方法 3.2.2 K值的选择问题 3.2.3 分类决策的准则 4 算法步骤详解 https://blog.51cto.com/u_16099315/10185817
5.优化算法综述一行代码实现16种优化算法,常用寻优算法合集及MATLAB快在已有的众多的优化算法里,生物的行为是研究者们最常模仿的对象,所以你就会经常看到狼啊、麻雀啊、鲸鱼啊,甚至还有小龙虾。 当然这些算法的解决思路都很优秀,而对优化算法的应用和改进,也是写论文中极佳的创新点——能研究出新的优化算法固然最好;就算没有,单是将参数寻优加到你的主算法流程中,也可以算是可以说https://blog.csdn.net/fengzhuqiaoqiu/article/details/136790216
6.模式识别课程报告编写(5篇)以matlab和wit分别实现k均值图像聚类算法,写明聚类类别数、聚类中心、迭代次数、运行时间,附原始图像和分类结果图像,并做实验分析。 (另起一页) 实验 三、神经网络模式识别 一、实验目的掌握利用感知器和bp网进行模式识别的基本方法,通过实验加深对基本概念的理解。 二、实验仪器设备及软件 hp d538、matlab 三、实https://www.kaoyanmiji.com/wendang/1130152.html
7.IF>3!用AI,10分钟出一稿,这才是真正的综述神器!(含教程)一篇优秀的综述,不仅聚焦了前沿热门研究方向,主题鲜明,而且需要归纳、总结、深入认识所研究的问题等大量工作。 想要完成一篇优秀的文献综述需要大量时间投入! 研一医学生,专业名词还一知半解,导师却一直Push我写文献综述,我真的连如何开始都不https://mp.weixin.qq.com/s?__biz=MzA5ODQ1NDIyMQ==&mid=2649788026&idx=2&sn=c69713a49e4dc51989882dafe6b9ff25&chksm=8935bb9240961b87e373d1f4e9aa72cfe98e7d95fc1711d1a1668f89eec48e9a72da5dbc5209&scene=27
8.Python算法从菜鸟到达人最新章节猿媛之家著算法综述 1.1 算法在计算机系统中的作用 算法是当代计算机系统中的核心内容,是否具有足够的算法知识与坚实的技术基础是区分熟练的程序员(达人)与初学者(菜鸟)的一个重要特征。下面将简单阐述什么是算法,以及为什么要学习和研究算法。 1.1.1 算法的定义 简单来说, 算法 (Algorithm)就是 定义良好 (没有公理性https://m.zhangyue.com/readbook/12612164/5.html?showDownload=1
9.硕士学位论文写作指导(1)选题布局:硕士论文一般2个创新点(博士论文是3个以上),分别对应两章的研究内容。论文题目中要有一到两个有**“神秘感”**的词,这两个词就结合了技术前沿。论文结构推荐为五章:1、绪论;2、国内外研究现状(或相关理论与技术综述);3、研究内容一;4、研究内容二;5、总结与展望。(专硕可以写一章系统设计与https://kmrvyozrlx.k.topthink.com/@oucaigroup/research_howto/thesis_writing.html
10.随机算法论文范文10篇(全文)随机算法论文 第1篇 1 贪婪随机自适应搜索过程 贪婪随机自适应搜索算法是一个多步迭代算法, 每次迭代包括两个阶段, 第一阶段为构造阶段, 产生出可行解;第二阶段为局部搜索阶段, 寻找局部最优解X, 如果X比已经搜索到的最优解Y还要好, 则用X代替Y。 https://www.99xueshu.com/w/ikeyv3n8lg0q.html
11.综述基于深度学习的目标检测算法腾讯云开发者社区综述| 基于深度学习的目标检测算法 计算机视觉是人工智能的关键领域之一,是一门研究如何使机器“看”的科学。图像目标检测又是计算机视觉的关键任务,主要对图像或视频中的物体进行识别和定位,是AI后续应用的基础。 因此,检测性能的好坏直接影响到后续目标 追踪、动作识别的性能。传统图像目标检测的滑窗法虽然简单易于https://cloud.tencent.com/developer/article/1985920
12.一篇包罗万象的嘲文本检测算法综述一篇包罗万象的场景文本检测算法综述 相关背景介绍 文本在人机交互中扮演着重要的角色, 图片中的文本所包含的丰富而精确的信息在基于视觉的设备中应用非常广泛,能够辅助设备获得更精确的物体和周边环境信息。随着智能机器人、无人驾驶、医疗诊断的飞速发展,文本的检测与识别已经成为定位和理解物体信息的重要途径[28]。https://www.elecfans.com/d/1575551.html
13.机器人比赛教学反思(通用14篇)2.4 算法综述 使用“跑位队列”与“就位队列”来就记录机器人的状态信息。处于跑位队列的机器人需要进行跑位动作;机器人处于就位队列中时,说明其已经处于“合适的队形”中。 根据3.3的阻挡判断方法可以判定机器人所处的状态。被阻挡的机器人应采用摆脱策略,此时暂不将它加入“跑位队列”;未被阻挡且不处于“就位队列”https://www.360wenmi.com/f/filer751vomx.html
14.汉语词法分析和句法分析技术综述pamire在词典规模不大的时候,各种词典查询算法对汉语词法分析的效率整体影响并不大。不过 当词典规模很大时(几十万到上百万数量级),词典查询的时空开销会变得很严重,需要 详细设计一个好的词典查询算法。 (孙茂松,2000)一文比较详细的总结了汉语词法分析中使用的几种词典查询算法。(Ah http://blog.chinaunix.net/uid-2384984-id-1989635.html
15.科学网—船舶水动力数值模拟方法的一些综述介绍,第一篇:计算流体船舶水动力数值模拟方法不断发展,水动力软件的也日新月异,更新很快,有很多专题的文章发表,但全面性的综述还需要更多的介绍。本人参考了一些资料,再结合自己多年的经验想做这方面的尝试,尽量多做全面性的综述介绍,但精力毕竟有限,广度上很难真真做到全面(比如没涉及网格产生的技术),深度上也很多停留在基本知识的介绍https://blog.sciencenet.cn/blog-3472103-1280473.html
16.整理了2024年最新顶会论文附PDF【3】文献综述和相关工作 1.文献综述的目的和价值 2.如何进行文献搜索和筛选 3.如何撰写文献综述和分析相关工作 【4】实验设计和数据收集 1.实验设计的基本原则和方法 2.数据收集和数据预处理技术 3.如何选择和使用适当的数据集 【5】算法和模型选择 https://www.eet-china.com/mp/a296832.html
17.基于深度残差网络图像分类算法研究综述①? E-mail:?csa@iscas.ac.cn http://www.c-s-a.org.cn Tel:?+86-10-62661041 ? 基于深度残差网络图像分类算法研究综述① 赵志成1,2,罗 泽1,王鹏彦3,李 健1 1(中国科学院?计算机网络信息中心,?北京?100190) 2(中国科学院大学,?北京?100049) 3(四川https://c-s-a.org.cn/csaen/ch/reader/create_pdf.aspx?file_no=7243&flag=1&year_id=2020&quarter_id=1