数据挖掘(第二版)DATAMINING第1章绪论.pptx第2章数据特征分析与预处理.pptx第3章分类.pptx第4章回归.pptx第5章聚类.pptx第6章关联规则.pptx第7章集成学习.pptx第8章推荐系统.pptx第9章互联网数据挖掘.pptx全套可编辑PPT课件第一章绪论of432
习题数据挖掘能做什么?发现最有价值的客户1.4数据挖掘的应用of43321.4数据挖掘应用场景第一章绪论数据挖掘能做什么?发现最有价值的客户使组合销售更有效率1.4数据挖掘的应用of43331.4数据挖掘应用场景第一章绪论数据挖掘能做什么?发现最有价值的客户使组合销售更有效率留住那些最有价值的客户1.4数据挖掘的应用of43341.4数据挖掘应用场景第一章绪论数据挖掘能做什么?发现最有价值的客户使组合销售更有效率留住那些最有价值的客户用更小的成本发现欺诈现象1.4数据挖掘的应用of43351.4数据挖掘应用场景第一章绪论电信:客户细分,客户流失分析银行:优化客户服务,信贷风险评估,欺诈检测百货公司/超市:购物篮分析(关联规则)电子商务:挖掘客户潜在需求,交叉销售税务部门:偷漏税行为探测警察机关:犯罪行为分析医学:医疗保健1.4数据挖掘的应用of43361.4数据挖掘应用场景第一章绪论应用案例1:啤酒与尿不湿
沃尔玛超市,关联规则1.4数据挖掘的应用of43371.4数据挖掘应用场景第一章绪论应用案例2汇丰银行需要对不断增长的客户群进行分类,对每种产品找出最有价值的客户,营销费用减少了30%。应用案例3美国国防财务部需要从每年上百万比的军火交易中发现可能存在的欺诈现象。发现可能存在欺诈的交易,进行深入调查,节约了大量的调查成本。1.4数据挖掘的应用of43381.4数据挖掘应用场景第一章绪论习题第一章绪论1.1数据挖掘基本概念1.3数据挖掘常用工具1.4数据挖掘应用场景of4339
1.2数据挖掘起源及发展历史1.什么是数据挖掘?2.数据挖掘、统计学和机器学习之间的关系是什么?3.什么是物联网、云计算?并说明它们和大数据的关系。4.查阅资料,说明在大数据背景下,数据挖掘面临哪些挑战,以及如何解决。5.什么是数据仓库?数据仓库与数据库有何不同?6.数据挖掘有哪些常用的工具?of4340习题第一章绪论感谢聆听第二章数据预处理与相似性of4342
数据是数据挖掘的目标对象和原始资源,对数据挖掘最终结果起着决定性的作用。现实世界中的数据是多种多样的,具有不同的特征,这就要求数据的存储采用合适的数据类型,并且数据挖掘算法的适用性会受到具体的数据类型限制。另外,原始数据通常存在着噪声、不一致、部分数据缺失等问题,为了达到较好的挖掘结果,有必要对这些数据进行预处理加工从而提高数据的质量。2.1
数据类型第二章数据预处理与相似性2.2
数据特征分析2.3
数据预处理3.1数据挖掘概述2.4
数据的相似性of4343
习题属性是数据对象的性质或特性,属性又可称为特征。每一个数据对象用一组属性描述,数据集用结构化数据表表示,其中列是存放在表中的对象的属性,行代表一个对象实例,表中单元格是实例对应属性的属性值。2.1数据类型2.1数据类型
可以通过以下4种基本操作来确定属性的类型:(1)相异性:=和≠
(2)序:≤、≥、<和>(3)加法:+和-(4)乘法:*和/按照上面属性测量值可使用的基本操作,可将属性值大致可以分为:标称、序数、区间、二元、比率5种类型。2.1.1属性与度量2.1数据类型2.1数据类型2.1.1属性与度量2.1数据类型
2.3
数据的相似性2.1
数据类型2.2
数据特征分析习题2.2数据特征分析描述数据集中趋势(centraltendency)的度量:Mean(均值),median(中位数),mode(众数),midrange(中列数):最大和最小值的均值描述数据离散程度(dispersion)的度量:Quartiles(四分位数),interquartilerange(IQR):四分位数极差,andvariance(方差)2.2数据特征分析1.算术平均值(ArithmeticMean)算术平均值是最常用的数据集中趋势指标,就是数据集合中所有数值的加和除以数值个数,定义如下:2.2.1描述数据集中趋势的度量平均数的优点:它能够利用所有数据的特征,而且比较好算。不足之处,平均数容易受极端数据的影响。2.2数据特征分析2.众数(Mode)2.2.1描述数据集中趋势的度量众数(Mode):在一组数据中,出现次数最多的数据;用众数代表一组数据,适合于数据量较多时使用,且众数不受极端数据的影响;
当数值或被观察者没有明显次序(常发生于非数值性资料)时特别有用,由于可能无法良好定义算术平均数和中位数。例子:{苹果,苹果,香蕉,橙,橙,橙,桃}的众数是橙。2.2数据特征分析3.中位数(Median)2.2.1描述数据集中趋势的度量按顺序排列的一组数据中居于中间位置的数。例:3,13,7,5,21,23,39,23,40,23,14,12,56,23,29
排序后:3,5,7,12,13,14,21,23,23,23,23,29,39,40,56这15个数中,第8个数为中位数:23中位数是通过排序得到的,它不受最大、最小两个极端数值的影响。2.2数据特征分析4.k百分位数(Percentile)在一组数据从小到大排序,并计算相应的累计百分比,处于k%位置的值成为第k百分位数。第k百分位数是这样一个值,它使得至少有k%的数据项小于或等于这个值,且至少有(100-k)%的数据项大于或等于这个值。前面介绍的中位数就是50百分位数。2.2.1描述数据集中趋势的度量2.2数据特征分析4.k百分位数(Percentile)求k百分位数的步骤:第1步:以递增顺序排列原始数据(即从小到大排列)。第2步:计算指数i=1+(n-1)*k%(n是数据个数)第3步:i是数据序列中k百分位数据的位置2.2.1描述数据集中趋势的度量2.2数据特征分析4.k百分位数(Percentile)【例2-1】有一组数据:3,13,7,5,21,23,39,23,40,23,14,12,56,23,29,求这组数的50百分位数(也就是中位数)。排序后:3,5,7,12,13,14,21,23,23,23,23,29,39,40,56
数据特征分析3.1数据挖掘概述2.4
数据的相似性of4373
2.3数据预处理2.1
按平均值平滑对同一箱值中的数据求平均值,用平均值替代该箱子中的所有数据。
按边界值平滑用距离较小的边界值替代箱中每一数据。
将转换到区间[new_min〖,new_max〗]中,结果为。这种方法有一个缺陷就是当有新的数据加入时,可能导致max,min值的变化,需要重新定义。另外,如果要做0-1规范化,上述式子可以简化为:2.3数据预处理2.3.3数据规范化1.最小-最大规范化
【例2-11】下表2-8中是某部分同学数学和语文成绩的成绩,数据是百分制,语文是150分制,两组数据不在同一个量纲,对其进行最小-最大规范。2.3数据预处理2.3.3数据规范化1.最小-最大规范化
2.2
数据预处理2.1
假设有两个文档,新闻a和新闻b,将它们的内容经过分词、词频统计处理后得到如下两个向量:文档a:(1,1,2,1,1,1,0,0,0)文档b:(1,1,1,0,1,3,1,6,1)。使用余弦相似度来计算两个文档的相似度过程如下:新闻a和新闻b对应的向量分别是
和(1)计算向量a、b的点积:(2)计算向量a、b的欧几里得范数,即||a||、||b||:(3)计算相似度:2.4数据的相似性2.词频-逆文档频率(TermFrequency-InverseDocumentFrequency,TF-IDF)
一种用于资讯检索与资讯探勘的常用加权技术。基于统计学方法来评估词语对文档的重要性。字词的重要性随着它在文档中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。其中,词频(termfrequency,TF)指的是某一个给定的词语在该文档中出现的次数。由于同一个词语在长文档里可能会比短文档有更高的词频,为了防止它偏向较长的文档,通常会采用词频除以文档总词数来归一化。2.4.4文本相似性度量2.4数据的相似性2.词频-逆文档频率(TermFrequency-InverseDocumentFrequency,TF-IDF)
逆向文档频率(inversedocumentfrequency,IDF)的主要思想是:出现频率较少的词才能够表达文档的主题。如果包含词语w的文档越少,IDF值越大,则说明词条具有很好的类别区分能力。为了避免分母为0值,分母做加1处理。2.4.4文本相似性度量2.4数据的相似性2.词频-逆文档频率(TermFrequency-InverseDocumentFrequency,TF-IDF)
数据类型习题2.2
数据图特征分析
1.在数据挖掘之前为什么要对原始数据进行预处理?2.简述数据清洗的基本内容。3.简述数据预处理的方法和内容。4.简述数据空缺值的处理方法。5.数据约简的方法有哪些?6.什么是数据规范化?规范化的常用方法有哪些?写出对应的变换公式。7.【示例2-10】种的数据[3、22、8、22、9、11、32、93、12],试用等宽分箱法完成数据平滑。8.下列数据是对鸢尾花进行频率统计后的部分数据,在此基础上,用ChiMerge方法完成数据离散化。of43129习题第二章数据预处理与相似性of43130习题第二章数据预处理与相似性9.计算数据对象X=(3,5,2,7)和Y=(6,8,2,3)之间的欧几里得距离、曼哈顿距离以及闵可夫斯基距离,其中闵可夫斯距离中p值取为3。sepal_length0类1类2类和4.310014.430034.510014.640044.720024.850054.941165820105.181095.231045.31
015.451065.525075.605165.725185.813375.90213感谢聆听第三章分类of56132
分类是一种很重要的数据挖掘技术,也是数据挖掘研究的重点和热点之一。分类的目的是分析输入数据,通过训练集中的数据表现出来的特性,为每一个类找到一种准确描述或者模型,这种描述常常用谓词来表示。由此生成的类描述用来对未来的测试数据进行分类。尽管这些未来测试数据的类标签是未知的,仍可以由此预测这些新数据所属的类。也可以由此对数据中每一个类有更好的理解。More应用市场:医疗诊断、人脸检测、故障诊断和故障预警······3.1分类概述第三章分类3.2
决策树3.3
贝叶斯分类3.5实战:Python支持向量机分类习题3.4
支持向量机of56133
分类(Classification)是一种重要的数据分析形式,它提取刻画重要数据类的模型。这种模型称为分类器,预测分类的(离散的、无序的)类标号。这些类别可以用离散值表示,其中值之间的次序没有意义。3.1.1分类的基本概念of561343.1分类概述第三章分类
分类可描述如下:从训练数据中确定函数模型y=f(x1,x2,...,xd),其中xi,i=1,...d为特征变量,y为分类变量。当y为离散变量时,即dom(y)={y1,y2,...,ym},被称为分类。
分类也可定义为:分类的任务就是通过学习得到一个目标函数(TargetFunction),把每个属性集x映射到一个预先定义的类标号y。
数据分类过程有两阶段:
(1)学习阶段(构建分类模型)。
(2)分类阶段(使用学习阶段构建的模型预测给定数据的类标号)。3.1.2分类的过程of561353.1分类概述第三章分类建立分类模型的一般方法3.1.2分类的过程of561363.1分类概述第三章分类建立分类模型的一般方法
训练集:用于训练模型,拟合参数,即模型拟合的数据样本集合,如通过训练拟合一些参数来建立一个分类器。
训练数据中的数据不能再出现在验证数据以及测试数据中,验证数据最好也不要出现在测试数据中,这点在训练分类器的时候一定要特别注意。
3.1.3分类器性能的评估方法of561373.1分类概述第三章分类(1)评估分类器性能的度量度量公式准确率、识别率(TP+TN)/(P+N)错误率、误分类率(FP+FN)/(P+N)敏感度、真正例率、召回率TP/P特效型、真负例率TN/N精度TP/(TP+FP)TP,TN,FP,FN,P,N分别表示真正例,真负例,假正例,假负例,正和负样本数。
3.1.3分类器性能的评估方法of561383.1分类概述第三章分类(2)比较分类器的其他方面速度:这涉及产生和使用分类器的计算开销。鲁棒性:这是假的数据有噪声或有缺失值时分类器做出正确预测的能力。通常,鲁棒性用噪声和缺失值渐增的一系列合成数据集评估。可伸缩性:这涉及给定大量数据,有效的构造分类器的能力。通常,可伸缩性用规模渐增的一系列数据集评估。可解释性:这涉及分类器或预测其提供的理解和洞察水平。可解释性是主观的,因而很难评估。决策树和分类规则可能容易解释,但随着它们变得更复杂,它们的可解释性也随着消失。