数据挖掘最常见的十种方法

下面介绍十种数据挖掘(DataMining)的分析方法,以便于大家对模型的初步了解,这些都是日常挖掘中经常遇到的算法,希望对大家有用!(甚至有数据挖掘公司,用其中的一种算法就能独步天下)

1、基于历史的MBR分析(Memory-BasedReasoning;MBR)

基于历史的MBR分析方法最主要的概念是用已知的案例(case)来预测未来案例的一些属性(attribute),通常找寻最相似的案例来做比较。

记忆基础推理法中有两个主要的要素,分别为距离函数(distancefunction)与结合函数(combinationfunction)。距离函数的用意在找出最相似的案例;结合函数则将相似案例的属性结合起来,以供预测之用。记忆基础推理法的优点是它容许各种型态的数据,这些数据不需服从某些假设。另一个优点是其具备学习能力,它能藉由旧案例的学习来获取关于新案例的知识。较令人诟病的是它需要大量的历史数据,有足够的历史数据方能做良好的预测。此外记忆基础推理法在处理上亦较为费时,不易发现最佳的距离函数与结合函数。其可应用的范围包括欺骗行为的侦测、客户反应预测、医学诊疗、反应的归类等方面。

2、购物篮分析(MarketBasketAnalysis)

购物篮分析基本运作过程包含下列三点:

(1)选择正确的品项:这里所指的正确乃是针对企业体而言,必须要在数以百计、千计品项中选择出真正有用的品项出来。

(2)经由对共同发生矩阵(co-occurrencematrix)的探讨挖掘出联想规则。

购物篮分析技术可以应用在下列问题上:

(1)针对信用卡购物,能够预测未来顾客可能购买什么。

(2)对于电信与金融服务业而言,经由购物篮分析能够设计不同的服务组合以扩大利润。

(3)保险业能藉由购物篮分析侦测出可能不寻常的投保组合并作预防。

(4)对病人而言,在疗程的组合上,购物篮分析能作为是否这些疗程组合会导致并发症的判断依据。

3、决策树(DecisionTrees)

决策树在解决归类与预测上有着极强的能力,它以法则的方式表达,而这些法则则以一连串的问题表示出来,经由不断询问问题最终能导出所需的结果。典型的决策树顶端是一个树根,底部有许多的树叶,它将纪录分解成不同的子集,每个子集中的字段可能都包含一个简单的法则。此外,决策树可能有着不同的外型,例如二元树、三元树或混和的决策树型态。

4、遗传算法(GeneticAlgorithm)

遗传算法学习细胞演化的过程,细胞间可经由不断的选择、复制、交配、突变产生更佳的新细胞。基因算法的运作方式也很类似,它必须预先建立好一个模式,再经由一连串类似产生新细胞过程的运作,利用适合函数(fitnessfunction)决定所产生的后代是否与这个模式吻合,最后仅有最吻合的结果能够存活,这个程序一直运作直到此函数收敛到最佳解。基因算法在群集(cluster)问题上有不错的表现,一般可用来辅助记忆基础推理法与类神经网络的应用。

5、聚类分析(ClusterDetection)

这个技术涵盖范围相当广泛,包含基因算法、类神经网络、统计学中的群集分析都有这个功能。它的目标为找出数据中以前未知的相似群体,在许许多多的分析中,刚开始都运用到群集侦测技术,以作为研究的开端。

6、连接分析(LinkAnalysis)

7、OLAP分析(On-LineAnalyticProcessing;OLAP)

严格说起来,OLAP分析并不算特别的一个数据挖掘技术,但是透过在线分析处理工具,使用者能更清楚的了解数据所隐藏的潜在意涵。如同一些视觉处理技术一般,透过图表或图形等方式显现,对一般人而言,感觉会更友善。这样的工具亦能辅助将数据转变成信息的目标。

8、神经网络(NeuralNetworks)

9、判别分析(DiscriminantAnalysis)

当所遭遇问题它的因变量为定性(categorical),而自变量(预测变量)为定量(metric)时,判别分析为一非常适当之技术,通常应用在解决分类的问题上面。若因变量由两个群体所构成,称之为双群体—判别分析(Two-GroupDiscriminantAnalysis);若由多个群体构成,则称之为多元判别分析(MultipleDiscriminantAnalysis;MDA)。

(2)检定各组的重心是否有差异。

(3)找出哪些预测变量具有最大的区别能力。

(4)根据新受试者的预测变量数值,将该受试者指派到某一群体。

10、逻辑斯蒂回归分析(LogisticAnalysis)

当判别分析中群体不符合正态分布假设时,罗吉斯回归分析是一个很好的替代方法。罗吉斯回归分析并非预测事件(event)是否发生,而是预测该事件的机率。它将自变量与因变量的关系假定是S行的形状,当自变量很小时,机率值接近为零;当自变量值慢慢增加时,机率值沿着曲线增加,增加到一定程度时,曲线协率开始减小,故机率值介于0与1之间。

所谓频繁模式挖掘,指的是比如在商品交易数据库记录中,找出一起出现的商品集合,这些商品集合出现的频率要高于一个阈值,这些经常出现的商品集合称之为频繁模式。

频繁模式的思路很简单,首先统计出每个单个商品出现的次数,这就构成了一个一维表。然后再根据一维表,商品两两组合产生一个二维表。然后再由二维表产生三维表,直至到n维表。其中可以利用apriori,进行剪枝,也就是说一维表中如果出现的频率低于阈值的商品,就可以直接去掉,应为包含该商品的高维商品集合的出现频率不可能高于该阈值,可以直接剪枝去掉。

频繁模式挖掘还有一种更加高效的方式,就是FPGrowth,该方法通过扫描一遍数据库,在内存中构造一颗FPtree,基于这棵树就可以产生所有的频繁模式。很显然FPGrowth算法的效率要高很多,但是其缺陷也很明显,在内存中维护一颗FPtree的开销也是很大的。为了解决这个问题,一个直接的思路是将数据库水平分表到各台机器上,在各台机器上执行本地的FPGrowth,然后再将各台机器上的结果汇总起来,得到最终的FPGrowth的结果。

所谓关系挖掘,值得是挖掘出各个项目之间的因果关系。关系挖掘的基础是频繁模式挖掘,通过频繁模式挖掘,很容易得出关系,举例就很容易明白,比如我们得到一个频繁集合:

那么通过排列组合可以得到l的子集集合:

那么很容易得到下面的推理集合,也就是挖掘出的关系:

所有的关系挖掘本质上都是基于频繁模式推导出来的。

在关系挖掘中,有一种非常有用的关系模式挖掘:miningquantitativeassociationrules。所谓quantitativeassociationrules是这样一种关系模式:

该关系模式的挖掘,首先是确定我们所感兴趣的属性:quan1,quan2,cat,然后根据事先确定的间隔,将quan1,quan2按照一定的间隔划分成一定的catorgory,然后进行频繁模式挖掘,得出一些关系,然后将这些关系按照grid进行聚合,生成最后的关系模式。

通过关系挖掘挖出的关系中往往有很多不是非常有用,因此需要通过另外的指标排除一些这样的关系,这个指标就是correlation,如下:

分类树

分类树是一种很常用的分类方法,它该算法的框架表述还是比较清晰的,从根节点开始不断得分治,递归,生长,直至得到最后的结果。根节点代表整个训练样本集,通过在每个节点对某个属性的测试验证,算法递归得将数据集分成更小的数据集.某一节点对应的子树对应着原数据集中满足某一属性测试的部分数据集.这个递归过程一直进行下去。

该算法是数据挖掘中常用的一类方法。

贝叶斯分类器

贝叶斯分类的思想很简单,就是计算属性和分类之间的条件概率,选择使得条件概率最大的分类作为最终的分类结果,这是一种基于统计的分类方法,得到了广泛的引用。

贝叶斯分类器分为两种,一种是朴素贝叶斯分类器,它基于贝叶斯理论:

其中X代表特征向量,C代表分类.我们的目标就是找出使得这个后验概率最大的那个类.

其中需要注意的是X中的各个特征分量是分布独立的.这样就有:

朴素贝叶斯分类器最经典的应用场景就是垃圾邮件过滤。

朴素贝叶斯分类器的升级版本就是贝叶斯网络,因为朴素贝叶斯网络假设样本的特征向量的各个特征属性是独立的,但对于现实世界,这样的建模未必合理,因此有人就提出了贝叶斯网络,贝叶斯网络假设各个属性之间是存在条件概率的。贝叶斯网络是一个各个属性组成的有向拓扑网络,每条边代表条件概率,通过贝叶斯网络能够计算出各个属性相互组合的条件概率。

基于规则的分类器

这种分类器利用IFTHEN的规则来进行分类。对于如何产生规则,有两种方法:

第一种方法,就是从决策树中生成规则。因为决策树天然的就是规则。

第二种方法,是采用SequentialCoveringAlgorithm,直接从训练样本中生成规则集。该方法的思路是一种general-to-specific的方法,该方法从一个空规则开始,然后向规则中依次逐渐增加属性测试条件,选择该属性测试值(也就是测试分界点,attr<>

基于神经网络的分类器

神经网络分类器是依据属性构造一个网络拓扑结构,该拓扑结构的边具有权重值,我们的目的是不断得利用训练样本然后不断得更新神经网络的边权重值。然后利用该网络就可以得到输出的分类。

该算法模拟神经的组成结构,利用了单元之间的反馈机制。但该算法的缺点也很明显,网络拓扑结构的确定没有明确统一的方法论,很多只能靠规划者的经验,因此训练结果往往因人而异,限制了神经网络的使用。

支持向量机分类器

支持向量机是在训练样本空间中构造超平面来对样本进行分类,它的优势是对高维度不敏感。但效率较低,实施较为复杂。

关联分类器

关联分类器的思路很简单,前面我们提到频繁模式挖掘,我们将样本的某一属性的(属性,值)对作为一个条目,我们找出经常在一起出现的条目集合,然后找出这些频繁项目集合,这些频繁项目集合对应的样本集合中占主流的分类就作为关联规则的分类结果,该结果如下:

关联分类器有三种方法:CBA,CMAR和CPAR

LazyLearner

LazyLearner主要有两种分类器:Knn分类器和Cbr分类器。

Knn分类器思路很直接,找出和待分类样本最近的K的样本,然后将这k个样本中占主流的的类别作为分类结果分配给待分类样本。该分类器的关键在于如何确定k,一种思路是根据经验,另外一种思路是迭代,让k从1开始递增,计算每个k取值时对某一测试集的错误率,选择错误最小的那个k。另外一个关键就是如何快速得找出k个最近的邻居,这需要我们对各个样本点进行事先排序,并设计一个合适的数据结构,使得找出k个最近邻居的复杂度降为log|D|.

预测

所谓预测,就是根据既有的数据预测新出现的数据的预测值。预测有两种方法,线性回归和非线性回归。所谓线性回归,指的是

Y=b+wX公式1

其中X可以是向量,比如(x1,x2),因此线性回归则变成

y=w0+w1*x1+w2*x2公式2

对于公式1,其目标就是求出w向量。那么比较常用的方法就是最小二乘法,使得求出的w对于已有的样本使其方差和最小。方差和就是目标函数,目标函数就是自变量w的一个函数,通过求导求极值,很容易得到使得目标函数最小的w的值。通过一些软件包,如SAS,matlab,SPSS很容易做这种线性回归的w计算。

并不是所有的模型都是线性模型,实际的问题中很多模型是非线性的,比如多项式,如下

y=w0+w1*x+w2*x*x+w3*x*x*x

解决这种问题的思路是将非线性模型转化为线性模型,然后再用线性回归的方法来解决。比如上面的多项式公式,我们令

x1=xx2=x*xx3=x*x*x

这样就变成了y=w0+w1*x1+w2*x2+w3*x3,这就变成了线性回归的问题。

聚类是数据挖掘需要解决的另外一个问题,分类是我们知道确切的分类结果,知道我们需要将样本分成具体的哪几类。而聚类问题是实现不知道我们的样本具体属于哪些类别,而需要我们从样本中发掘出这些类别。下面谈几种较为通用的聚类方法谈谈。

基于分区的聚类法

该方法的一个典型的方法就是K-means,该方法非常简单,首先确定我们需要将数据样本分成多少个类,这个需要确定,我们称之为k。然后从样本中任意选择k个样本作为k个类的中心,然后计算每个样本到这k个中心的距离,把他们分配到最相近的类。这样就得到k个聚类,然后重新计算这k个聚类的中心,然后再重复前面的过程,直至没有样本被重新分配从而达到收敛。下面是k-means的伪码

基于层次的分类法

基于层次的分类法有两种:凝聚和分裂。

凝聚:它基于一种自底而上的策略,在最开始的时候,每个样本都代表一个聚类,然后计算两两之间的区分度,然后进行合并,这个合并一直按照这样的方式持续下去,直至所有的样本都被合并为一个类。

分裂:它基于一种自上而下的策略,在最开始的时候,所有的样本都是一个类,然后会依据一些区分方法,进行分裂,直至每个样本都分裂成一个聚类。

基于层次的分类法,其意义在于其他的聚类方法引入这种基于层次的思路,可以被改造成一个多阶段的的聚类方法,可以大大改进聚类的质量。

基于密度的分类法

这种方法的一个代表就是DBSCAN。要理解DBSCAN,首先要明白这么几种概念:

某一样本在e半径内的邻居称之为e-邻居。

如果某一样本的e-邻居个数大于某一最小值,那该样本被称之为核心样本。

如果q是核心样本,p是q的e-邻居,那么p是q的直接密度可达。

对于一个样本链p1,p2,..pn,如果p1=q,pn=p,pi+1是pi的直接可达,那么p就是q的密度可达。

如果p,q都是o的密度可达,那么p,q就是密度连通的。

有了这些概念,算法就很简单了,首先找出样本中所有的核心样本,那么基于这些核心样本,这些核心样本就代表某一个聚类。遍历这些核心样本,不断找到他们的密度可达的样本,其间某些样本就会被不断合并,直至所有的样本分类趋于稳定,不会再有新的点被加入各个聚类。

基于grid的聚类法

这种方法虽然不是一种显然的聚类法,但它确实可以用来聚类,因为query返回的样本实际上就是某一聚类。Query本质上于聚类问题是有等价性的。

基于模型的聚类法

这种聚类法可以用来增强K-means。样本假设可以被分为K个聚类,每个聚类可以被看成一种分布,比如高斯分布(高斯分布很符合K-means),K个聚类就是K个高斯分布模型,但我们不知道K个模型的具体参数。由于这是k个不同的高斯模型的混合体,因此每个样本实际上除了本身属性值之外还包含了一个隐藏变量(该隐藏变量用以表示该样本是由哪个高斯模型产生的),这实际上就是一个典型的EM算法的应用场景,除了估计这k个模型的参数,还需要估计隐藏变量。接下来就是利用EM来估计这些参数(模型参数和隐藏变量),估计出的隐藏变量就代表样本的聚类。

对高维样本进行聚类

CLIQUE是这种方法的一个代表,其思想是从低维到高维(1维到n维)进行查询,首先在低维空间内找到densentiyunit,然后在低维空间的densentiyunit中在继续寻找较高维空间中的densentiyunit。它本质上也是grid聚类法,它不是一种显然的聚类法,也是通过query来实现隐式得聚类。

有限制条件的聚类

这种聚类方法需要有一些特别的策略,需要针对不同场景,不能一概而论。这里就不讲了。

奇点检测

检测奇点非常有用,用于检测那些不同寻常的数据。比如最常用的思路是基于距离的,如果一个样本在一定距离内的邻居很少,那么他就可以被认为是奇点。另外还有基于统计概率的,基于密度的等等。

THE END
1.面试总结,十大数据预处理方法!数据预处理方法的重要性在于它能够清洗和转换原始数据,使其适合用于机器学习模型训练。有效的预处理可以帮助去除噪声、处理缺失值和异常数据,提升模型的准确性和稳定性。 此外,合适的预处理还能减少模型过拟合的风险,增强模型的泛化能力。 今儿总结的十个方面的数据预处理方法,https://mp.weixin.qq.com/s?__biz=MjM5NzEyMzg4MA==&mid=2649508484&idx=4&sn=34a64015791748ac0f28fee2e107bcec&chksm=bf1edcfc1d0bc191805601740b1706942b62a12c8955315a78069a1dc61e7ec4d7138b0837ea&scene=27
2.数据挖掘七种常用的方法汇总腾讯云开发者社区聚类分群效果可以用向量数据之间的相似度来衡量,向量数据之间的相似度定义为两个向量之间的距离(实时向量数据与聚类中心向量数据),距离越近则相似度越大,即该实时向量数据归为某个聚类。 数据挖掘方法 利用数据挖掘进行数据分析常用的方法主要有分类、回归分析、聚类、关联规则、特征、变化和偏差分析、Web页挖掘等, 它https://cloud.tencent.com/developer/article/1892597
3.数据挖掘的四种基本方法数据挖掘的四种基本方法 东奥美国注册管理会计师 2024-12-06 14:51:12 遗传算法 遗传算法是一种依据微生物自然选择学说与基因遗传原理的恣意优化算法,是一种仿生技能全局性提升办法。遗传算法具有的暗含并行性、便于和其他实体模型交融等特性促使它在数据发掘中被多方面运用。https://www.dongao.com/cma/zy/202406204447292.html
4.16种数据挖掘技术预测是数据挖掘的一个非常强大的方面,它代表了分析的四个分支之一。预测分析使用在当前或历史数据中发现的模式来将其扩展到未来。因此,它使组织能够洞察其数据中的下一个趋势。使用预测分析有几种不同的方法。一些更先进的涉及机器学习和人工智能的方面。然而,预测分析并不一定依赖于这些技术——它也可以用更直接https://baijiahao.baidu.com/s?id=1786242884956031097&wfr=spider&for=pc
5.数据挖掘的几种方法有哪些帆软数字化转型知识库数据挖掘的方法包括分类、聚类、回归、关联规则、序列模式、异常检测和降维技术等。其中,分类是一种常见且重要的数据挖掘方法,通过对数据进行标记,帮助识别数据所属的类别。分类算法包括决策树、支持向量机和神经网络等。分类算法的核心在于通过训练集来生成分类模型,再用这个模型对新数据进行分类。比如在电子邮件分类中,https://www.fanruan.com/blog/article/594745/
6.三种常见的数据挖掘方法有刷刷题APP(shuashuati.com)是专业的大学生刷题搜题拍题答疑工具,刷刷题提供三种常见的数据挖掘方法有___、___、___的答案解析,刷刷题为用户提供专业的考试题库练习。一分钟将考试题Word文档/Excel文档/PDF文档转化为在线题库,制作自己的电子错题本,提高学https://www.shuashuati.com/ti/e957af7720234200a5f3642f5f4ef282.html?fm=bdded973fbd04bb56579e77a2b97eb0092
7.数据挖掘消除噪音的三种方法数据挖掘噪声数据挖掘消除噪音的三种方法 数据挖掘噪声 [b]数据挖掘:[/b] 从数据中获取知识,辅助科学决策。 可以发掘埋藏在海量数据中有价值的信息。 数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机的数据中,提取隐含在其中的、人们事先不知道的、但又有潜在有用信息和知识的过程。https://blog.51cto.com/u_16099341/9134248
8.使用代理IP的三种方法通过代理IP服务商,就可以从后台登录账号获取免费代理ip,生成API接口,连接后就可以调用API接口来提取IP,这种方法大多用于网络爬虫,数据挖掘等等业务,相关工作者会根据业务需求来编写代码以此实现IP切换。切换的方式有很多种,一种是通过API接口获取代理IP,然后通过代码控制切换代理IP。 https://www.iphai.cn/info/1295.html
9.故障诊断方法有哪三种CAN故障诊断方法介绍故障诊断方法有哪三种 CAN故障诊断方法介绍 描述 目前国内商用汽车普遍采用J1939通信协议构架CAN通信网络。CAN总线发生故障时,如何高效地查找故障原因,一直是困扰维修工一大难题。 本文以欧曼GTL超能版重卡为例,就CAN线开路和短路故障给出了排查方案,相信会对广大维修工有所帮助。欧曼GTL超能版重卡CAN网络拓扑结构如下图https://m.elecfans.com/article/2204252.html
10.三种差异分析的整理针对测序数据和芯片数据,目前常用差异分析的R包有edgeR、limma、DESeq2,做一简单比较,方便平时分析。内容多为搬运,主要方便下次寻找。 1. 三种分析方法的比较 三种分析比较 image.png 三种packages的比较 1.limma包做差异分析要求数据满足正态分布或近似正态分布,如基因芯片、TPM格式的高通量测序数据。 https://www.jianshu.com/p/cd1b38215f8a
11.企业网站推广方案推荐5篇2、数据挖掘。数据挖掘是一个很不错的方法,这个方法主要是企业线下积累的一些东西,每个企业都应该有企业策划人员,长年下来会累积各种各样的新闻文章和产品知识文章,笔者就见过这样的,然后把积累的内容放在线上的网站里,很值得一试。 3、无版权内容。无版权内容可能会有站长们想问什么是无版权内容,一般来说作者死了https://www.liuxue86.com/a/4880489.html
12.科学网—基于人工智能和被动微波遥感同时反演土壤水分和地表温度如何将这三种方法统一起来,这是我读研究生以来一直在思考的问题。这里以被动微波反演地表温度和土壤水分为例来说明。我(毛克彪)2001年在南京大学计算机系周志华教授数据挖掘课堂上学习神经网络时,我就认为神经网络就是一个高级的优化算法,如果简单地采集数据,输入数据和输出数据之间没有明确的物理数学关系,那么这时的神经https://blog.sciencenet.cn/blog-67260-1383024.html
13.数据挖掘的常用方法有哪些?从大规模的文本数据中提取有用的信息和知识,例如主题提取、情感分析等。分析和挖掘复杂的网络结构中的https://www.zhihu.com/question/619824565
14.数据挖掘的常用方法都有哪些?在数据分析中,数据挖掘工作是一个十分重要的工作,可以说,数据挖掘工作占据数据分析工作的时间将近一半,由此可见数据挖掘的重要性,要想做好数据挖掘工作需要掌握一些方法,那么数据挖掘的常用方法都有哪些呢?下面就由小编为大家解答一下这个问题。 首先给大家说一下神经网络方法。神经网络是模拟人类的形象直觉思维,在生物http://api.cda.cn/view/26507.html
15.数据挖掘与分析的六种经典方法论最近梳理了一下数据挖掘与分析的常用方法论,这里简要介绍6种模型。 1、CRISP-DM 模型 CRISP-DM是CrossIndustry Standard Process for Data Mining(跨行业数据挖掘标准流程)的字母缩写。CRISP-DM是由一家欧洲财团(时称SIG组织)在20世纪90年代中后期提出来的,是一套用于开放的数据挖掘项目的标准化方法,也是业内公认https://www.niaogebiji.com/article-30475-1.html
16.浅析数据挖掘的四种基本方法浅析数据挖掘的四种基本方法 我们生活在大数据时代,当今的互联网已经发展到大数据时代了,如今的信息技术从数据处理向数据分析和理解的方向一直在转变,如今企业都在不断的收集各种数据,从大数据中挖掘有用的数据信息,数据挖掘出有价值的数据。现在数据挖掘技术已经成为企业不可缺少的技术,需要收集海量的数据,从海量数据中https://www.kkidc.com/about/detail/hcid/196/id/1857.html
17.利用数据挖掘的知识挖掘方法?Worktile社区总结:通过对数据挖掘的概念、技术分类、常用算法和应用案例等内容的介绍,可以了解数据挖掘在各个领域中的重要作用,以及其面临的挑战和发展趋势。同时,了解数据挖掘的基本流程和方法,有助于更好地应用于实际问题中。数据挖掘作为一门重要的数据分析技术,将在未来的发展中发挥越来越大的作用,为人们的生活和工作带来更多https://worktile.com/kb/ask/85519.html
18.成都永陵博物馆数字化建设规划方案(摘要)数据挖掘是从大量的数据中抽取出潜在的、有价值的知识(模型或规则)的过程。当今世界上发达国家的“计算机辅助信息管理系统”,随着数据仓库技术(DW)和在线分析处理技术(OLAP)的发展,已有过去的单纯的管理型发展到管理决策型。 数据挖掘技术包含以下六种分析方法: https://www.dpm.org.cn/study_detail/100199.html
19.数据挖掘的几种方法理想股票技术论坛数据挖掘是通过使用各种方法和技术来发现、提取和分析大量数据中隐藏的价值信息的过程。常用的数据挖掘方法包括聚类、分类、关联规则挖掘等,而数据挖掘算法则是实现这些方法的具体计算模型和技术手段。在数据挖掘领域,掌握各种数据挖掘方法和技术是进行有效数据分析和决策https://www.55188.com/tag-7077656.html
20.高效实施数据挖掘的方法和步骤yuanye1014有了优秀方法论的指导,还需要一个高效的数据挖掘工具。目前提供数据挖掘产品的厂商非常多,如著名的产品有SAS Enterprise Miner、SPSS Clementine 8.1(简体中文版)、IBM DB2 Intelligent Mine等,这些产品各有特色。 选择一款适合的数据挖掘工具,主要从以下几方面来考虑。下面我们根据CRISP-DM方法论,从数据挖掘项目的各个阶http://blog.chinaunix.net/uid-64814-id-2690182.html