数据挖掘Datamining是指从大量的存储数据中利用统计情报检索

79、数据挖掘(Datamining)是指从大量的存储数据中利用统计、情报检索、模式识别、在线分析处理和专家系统(依靠过去的经验)等方法或技术,发现隐含在其中、事先不知道但又是潜在有用的信息和知识的信息处理过程。

根据上述定义,下列不属于数据挖掘应用的是:

A.某全球零售企业在分析上一年度消费者购物行为后推出“尿布+啤酒”促销举措,使得二者销售量大幅增加

C.某大型网上书店在客户选购一种图书时,推出“购买该商品的用户还购买了”等栏目,从而增加客观收益

D.某高校要求教师使用网上教学管理系统,录入学生的期末考试成绩,以便借助短信群发软件告知学生成绩

答案:D

解析:第一步,看提问方式,本题属于选非题。

第二步,找关键信息。

①从大量的存储数据中利用统计、情报检索、模式识别、在线分析处理和专家系统(依靠过去的经验)等方法或技术;

②发现隐含在其中、事先不知道但又是潜在有用的信息和知识。

第三步,辨析选项。

A项:分析上一年度消费者购物行为,属于“从大量的存储数据中利用统计分析”,推出“尿布+啤酒”促销举措,属于“发现潜在有用的销售信息”,符合定义;

B项:使用RFID(无线射频识别)技术监控温度,属于“从大量的存储数据中利用模式识别且对温度数据进行在线分析”,调整药品装运的温度,属于“发现潜在有用的温度信息”,符合定义;

C项:网上书店推出“购买该商品的用户还购买了”栏目,属于“从大量的存储数据中利用统计、情报检索”,以此向用户推荐其他商品,增加客观收益,属于“发现潜在有用的信息”,符合定义;

D项:学生期末考试成绩,是事先知道的,不属于“事先不知道但又是潜在有用的信息和知识”,不符合定义。

THE END
1.数据挖掘与机器学习——概念篇机器学习与数据挖掘概念回归分析包括:线性和非线性回归、一元和多元回归。常用的回归是一元线性回归和多元线性回归。 6. 聚类分析 聚类分析多用于人群分类,客户分类。所谓聚类是一个将数据集中在某些方面相似的数据成员进行分类组织的过程。 五、数据挖掘流程 1.基本流程 2.数据处理 六、案例 —— 推荐算法https://blog.csdn.net/m0_63181360/article/details/138890384
2.数据挖掘数据量多少合适帆软数字化转型知识库数据挖掘数据量的合适程度取决于几个关键因素:目标问题的复杂性、数据的质量、计算资源的可用性、以及模型的复杂性。一般来说,为了确保数据挖掘结果的可靠性和有效性,数据量应足够大以捕捉数据中的模式和趋势。数据量越大,模型的泛化能力越强。举例来说,在处理图像分类任务时,需要数万甚至数百万张图像来训练深度学习https://www.fanruan.com/blog/article/581003/
3.数据量太少怎么做机器学习数据太少如何分析数据量太少怎么做机器学习 数据太少如何分析,没有高质量的数据,就没有高质量的数据挖掘结果,数据值缺失是数据分析中经常遇到的问题之一。当缺失比例很小时,可直接对缺失记录进行舍弃或进行手工处理。但在实际数据中,往往缺失数据占有相当的比重。这时如果手工处理非常https://blog.51cto.com/u_16213565/8785831
4.直播回顾单细胞测序:从样本制备到数据挖掘的全流程探讨10. 请问老师测序的数据量和捕获细胞数对数据的结果影响大吗? 答:不同的测序深度,在达到饱和之前,获得基因中位数据和细胞数量相差比较大,基因中位数不同的组织样本的标准差别较大,一般应该大于1000;捕获的细胞数量对不同研究需求有一定的影响,如一些稀有细胞群的鉴定可能会受影响。 https://www.yiqi.com/news/detail_23958.html
5.数据挖掘算法(logistic回归,随机森林,GBDT和xgboost)第一,从原始的数据集中采取有放回的抽样,构造子数据集,子数据集的数据量是和原始数据集相同的。不同子数据集的元素可以重复,同一个子数据集中的元素也可以重复。 第二,利用子数据集来构建子决策树,将这个数据放到每个子决策树中,每个子决策树输出一个结果。最后,如果有了新的数据需要通过随机森林得到分类结果https://cloud.tencent.com/developer/article/1061147
6.三级数据库技术概念2知识发现过程由三个阶段组成:数据准备、数据挖掘、结果的解释评估。 数据仓库是面向主题的、集成的、不可更新的、随时间不断变化的数据的集合。 数据从操作型环境转移到数据仓库过程中所用到ETL(Extract-Transform-Load)工具通常需要完成的处理操作包括抽取、转换和装载。 https://www.jianshu.com/p/32815082fdb3
7.用户画像应该怎么做数据是零散的,或者是表面的,用户画像要对收集到的数据做整理,比较常用的是通过数据建模的方式做归类创建。小圆接触过的大多是比较初级的用户画像,通过excel工具就可以基本完成整合。而对于技术工具层面的数据建模,感兴趣的可以看推文的第二条。 在数据量不大,用户画像比较初级的情况下,通过筛选、归类、整合的过程对用https://www.linkflowtech.com/news/153
8.2020年最值得收藏的60个AI开源工具语言&开发李冬梅LazyNLP 的使用门槛很低——用户可以使用它爬网页、清洗数据或创建海量单语数据集。 据开发者称,LazyNLP 可以让你创建出大于 40G 的文本数据集,比 OpenAI 训练 GPT-2 时使用的数据集还要大。 项目地址:https://github.com/chiphuyen/lazynlp Subsync 自动将视频与字幕同步 https://www.infoq.cn/article/2uabiqaxicqifhqikeqw
9.易撰专注新媒体数据挖掘分析服务易撰自媒体工具,基于数据挖掘技术把各大自媒体平台内容进行整合分析,为自媒体作者提供在运营过程中需要用到的实时热点追踪,爆文素材,视频素材微信文章编辑器排版,标题生成及原创度检测等服务.https://www.yizhuan5.com/customService/