人工智能(ArtificialIntelligence,简称AI)是对人的意识、思维过程进行模拟的一门新学科。
如今,人工智能从虚无缥缈的科学幻想变成了现实。计算机科学家们在机器学习(MachineLearning)和深度学习(DeepLearning)领域已经取得重大的突破,机器被赋予强大的认知和预测能力。2016年AplphaGO成功击败人类世界冠军向世界证明,机器也可以像人类一样思考,甚至比人类做得更好。
人工智能涵盖了机器学习和深度学习的所有范畴,人工智能研究的主要目标是使机器能够胜任一些通常需要人类才能完成的复杂工作,人工智能、机器学习、深度学习三者之间是逐层包含的关系。
机器学习是利用经验或数据来改进算法的研究,通过算法让机器从大量历史数据中学习和寻找规律,得到某种模型并利用此模型预测未来。
从范围上来说,机器学习跟模式识别,统计学习,数据挖掘是类似的。同时,机器学习与其他领域的处理技术的结合,形成了计算机视觉、语音识别、自然语言处理等交叉学科。
主要是客户的基本数据信息进行商业行为分析。
以不同社交媒体渠道生成的内容为基础,实现不同社交媒体的用户分析,访问分析,互动分析等。同时,还能为情感和舆情监督提供丰富的资料。
按学习的方式来划分,机器学习主要包括:
输入数据带有标签。监督学习建立一个学习过程,将预测结果与“训练数据”(即输入数据)的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率,比如分类和回归问题等。常用算法包括决策树、贝叶斯分类、最小二乘回归、逻辑回归、支持向量机、神经网络等。
输入数据没有标签,而是通过算法来推断数据的内在联系,比如聚类和关联规则学习等。常用算法包括独立成分分析、K-Means和Apriori算法等。
输入数据部分标签,是监督学习的延伸,常用于分类和回归。常用算法包括图论推理算法、拉普拉斯支持向量机等。
输入数据作为对模型的反馈,强调如何基于环境而行动,以取得最大化的预期利益。与监督式学习之间的区别在于,它并不需要出现正确的输入/输出对,也不需要精确校正次优化的行为。强化学习更加专注于在线规划,需要在探索(在未知的领域)和遵从(现有知识)之间找到平q衡。
机器学习算法分类
机器学习的基本原理就是把现实世界当中要研究的对象通过特征值将其数字化,然后让计算机通过这些已有的数字学习“经验”,从而有了判断的能力,这时如果有了新的输入,计算机就能够根据这些经验来做出判断。
比如下面的例子就是要计算机判断西瓜是好瓜还是坏瓜,我们把西瓜对象提取出三种类型的特征值,然后通过算法让机器去学习,从而拥有了判断西瓜好坏的能力。我们把这个可以将经验(数据)转化为最终的模型(Model,也就是那个能判断好瓜还是坏瓜的程序)的算法称之为学习算法(LearningAlgorithm)
我们可以看出现实世界的任何事物其实都可以通过属性或着特征来进行描述,上图给出的就是通过三个属性来描述西瓜的一组数据。属性的数目我们称之为维数,本例中表示西瓜用了三个特征,因此就是三维。
下面的图表示样本空间(SampleSpace)或者属性空间(AttributeSpace),我们也可以看到这是一个三维空间。
每个样本根据其特征值都会落在样本空间的一个点上,这个点由一组坐标向量来表示,因此样本又叫做特征向量(FeatureVector)。
机器学习的过程就是通过这些样本数据进行训练学习的过程,通过训练,我们可以得出自己的模型,这个模型我们可以理解为经过训练的机器大脑,这个机器大脑可以帮助我们做判断,比如判断一个西瓜的好坏,判断的越准确,说明我们的模型越好。
当我们开始训练我们的模型的时候,只有上面所示的数据集是不够的,我们还需要一组带有判断结果的数据
判断结果我们叫做标记(Label),带有标记信息的样本,则称之为样例(Example)
所有标记的集合叫做标记空间(LabelSpace)或输出空间(OutputSpace)
通常我们训练模型就是为了找到输入空间到输出空间的对应关系,即给定输入空间的一个特征向量,能够对应到输出空间的一个值。
((色泽='青绿',根蒂='蜷缩',敲声='浊响'),好瓜)((色泽='青绿',根蒂='蜷缩',敲声='浊响'),0.95)如果我们想让我们的模型只是简单地去判断(通常叫预测)一个瓜是好瓜还是坏瓜,即分成两类,这种学习任务称为分类问题(Classification),预测的是离散值;如果是想让其预测的是连续值,如预测西瓜成熟度0.95,0.88,此类学习任务就叫做回归(Regression)
在我们的示例中只是简单地分为“好瓜”,“坏瓜”两类,此种分类称为二分类问题(BinaryClassification),通常一个称为正类(PositiveClass)也有翻译为“阳类”,另一个称为反类(NegtiveClass)或者称为为阴类。
如果是多个类别的话,就称为多分类问题。
如果我们想将训练集中的西瓜分成若干组,每组就称之为一个簇(Cluster),这个过程就叫做聚类(Clustering)。这些簇可能对应一些潜在的分类,比如“浅色瓜”,“深色瓜”等。而这些分类可能是我们事先并不知道的,就是说学习算法在做聚类分析的时候是自动产生的类别,通常训练样本中也不需要标记信息。
根据训练数据是否有标记信息,学习任务可分为监督学习(SupervisedLearning)和无监督学习(UnsupervisedLearning)。
分类和回归是监督学习的典型代表,而聚类则是无监督学习的典型代表。
(色泽='青绿',根蒂='蜷缩',敲声='浊响')每种特征的组合都认为是一个假设(Hypothesis),所有假设的集合我们称之为假设空间。
如果“色泽”,“根蒂”,“敲声”分别有3,2,2种可能,(每种特征值都要加一种任意值可能)那么假设空间的规模就是43x=3+1=3743x=3+1=37
从这幅图可以看出,每种特征值在计算可能性的时候都加了一种可能,就是任意值可能,我们用“*”表示,最后结果加1是由于存在一种可能就是根本没有“好瓜”这个概念,或者说“好瓜”跟这些特征都没有关系。当给定一个训练集进行训练的时候,模型会逐渐删除那些与正例不一致的假设和(或)与反例一致的假设,最后获得与训练集一致的假设。而剩下的这些假设可能有多个,我们把剩下的这些假设的集合称之为版本空间(VersionSpace)。