自然语言处理(NLP)

自然语言处理(NaturalLanguageProcessing,NLP)是指让计算机接受用户自然语言形式的输入,并在内部通过人类所定义的算法进行加工、计算等系列操作,以模拟人类对自然语言的理解,并返回用户所期望的结果。自然语言处理的目的在于用计算机代替人工来处理大规模的自然语言信息。在很大程度上与计算语言学(ComputationalLinguistics,CL)重合,是计算机科学与语言学的交叉学科,也是人工智能的重要方向。自然语言处理的研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。让计算机能够确切理解人类的语言,并自然地与人进行交互是NLP的最终目标。

自然语言处理的挑战通常涉及语音识别、自然语言理解和自然语言生成。

自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。

机器翻译研究在过去五十多年的曲折发展经历中,无论是它给人们带来的希望还是失望我们都必须客观地看到,机器翻译作为一个科学问题在被学术界不断深入研究的同时,企业家们已经从市场上获得了相应的利润。在机器翻译研究中实现人机共生(man-machinesymbiosis)和人机互助,比追求完全自动的高质量的翻译(FullAutomaticHighQualityTranslation,FAHQT)更现实、更切合实际[Hutchins,1995]。

将原文档的主要内容或某方面的信息自动提取出来,并形成原文档的摘要或缩写。

通过计算机系统对人提出的问题的理解,利用自动推理等手段,在有关知识资源中自动求解答案并做出相应的回答。问答技术有时与语音技术和多模态输入/输出技术,以及人机交互技术等相结合,构成人机对话系统(man-computerdialoguesystem)。

通过计算机系统自动识别和过滤那些满足特定条件的文档信息。

从指定文档中或者海量文本中抽取出用户感兴趣的信息。

实体关系抽取(entityrelationextraction)。

社会网络(socialnetwork)

文档分类也叫文本自动分类(Textcategorization/classification)或信息分类(Informationcategorization/classification),其目的就是利用计算机系统对大量的文档按照一定的分类标准(例如,根据主题或内容划分等)实现自动归类。

应用:图书管理、情报获取、网络内容监控等。

1950-1970年,模拟人类学习语言的习惯,以语法规则为主流。除了参照乔姆斯基文法规则定义的上下文无关文法规则外,NLP领域几乎毫无建树。

一些在20世纪60年代开发的显著成功的自然语言处理系统是SHRDLU,一种在具有有限词汇的受限“blocksworld”中工作的自然语言系统,和ELIZA,一种由约瑟夫·维森鲍姆在1964年至1966年间编写的对罗格利亚精神治疗师的模拟。ELIZA几乎没有使用任何关于人类思想或情感的信息,有时提供一种令人吃惊的类似人类的互动。当“病人”超出非常小的知识库时,伊莱扎可能会给出一个通用的回答,例如,用“为什么你说你的头疼”来回答“我的头疼”。

70年代开始统计学派盛行,NLP转向统计方法,此时的核心是以具有马尔科夫性质的模型(包括语言模型,隐马尔可夫模型等)。

在20世纪70年代,许多程序员开始写“概念性的”本体”,它将真实世界的信息结构化成计算机可理解的数据。例子有MARGIE(Schank,1975)、SAM(Cullingford,1978)、PAM(Wilensky,1978)、航空小英雄(Meehan,1976)、QUALM(Lehnert,1977)、Politics(Carbonell,1979)和PlotUnits(Lehnert,1981)。在此期间,许多聊天机器人包括挡开,Racter,和含糊不清。

许多显著的早期成功发生在机器翻译领域,特别是由于在IBM研究院的工作,在那里相继开发了更复杂的统计模型。这些系统能够利用现有的多语种文本语料库,这些语料库是加拿大议会和欧洲联盟由于法律要求将所有政府程序翻译成相应政府系统的所有正式语文而制作的。然而,大多数其他系统依赖于专门为这些系统实现的任务开发的语料库,这是(并且经常继续是)这些系统成功的主要限制。因此,大量的研究已经投入到从有限的数据中更有效地学习的方法中。

2001年,神经语言模型,将神经网络和语言模型相结合,应该是历史上第一次用神经网络得到词嵌入矩阵,是后来所有神经网络词嵌入技术的实践基础。也证明了神经网络建模语言模型的可能性。

2001年,条件随机场CRF,从提出开始就一直是序列标注问题的利器,即便是深度学习的现在也常加在神经网络的上面,用以修正输出序列。

2003年,LDA模型提出,概率图模型大放异彩,NLP从此进入“主题”时代。Topic模型变种极多,参数模型LDA,非参数模型HDP,有监督的LabelLDA,PLDA等。

2008年,分布式假设理论提出,为词嵌入技术的理论基础。(分布式假设的思想并非直到08年才有)

2013年,word2vec提出,是NLP的里程碑式技术。

2013年,CNNs/RNNs/RecursiveNN,随着算力的发展,神经网络可以越做越深,之前受限的神经网络不再停留在理论阶段。在图像领域证明过实力后,TextCNN问世;同时,RNNs也开始崛起。在如今的NLP技术上,一般都能看见CNN/LSTM的影子。本世纪算力的提升,使神经网络的计算不再受限。有了深度神经网络,加上嵌入技术,人们发现虽然神经网络是个黑盒子,但能省去好多设计特征的精力。至此,NLP深度学习时代开启。

2014年,seq2seq的提出,在机器翻译领域,神经网络碾压基于统计的SMT模型。

2015年,attention的提出,可以说是NLP另一里程碑式的存在。带attention的seq2seq,碾压上一年的原始seq2seq。记得好像17年年初看过一张图,调侃当时学术界都是attention的现象,也证明了attention神一般的效果。

2017年末,Transformer的提出。似乎是为了应对Facebook纯用CNN来做seq2seq的“挑衅”,google就纯用attention,并发表著名的《AttentionisAllYouNeed》。初看时以为其工程意义大于学术意义,直到BERT的提出才知道自己还是tooyoung。

2018年末,BERT的提出,横扫11项NLP任务,奠定了预训练模型方法的地位,NLP又一里程碑诞生。光就SQuAD2.0上前6名都用了BERT技术就知道BERT的可怕。

在自然语言处理中,以句子为处理单位时一般假设句子独立于它前面的其它语句,句子的概率分布近似地符合二项式分布。

熵(entropy)

1970年代末期冯志伟教授首先开展了对汉字信息熵的研究,经过几年的文本收集和手工统计,在当时艰苦的条件下测定了汉字的信息熵为9.65比特(bit)。1980年代末期,刘源等测定了汉字的信息熵为9.71比特,而汉语词的熵为11.46比特。汉语词汇平均长度约为2.5个汉字。

困惑度(perplexity)

在设计语言模型时,我们通常用困惑度来代替交叉熵衡量语言模型的好坏。语言模型设计的任务就是寻找困惑度最小的模型,使其最接近真实的语言。

互信息(mutualinformation)

互信息I(X;Y)是在知道了Y的值以后X的不确定性的减少量,即Y的值透露了多少关于X的信息量。互信息值越大,表示两个汉字之间的结合越紧密,越可能成词。反之,断开的可能性越大。互信息是计算两个汉字连续出现在一个词中的概率,而两个汉字在实际应用中出现的概率情况共有三种:

(1)两个汉字连续出现,并且在一个词中;

(2)两个汉字连续出现,但分属于两个不同的词;

(3)非连续出现。

有些汉字在实际应用中出现虽然比较频繁,但是连续在一起出现的情况比较少,一旦连在一起出现,就很可能是一个词。这种情况下计算出来的互信息会比较小,而实际上两者的结合度应该是比较高的。而双字耦合度恰恰计算的是两个连续汉字出现在一个词中的概率,并不考虑两个汉字非连续出现的情况。

噪声信道模型(noisychannelmodel)

在信号传输的过程中都要进行双重性处理:一方面要通过压缩消除所有的冗余,另一方面又要通过增加一定的可控冗余以保障输入信号经过噪声信道后可以很好地恢复原状。信息编码时要尽量占用少量的空间,但又必须保持足够的冗余以便能够检测和校验错误。接收到的信号需要被解码使其尽量恢复到原始的输入信号。噪声信道模型的目标就是优化噪声信道中信号传输的吞吐量和准确率,其基本假设是一个信道的输出以一定的概率依赖于输入。

给定一个或多个说话人的声音片段,确定语音的文本表示。这与文本到语音相反,并且是通俗地称为“人工智能完备性”的极其困难的问题之一(见上文)。在自然语音中,连续单词之间几乎没有停顿,因此语音分割是语音识别的必要子任务(见下文)。还要注意,在大多数口语中,代表连续字母的声音在称为协同发音的过程中相互混合,因此将模拟信号转换成离散字符可能是一个非常困难的过程。此外,考虑到同一语言中的单词是由不同口音的人说的,语音识别软件必须能够识别各种各样的输入,就其文本等价物而言,它们彼此相同。

给定一个人或多人说话的声音片段,将其分成单词。语音识别的一个子任务,通常与它一起分组。

OpenNLP是一个基于Java机器学习工具包,用于处理自然语言文本。支持大多数常用的NLP任务,例如:标识化、句子切分、部分词性标注、名称抽取、组块、解析等。

FudanNLP主要是为中文自然语言处理而开发的工具包,也包含为实现这些任务的机器学习算法和数据集。本工具包及其包含数据集使用LGPL3.0许可证。开发语言为Java。

功能:

1.文本分类新闻聚类

3.结构化学习在线学习层次分类聚类精确推理

语言技术平台(LanguageTechnologyPlatform,LTP)是哈工大社会计算与信息检索研究中心历时十年开发的一整套中文语言处理系统。LTP制定了基于XML的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块(包括词法、句法、语义等6项中文处理核心技术),以及基于动态链接库(DynamicLinkLibrary,DLL)的应用程序接口,可视化工具,并且能够以网络服务(WebService)的形式进行使用。

由于自然语言作为人类社会信息的载体,使得NLP不只是计算机科学的专属。在其他领域,同样存在着海量的文本,NLP也成为了重要支持技术:

机器学习范式要求使用统计推理通过分析大的语料库典型的现实世界例子(语料库(复数形式,“语料库”)是一组文档,可能带有人类或计算机的注释。

许多不同类别的机器学习算法已经应用于自然语言处理任务。这些算法将从输入数据中生成的一大组“特征”作为输入。一些最早使用的算法,如决策树,产生了硬的“如果-那么”规则系统,类似于当时常见的手写规则系统。然而,研究越来越多地集中在统计模型上,这些模型基于将实值权重附加到每个输入特征上来做出软的、概率性的决策。这种模型的优点是,它们可以表达许多不同可能答案的相对确定性,而不是只表达一个,当这种模型作为更大系统的一个组成部分时,会产生更可靠的结果。

基于机器学习算法的系统比手工生成的规则有许多优势:

语音和文字是语言的两个基本属性。作为一门纯理论的学科,语言学在近期获得了快速发展,尤其从上个世纪60年代起,已经成为一门知晓度很高的广泛教授的学科。包括:历时语言学(diachroniclinguistics)或称历史语言学(historicallinguistics)、共时语言学(synchroniclinguistics)、描述语言学(descriptivelinguistics)、对比语言学(contrastivelinguistics)、结构语言学(structurallinguistics)等等。

研究人类发音特点,特别是语音发音特点,并提出各种语音描述、分类和转写方法的科学。包括:(1)发音语音学(articulatoryphonetics),研究发音器官如何产生语音;(2)声学语音学(acousticphonetics),研究口耳之间传递语音的物理属性;(3)听觉语音学(auditoryphonetics),研究人通过耳、听觉神经和大脑对语音的知觉反应。

通过建立形式化的计算模型来分析、理解和生成自然语言的学科,是人工智能和语言学的分支学科。计算语言学是典型的交叉学科,其研究常常涉及计算机科学、语言学、数学等多个学科的知识。与内容接近的学科自然语言处理相比较,计算语言学更加侧重基础理论和方法的研究。

自然语言理解是探索人类自身语言能力和语言思维活动的本质,研究模仿人类语言认知过程的自然语言处理方法和实现技术的一门学科。它是人工智能早期研究的领域之一,是一门在语言学、计算机科学、认知科学、信息论和数学等多学科基础上形成的交叉学科。

THE END
1.自然语言处理包括哪些内容@nlp专家自然语言处理包括哪些内容 nlp专家 自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向,主要关注于使计算机能够理解、处理和生成自然语言。自然语言处理的内容和方法非常丰富,可以归纳为以下几个主要方面: 语言处理基础: 语言模型:对自然语言的语言学规则进行建模,以便https://agents.baidu.com/content/question/923bd6ec7826e8db88c16cc8
2.一文彻底搞懂自然语言处理:什么是自然语言处理NLP?NLP的核心技术自然语言处理(Natural Language Processing, NLP)是人工智能和计算语言学的一个分支,旨在使计算机能够理解和处理人类语言。NLP 涵盖了从文本分析到生成文本的广泛任务,其目标是让计算机能够像人类一样理解和交流。 一、NLP的核心技术 什么是自然语言处理(Natural Language Processing, NLP)? https://blog.csdn.net/star_nwe/article/details/143798010
3.自然语言处理分为哪两个部分自然语言处理主要包括自然语言处理(简称NLP),是研究计算机处理人类语言的一门技术,包括: 1.句法语义分析:对于给定的句子,进行分词、词性标记、命名实体识别和链接、句法分析、语义角色识别和多义词消歧。 2.信息抽取:从给定文本中抽取重要的信息,比如,时间、地点、人物、事件、原因、结果、数字、日期、货币、专有名词等等。通俗说来,就是https://blog.51cto.com/u_12902/10095553
4.什么是自然语言处理自然语言处理(Natural Language Processing,NLP)是人工智能领域的一个分支,旨在使计算机能够理解、分析、生成和处理人类自然语言。NLP技术可以帮助计算机理解和解释人类语言,使其能够进行语义分析、情感分析、语言翻译、问答系统、语音识别和语音合成等任务。 NLP的核心任务包括文本分类、命名实体识别、句法分析、语义角色标注https://zhuanlan.zhihu.com/p/660808945