自然语言处理(NLP)

自然语言处理(NaturalLanguageProcessing,NLP)是指让计算机接受用户自然语言形式的输入,并在内部通过人类所定义的算法进行加工、计算等系列操作,以模拟人类对自然语言的理解,并返回用户所期望的结果。自然语言处理的目的在于用计算机代替人工来处理大规模的自然语言信息。在很大程度上与计算语言学(ComputationalLinguistics,CL)重合,是计算机科学与语言学的交叉学科,也是人工智能的重要方向。自然语言处理的研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。让计算机能够确切理解人类的语言,并自然地与人进行交互是NLP的最终目标。

自然语言处理的挑战通常涉及语音识别、自然语言理解和自然语言生成。

自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。

机器翻译研究在过去五十多年的曲折发展经历中,无论是它给人们带来的希望还是失望我们都必须客观地看到,机器翻译作为一个科学问题在被学术界不断深入研究的同时,企业家们已经从市场上获得了相应的利润。在机器翻译研究中实现人机共生(man-machinesymbiosis)和人机互助,比追求完全自动的高质量的翻译(FullAutomaticHighQualityTranslation,FAHQT)更现实、更切合实际[Hutchins,1995]。

将原文档的主要内容或某方面的信息自动提取出来,并形成原文档的摘要或缩写。

通过计算机系统对人提出的问题的理解,利用自动推理等手段,在有关知识资源中自动求解答案并做出相应的回答。问答技术有时与语音技术和多模态输入/输出技术,以及人机交互技术等相结合,构成人机对话系统(man-computerdialoguesystem)。

通过计算机系统自动识别和过滤那些满足特定条件的文档信息。

从指定文档中或者海量文本中抽取出用户感兴趣的信息。

实体关系抽取(entityrelationextraction)。

社会网络(socialnetwork)

文档分类也叫文本自动分类(Textcategorization/classification)或信息分类(Informationcategorization/classification),其目的就是利用计算机系统对大量的文档按照一定的分类标准(例如,根据主题或内容划分等)实现自动归类。

应用:图书管理、情报获取、网络内容监控等。

1950-1970年,模拟人类学习语言的习惯,以语法规则为主流。除了参照乔姆斯基文法规则定义的上下文无关文法规则外,NLP领域几乎毫无建树。

一些在20世纪60年代开发的显著成功的自然语言处理系统是SHRDLU,一种在具有有限词汇的受限“blocksworld”中工作的自然语言系统,和ELIZA,一种由约瑟夫·维森鲍姆在1964年至1966年间编写的对罗格利亚精神治疗师的模拟。ELIZA几乎没有使用任何关于人类思想或情感的信息,有时提供一种令人吃惊的类似人类的互动。当“病人”超出非常小的知识库时,伊莱扎可能会给出一个通用的回答,例如,用“为什么你说你的头疼”来回答“我的头疼”。

70年代开始统计学派盛行,NLP转向统计方法,此时的核心是以具有马尔科夫性质的模型(包括语言模型,隐马尔可夫模型等)。

在20世纪70年代,许多程序员开始写“概念性的”本体”,它将真实世界的信息结构化成计算机可理解的数据。例子有MARGIE(Schank,1975)、SAM(Cullingford,1978)、PAM(Wilensky,1978)、航空小英雄(Meehan,1976)、QUALM(Lehnert,1977)、Politics(Carbonell,1979)和PlotUnits(Lehnert,1981)。在此期间,许多聊天机器人包括挡开,Racter,和含糊不清。

许多显著的早期成功发生在机器翻译领域,特别是由于在IBM研究院的工作,在那里相继开发了更复杂的统计模型。这些系统能够利用现有的多语种文本语料库,这些语料库是加拿大议会和欧洲联盟由于法律要求将所有政府程序翻译成相应政府系统的所有正式语文而制作的。然而,大多数其他系统依赖于专门为这些系统实现的任务开发的语料库,这是(并且经常继续是)这些系统成功的主要限制。因此,大量的研究已经投入到从有限的数据中更有效地学习的方法中。

2001年,神经语言模型,将神经网络和语言模型相结合,应该是历史上第一次用神经网络得到词嵌入矩阵,是后来所有神经网络词嵌入技术的实践基础。也证明了神经网络建模语言模型的可能性。

2001年,条件随机场CRF,从提出开始就一直是序列标注问题的利器,即便是深度学习的现在也常加在神经网络的上面,用以修正输出序列。

2003年,LDA模型提出,概率图模型大放异彩,NLP从此进入“主题”时代。Topic模型变种极多,参数模型LDA,非参数模型HDP,有监督的LabelLDA,PLDA等。

2008年,分布式假设理论提出,为词嵌入技术的理论基础。(分布式假设的思想并非直到08年才有)

2013年,word2vec提出,是NLP的里程碑式技术。

2013年,CNNs/RNNs/RecursiveNN,随着算力的发展,神经网络可以越做越深,之前受限的神经网络不再停留在理论阶段。在图像领域证明过实力后,TextCNN问世;同时,RNNs也开始崛起。在如今的NLP技术上,一般都能看见CNN/LSTM的影子。本世纪算力的提升,使神经网络的计算不再受限。有了深度神经网络,加上嵌入技术,人们发现虽然神经网络是个黑盒子,但能省去好多设计特征的精力。至此,NLP深度学习时代开启。

2014年,seq2seq的提出,在机器翻译领域,神经网络碾压基于统计的SMT模型。

2015年,attention的提出,可以说是NLP另一里程碑式的存在。带attention的seq2seq,碾压上一年的原始seq2seq。记得好像17年年初看过一张图,调侃当时学术界都是attention的现象,也证明了attention神一般的效果。

2017年末,Transformer的提出。似乎是为了应对Facebook纯用CNN来做seq2seq的“挑衅”,google就纯用attention,并发表著名的《AttentionisAllYouNeed》。初看时以为其工程意义大于学术意义,直到BERT的提出才知道自己还是tooyoung。

2018年末,BERT的提出,横扫11项NLP任务,奠定了预训练模型方法的地位,NLP又一里程碑诞生。光就SQuAD2.0上前6名都用了BERT技术就知道BERT的可怕。

在自然语言处理中,以句子为处理单位时一般假设句子独立于它前面的其它语句,句子的概率分布近似地符合二项式分布。

熵(entropy)

1970年代末期冯志伟教授首先开展了对汉字信息熵的研究,经过几年的文本收集和手工统计,在当时艰苦的条件下测定了汉字的信息熵为9.65比特(bit)。1980年代末期,刘源等测定了汉字的信息熵为9.71比特,而汉语词的熵为11.46比特。汉语词汇平均长度约为2.5个汉字。

困惑度(perplexity)

在设计语言模型时,我们通常用困惑度来代替交叉熵衡量语言模型的好坏。语言模型设计的任务就是寻找困惑度最小的模型,使其最接近真实的语言。

互信息(mutualinformation)

互信息I(X;Y)是在知道了Y的值以后X的不确定性的减少量,即Y的值透露了多少关于X的信息量。互信息值越大,表示两个汉字之间的结合越紧密,越可能成词。反之,断开的可能性越大。互信息是计算两个汉字连续出现在一个词中的概率,而两个汉字在实际应用中出现的概率情况共有三种:

(1)两个汉字连续出现,并且在一个词中;

(2)两个汉字连续出现,但分属于两个不同的词;

(3)非连续出现。

有些汉字在实际应用中出现虽然比较频繁,但是连续在一起出现的情况比较少,一旦连在一起出现,就很可能是一个词。这种情况下计算出来的互信息会比较小,而实际上两者的结合度应该是比较高的。而双字耦合度恰恰计算的是两个连续汉字出现在一个词中的概率,并不考虑两个汉字非连续出现的情况。

噪声信道模型(noisychannelmodel)

在信号传输的过程中都要进行双重性处理:一方面要通过压缩消除所有的冗余,另一方面又要通过增加一定的可控冗余以保障输入信号经过噪声信道后可以很好地恢复原状。信息编码时要尽量占用少量的空间,但又必须保持足够的冗余以便能够检测和校验错误。接收到的信号需要被解码使其尽量恢复到原始的输入信号。噪声信道模型的目标就是优化噪声信道中信号传输的吞吐量和准确率,其基本假设是一个信道的输出以一定的概率依赖于输入。

给定一个或多个说话人的声音片段,确定语音的文本表示。这与文本到语音相反,并且是通俗地称为“人工智能完备性”的极其困难的问题之一(见上文)。在自然语音中,连续单词之间几乎没有停顿,因此语音分割是语音识别的必要子任务(见下文)。还要注意,在大多数口语中,代表连续字母的声音在称为协同发音的过程中相互混合,因此将模拟信号转换成离散字符可能是一个非常困难的过程。此外,考虑到同一语言中的单词是由不同口音的人说的,语音识别软件必须能够识别各种各样的输入,就其文本等价物而言,它们彼此相同。

给定一个人或多人说话的声音片段,将其分成单词。语音识别的一个子任务,通常与它一起分组。

OpenNLP是一个基于Java机器学习工具包,用于处理自然语言文本。支持大多数常用的NLP任务,例如:标识化、句子切分、部分词性标注、名称抽取、组块、解析等。

FudanNLP主要是为中文自然语言处理而开发的工具包,也包含为实现这些任务的机器学习算法和数据集。本工具包及其包含数据集使用LGPL3.0许可证。开发语言为Java。

功能:

1.文本分类新闻聚类

3.结构化学习在线学习层次分类聚类精确推理

语言技术平台(LanguageTechnologyPlatform,LTP)是哈工大社会计算与信息检索研究中心历时十年开发的一整套中文语言处理系统。LTP制定了基于XML的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块(包括词法、句法、语义等6项中文处理核心技术),以及基于动态链接库(DynamicLinkLibrary,DLL)的应用程序接口,可视化工具,并且能够以网络服务(WebService)的形式进行使用。

由于自然语言作为人类社会信息的载体,使得NLP不只是计算机科学的专属。在其他领域,同样存在着海量的文本,NLP也成为了重要支持技术:

机器学习范式要求使用统计推理通过分析大的语料库典型的现实世界例子(语料库(复数形式,“语料库”)是一组文档,可能带有人类或计算机的注释。

许多不同类别的机器学习算法已经应用于自然语言处理任务。这些算法将从输入数据中生成的一大组“特征”作为输入。一些最早使用的算法,如决策树,产生了硬的“如果-那么”规则系统,类似于当时常见的手写规则系统。然而,研究越来越多地集中在统计模型上,这些模型基于将实值权重附加到每个输入特征上来做出软的、概率性的决策。这种模型的优点是,它们可以表达许多不同可能答案的相对确定性,而不是只表达一个,当这种模型作为更大系统的一个组成部分时,会产生更可靠的结果。

基于机器学习算法的系统比手工生成的规则有许多优势:

语音和文字是语言的两个基本属性。作为一门纯理论的学科,语言学在近期获得了快速发展,尤其从上个世纪60年代起,已经成为一门知晓度很高的广泛教授的学科。包括:历时语言学(diachroniclinguistics)或称历史语言学(historicallinguistics)、共时语言学(synchroniclinguistics)、描述语言学(descriptivelinguistics)、对比语言学(contrastivelinguistics)、结构语言学(structurallinguistics)等等。

研究人类发音特点,特别是语音发音特点,并提出各种语音描述、分类和转写方法的科学。包括:(1)发音语音学(articulatoryphonetics),研究发音器官如何产生语音;(2)声学语音学(acousticphonetics),研究口耳之间传递语音的物理属性;(3)听觉语音学(auditoryphonetics),研究人通过耳、听觉神经和大脑对语音的知觉反应。

通过建立形式化的计算模型来分析、理解和生成自然语言的学科,是人工智能和语言学的分支学科。计算语言学是典型的交叉学科,其研究常常涉及计算机科学、语言学、数学等多个学科的知识。与内容接近的学科自然语言处理相比较,计算语言学更加侧重基础理论和方法的研究。

自然语言理解是探索人类自身语言能力和语言思维活动的本质,研究模仿人类语言认知过程的自然语言处理方法和实现技术的一门学科。它是人工智能早期研究的领域之一,是一门在语言学、计算机科学、认知科学、信息论和数学等多学科基础上形成的交叉学科。

THE END
1.自然语言处理实战:新闻文本分类(附代码)赛题目标:通过这道赛题可以引导大家走入自然语言处理的世界,带大家接触NLP的预处理、模型构建和模型训练等知识点。 赛题任务:赛题以自然语言处理为背景,要求选手对新闻文本进行分类,这是一个典型的字符识别问题。 1、学习目标 理解赛题背景与赛题数据 https://blog.csdn.net/weixin_42691585/article/details/107981604
2.了解自然语言处理自然语言处理 (NLP) 是 AI 的一个领域,它负责创建能够理解书面和口头语言的软件。 NLP 使你能够创建可以执行以下操作的软件: 分析和解释文档、电子邮件和其他来源中的文本。 解释口头语言,并合成语音响应。 自动将口头或书面短语在各种语言之间进行翻译。 https://docs.microsoft.com/zh-cn/training/modules/get-started-ai-fundamentals/5-understand-natural-language-process
3.如何系统学习自然语言处理(NLP)?自然语言处理(NLP)是人工智能领域的一个重要分支,主要研究如何让计算机理解和处理人类语言。随着深度学习https://www.zhihu.com/question/654477711/answer/3484662218
4.自然语言处理自然语言处理专委会1987年10月成立, 专委会成立之初即确定了“中国语言文字处理的计算机系统”和“以计算机为工具研究语言文字处理技术”两个主要研究方向,主要包括(或涉及)中国各民族语言文字的自然语言处理、机器翻译、信息抽取、数据挖掘、信息检索、智能问答、语音识别与合成、社会网络计算等众多学术领域,以及中文计算https://www.ccf.org.cn/Chapters/TC/TC_Listing/TCCI/
5.自然语言处理(豆瓣)《自然语言处理理论与实战》讲述自然语言处理相关学科知识和理论基础,并介绍使用这些知识的应用和工具,以及如何在实际环境中使用它们。由于自然语言处理的特殊性,其是一门多学科交叉的学科,初学者难以把握知识的广度和宽度,对侧重点不能全面掌握。《自然语言处理理论与实战》针对以上情况,经过科学调研分析,选择以理论结合https://book.douban.com/subject/30275915/
6.NLP服务自然语言处理智能文本处理腾讯云NLP 服务(NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。https://www.cloud.tencent.com/product/nlp
7.自然语言处理NLP文本分析及挖掘舆情识别人工智能自然语言处理技术依托于海量文本数据,通过多年的语料及算法研发积累,可分析海量文本,帮助客户更好更精确的挖掘出文本价值。 产品优势 技术优势 阿里云NLP打造了具有领先性和系统化的的深度语言模型体系——AliceMind,获得国内外50+著名评测第一。 行业优势 NLP拓展了电商、司法、物流、零售等20个领域。 https://ai.aliyun.com/nlp
8.什么是自然语言处理(NLP)?NLP完整指南Elastic定价文档 MPNet 采用上述转换器架构的 SentenceTransformers 双编码器 Elastic 能够让您利用 NLP 提取信息、对文本分类,并针对您的业务提高搜索相关性。借助 Elastic 开始使用 NLP。 NLP 相关资源 在技术层面上更深入了解自然语言处理 (NLP) 如何部署 NLP:文本嵌入和矢量搜索 https://www.elastic.co/cn/what-is/natural-language-processing
9.什么是自然语言处理?51CTO博客什么是自然语言处理? 自然语言处理(Natural Language Processing,NLP)是AI的一个领域,旨在让计算机理解和使用人类语言,从而执行有用的任务。自然语言处理又划分为两个部分:自然语言理解(Natural Language Understanding,NLU)和自然语言生成(Natural Language Generation,NLG)。https://blog.51cto.com/u_13127751/5209917
10.自然语言处理入门自然语言处理?(Natural Language Processing,NLP)是一门融合了计算机科学、人工智能以及语言学的交叉学科,它们的关系如图 1-1 所示。这门学科研究的是如何通过机器学习等技术,让计算机学会处理人类语言,乃至实现终极目标——理解人类语言或人工智能①。 事实上,自然语言处理这个术语并没有被广泛接受的定义②。注重语言https://www.ituring.com.cn/book/tupubarticle/28291
11.《自然语言处理》PPT课件.pptx《自然语言处理》PPT课件.pptx 41页内容提供方:耳传科技 大小:2.15 MB 字数:约6.59千字 发布时间:2021-08-20发布于广东 浏览人气:186 下载次数:仅上传者可见 收藏次数:0 需要金币:*** 金币 (10金币=人民币1元)《自然语言处理》PPT课件.pptxhttps://max.book118.com/html/2021/0820/8060127041003136.shtm
12.自然语言处理包括哪些内容自然语言处理技术包括哪些自然语言处理(Natural Language Processing, NLP)一般包括以下内容: 语音识别(Speech Recognition):将人类语言转换为计算机可以理解的形式。 语音合成(Speech Synthesis):将计算机生成的文本转换为人类语言。 机器翻译(Machine Translation):将一种语言翻译成另一种语言。 https://www.elecfans.com/d/2202985.html
13.自然语言处理入门完整版PDF电子书下载自然语言处理(NLP)是一种研究人类语言和计算机交互的技术,涵盖了语音识别、机器翻译、文本分类等多个方面。自然语言处理主要应用于机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、语音识别、中文OCR等方面 自然语言处理(NLP)是数据科学里的一个分支,它的主要覆盖的内容是:以一种智能与高效https://www.jb51.net/books/881251.html
14.什么是自然语言处理(NLP)?Oracle中国自然语言处理 (NLP) 的定义 自然语言处理 (NLP) 是人工智能 (AI)的一个分支,它能够使计算机理解、生成和处理人类语言,支持用户使用自然语言文本或语音来询问 (interrogate) 数据,因此又被称为“语言输入 (language in)”。在现实中,大多数消费者可能都与 NLP 进行过互动,只是没有意识到而已。例如,Oracle Digitalhttps://www.oracle.com/cn/artificial-intelligence/what-is-natural-language-processing/
15.深度学习在自然语言处理中的7个应用·MachineLearning自然语言处理领域正在从统计方法转向神经网络方法。 在自然语言中仍有许多具有挑战性的问题需要解决。然而,深度学习方法正在某些特定语言问题上取得最新成果。 在最基本的问题上,最有趣的不仅仅是深度学习模型的表现;事实上,单个模型可以学习单词意义并执行语言任务,从而无需使用专门的手工制作方法。 https://www.kancloud.cn/apachecn/ml-mastery-zh/1952048
16.自然语言处理(NLP)招聘招聘自然语言处理(NLP)人才猎聘自然语言处理(NLP)招聘网为您提供大量的自然语言处理(NLP)招聘信息,有超过10000多自然语言处理(NLP)招聘信息任你选寻,招聘自然语言处理(NLP)人才就来猎聘自然语言处理(NLP)招聘网!https://www.liepin.com/career/ziranyuyanchulinlp/
17.一文看懂自然语言处理NLP(4个应用+5个难点+6个实现步骤)什么是自然语言处理 – NLP 每种动物都有自己的语言,机器也是! 自然语言处理(NLP)就是在机器语言和人类语言之间沟通的桥梁,以实现人机交流的目的。 人类通过语言来交流,狗通过汪汪叫来交流。机器也有自己的交流方式,那就是数字信息。 不同的语言之间是无法沟通的,比如说人类就无法听懂狗叫,甚至不同语言的人类之间https://easyai.tech/ai-definition/nlp/
18.自然语言处理是如何工作的?一步步教你构建NLP流水线机器之心计算机更擅长理解结构化数据,让计算机去理解主要以文化习惯沉淀下来的人类语言实在是太为难它们了。那自然语言处理获得的成功又是如何成就的呢?那就是,把人类语言(尽可能)结构化。本文以简单的例子一步步向我们展示了自然语言处理流水线的每个阶段的工作过程,也就是将语言结构化的过程,从句子分割、词汇标记化、、https://www.jiqizhixin.com/articles/081203
19.自然语言处理与信息检索共享平台–NaturalLanguageProcessing博士后招聘 Posted bykevinzhang—2024-05-15inUpdate动态 实验室招募博士后,合作导师:国家级领军人才张华平教授(可直接联系kevinz… Read More ? 张华平 Posted bynlpir—2021-11-30inExperts专家 CV in English Version 张华平 教授 博士生导师 (每… http://www.nlpir.org/