自然语言处理的发展历程左手编程右手诗

NLP的发展趋势:规则—>统计—>深度学习。自然语言处理的发展大致经历了4个阶段:1956年以前的萌芽期;1957-1970年的快速发展期;1971-1993年的低谷的发展期和1994年至今的复苏融合期。

自然语言处理在这一时期很快融入了人工智能的研究领域中。由于有基于规则和基于概率这两种不同方法的存在,自然语言处理的研究在这一时期分为了两大阵营。一个是基于规则方法的符号派(symbolic),另一个是采用概率方法的随机派(stochastic)。这一时期,两种方法的研究都取得了长足的发展。从50年代中期开始到60年代中期,以Chomsky为代表的符号派学者开始了形式语言理论和生成句法的研究,60年代末又进行了形式逻辑系统的研究。而随机派学者采用基于贝叶斯方法的统计学研究方法,在这一时期也取得了很大的进步。但由于在人工智能领域中,这一时期多数学者注重研究推理和逻辑问题,只有少数来自统计学专业和电子专业的学者在研究基于概率的统计方法和神经网络,所以,在这一时期中,基于规则方法的研究势头明显强于基于概率方法的研究势头。这一时期的重要研究成果包括1959年宾夕法尼亚大学研制成功的TDAP系统,布朗美国英语语料库的建立等。1967年美国心理学家Neisser提出认知心理学的概念,直接把自然语言处理与人类的认知联系起来了。

90年代中期以后,有两件事从根本上促进了自然语言处理研究的复苏与发展。一件事是90年代中期以来,计算机的速度和存储量大幅增加,为自然语言处理改善了物质基础,使得语音和语言处理的商品化开发成为可能;另一件事是1994年Internet商业化和同期网络技术的发展使得基于自然语言的信息检索和信息抽取的需求变得更加突出。2000年之后的几个里程碑事件:2001年-神经语言模型2008年-多任务学习2013年-Word嵌入2013年-NLP的神经网络2014年-序列到序列模型2015年-注意力机制2015年-基于记忆的神经网络2018年-预训练语言模型

语言模型解决的是在给定已出现词语的文本中,预测下一个单词的任务。这可以算是最简单的语言处理任务,但却有许多具体的实际应用,例如智能键盘、电子邮件回复建议等。当然,语言模型的历史由来已久。经典的方法基于n-grams模型(利用前面n个词语预测下一个单词),并利用平滑操作处理不可见的n-grams。第一个神经语言模型,前馈神经网络(feed-forwardneuralnetwork),是Bengio等人于2001年提出的。

以某词语之前出现的n个词语作为输入向量。今天,这样的向量被称为大家熟知的词嵌入(wordembeddings)。这些单词嵌入被连接并馈入隐藏层,然后将其输出提供给softmax层。最近,前馈神经网络已经被用于语言建模的递归神经网络和长期短期记忆网络所取代。近年来已经提出了许多扩展经典LSTM的新语言模型。尽管有这些发展,但经典的LSTM仍然是一个强大的基础模型。更好地理解语言模型究竟捕捉了哪些信息,也是当今一个活跃的研究领域。语言建模是无监督学习的一种形式,YannLeCun也将预测性学习称为获取常识的先决条件。关于语言建模最值得注意的方面可能是,尽管它很简单,但它是本文讨论的许多后期进展的核心:--Word嵌入:word2vec的目标是简化语言建模。--序列到序列模型:这种模型通过一次预测一个单词来生成输出序列。--预训练语言模型:这些方法使用语言模型中的表示来进行转移学习。这意味着NLP的许多重要最新进展可以归结为一种语言建模形式。为了做“真正的”自然语言理解,需要新的方法和模型。

多任务学习是在多个任务下训练的模型之间共享参数的一般方法。在神经网络中,这可以通过绑定不同层的权重来轻松完成。多任务学习的想法于1993年由RichCaruana首次提出,并应用于道路跟踪和肺炎预测(Caruana,1998)。直观地说,多任务学习鼓励模型学习对许多任务有效的表征描述。这对于学习一般的低级表示,集中模型的注意力或在有限量的训练数据的设置中特别有用。Collobert在2008年首次将多任务学习应用于NLP的神经网络。在这一框架下,词嵌入矩阵被两个在不同任务下训练的模型共享.

虽然捕获的关系word2vec具有直观且几乎神奇的质量,但后来的研究表明word2vec没有任何固有的特殊性:通过矩阵分解也可以学习单词嵌入和通过适当的调整,像SVD和LSA这样的经典矩阵分解方法可以获得类似的结果。从那时起,许多工作已经开始探索单词嵌入的不同方面(正如原始论文的引用次数所示)。尽管有许多发展,但word2ve仍然是一种流行的选择并且在今天被广泛使用。Word2vec的范围甚至超出了单词级别:带有负抽样的skip-gram,一个基于本地环境学习嵌入的方便目标,已被应用于学习句子的表示,甚至超越NLP到网络和生物序列等。一个特别令人兴奋的方向是将不同语言的单词嵌入投影到同一空间中以实现(零射击)跨语言转移。越来越有可能以完全无监督的方式(至少对于类似语言)学习良好的投影,这开启了低资源语言和无监督机器翻译的应用。

自下而上构建序列的结构递归神经网络,与从左至右或从右至左对序列进行处理的循环神经网络相比,有着明显的不同。在树的每个节点处,通过组合子节点的表示来计算新表示。由于树也可以被视为在RNN上施加不同的处理顺序,因此LSTM自然地扩展到树形结构取代序列。不仅可以扩展RNN和LSTM以使用分层结构。不仅可以根据本地语言而且可以基于语法背景来学习单词嵌入(Levy&Goldberg,2014);语言模型可以基于句法堆栈生成单词(Dyer等,2016);图形卷积神经网络可以树状结构运行(Bastings等,2017)

2014年,Sutskever等人提出了序列到序列学习,一种使用神经网络将一个序列映射到另一个序列的通用框架。在该框架中,编码器神经网络逐符号地处理句子并将其压缩成矢量表示;然后,解码器神经网络基于编码器状态逐个预测输出符号,在每个步骤中将先前预测的符号作为预测下一个的输入.

机器翻译成了这个框架的杀手级应用。2016年,谷歌宣布开始用神经MT模型替换其基于单片短语的MT模型(Wu等,2016)。根据JeffDean的说法,这意味着用500行神经网络模型替换500,000行基于短语的机器翻译代码。由于其灵活性,该框架现在是自然语言生成任务的首选框架,不同的模型承担编码器和解码器的角色。重要的是,解码器模型不仅可以以序列为条件,而且可以以任意表示为条件。这使得例如基于图片生成描述(Vinyals等人,2015),基于表格的文本(Lebret等人,2016),基于源的描述、代码更改(Loyola等,2017),以及许多其他应用程序成为可能。

序列到序列学习甚至可以应用于NLP中常见的结构化预测任务,其中输出具有特定结构。为简单起见,输出是线性化的,如下面图10中的选区解析所示。神经网络已经证明了在给予选区解析的足够数量的训练数据(Vinyals等,2015)和命名实体识别(Gillick等,2016)等的情况下,能够直接学习产生这种线性化输出的能力。

用于序列和解码器的编码器通常基于RNN,但是可以使用其他模型类型。新架构主要来自机器翻译的工作,机器翻译将作为序列到序列架构的培养皿。最近的模型是深度LSTM(Wu等,2016)、卷积编码器(Kalchbrenner等,2016;Gehring等,2017)、变换器(Vaswani等,2017)将在下一个讨论部分,以及LSTM和变压器的组合(Chen等,2018)。

注意力(Bahdanau等,2015)是神经MT(NMT)的核心创新之一,也是使NMT模型优于基于经典短语的MT系统的关键思想。序列到序列学习的主要瓶颈是它需要将源序列的整个内容压缩成固定大小的矢量。注意通过允许解码器回顾源序列隐藏状态来减轻这种情况,然后将其作为加权平均值提供给解码器的附加输入。

预训练的词嵌入与上下文无关,仅用于初始化模型中的第一层。最近几个月,一系列监督任务被用于预训练神经网络(Conneau等,2017;McCann等,2017;Subramanian等,2018)。相比之下,语言模型只需要未标记的文本;因此,培训可以扩展到数十亿单词的语料、新域和新语言。2015年首次提出了预训练语言模型(Dai&Le,2015);直到最近,它们才被证明对各种各样的任务都有益。语言模型嵌入可以用作目标模型中的特征(Peters等,2018),或者可以对目标任务数据微调语言模型(Ramachandran等,2017;Howard&Ruder,2018)。添加语言模型嵌入比许多不同任务的最新技术有了很大的改进。

THE END
1.自然语言处理综述自然语言处理的发展历程图4:自然语言处理的发展历程 兴起时期 大多数人认为,自然语言处理的研究兴起于1950年前后。在二战中,破解纳粹德国的恩尼格玛密码成为盟军对抗纳粹的重要战场。经过二战的洗礼,曾经参与过密码破译的香农和图灵等科学家开始思考自然语言处理和计算之间的关系。 https://www.bookstack.cn/read/paddlepaddle-tutorials/spilt.1.5d409cf5f05b08b3.md
2.NLP自然语言处理的发展历程腾讯云开发者社区自然语言处理(Natural Language Processing,NLP)是人工智能领域中的一个重要分支,致力于使计算机能够理解、理解和生成自然语言。自然语言处理的发展历程经历了多个阶段,从最早的基于规则的方法到后来的统计学习和深度学习方法。本文将深入探讨自然语言处理的发展历程,结合实例演示,并提供详细的代码解释,同时介绍数据处理的关https://cloud.tencent.com/developer/article/2372229
3.自然语言处理微百科自然语言处理发展历程 自然语言处理大体是从1950年始,虽然更早期也有作为。1950年,图灵发表论文“计算机器与智能(英语:computing machinery)”,提出现在所谓的“图灵测试”作为判断智能的条件。 1954年的乔治城实验(英语:Georgetown-IBM experiment)涉及全部自动翻译(英语:automatic translation)超过60句俄文成为英文。研究人https://ispeak.vibaike.com/3360
4.自然语言处理与深度学习发展历程总结自然语言处理与理解自然语言处理与深度学习发展历程总结 自然语言处理与理解 前言:自然语言处理是人工智能皇冠上的明珠。 1 提出问题 如何让计算机能够自动或半自动地理解自然语言文本,懂得人的意图? 如何让计算机实现海量语言文本的自动处理、挖掘和有效利用,满足不同用户的各种需求,实现个性化信息服务?https://blog.51cto.com/u_16099276/9737734
5.自然语言处理(NaturalLanguageProcessing)的发展历程nlp自然语言处理(NLP)是人工智能领域中的一个重要分支,旨在让计算机能够理解和处理人类自然语言的方式。随着时间的推移,NLP领域经历了许多关键的发展阶段,不断推动着语言技术的进步和创新。本文将回顾NLP领域的发展历程,并提供一些相关的源代码示例。 规则驱动阶段(1950s-1990s) https://download.csdn.net/blog/column/12442398/133197506
6.PyTorch自然语言处理入门与实战●自然语言处理中的常用方法和工具。 1.1 什么是自然语言处理 本节先介绍自然语言处理的定义,然后介绍自然语言处理的常用术语、任务和发展历程。 1.1.1 定义 自然语言指的是人类的语言,例如中文、英语等,处理特指使用计算机技术处理,所以自然语言处理就是指使用计算机处理人类的语言。自然语言处理的英语是Natural Languaghttps://www.epubit.com/bookDetails?code=UB7da415821f9de&id=UB7da415821f9de
7.?大模型时代的对话分析:阿里最新综述全面解析对话分析的必要性社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | PaperWeekly 背景 随着大语言模型的发展,下一代系统交互朝着基于自然语言对话交互(LanguageUI)高速发展,这将https://mp.weixin.qq.com/s?__biz=MzI4MDYzNzg4Mw==&mid=2247566930&idx=2&sn=7d2d09e3c5297b1882ca0c509e33d49c&chksm=ea9683111066ef448a610c7ef50ce410ba5477365e9d2e1a05af22669731e80bda63c83f103b&scene=27
8.自然语言处理前沿——大语言模型的前世今生要了解语言模型的发展历史,首先我们需要认识什么是语言模型。 1.2语言模型 复旦大学的《自然语言处理导论》对语言模型的发展做出了详细梳理,其给了语言模型一个定义:语言模型(Language Model,LM)目标是建模自然语言的概率分布,具体目标是构建词序列w1w2wm的概率分布,即计算给定的词序列作为一个句子出现可能的大小。https://shmc.tongji.edu.cn/8c/8e/c32676a298126/page.htm
9.大语言模型的发展历程是什么?西蒙、艾伦·纽厄尔等。正如我们稍后会看到的,这些名字将再次出现,深刻影响自然语言处理(NLP)的发展。https://www.zhihu.com/question/627189268/answer/3513635713
10.了解人工智能生成内容(AIGC)的基本原理和应用AIGC的发展可以追溯到机器学习和自然语言处理等领域的进展,以及深度学习模型的快速发展。 ? AIGC的发展历程 AIGC的发展历程可以追溯到上世纪50年代的机器翻译研究,早期的机器翻译系统主要基于规则和统计方法。随着深度学习的兴起,特别是神经网络模型的发展,AIGC取得了显著的进展。深度学习模型通过大规模的数据训练,https://www.skycaiji.com/aigc/ai11801.html
11.ai写作软件需要付费吗在AI技术不断发展的今天,AI写作软件越来越受到人们的关注。随着人工智能和自然语言处理技术的飞速发展,AI写作软件的写作能力已经可以媲美人类写手了。最近,有一家AI写作软件公司推出了自动开通会员的功能,这对于许多用户来说是一个好消息。 AI写作软件的发展历程 https://tool.a5.cn/article/show/80787.html
12.竞争人工智能:从论文突破性看中国人工智能创新水平? 我们发现,总量上,中国人工智能的论文发表量在2017年反超美国成为全球第一,突破性论文发表量在2016年升至全球第二、2020年国际份额达17%;结构上,中国在模式识别、计算机视觉、数据挖掘、语音识别领域的突破性表现尚可,而在算法、自然语言处理和人机交互领域相对薄弱。国际对比来看,中国相较除美国以外的其他国家积累https://wallstreetcn.com/articles/3685650
13.中科院2019全球人工智能发展白皮书!八大关键技术中国崛起中▲自然语言处理技术的发展历程 自然语言处理的研究可以分为基础性研究和应用性研究两部分,语音和文本是两类研究的重点。基础性研究主要涉及语言学、数学、计算机学科等领域,相对应的技术有消除歧义、语法形式化等。应用性研究则主要集中在一些应用自然语言处理的领域,例如信息检索、文本分类、机器翻译等。由于我国基础理论https://www.thepaper.cn/newsDetail_forward_5725166
14.自然语言处理属于人工智能的哪个领域自然语言处理的发展历程 1. 早期的自然语言处理 自然语言处理的研究可以追溯到20世纪50年代。1950年,图灵提出了著名的“图灵测试”,为自然语言处理的研究奠定了基础。在早期的自然语言处理研究中,研究者主要采用基于规则的方法,通过编写大量的语法规则来实现对自然语言的解析和理解。 https://m.elecfans.com/article/3696633.html
15.聊聊ChatGPT1到GPT4的发展历程聊聊Chat GPT-1到GPT-4的发展历程 语言模型的最大缺点之一是用于训练的资源。 OpenAI的Generative Pre-trained Transformer(GPT)模型通过引入非常强大的语言模型,在自然语言处理(NLP)领域引起了巨大震动。这些模型可以执行各种NLP任务,如问题解答、文本蕴涵、文本总结等,而无需任何监督训练。这些语言模型只需要很少或根本https://m.36kr.com/p/2131251435105282
16.GhatGPT的发展历程是怎样的?问答GhatGPT的发展历程是怎样的? ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构,也是GPT-3.5架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPThttps://news.fromgeek.com/ask/53-103813.html