ChatGPT浅析:应用领域前景广阔,但同时挑战与风险并存—背景篇

ChatGPT浅析:应用领域前景广阔,但同时挑战与风险并存—背景篇

原创|文BFT机器人

自然语言处理的发展历史

人类语言(又称自然语言)具有无处不在的歧义性、高度的抽象性、近乎无穷的语义组合性和持续的进化性,理解语言往往需要具有一定的知识和推理等认知能力,这些都为计算机处理自然语言带来了巨大的挑战,使其成为机器难以逾越的鸿沟。

因此,自然语言处理被认为是目前制约人工智能取得更大突破和更广泛应用的瓶颈之一,又被誉为“人工智能皇冠上的明珠”国务院2017年印发的《新一代人工智能发展规划》将知识计算与服务、跨媒体分析推理和自然语言处理作为新一代人工智能关键共性技术体系的重要组成部分。

自然语言处理自诞生起,经历了五次研究范式的转变,由最开始基于小规模专家知识的方法,逐步转向基于机器学习的方法。机器学习方法也由早期基于浅层机器学习的模型变为了基于深度学习的模型。为了解决深度学习模型需要大量标注数据的问题,2018年开始又全面转向基于大规模预训练语言模型的方法,其突出特点是充分利用大模型、大数据和大计算以求更好效果。

近期,ChatGPT表现出了非常惊艳的语言理解、生成、知识推理能力它可以极好地理解用户意图,真正做到多轮沟通,并且回答内容完整、重点清晰、有概括、有逻辑、有条理。ChatGPT的成功表现,使人们看到了解决自然语言处理这一认知智能核心问题的一条可能的路径,并被认为向通用人工智能迈出了坚实的一步,将对搜索引擎构成巨大的挑战,甚至将取代很多人的工作,更将颠覆很多领域和行业。

知识在计算机内的表示是人工智能的核心问题。早期,知识以结构化的方式存储在数据库中,人类需要掌握机器语言(如SOL),才能调用这些知识;后来,随着互联网的诞生,更多文本、图片、视频等非结构化知识存储在互联网中,人类通过关键词的方式调用搜索引擎获取知识:现在,知识以参数的形式存储在大模型中(从2018年开始),ChatGPT主要解决了用自然语言直接调用这些知识的问题,这也是人类获取知识最自然的方式。

大规模预训练语言模型的技术发展历程

大规模预训练语言模型(简称大模型)作为ChatGPT的知识表示及存储基础,对系统效果表现至关重要,接下来对大模型的技术发展历程加以简要介绍。

尤其是GPT-3模型,含有1.750亿超大规模参数,并且提出“提示语:(Prommpt)的概念,只要提供具体任务的提示语,即便不对模型进行调整也口完成该任务,如:输入“我太喜欢ChatGPT了,这句话的情感是”那么GPT-3就能够直接输出结果“褒义”。如果在输入中再给一个或几个示例那么任务完成的效果会更好,这也被称为语境学习(In-contextLearning)。

不过,通过对GPT-3模型能力的仔细评估发现,大模型并不能真正克服深度学习模型鲁棒性差、可解释性弱、推理能力缺失的问题,在深层次语义理解和生成上与人类认知水平还相去甚远。直到ChatGPT的间世,才彻底改变了人们对于大模型的认知。

ChatGPT技术发展历程

2022年11月30日,OpenAI推出全新的对话式通用人工智能工具ChatGPT。据报道,在其推出短短几天内,注册用户超过100万,2个月活跃用户数已达1个亿,引爆全网热议,成为历史上增长最快的消费者应用程序,掀起了人工智能领域的技术巨浪。

ChatGPT之所以有这么多活跃用户,是因为它可以通过学习和理解人类语言,以对话的形式与人类进行交流,交互形式更为自然和精准,极大地改变了普通大众对于聊天机器人的认知,完成了从“人工智障”到“有趣”。

的印象转变。除了聊天,ChatGPT还能够根据用户提出的要求,进行机器翻译、文案撰写、代码撰写等工作。ChatGPT拉响了大模型构建的红色警报,学界和企业界纷纷迅速跟进启动研制自己的大模型。

继OpenAI推出ChatGPT后,与之合作密切的微软迅速上线了基于ChatGPT类技术的NewBing,并计划将ChatGPT集成到Ofce办公套件中。谷歌也迅速行动推出了类似的Bard与之抗衡。除此之外,苹果、亚马逊、Meta(原Facebook)等企业也均表示要积极布局ChatGPT类技术国内也有多家企业和机构明确表态正在进行类ChatGPT模型研发。

从技术角度讲,ChatGPT是一个聚焦于对话生成的大语言模型,其能够根据用户的文本描述,结合历史对话,产生相应的智能回复。GPT通过学习大量网络已有文本数据(如wikipedia,reddit对话),获得了像人类一样流畅对话的能力。虽然GPT可以生成流畅的回复,但是有时候生成的回复并不符合人类的预期,OpenAI认为符合人类预期的回复应该具有真实性、无害性和有用性。

为了使生成的回复具有以上特征,OpenAI在2022年初发表中提到引入人工反馈机制,并使用近端策略梯度算法(PPO)对大模型进行训练。这种基于人工反馈的训练模式能够很大程度上减小大模型生成回复与人类回复之间的偏差,也使得ChatGPT具有良好的表现。

在2017年前后,深度强化学习(DeepReinforcementLearning)逐渐发展并流行起来。MacGlashanetal提出了一种AC算法(Actor-critic)并且将人工反馈(包括积极和消极)作为信号调节优势函数(Advantagefunction)。Warnelletal.将TAMER框架与深度强化学习相结合,成功将RLHF引入深度强化学习领域。在这一阶段,RLHF主要被应用于模拟器环境(例如游戏等)或者现实环境(例如机器人等)领域,而利用其对于语言模型进行训练并未受到重视。

2、ChatGPT技术发展脉络的总结

纵观AI这几年的发展,已经逐渐呈现出不同技术相互融合的大趋势比如将Transformer引入计算机视觉领域产生的ViT;将强化学习引入蛋白质结构预测的AlphaPold等。每个研究人员都有自己熟悉擅长的领域,而同时科学界也存在着大量需要AI能的待解决的关键问题,如何发现这些问题的痛点,设计合理的方法,利用自己研究领域的优越的技术解决问题似乎是一个值得思考,也非常有意义的问题。

这是一个AI蓬勃发展的时代,计算机科学界每天都在产生着令人惊奇的发明创造,很多之前人们可望而不可及的问题都在或者正在被解决的路上。2022年2月,DeepMind发布可对托卡马克装置中等离子体进行磁控制的以帮助可控核聚变的人工智能,这项研究目前仍在进行。或许在未来的某·天,能源将不成为困扰我们的问题,环境污染将大大减少,星际远航将成为可能。希望每个研究人员都能在这样的时代中,找到适合自己的研究方向并且为科技进步添砖加瓦。

3、ChatGPT的未来技术发展方向

虽然ChatGPT目前已经取得了非常喜人的成果,但是未来仍然有诸多可以研究的方向。

首先OpenAI的研究人员指出了ChatGPT现存的一些问题。

ChatGPT有时候会生成一些似是而非、毫无意义的答案,导致这个间题的原因有:强化学习训练过程中没有明确的正确答案,训练过程中些谨慎的训练策略导致模型无法产生本应产生的正确回复;监督学习训练过程中错误的引导导致模型更倾向于生成标注人员所知道的内容而不是模型真实知道的。

ChatGPT对于输入措辞比较敏感,例如:给定一个特定的问题,模型声称不知道答案,但只要稍微改变措辞就可以生成正确答案。

ChatGPT生成的回复通常过于元长,并且存在过度使用某些短语的问题,例如:重申是由OpenAI训练的语言模型。这样的问题主要来自于训练数据的偏差和过拟合问题。

虽然OpenAI已经努力让模型拒绝不恰当和有害的请求,但是仍然无法避免对有害请求作出回复或对问题表现出偏见。

其次,ChatGPT虽然很强大,但是其模型过于庞大使用成本过高,如何对模型进行瘦身也是一个未来的发展方向,目前主流的模型压缩方法有量化、剪枝、蒸馏和稀疏化等。量化是指降低模型参数的数值表示精度,比如从FP32降低到PP16或者INT8。剪枝是指合理地利用策略删除神经网络中的部分参数,比如从单个权重到更高粒度组件如权重矩阵到通道,这种方法在视觉领域或其他较小语言模型中比较奏效。蒸馏是指利用一个较小的学生模型去学习较大的老师模型中的重要信息而摒弃一些冗余信息的方法。稀疏化将大量的冗余变量去除,简化模型的同时保留数据中最重要的信息。

ChatGPT的优势与劣势

1、ChatGPT的优势

ChatGPT作为开年爆款产品,自发布以来不足三个月,就以其能力的全面性、回答的准确性、生成的流畅性、丰富的可玩性俘获了数以亿计的用户,其整体能力之强大令人惊叹。下面我们将从以下三个角度分别阐述ChatGPT相较于不同产品和范式的优点。

ChatGPT的发布形式是一款聊天机器人,类1.相较于普通聊天机器人:似于市场上其他聊天机器人(微软小冰、百度度秘等),也是直接对其下指令即可与人类自然交互,简单直接。但相较之下,ChatGPT的回答更准确,答案更流畅,能进行更细致的推理,能完成更多的任务,这得益于其以下三方面的能力:

1.强大的底座能力:ChatGPT基于GPT-3.5系列的Code-davinci-002指令微调而成。而GPT-3.5系列是一系列采用了数千亿的token预训练的千亿大模型,足够大的模型规模赋予了ChatGPT更多的参数量记忆充足的知识,同时其内含“涌现”的潜力、为之后的指令微调能力激发打下了坚实的基础;

2.惊艳的思维链推理能力:在文本预训练的基础上,ChatGPT的基础大模型采用159G的代码进行了继续预训练,借助代码分步骤、分模块;

解决问题的特性,模型涌现出了逐步推理的能力,在模型表现上不再是随着模型规模线性增长,有了激增,打破了scalinglaw;

3.实用的零样本能力:ChatGPT通过在基础大模型上利用大量种类的指令进行指令微调,模型的泛化性得到了显著地激发,可以处理未见过的任务,使其通用性大大提高,在多种语言、多项任务上都可以进行处理。

综上,在大规模语言模型存储充足的知识和涌现的思维链能力的基础上,ChatGPT辅以指令微调,几乎做到了知识范围内的无所不知,且难以看出破绽,已遥遥领先普通的聊天机器人。

相较于其它大规模语言模型:相较于其它的大规模语言模型,ChatGPT使用了更多的多轮对话数据进行指令微调,这使其拥有了建模对话历史的能力,能持续和用户交互。

同时因为现实世界语言数据的偏见性,大规模语言模型基于这些数据预训练可能会生成有害的回复。ChatGPT在指令微调阶段通过基于人类反馈的强化学习调整模型的输出偏好,使其能输出更符合人类预期的结果(即能进行翔实的回应、公平的回应、拒绝不当问题、拒绝知识范围外的问题),一定程度上缓解了安全性和偏见问题,使其更加耐用;同时其能利用真实的用户反馈不断进行AI正循环,持续增强自身和人类的这种对齐能力,输出更安全的回复。

相较于微调小模型:在ChatGPT之前,利用特定任务数据微调小模型是近年来最常用的自然语言处理范式。相较于这种微调范式,ChatGPT通过大量指令激发的泛化能力在零样本和少样本场景下具有显著优势,在未见过的任务上也可以有所表现。例如ChatGPT的前身InstructGPT指令微调的指令集中96%以上是英语,此外只含有20种少量的其它语言(包含西班牙语、法语、德语等)。然而在机器翻译任务上,我们使用指令集中未出现的塞尔维亚语让ChatGPT进行翻译,仍然可以得到正确的翻译结果,这是在微调小模型的范式下很难实现的泛化能力。

除此之外,作为大规模语言模型的天然优势使ChatGPT在创作型任务上的表现尤为突出,甚至强于大多数普通人类。

2、ChatGPT的劣势

固然ChatGPT在实际使用中表现惊艳,然而围于大规模语言模型自身、数据原因、标注策略等局限,仍主要存在以下劣势:

大规模语言模型自身的局限:身为大规模语言模型,ChatGPT难免有着LLM的通用局限,具体表现在以下几个方面:

可信性无法保证:ChatGPT的回复可能是在一本正经地胡说八道,语句通畅貌似合理,但其实完全大相径庭,目前模型还不能提供合理的证据进行可信性的验证;

成本高昂:ChatGPT基础大模型训练成本高、部署困难、每次调用花费不菲、还可能有延迟问题,对工程能力有很高的要求;

在特定的专业领域上表现欠佳:大规模语言模型的训练数据是通用数4.据,没有领域专业数据,比如针对特定领域的专业术语翻译做的并不好;

语言模型每次的生成结果是beamsearch或者采样的产物,每次都会5有细微的不同。同样地,ChatGPT对输入敏感,对于某个指令可能回答不正确,但稍微替换几个词表达同样的意思重新提问,又可以回答正确,目前还不够稳定。

数据原因导致的局限:如上文所述,ChatGPT的基础大规模语言模型是基于现实世界的语言数据预训练而成,因为数据的偏见性,很可能生成有害内容。虽然ChatGPT已采用RLHP的方式大大缓解了这一问题,然而通过一些诱导,有害内容仍有可能出现。

此外,ChatGPT为OpenAI部署,用户数据都为OpenAI所掌握,长期大规模使用可能存在一定的数据泄漏风险。

标注策略导致的局限:ChatGPT通过基于人类反馈的强化学习使模型的生成结果更符合人类预期,然而这也导致了模型的行为和偏好一定程度上反映的是标注人员的偏好,在标注人员分布不均的情况下,可能会引入新的偏见问题。同样地,标注人员标注时会倾向于更长的答案,因为这样的答案看起来更加全面,这导致了ChatGPT偏好于生成更长的回答,在部分情况下显得嘤嚎冗长。

此外,作为突围型产品,ChatGPT确实表现优秀。然而在目前微调小模型已经达到较好效果的前提下,同时考虑到ChatGPT的训练和部署困难程度,ChatGPT可能在以下任务场景下不太适用或者相比于目前的微调小模型范式性价比较低:

ChatGPT的通用性很强,对多种自然语言处理任务都有处理能力。然而针对特定的序列标注等传统自然语言理解任务,考虑到部男成本和特定任务的准确性,在NLU任务不需要大规模语言模型的生成能力也不需要更多额外知识的前提下,如果拥有足够数据进行微调,微调小模型可能仍是更佳的方案;

在一些不需要大规模语言模型中额外知识的任务上,例如机器阅读理解,回答问题所需的知识已经都存在于上下文中;

由于除英语之外的其它语言在预训练语料库中占比很少,因此翻译目标非英文的机器翻译任务和多语言任务在追求准确的前提下可能并不适用;

大规模语言模型的现实世界先验知识太强,很难被提示覆盖,这导致我们很难纠正ChatGPT的事实性错误,使其使用场景受限;

对于常识、符号和逻辑推理问题。ChatGPT更倾向于生成“不确定的回复,避免直接面对问题正面回答。在追求唯一性答案的情况下可能并不适用;

ChatGPT目前还只能处理文本数据,在多模态任务上还无法处理。

ChatGPT的应用前景

ChatGPT作为掀起新一轮AIGC热潮的新引擎,无论在人工智能行业还是其他行业都带来了广泛的讨论和影响,下面我们分别从这两个方面讨论。

1、在人工智能行业的应用前景及影响

ChatGPT的发布及其取得的巨大成功对人工智能行业形成了强烈的冲击,人们发现之前许多悬而未解的问题在ChatGPT身上迎刃而解(包括事实型向答、文本摘要事实一致性、篇章级机器翻译的性别问题等),ChatGPT引起了巨大的恐慌。然而从另一个角度看,我们也可以把ChatGPT当成是一个工具来帮助我们的开发、优化我们的模型、丰富我们的应用场景,比如:

代码开发:利用ChatGPT辅助开发代码,提高开发效率,包括代码补全、自然语言指令生成代码、代码翻译、bug修复等;

ChatGPT和具体任务相结合:ChatGPT的生成结果在许多任务上相比微调小模型都有很明显的可取之处(比如文本摘要的事实一致性,篇章级机器翻译的性别问题),在微调小模型的基础上结合这些ChatGPT的长处,可能可以在避免训练部要下显芝提升小模型的效果;

2、在其他行业的应用前景及影响

ChatGPT的发布也引起了其它行业的连锁反应:StackOverflow禁用ChatGPT的生成内容,美国多所公立学校禁用ChatGPT,各大期刊禁止将ChatGPT列为合著者。ChatGPT似乎在一些行业成为“公敌”,但在其它行业,也许充满机遇。

ChatGPT和搜索引擎的结合似乎已经不可避免,也许不会马上取代搜索引擎,但基于搜索引擎为ChatGPT提供生成结果证据展示以及利用检索的新知识扩展ChatGPT的回答边界已经是可以预见并正在进行的结合方向。

泛娱乐行业:ChatGPT对于文娱行业则更多带来的是机遇。无论是基于ChatGPT创建更智能的游戏虚拟人和玩家交流提升体验,还是利用虚拟数字人进行虚拟主播直播互动,ChatGPT都为类似的数字人提供了更智能的“大脑”,使行业充满想象空间。除此之外,在心理健康抚慰、闲聊家庭陪护等方面,类似的数字人也大有拳脚可展。

此外,ChatGPT可以帮助个人使用者在日常工作中写邮件、演讲稿、文案和报告,提高其工作效率。同时基于微软计划将ChatGPT整合进Word、PowerPoint等办公软件,个人使用者也可以从中受益,提高办公效率。

ChatGPT带来的风险与挑战

ChatGPT的出现和应用给用户和社会带来了很多新的风险和挑战。这些风险和挑战,一部分是ChatGPT本身技术限制引起的,如生成的内容不能保证真实性、会产生有害言论等。一部分是用户对ChatGPT的使用不当引起的,如在教育、科研等领域滥用ChatGPT产生的文本。

ChatGPT用户数量在其出现后两个月就突破了1亿,因此应对这些风险和挑战需要整个社会行动起来,制定相应的法律和规范,让ChatGPT为人类发展服务,尽量避免引起新的的社会问题。下面列举了几个重要风险和挑战,并试着给出了相应的解决思路。

滥用风险滥用风险主要是指用户对于ChatGPT产生结果的不当应用。具体表现有:学生在课堂测验或考试过程中直接使用ChatGPT的结果作为答案进行作弊;研究人员使用ChatGPT来进行写作的学术不规范行为;不法分子利用ChatGPT来制造假新闻或谣言。Tamkinetal.[20]指出,使用预训练语言模型能参与的犯罪行为种类繁多,因此很难把所有它们能错误使用的方法都归纳总结起来,可以预料随着技术的发展以及不法分子的不断尝试ChatGPT被错误使用的方式会更多样且更加难以预测。

已有很多研究者针对这一需求提出了不同的解决方案。下面主要介绍两个有代表性的工作:

2023年1月31日,开发ChatGPT的OpenAI公司发布了一个能够鉴别AI生成文本的分类器。根据OpenAI公布的测试结果,该分类器对于“AI生成文本”类别的召回率只有26%。该分类器的训练数据的构造方式如下:首先获取大量提示,对于每个提示,分别获取AI生成文本和人工写作文本。这种训练数据的获取方式成本较高。

斯坦福大学的Mitchelletal提出了一种Zero-shot的AI生成文本检测方法DetectGPT,该方法利用AI生成文本和人工写作文本在由其他AI模型进行改写后所引起的生成概率的变化来进行判别,生成概率变化大的文本为AI生成文本。根据论文在3个数据集上的测试结果,DetectGPT在AUROC这一评价指标上超过了目前已知的其他Zero-shot方法。DetectGPT的优势是不需要训练数据,但是它需要能够输出生成概率的AI模型的支持,而很多AI模型只提供了API(GPT-3),无法计算生成文本的概率。

总的来说,目前对于ChatGPT自动生成文本的自动鉴别技术效果还不能令人满意,需要继续寻找更有效的鉴别方法。

错误信息风险错误信息风险源于ChatGPT可能产生虚假、误导、无意义或质量差的信息。ChatGPT可以并且已经在成为很多用户的一种获取信息的手段,但用户如果没有分辨能力,可能会采信这些错误信息,从而带来风险隐患。尽管预训练语言模型生成的信息有一定可信度,且可信度会在后续学习改进中不断上升,但这类模型在很多领域生成的信息仍然不够可靠,ChatGPT也是如此。ChatGPT的流行会在某种程度上增加用户对它的信任,从而被更多错误的信息误导。预训练语言模型的生成的错误信息比例上升可能会加大人们对社会中各类信息的不信任,破坏社会的知识交流传播。

在一些很敏感的领域,比如法律和医学,ChatGPT的错误信息很容易导致直接伤害。错误的医学法律知识会导致使用者违法犯罪或者自行处理伤口疾病时出现问题,从而造成对社会和自己身体健康的伤害。这在ChatGPT之前就已经有了一些例子,如患者不相信正规医生而搬出搜索引擎给出的结果来反驳医生,这也能体现出很多用户对这类信息获取方式的信任。

知识共享是一种社会现象,人们出于信任从社会中获取知识并且过滤吸ChatGPT的一个较为常用的功能是充当搜索引擎,类似百度、Google等,搜索引擎的信息因其较高的准确率通常拥有较高的可信度,但是如果ChatGPT产生错误信息误导他人的现象加剧可能会导致人们不仅对ChatGPT信任感下降,同时也对其他类别的信息不再信任,破坏社会的知识共享,影响社会的知识交流传播。

目前还没有专门针对ChatGPT生成文本的正确性进行鉴别的研究论文发表。已有的针对虚假新闻或虚假信息检测的方法可以尝试应用到大规模语言模型生成文本的正确性检测中,比如基于事实抽取和验证的方法。但是基于写作风格的方法可能不太实用,因为大规模语言模型生成文本的过程与人的写作过程有较大区别。

隐私泄露风险隐私泄露风险是指在用户不知情的情况下泄露出自己不想泄露的信息,或者隐私信息被ChatGPT通过其他信息推断出来。用户在使用ChatGPT过程中可能会泄露自己的个人隐私信息或者一些组织乃至国家的机密信息。个人信息的泄露可能会对个人的心理健康、人身安全造成影响。国家或者商业机密往往是只有小范围人员能获悉的高等级信息,它们的

泄露传播可能会危及国家安全和企业安全。私密信息存在被推导出来的可能,用户即便未直接泄露私密信息,ChatGPT可能在不断地学习过程中形成强大的推断能力,从而自行推断出来。

对于这种风险的防范需要从两个方面入手:1)提醒用户注意隐私保护:2)想办法限制ChatGPT对于隐私信息的访问和利用。

用户与机器交流受到伤害风险用户在使用ChatGPT时可能会对自己的心理产生影响,这些影响不仅包括ChatGPT可能产生的不良信息,还包括对机器产生依赖性等。ChatGPT输出的暴力、色情等信息会对未成年和一些成年人造成较大影响,该类别信息的过多摄入会对人的心理健康产生影响。

一些用户可能会对ChatGPT这种交互式对话机器人产生成瘾性或者依赖性,从而导致健康和社交问题。即使用户知道对话系统不是人类,但由于对话系统的信息交互跟人类相似,潜意识里把对话系统当做人的错误认知会导致他们仍然对对话系统做出没有意识的社交反应。即部分用户会在没有意识的状态下将对话系统误认为是人类来交流,从而产生对对话系统的依赖。

用户在进行语言交互时如果没有对人工智能的基本认识、足够的情感和伦理素养,可能会产生情感问题和心理健康风险,比如孤独、沮丧、焦虑等患有心理疾病者在此也有可能会因为对ChatGPT的依赖而拖慢自己的心理疾病治疗进度。

有害言论风险常见的有害言论包括种族主义、性别歧视和偏见等。ChatGPT是一种无感知的语言模型,对输入数据的处理是基于其在训练数据中的出现频率和语言模式。如果训练数据中存在偏见和歧视,ChatGPT在这部分数据上训练后也会反映这些问题。由于训练数据体量巨大且丰富,其中不同文化和价值观之间存在差异,因此可能会有种族、文化和价值观冲突的风险。

早在2016年微软研发的聊天机器人Tay就在一天之间就因获取大量有害输入而转化为一个“种族歧视者”,这也说明了这一风险的存在性。有害言论风险的根源在于训练数据和训练过程,在ChatGPT的进化过程中,必须要想办法尽量避免有害言论的产生。

知识产权风险知识产权风险包括两个方面:

1)ChatGPT是否会侵犯他人的知识产权;

2)ChatGPT产生的内容是否具有知识产权。

垄断风险ChatGPT对训练数据、算出靶吧泵跃和人力的要求都很高,需要大量的经费投入,因而开发ChatGPT类似技术的门槛很高,这一技术可能被财力雄厚的大公司垄断。以与ChatGPT规模相当的GPT-3模型为例,采用V100GPU和最便宜的云计算套餐,训练一次GPT-3模型需要355GPU年,费用为460万美元。马里兰大学的副教授TomGoldstein在2022年12月初估计ChatGPT用户数量为1百万时,每天运行的费用大约在十万美元这个量级。

幸运的是现在很多公司都在投入,研究人员和技术人员也在不断提出实现ChatGPT和降低ChatGPT训练成本的方法。希望通过技术进步和开源共享,尽量避免ChatGPT技术形成垄断的局面。

THE END
1.自然语言处理综述自然语言处理的发展历程图4:自然语言处理的发展历程 兴起时期 大多数人认为,自然语言处理的研究兴起于1950年前后。在二战中,破解纳粹德国的恩尼格玛密码成为盟军对抗纳粹的重要战场。经过二战的洗礼,曾经参与过密码破译的香农和图灵等科学家开始思考自然语言处理和计算之间的关系。 https://www.bookstack.cn/read/paddlepaddle-tutorials/spilt.1.5d409cf5f05b08b3.md
2.NLP自然语言处理的发展历程腾讯云开发者社区自然语言处理(Natural Language Processing,NLP)是人工智能领域中的一个重要分支,致力于使计算机能够理解、理解和生成自然语言。自然语言处理的发展历程经历了多个阶段,从最早的基于规则的方法到后来的统计学习和深度学习方法。本文将深入探讨自然语言处理的发展历程,结合实例演示,并提供详细的代码解释,同时介绍数据处理的关https://cloud.tencent.com/developer/article/2372229
3.自然语言处理微百科自然语言处理发展历程 自然语言处理大体是从1950年始,虽然更早期也有作为。1950年,图灵发表论文“计算机器与智能(英语:computing machinery)”,提出现在所谓的“图灵测试”作为判断智能的条件。 1954年的乔治城实验(英语:Georgetown-IBM experiment)涉及全部自动翻译(英语:automatic translation)超过60句俄文成为英文。研究人https://ispeak.vibaike.com/3360
4.自然语言处理与深度学习发展历程总结自然语言处理与理解自然语言处理与深度学习发展历程总结 自然语言处理与理解 前言:自然语言处理是人工智能皇冠上的明珠。 1 提出问题 如何让计算机能够自动或半自动地理解自然语言文本,懂得人的意图? 如何让计算机实现海量语言文本的自动处理、挖掘和有效利用,满足不同用户的各种需求,实现个性化信息服务?https://blog.51cto.com/u_16099276/9737734
5.自然语言处理(NaturalLanguageProcessing)的发展历程nlp自然语言处理(NLP)是人工智能领域中的一个重要分支,旨在让计算机能够理解和处理人类自然语言的方式。随着时间的推移,NLP领域经历了许多关键的发展阶段,不断推动着语言技术的进步和创新。本文将回顾NLP领域的发展历程,并提供一些相关的源代码示例。 规则驱动阶段(1950s-1990s) https://download.csdn.net/blog/column/12442398/133197506
6.PyTorch自然语言处理入门与实战●自然语言处理中的常用方法和工具。 1.1 什么是自然语言处理 本节先介绍自然语言处理的定义,然后介绍自然语言处理的常用术语、任务和发展历程。 1.1.1 定义 自然语言指的是人类的语言,例如中文、英语等,处理特指使用计算机技术处理,所以自然语言处理就是指使用计算机处理人类的语言。自然语言处理的英语是Natural Languaghttps://www.epubit.com/bookDetails?code=UB7da415821f9de&id=UB7da415821f9de
7.?大模型时代的对话分析:阿里最新综述全面解析对话分析的必要性社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | PaperWeekly 背景 随着大语言模型的发展,下一代系统交互朝着基于自然语言对话交互(LanguageUI)高速发展,这将https://mp.weixin.qq.com/s?__biz=MzI4MDYzNzg4Mw==&mid=2247566930&idx=2&sn=7d2d09e3c5297b1882ca0c509e33d49c&chksm=ea9683111066ef448a610c7ef50ce410ba5477365e9d2e1a05af22669731e80bda63c83f103b&scene=27
8.自然语言处理前沿——大语言模型的前世今生要了解语言模型的发展历史,首先我们需要认识什么是语言模型。 1.2语言模型 复旦大学的《自然语言处理导论》对语言模型的发展做出了详细梳理,其给了语言模型一个定义:语言模型(Language Model,LM)目标是建模自然语言的概率分布,具体目标是构建词序列w1w2wm的概率分布,即计算给定的词序列作为一个句子出现可能的大小。https://shmc.tongji.edu.cn/8c/8e/c32676a298126/page.htm
9.大语言模型的发展历程是什么?西蒙、艾伦·纽厄尔等。正如我们稍后会看到的,这些名字将再次出现,深刻影响自然语言处理(NLP)的发展。https://www.zhihu.com/question/627189268/answer/3513635713
10.了解人工智能生成内容(AIGC)的基本原理和应用AIGC的发展可以追溯到机器学习和自然语言处理等领域的进展,以及深度学习模型的快速发展。 ? AIGC的发展历程 AIGC的发展历程可以追溯到上世纪50年代的机器翻译研究,早期的机器翻译系统主要基于规则和统计方法。随着深度学习的兴起,特别是神经网络模型的发展,AIGC取得了显著的进展。深度学习模型通过大规模的数据训练,https://www.skycaiji.com/aigc/ai11801.html
11.ai写作软件需要付费吗在AI技术不断发展的今天,AI写作软件越来越受到人们的关注。随着人工智能和自然语言处理技术的飞速发展,AI写作软件的写作能力已经可以媲美人类写手了。最近,有一家AI写作软件公司推出了自动开通会员的功能,这对于许多用户来说是一个好消息。 AI写作软件的发展历程 https://tool.a5.cn/article/show/80787.html
12.竞争人工智能:从论文突破性看中国人工智能创新水平? 我们发现,总量上,中国人工智能的论文发表量在2017年反超美国成为全球第一,突破性论文发表量在2016年升至全球第二、2020年国际份额达17%;结构上,中国在模式识别、计算机视觉、数据挖掘、语音识别领域的突破性表现尚可,而在算法、自然语言处理和人机交互领域相对薄弱。国际对比来看,中国相较除美国以外的其他国家积累https://wallstreetcn.com/articles/3685650
13.中科院2019全球人工智能发展白皮书!八大关键技术中国崛起中▲自然语言处理技术的发展历程 自然语言处理的研究可以分为基础性研究和应用性研究两部分,语音和文本是两类研究的重点。基础性研究主要涉及语言学、数学、计算机学科等领域,相对应的技术有消除歧义、语法形式化等。应用性研究则主要集中在一些应用自然语言处理的领域,例如信息检索、文本分类、机器翻译等。由于我国基础理论https://www.thepaper.cn/newsDetail_forward_5725166
14.自然语言处理属于人工智能的哪个领域自然语言处理的发展历程 1. 早期的自然语言处理 自然语言处理的研究可以追溯到20世纪50年代。1950年,图灵提出了著名的“图灵测试”,为自然语言处理的研究奠定了基础。在早期的自然语言处理研究中,研究者主要采用基于规则的方法,通过编写大量的语法规则来实现对自然语言的解析和理解。 https://m.elecfans.com/article/3696633.html
15.聊聊ChatGPT1到GPT4的发展历程聊聊Chat GPT-1到GPT-4的发展历程 语言模型的最大缺点之一是用于训练的资源。 OpenAI的Generative Pre-trained Transformer(GPT)模型通过引入非常强大的语言模型,在自然语言处理(NLP)领域引起了巨大震动。这些模型可以执行各种NLP任务,如问题解答、文本蕴涵、文本总结等,而无需任何监督训练。这些语言模型只需要很少或根本https://m.36kr.com/p/2131251435105282
16.GhatGPT的发展历程是怎样的?问答GhatGPT的发展历程是怎样的? ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构,也是GPT-3.5架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPThttps://news.fromgeek.com/ask/53-103813.html