ChatGPT军备赛开幕,哪些国内机构具备打造下一个ChatGPT的实力?
自从2022年底ChatGPT发布以来,海内外就掀起了一阵狂潮。推出仅两个月,ChatGPT月活用户突破1亿,成为了史上用户增长速度最快的消费级应用程序。
中国版ChatGPT将诞生于何处,也成为了大众最关心的问题之一。
鉴于ChatGPT是多项AI技术的集大成者,远非「一日之功」。这背后离不开算力、数据、人才等资源的支持。环顾国内群雄,谁最有可能造出下一个ChatGPT?
如有盘点错误的地方,欢迎指正。
高校
清华大学自然语言处理与社会人文计算实验室
清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)成立于20世纪70年代末,是国内开展自然语言处理研究最早、深具影响力的科研单位。实验室围绕以中文为核心的自然语言处理,在大规模预训练模型、中文信息处理、机器翻译、社会计算、智慧教育和知识图谱等方面开展了系统深入的研究。
代表成员:
刘洋,清华大学计算机科学与技术系长聘教授,清华大学智能产业研究院副院长,国家杰出青年基金获得者。担任中国人工智能学会组织工作委员会副秘书长、中国中文信息学会计算语言学专委会常务副主任。研究方向是自然语言处理、机器翻译,获得国家科技进步二等奖1项、省部级科技奖励4项、重要国际会议优秀论文奖2项。
代表成果:
清华大学知识工程实验室
李涓子,清华大学计算机科学与技术系长聘教授,清华大学人工智能研究院知识智能中心主任,中国中文信息学会语言与知识计算专委会主任。2000年在清华大学获得博士学位,研究领域为知识图谱、新闻与社会网络挖掘。主持研发了基于语义链接的跨语言知识图谱XLORE,参与研发了研究者社会网络挖掘和服务系统AMiner,曾获北京市科技进步一等奖、人工智能学会科技创新一等奖、王选新闻科学技术进步一等奖等多个奖项。
唐杰,清华大学计算机系教授,曾入选ACMFellow、IEEEFellow。主要研究领域包括人工智能、认知图谱、数据挖掘、社交网络和机器学习。2006年毕业于清华大学,获博士学位。唐杰曾主持研发了参数规模超过1.75万亿的超大规模预训练模型「悟道」,以及研究者社会网络挖掘系统AMiner,吸引了全球220个国家和地区的2000多万用户。
开源双语千亿预训练模型GLM-130B项目原作解读转载
清华大学交互式人工智能(CoAI)课题组
清华大学交互式人工智能课题组(ConversationalAI,CoAI)隶属于清华大学计算机系、清华大学人工智能研究院。交互式人工智能是指通过对话、问答等语言交互方式体现出来的智能行为,是人工智能最具挑战性、最综合性的技术,涵盖了语义理解、知识表示、逻辑与推理、语言生成等各个方面。
课题组由朱小燕教授、黄民烈副教授指导,与众多国内外知名企业建立了广泛合作,例如华为、谷歌、微软、惠普、三星、斯伦贝谢、腾讯、阿里巴巴、搜狗、美团、好未来等。
朱小燕,清华大学计算机系教授、博士生导师。曾任智能技术与系统国家重点实验室主任、北京市计算机学会副理事长、清华大学计算机系副主任、加拿大国际开发研究中心(DIRC)首席科学家。1982年获北京科技大学学士学位,1987年获日本神户大学硕士学位,1990年获日本名古屋工业大学博士学位,1993年到清华大学任教。长期在智能信息处理领域开展深入研究,在人工神经元网络、机器学习、自然语言处理、信息获取、智能问答系统、交互智能和人机交互等方面取得显著成果。
黄民烈,清华大学计算机系长聘副教授,2000年毕业于清华大学工程物理系,2006年获清华大学计算机科学与技术博士学位。研究兴趣主要集中在人工智能与机器学习方法包括深度学习、强化学习等,自然语言处理方法与应用,包括自动问答、阅读理解、对话系统、情感分析等。主要研究语言理解、语言生成、语言匹配与推理中的科学问题,致力于解决对话系统、自动问答、阅读理解中具有挑战性的人工智能问题。曾获得汉王青年创新奖、微软合作研究奖(MicrosoftCollaborativeResearchAward)、IJCAI-ECAI2018杰出论文奖、CCL2018最佳系统展示奖、NLPCC2015最佳论文奖。
清华大学交互式人工智能课题组(CoAI)长期以来一直致力于构建开源的中文开放领域对话预训练基座模型,已有成果包括CDial-GPT、EVA1.0、EVA2.0、OPD等。
北京大学人工智能研究院自然语言处理研究中心
北京大学人工智能研究院自然语言处理研究中心将以研发通用自然语言处理技术为目标,探索通用自然语言处理理论、方法和技术体系,研究通用性鲁棒性强且支持跨模态的自然语言理解与生成方法,为通用人工智能平台和领域AI大任务系统的提供技术支撑。主要研究方向有:语义分析与理解、文本推理、问答与对话、文本生成、跨模态语言智能、认知与知识计算等。
近五年来牵头研制了具有自动扩展和质量控制功能的开放域语义知识库构建技术、基于知识库的语义理解与自然语言问答、语义搜索引擎等一系列自然语言理解与认知智能的前沿技术,并开展了面向智能知识服务的行业应用。采用上述技术构建的PKUBase是国内科研单位建设最早且规模最大的语义知识库之一。基于知识库的语义理解和自然语言问答系统在欧盟组织的国际权威评测QALD上连续三年取得了第一名的成绩,在美国NIST组织的TREC微博检索任务上连续两年取得第一名。
复旦大学自然语言处理实验室
复旦大学自然语言处理实验室由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。经过40余年发展,在自然语言处理底层分析、文本检索、自动问答、社会媒体分析等方面取得了一系列的研究成果。实验室多年在国家自然科学基金、国家863/973/重点研发计划、省部委基金的支持下,发表了大量高水平国际期刊和会议论文,其中包括中国计算机学会推荐的A/B类国际会议和期刊论文(ACL,SIGIR,IJCAI,AAAI,NIPS,ICML等)论文150余篇;参加多项国内外评测,如在自动问答国际评测TREC/QA中获得第3名,在文本蕴涵评测RITE和阅读理解评测SQUAD都位居前列;发布了国内首家中文自然语言开源系统FudanNLP,被包括联合国教科文组织在内的国内外多家研发机构采用。
黄萱菁,复旦大学计算机科学技术学院教授、博士生导师,主要从事自然语言处理、信息检索和社会媒体分析研究,人工智能、自然语言处理学科方向带头人。兼任中国中文信息学会理事、社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任、学术工作委员会委员、中国人工智能学会女科技工作者委员会副主任、AACL执委,EMNLP2021程序委员会主席。在高水平国际学术期刊和会议上发表了百余篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。获2021年上海市育才奖,并入选「人工智能全球女性」、「AI2000人工智能全球最具影响力提名学者」及「福布斯中国2020科技女性榜」。
主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程项目,2018年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人)等。培养学生多次获得一级学会优博、微软学者、百度奖学金等。
2月20日晚,复旦大学自然语言处理实验室发布了具备ChatGPT能力的语言模型——MOSS,并面向大众公开邀请内测。MOSS可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。
西湖大学自然语言处理实验室
张岳,2003年毕业于清华大学计算机科学专业,获得学士学位;2006年毕业于牛津大学计算机科学专业,获得硕士学位;2009年毕业于牛津大学计算机科学专业,获得博士学位。2010年3月-2012年6月在剑桥大学计算机科学专业从事博士后研究,2012年7月-2018年8月在新加坡科技与设计大学担任助理教授。2018年9月全职加入西湖大学,担任终身副教授。主要研究领域为自然语言处理、文本挖掘、机器学习和人工智能,具体研究方向包括:1.中英文基础自然语言处理中的词法、句法及语义表示,分析。2.信息抽取中的实体、关系、事件以及情感抽取。3.金融领域、生物医药领域以及文学领域的文本挖掘。4.自然语言生成及其在文本总结与机器翻译中的应用。
蓝振忠,西湖大学助理教授、博士生导师,西湖心辰(杭州)科技有限公司创始人。蓝振忠博士毕业于卡耐基梅隆大学计算机学院,是NLP自然语言处理领域预训练语言模型「ALBERT」第一作者。
蓝振忠长期致力于研究自然语言处理,计算机视觉及深度学习的结合与应用。此前在谷歌AI研究所工作,研发成果被应用于谷歌新闻、谷歌助手等多个拥有亿级以上用户的产品;2020年受聘于西湖大学,创办深度学习实验室并担任博士生导师,而后迅速带领团队研发出了AI心理咨询师「小天」、智能写作平台FRIDAY以及AI绘画产品「盗梦师」;2021年被麻省理工大学评选为亚太地区「35岁以下科技创新35人」之一。
哈尔滨工业大学自然语言处理研究所
哈工大的自然语言处理研究开始于1979年俄汉题录翻译的研究,更加系统深入的研究开始于上世纪80年代,围绕中文信息处理这一核心,在机器翻译、中文输入法、自然语言处理平台、语言知识资源建设等方面相继展开研究,培养了一批以周明、王海峰、张民、荀恩东为代表的优秀校友,取得了一批以「语句输入」、「语言技术平台LTP」为代表的标志性成果,成为我国在自然语言处理领域一支重要的力量。
2020年7月17日,哈尔滨工业大学计算学部批准成立自然语言处理研究所。研究所隶属于哈工大计算学部,由本部的社会计算与信息检索研究中心、语言技术研究中心和深圳校区的智能计算研究中心组成。
秦兵,教授,博士生导师,哈尔滨工业大学计算机学院社会计算与信息检索研究中心主任。担任中国中文信息学会理事、中国中文信息学会语言与知识计算专委会副主任,国家自然科学基金重点项目负责人。主要研究方向知识图谱构建、文本情感计算、文本理解与自动生成。连续主持多项国家自然科学基金面上项目及科技部重点研发计划课题。获黑龙江省科技进步一等奖、黑龙江省技术发明二等奖、钱伟长中文信息处理科学技术奖等奖项。在国内外重要会议和期刊发表论文100余篇,论文累计被引用6234余次(GoogleScholar数据),H-index值为31。持续与多家互联网企业开展合作,多项研究成果在企业应用落地。入选「2020年度人工智能全球女性榜单」和「福布斯中国2020科技女性榜」
刘挺,博士生导师,哈工大计算学部主任兼计算机学院院长。多次担任国家863重点项目总体组专家、基金委会评专家。中国计算机学会理事,中国中文信息学会常务理事/社会媒体处理专委会(SMP)主任,曾任国际顶级会议ACL、EMNLP领域主席。主要研究方向为人工智能、自然语言处理和社会计算,是国家973课题、国家自然科学基金重点项目负责人。主持研制「语言技术平台LTP」、「大词林」等科研成果被业界广泛使用。曾获国家科技进步二等奖、省科技进步一等奖、钱伟长中文信息处理科学技术一等奖等。
张伟男,哈尔滨工业大学计算机学院院长助理、副教授、博士生导师,黑龙江省中文信息处理重点实验室副主任。曾担任ACL、EMNLP领域主席、AAAI高级程序委员会委员(SPC)及多个国际会议及期刊的程序委员会成员、审稿人及期刊编委。目前为中国中文信息学会青年工作委员会副主任,中国计算机学会(CCF)术语审定工作委员会执委、CCF哈尔滨分部秘书长,中国人工智能学会教育工作委员会副秘书长,北京智源青源会会员。主要从事人机对话及自然语言处理等研究。在ACL、AAAI、WWW、IJCAI、IEEETKDE、ACMTOIS等CCFA类国际会议及期刊发表学术论文多篇;主导研发了智能人机对话系统「笨笨」,2019年3月「笨笨」中的开放域人机对话功能成功落地到科大讯飞AIUI智能交互平台;获黑龙江省科技进步一等奖、吴文俊人工智能科技进步二等奖及黑龙江省青年科技奖等。
中科院自动化所模式识别国家重点实验室自然语言处理团队
中科院自动化所模式识别国家重点实验室于1984年由国家计委批准筹建,1987年通过国家验收并正式对外开放,依托于中国科学院自动化研究所。实验室目前的主要研究方向为模式识别、计算机视觉、图像处理与图形学,口语信息处理、自然语言处理以及模式识别应用与系统等。
宗成庆,中科院自动化所研究员、博士生导师、国际计算语言学委员会(ICCL)委员、中国人工智能学会会士和中国计算机学会会士。他于1998年3月在中科院计算所获得博士学位,主要研究兴趣包括自然语言处理、机器翻译、文本数据挖掘和语言认知计算等领域,曾获国家科学技术进步奖二等奖、中国电子学会科技进步奖一等奖等若干奖励和荣誉。
张家俊,中国科学院自动化研究所研究员、博士生导师,主要研究方向为机器翻译和自然语言处理,获得国家优秀青年科学基金资助,入选中国科协首届青年人才托举工程、中国科学院青年创新促进会优秀会员和北京智源青年科学家。发表CCF-A/B类论文80余篇,出版学术专著2部、译著1部,获得中国中文信息学会钱伟长中文信息处理科学技术奖一等奖、青年创新奖一等奖和2020年北京市科学技术奖一等奖等。担任中国中文信息学会理事、青年工作委员会主任和机器翻译专委会副主任。担任ACL/EMNLP/COLING的(资深)领域主席,以及《自动化学报》等期刊的编委。
中科院计算所自然语言处理研究组
冯洋,研究员、博士生导师,中科院计算所「新百星人才引进计划」入选者、2019年度「卓越之星」获得者、自然语言处理课题组负责人。研究方向为自然语言处理、机器翻译、人机对话。在中科院计算所获得博士学位后,先后在谢菲尔德大学和南加州大学信息科学研究所(USC/ISI)开展研究工作。曾获ACL2019最佳长文奖,为ACL开办50多年以来国内首次获得该奖项。多次在NIST、CWMT、DSTC等国内外权威机器翻译评测和对话系统比赛中获得第一名,作为项目负责人主持国家重点研发计划、国家自然科学基金面上项目等,与华为、腾讯、百度、字节跳动等公司开展合作研究。
中科院软件研究所中文信息处理实验室
中科院软件研究所中文信息处理实验室始于1996年成立的「开放系统与中文信息处理中心」。实验室当前主要围绕互联网环境下的自然语言理解这一中文信息处理领域的核心问题,开展中文信息的认知和理解机理、大规模中文知识图谱、基于知识的中文分析以及面向大数据智能服务的中文问答等关键技术研究。
实验室成员2000年起参加TREC、NTCIR、DUC、TAC等信息检索和自然语言处理领域的权威国际评测,并多次取得优异成绩。实验室目前承担着国家重大研发计划、国家自然科学基金重点项目、新闻出版署重大专项、国家语委重点项目、大型互联网企业合作(华为、阿里、百度)等10多项研究和开发任务,近年来在ACL、SIGIR、AAAI、EMNLP等顶级国际会议发表论文50多篇。
中国人民大学高瓴人工智能学院
中国人民大学高瓴人工智能学院由高瓴资本创始人、耶鲁大学校董、中国人民大学校友张磊先生捐资支持建设。高瓴人工智能学院博士生导师实行人才培养导师组的形式,研究方向为:人工智能基础理论,智能信息检索,机器学习,计算机视觉,自然语言处理,人工智能交叉应用等。
学院已与百度、华为分别签订人才培养合作协议、「智能基座」产教融合基地合作协议,与百度共建「松果实践基地」,与北京智源人工智能研究院、微软亚洲研究院开展人工智能创新人才联合培养,与联通、京东、滴滴、浪潮、爱奇艺、美团点评等20余家知名企业设立了实训基地。
2021年学院师生共发表高水平论文(中国计算机学会CCFA/B类)100余篇。文继荣院长作为北京智源研究院首席科学家,带领团队研发首个中文超大规模多模态预训练模型「文澜」,产生广泛影响。
在国际排行榜CSRankings中,2021年中国人民大学人工智能领域世界排名已升至第16位,在互联网与信息检索方向排名位居世界第一。更多国际一流学者正在陆续加入人才培养导师组。
文继荣,中国人民大学高瓴人工智能学院执行院长、信息学院院长,大数据管理与分析方法研究北京市重点实验室主任,北京智源人工智能研究院首席科学家。曾任微软亚洲研究院高级研究员和互联网搜索与挖掘组主任。长期从事大数据和人工智能领域的研究,已在信息检索、数据挖掘、机器学习、数据库等领域国际著名学术会议和期刊上发表论文200余篇,总计引用15000余次,H-Index为57。
窦志成,中国人民大学高瓴人工智能学院副院长、教授,北京智源人工智能研究院「智能信息检索与挖掘」方向项目经理,基于大数据文科综合训练国家级虚拟仿真实验教学中心执行主任。2008至2014年在微软亚洲研究院工作,2014年开始在中国人民大学任教。主要研究方向为智能信息检索、自然语言处理、大数据分析。已在国际知名学术会议和期刊上(如SIGIR、WWW、CIKM、WSDM、ACL、EMNLP、TKDE等)发表论文50余篇,获SIGIR2013最佳论文提名奖,AIRS2012最佳论文奖。
卢志武,中国人民大学高瓴人工智能学院教授,博士生导师。2005年7月毕业于北京大学数学科学学院信息科学系,获理学硕士学位;2011年3月毕业于香港城市大学计算机系,获PhD学位。主要研究方向包括机器学习、计算机视觉等。主持NSFC、KJW等多个国家项目。设计首个公开的中文通用图文预训练模型文澜BriVL,并发表于NatureCommunications。以主要作者身份发表学术论文70余篇,其中在TPAMI、IJCV、TIP、TCYB、TGRS等重要国际期刊和NeurIPS、AAAI、IJCAI、CVPR、ICCV、ECCV等重要国际会议上发表论文40余篇,CCFA类论文25篇,入选ESI高被引论文1篇。
南京大学自然语言处理研究组
陈家骏,教授、博士生导师。南京大学计算机系自然语言处理实验室主任,中国中文信息学会理事。毕业于南京大学计算机软件专业,获学士、硕士和博士学位。20世纪80年代就开始从事自然语言处理和软件工程领域的研究与系统开发工作,研究方向包括机器翻译、汉语语言处理以及程序设计语言等。承担过国家863高技术、国家自然科学基金、国家社科基金以及教育部博士点基金等项目的研究工作;获得过国家七五科技攻关重大成果奖、教育部科技进步二等奖等科研奖励;发表学术论文180余篇,其中包括领域顶级会议和期刊(ACL、EMNLP、NAACL、TALLIP、TACL、AAAI、IJCAI等)论文数十余篇。
进击的大厂
随着ChatGPT的出圈,很多国内大厂也开始支持类ChatGPT大模型研究。如果说学术界更看重理论前沿的探索,那么对于企业界来说,想要打造出「ChatGPT」则意味着在各个层面的能力均有所布局。
OpenAI早在2017年就开始了GPT系列模型的研发,并且几年内来多次迭代。鉴于OpenAI并不是一家普通的「初创公司」,背后有微软提供的云算力支持,还有数年如一日、不计回报的高额研发投入,以及多年积累的海量用户数据。纵观国内,同时具备这几项基础条件的企业并不多。
即使如此,做出对标ChatGPT的产品仍不容易,这也是当下各大企业实验室集中攻关的主题。
百度自然语言处理团队
百度是最早针对ChatGPT做出明确表态的公司之一,2月7日即官宣在3月上线百度版ChatGPT「文心一言」(英文名ERNIEBot)。
近日,据36氪报道,百度目前筹备「文心一言」的团队主要由TPG(技术中台事业群)、MEG(移动生态事业群)两大部门协同。前者负责技术攻坚,后者进行搜索、内容产品承接。项目由百度CTO王海峰任总指挥,其他带队高管还包括:百度集团副总裁吴甜(同时担任深度学习技术及应用国家工程研究中心副主任)、百度技术委员会主席吴华等人。
王海峰,现任百度首席技术官,深度学习技术及应用国家工程研究中心主任。王海峰博士是自然语言处理领域世界上最具影响力的国际学术组织ACL(AssociationforComputationalLinguistics)50多年历史上首位华人主席(President)、ACL亚太分会创始主席、ACLFellow,还是IEEEFellow、CAAIFellow及国际欧亚科学院院士等。王海峰博士先后创建和发展了自然语言处理、知识图谱、语音、图像、机器学习和深度学习等百度人工智能技术方向,先后负责百度搜索、百度地图、百度翻译、百度智能云等业务。
吴甜,百度集团副总裁、深度学习技术及应用国家工程研究中心副主任。负责百度人工智能技术平台与生态,涵盖自然语言处理、知识图谱、计算机视觉、增强现实、飞桨深度学习平台(PaddlePaddle)、百度大脑开放平台等。
吴华,百度技术委员会主席。主要研究领域包括自然语言处理、机器翻译、人机对话、知识挖掘、机器学习等。负责的百度翻译项目翻译质量处于世界领先水平,并获国家科学技术进步奖二等奖。吴华在语法语义分析、机器学习、人机交互、自动问答等方向上进行了多项创新,其成果已应用于百度多数产品。2015年,吴华曾在百度带队研发出世界上首个互联网NMT(神经网络机器翻译)系统。
2019年开始,百度深耕预训练模型研发,先后发布知识增强文心(ERNIE)系列模型。文心系列模型基于持续学习的语义理解框架,从大规模知识和海量数据中融合学习,具备跨模态、跨语言的深度语义理解与生成能力。2021年12月,ERNIE3.0升级为全球首个知识增强千亿大模型鹏城-百度文心,同时,产业级知识增强大模型文心全景图亮相。
通过多年的技术探索与产业实践,百度文心大模型已经构建了「模型+工具平台+产品社区」三层体系。即将推出的「文心一言」就位于模型层。
阿里巴巴达摩院语言技术实验室
阿里巴巴达摩院语言技术实验室为机器智能技术实验室下属实验室,是阿里巴巴负责NLP技术研发的核心团队,为阿里巴巴经济体提供包括NLP基础技术、对话技术、应用算法、机器翻译、内容搜索推荐等技术,在经济体内数千业务方应用,日调用万亿级,并在很多重要行业如电商、司法、医疗、通信等赋能数千家合作伙伴和外部客户。
其中,对话智能团队专注于人机对话交互的创新研究和大规模应用,打造了智能对话开发平台DialogStudio,以及KBQA、TableQA、FAQs、MRC等智能问答技术,在自然语言理解、多轮对话管理、元学习、迁移学习、基于知识图谱问答等多个方向上取得前沿进展。开发的对话技术平台和云小蜜产品已经大规模服务于淘宝天猫电商平台、钉钉、公有云、私有云、国际化等业务中,并在智能服务市场居于业界领先地位。
司罗,阿里巴巴副总裁兼达摩院语言技术实验室负责人,2014年成为阿里人工智能科学家阵营的一员,带领阿里NLP团队取得多项重要成果。他领导阿里巴巴语言智能、机器翻译、文本分析、对话智能以及文本搜索等技术研究方向,累计发表学术论文180多篇,被广泛引用。司罗是最早一批从学术界转向工业界的人工智能科学家之一。在加入阿里巴巴之前,司罗是美国普渡大学计算机系的终身教授,并先后获得美国国家科学基金会成就奖、雅虎、谷歌研究奖等。更早之前,司罗先后获得清华大学和卡内基梅隆大学的计算机学士和博士学位。他曾先后担任ACM信息系统(TOIS)、ACM交互信息系统(TIIS)和信息处理与管理(IPM)编辑委员会的副主编,并多次在国际学术会议担任重要职务(如2016ACMCIKM技术主席)。2019年,司罗当选ACM2019杰出科学家。
李永彬,毕业于清华大学,阿里巴巴达摩院资深算法专家,研究方向为ConversationalAI&预训练大模型。近年来围绕对话预训练、人机对话交互、人机协同交互、多模态对话等方向发表30+篇顶会论文(ACL/EMNLP/AAAI等),其中达摩院通义对话大模型SPACE-1/2/3系列模型在11个国际公开对话数据集取得SOTA,并分别被AAAI22/COLING22/SIGIR22长文录用。2022年团队发表25篇顶会论文,其中EMNLP2022一次中稿10篇论文。同时负责对话智能在阿里云、电商、钉钉等场景的大规模产品化落地,在中国对话式AI云服务市场份额排名第一。
2021年初,阿里巴巴达摩院提出了百亿参数的超大规模中文多模态预训练模型M6,并持续推出多个版本,参数逐步从百亿规模扩展到十万亿规模,在大模型、绿色/低碳AI、AI商业化、服务化等诸多方面取得突破性进展。
2022年,在探索算力极限的同时,他们也积极展开了针对通用模型的探索,提出业界首个通用的统一大模型(模态、任务和架构)M6-OFA,极大地降低了模型在预训练、适配下游任务、推理过程中的难度。这个大模型是达摩院公布的阿里巴巴「通义」大模型系列的一部分。该系列分为三个层级:最底层为统一模型底座,中间基于底座的通用模型层覆盖了通义-M6、通义-AliceMind和通义-视觉,专业模型层深入电商、医疗、娱乐、设计、金融等行业。
京东云自然语言处理团队
在通用型ChatAI方向,京东云已经打造了包括京东智能客服系统、京小智平台商家服务系统、智能金融服务大脑、智能政务热线,言犀智能外呼、言犀数字人等系列产品和解决方案。拆解到细分技术领域,京东云在文本生成、对话生成、数字人生成方向等方向也已经做出了一些成果。
何晓冬,京东集团副总裁,京东人工智能研究院执行院长,深度学习及语音和语言实验室主任,IEEEFellow,同时在位于西雅图的华盛顿大学兼任教授、博士生导师。何晓冬博士的研究方向主要聚焦在人工智能领域。其在深度学习、自然语言处理、语音识别、计算机视觉及信息检索等方面均有重要贡献。其工作包括DSSM(深度结构语义模型/深度语义匹配模型)和图像描述机器人CaptionBot等。在加入京东之前,何晓冬博士就职于美国微软雷德蒙德研究院,担任主任研究员(PrincipalResearcher)及深度学习技术中心(DLTC)负责人。何晓冬博士于1996年获清华大学学士学位,1999年获中国科学院硕士学位,2003年获美国密苏里大学-哥伦比亚分校博士学位。
基于产业需求,京东云旗下言犀人工智能应用平台将推出ChatJD,定位为产业版ChatGPT,旨在打造优势、高频、刚需的产业版通用ChatGPT。
ChatJD将通过在垂直产业的深耕,快速达成落地应用的标准,并不断推动不同产业之间的泛化,形成更多通用产业版ChatGPT,构建数据和模型的飞轮,以细分、真实、专业场景日臻完善平台能力,最终反哺和完善通用ChatGPT的产业应用能力。
ChatJD将以「125」计划作为落地应用路线图,包含一个平台、两个领域、五个应用。
腾讯AILab
腾讯AILab是腾讯的企业级AI实验室,于2016年4月在深圳成立。实验室由100余位来自世界知名院校的科学家,以及300多位经验丰富的应用工程师组成,并与世界顶级院校与机构合作,共同打造产学研用一体的AI生态。目前,实验室已在ICML、CVPR、NeurIPS、ACL、ICASSP等多个顶级学术会议或期刊累计入选论文超过780篇。
在自然语言处理方向,腾讯AILab旨在借助腾讯丰富应用场景、大数据、计算力及一流人才方面的长期积累,赋予计算机系统以自然语言文本方式与外界交互的能力,追踪和研究最前沿的自然语言文本理解和生成技术,孵化下一代自然语言处理技术与商业应用场景。研究方向包括文本理解、文本生成、智能对话、机器翻译等。
张正友,腾讯首席科学家、腾讯AILab及RoboticsX实验室主任。1985年本科毕业于浙江大学信息与电子工程系,于1987年在南锡第一大学(现洛林大学)获计算机科学硕士学位,并于1990年获巴黎第十一大学计算机科学博士学位。2021年1月8日,张正友受聘腾讯历史上最高专业职级——17级研究员/杰出科学家。
智能创作助手「文涌」为腾讯AILab出品,实现融合了知识抽取、文本理解、文本生成、大规模预训练模型、经典语言模型、搜索等技术,具有智能纠错、文本补全、文本润色等功能,部分功能的实现使用「混元」系列AI大模型作为底层预训练模型。
科大讯飞
科大讯飞在NLP方面同样有诸多研究积累。2005年,科大讯飞研究院正式成立。2017年12月13日,科技部批准依托科大讯飞股份有限公司建设认知智能国家重点实验室。这一实验室是科技部首批20家标杆全国重点实验室之一,多年来始终保持关键核心技术处于世界前沿水平,在去年曾获得CommonsenseQA2.0、OpenBookQA等12项认知智能领域权威评测的第一。实验室瞄准国际认知智能技术的理论和技术发展前沿,面向国家重大战略需求和人工智能产业发展,以人机交互、智慧教育、智慧医疗、智慧司法等领域对认知智能技术的广泛和共性需求为牵引,重点开展语义计算、知识建模等认知智能基础理论及技术研究。
与此同时,科大讯飞面向认知智能领域陆续开源了6大类、超过40个通用领域的系列中文预训练语言模型,成为业界最广泛流行的中文预训练模型系列之一,在GitHub获13346颗星,位列中文预训练模型星标数第一。
胡国平,认知智能全国重点实验室主任,科大讯飞高级副总裁,研究院院长,讯飞创始团队成员之一,中国科学技术大学兼职教授、博导,国家新一代人工智能重大专项指南专家,中国人工智能学会会士。自1998年以来,一直从事智能语音及人工智能核心技术研究及产业化工作,多次承担国家863、自然科学基金以及省部级等层面的重大科研项目,曾获国家科技进步二等奖、国家信息产业重大技术发明奖、省科技进步一等奖、万人计划中青年领军人才等。
美团搜索与NLP部
快手MMUNLP中心
快手MMU是负责快手短视频搜索系统以及视频理解的AI中台,业务覆盖OCR,ASR,分词,NER等基础AI算法;短视频分类,标签体系建设等中台技术;以及短视频搜索等系统服务。
王仲远,快手技术副总裁、MMU&Y-tech负责人。曾担任Facebook公司ResearchScientist,负责Facebook产品级NLPService。在Facebook之前,王仲远是微软亚洲研究院的主管研究员,负责微软研究院知识图谱项目和对话机器人项目。后任美团点评高级研究员、高级总监、搜索与NLP部负责人。2020年10月,王仲远加盟快手,负责多媒体内容理解部。多年来专注于自然语言处理、知识图谱及其在文本理解方面的研究,在国际顶级学术会议如VLDB、ICDE、IJCAI、CIKM等发表论文数十篇。
字节跳动AILab
字节跳动人工智能实验室成立于2016年,其主要研究重点是开发为字节跳动内容平台服务的创新技术。实验室的研究领域包括自然语言处理、数据挖掘、计算机视觉、机器学习、计算机图形&增强现实、系统&网络、安全&隐私、语音与音频等。
李航,字节跳动科技有限公司研究部门负责人毕业于京都大学,是东京大学博士,曾就职于NEC公司中央研究所、微软亚洲研究院、华为技术有限公司诺亚方舟实验室。他的主要研究方向是自然语言处理、信息检索、机器学习、数据挖掘。他还是ACLFellow和IEEEFellow,也是《机器学习方法》等书的作者。
在AIGC方向,字节跳动的研究成果包括非自回归模型DA-Transformer、端到端语音到文本翻译模型ConST、多颗粒度的视觉语言模型X-VLM、图片和文本统一生成模型DaVinci等。其中DA-Transformer在机器翻译上首次达到了Transformer同样的精度,而处理的速度提高了7~14倍。DA-Transformer不仅可以用于机器翻译,而且可以用于任意的序列到序列任务。
小米AI实验室
小米在2014年成立小米AI研究院,其前身为小米探索实验室,2016年初正式成立小米AI实验室,研究方向包括计算机视觉、声学、语音、NLP、知识图谱、机器学习等多个领域。
王斌,小米AI实验室主任,NLP首席科学家,本科、硕士毕业于武汉大学,博士毕业于中科院计算所。加入小米之前在中科院从事NLP及信息检索的研发工作,曾为中科院研究员、博导,研究方向为信息检索与自然语言处理。目前主要负责小米AI实验室的技术研发和落地工作。
华为云
2021年4月的华为开发者大会2021(Cloud)上,华为云便发布了盘古系列超大规模预训练模型,包括30亿参数的视觉(CV)预训练模型,以及与循环智能、鹏城实验室联合开发的千亿参数、40TB训练数据的中文语言(NLP)预训练模型。
在大模型产业化方面,华为已发起了智能遥感开源生态联合体、多模态人工智能产业联合体、智能流体力学产业联合体等。华为将以联合体的模式把科研院所、产业厂商等结合起来,更好地让大模型产业形成正向的闭环回路。这些联合体由国内多个学界、业界机构组成,他们围绕自身与华为构建的一些基础设施展开大模型研究。比如:
田奇,计算机视觉、多媒体信息检索专家,IEEEFellow。1992年本科毕业于清华大学电子工程系,1996年硕士毕业于美国德雷塞尔大学,后赴美国伊利诺伊大学香槟分校学习,师从ThomasS.Huang教授获博士学位。2002年至2019年间,任美国德克萨斯大学圣安东尼奥分校计算机系助理教授、副教授和正教授。2018年至2020年间,任华为诺亚方舟实验室计算视觉首席科学家。2020年3月,加入华为云,任华为云人工智能领域首席科学家。
华为云盘古预训练大模型包括自然语言处理大模型、视觉大模型、多模态大模型、科学计算大模型、图网络大模型等多个系列大模型,可实现一个AI大模型在众多场景通用、泛化和规模化复制,减少对数据标注的依赖,让AI开发由作坊式转变为工业化开发的新模式。在预训练模型+微调的模式下,开发周期能够缩短到几天,甚至几个小时。
与OpenAIGPT-3相比,华为盘古NLP(自然语言处理)同样达到千亿级参数量,并且,盘古NLP是全球最大的中文语言AI训练大模型。
浪潮信息
非营利性研究机构
ChatGPT的蹿红让其背后的研发公司OpenAI成为了AI界的当红炸子鸡。这家公司在2015年由一群科技领袖创办,包括山姆阿尔特曼(SamAltman)、彼得泰尔(PeterThiel)、里德霍夫曼(ReidHoffman)和埃隆马斯克(ElonMusk)等,最初只是一家致力于学术研究的小型非营利性实验室。从反响平平的GPT-1到今天名声大噪的ChatGPT,这家公司几度沉浮终见曙光。
在国内,我们同样能看到一批非营利性研究机构的诞生和蓬勃发展。
智源研究院
2018年,北京智源人工智能研究院在科技部和北京市支持下,联合北京人工智能领域优势单位共建。成立三年多以来,智源研究院始终聚焦原始创新和核心技术,在北京建成全球最佳的人工智能创新生态,打造世界人工智能的「学术高地」。
代表成员:唐杰、刘知远等。
2021年3月20日,智源研究院发布了我国首个超大规模智能模型系统「悟道」的第一阶段成果。「悟道」由智源研究院牵头,汇聚清华、北大、人大、中科院等高校院所,以及诸多企业的100余位AI领域专家共同研发,从基础性能、有效使用到预训练模型扩展,提出一系列创新解决方法,取得多项国际领先的AI技术突破和多个世界第一。
2021年6月,智源研究院发布「悟道2.0」巨模型,以1.75万亿的参数量成为当时全球规模最大的预训练模型。不仅如此,悟道团队还基于GPT与BERT各自在自然语言生成(NLG)和自然语言理解(NLU)任务上的优点,成功将两者融合并提出通用语言模型GLM,将所有自然语言任务都化归为生成任务进行统一处理,GLM也成为首个在NLU、NLG、Seq2Seq、不定长填空等任务中全部登顶的语言模型。
鹏城实验室
鹏城实验室是中央批准成立的突破型、引领型、平台型一体化的网络通信领域新型科研机构。实验室拥有一支由院士专家、杰出领军人才、中青年骨干、博士生团队组成的多层次合理人才队伍,建成了以「鹏城云脑」「鹏城靶场」为代表的若干重大科技基础设施与平台,发布了「丝路」多语言机器翻译平台、「鹏程。盘古」中文预训练语言模型等一系列重大应用。
其中,网络智能研究部由高文院士领衔,拥有全球领先的智能算力大科学装置「鹏城云脑」,贯通云态智能计算软件体系,研制体系化网络智能集群开源软件栈,突破感知、评价、决策一体化的多维度协同与持续进化的云网协同智能等共性关键技术,支撑智能制造、物联网、工业云、人工智能等规模化产业应用。研究部设有云脑研究所、高效能云计算研究所、视觉智能研究所、云脑使能研究所。研究部人员构成多元化,现有全职、博士后、双聘、访问学者、联培博士生等500多人,团队成员均来自海内外知名高校。
高文,现任中国工程院院士、鹏城实验室主任,北京大学博雅讲席教授,新一代人工智能产业技术创新战略联盟理事长,全国专业标准化技术委员会副主任,数字音视频编解码技术标准(AVS)工作组组长,国际电气和电子工程师协会会士(IEEEFellow)、美国计算机协会会士(ACMFellow)。曾任第十届、十一届、十二届全国政协委员,国务院学科评议组计算机学科成员,中国计算机协会理事长,计算机学报主编;2013年至2018年,在国家自然科学基金委员会工作,任自然科学基金委副主任。2018年被聘为鹏城实验室主任。曾一次获得国家技术发明一等奖、一次获得国家技术发明二等奖、五次获得国家科技进步二等奖,获得「2005中国十大教育英才」称号和中国计算机学会王选奖。主要从事人工智能应用和多媒体技术、计算机视觉、模式识别与图像处理、虚拟现实方面的研究,主要著作有《数字视频编码技术原理》、《AdvancedVideoCodingSystems》等。在本领域国际期刊上发表论文200余篇,国际会议论文600余篇。
IDEA研究院认知计算与自然语言研究中心
粤港澳大湾区数字经济研究院(InternationalDigitalEconomyAcademy,简称「IDEA研究院」)的使命为「推动人类AI技术发展,立足社会需求研发颠覆式创新技术,并回馈社会,让更多的人从数字经济发展中获益。」研究院实行理事会领导下的院长负责制,由沈向洋博士担任理事长,理事会成员包括:中国工程院院士、鹏城国家实验室主任高文,深圳市科技创新委员会主任梁永生,福田区委副书记、区长黄伟,香港科技大学首席副校长倪明选。
研究院目前已聚集一批包括院士、世界著名大学教授、世界知名开源系统发明人在内的国际一流技术专家,致力于在AI基础技术与开源系统、人工智能金融科技、区块链技术与机密计算、企业级AI系统、产业智能物联网与智能机器人等领域研发国际顶尖成果,并培育一批国际领先科技企业,带动深圳乃至大湾区万亿级数字经济产业发展。
IDEA研究院认知计算与自然语言研究中心(CCNL,CognitiveComputingandNaturalLanguage)致力于在预训练大模型时代建设认知智能的基础设施、推动AI学术和产业发展。目前,研究中心在预训练模型生产、少样本/零样本学习、受控文本生成、自动化机器学习等技术领域,都达到了领先水平。
沈向洋,IDEA研究院创始人、理事长。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,计算机科学与人工智能领域的世界级专家和全球科技产业领袖,在学术界、企业界、投资界拥有重要影响力。沈博士曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。他参与创建了微软亚洲研究院,担任院长兼首席科学家,培养了众多国际一流的计算机科学家、技术专家和企业家。
张家兴,IDEA研究院认知计算与自然语言研究中心讲席科学家。北京大学博士,清华大学、香港中文大学、香港科技大学等兼职/实践教授。曾任微软亚洲研究院研究员、蚂蚁集团资深算法专家、360数科首席科学家/副总裁。在IDEA研究院期间,张家兴博士带领团队创建了中文最大的开源预训练模型体系「封神榜」,也成功于近期开源中文第一个StableDiffusion模型太乙。
封神榜开源大模型体系包括封神榜大模型、封神框架、封神榜单三个子项目,将数据和算力沉淀成具有认知能力的预训练模型,目标是成为海量下游任务和各种算法创新研究的坚实基础。其中「二郎神」模型已获得中文NLP权威榜单FewCLUE与ZeroCLUE的双料冠军。
极具潜力的初创公司
元语智能
杭州元语智能科技有限公司成立于2022年,是一家致力于提供通用人工智能技术(AGI)的初创公司。公司愿景是「坚定通用人工智能信仰,持续不断在全球范围内,为实现可靠、有效、无害的通用人工智能贡献中国力量,让人类受益」。
元语智能训练了元语AI(ChatYuan)模型,它可以通过对话形式进行交互。模型可以用于回答问题、可以结合上下文做对话、做各种生成任务,包括创意性写作,也能回答法律、新冠等领域类问题。它基于PromptCLUE-large结合数亿条功能问答和多轮对话数据进一步训练得到。目前已经提供支持功能型对话的开源中文大模型免费下载及API服务,以及基于网页、小程序的类「ChatGPT」的机器人交互产品等。
据天眼查信息显示,该公司成立于2022年,是一家以从事软件和信息技术服务业为主的企业,注册资本100万元人民币,持股50%的大股东徐亮也是杭州敬天爱人管理咨询合伙企业大股东,持股70%。后者主要从事商务服务业,注册资本100万人民币,以40万元金额投资了元语智能,持股40%。元语智能另一家持股10%的股东为西湖心辰(杭州)科技有限公司,创始人为蓝振忠。
2月初,元语智能推出了国内首个基于大模型的功能型对话产品ChatYuan。ChatYuan可以用于问答、结合上下文做对话、做各种生成任务(包括创意性写作),也能回答一些像法律、医疗等领域问题。
在上线后不久,元语智能ChatYuan小程序页面提示已变更为「系统更新维护中」。2月21日,ChatYuan发布升级版本,支持中英双语交互、多次编辑、上下文关联交互、模拟情景设定等多种新功能。
澜舟科技
澜舟科技是业界领先的认知智能公司,致力于以自然语言处理(NLP)技术为基础,为全球企业提供新一代认知智能平台,助力企业数字化转型升级。其主要产品是基于「孟子轻量化模型」打造的一系列SaaS功能引擎(包括搜索、生成、翻译、对话)等和垂直场景应用。
澜舟科技拥有自主知识产权的「孟子轻量化预训练模型」,并融入了类ChatGPT的底层技术,在AIGC技术生成内容等方面有所布局。
周明,澜舟科技创始人兼CEO。世界著名的NLP专家、中国计算机学会副理事长,哈工大等5所学校博士导师。曾任国际计算语言学学会主席、微软亚洲研究院副院长。他是世界上发表NLP论文最多的学者之一,H-index100。周明于1991年在哈工大获得博士学位,后在清华大学任教。1999年加入微软亚洲研究院,长期领导NLP研究。2021年创立澜舟科技,从事轻量化大模型和新一代NLP产品的研发,获北京HICOOL(2021)创业大赛最高奖。
2021年7月,澜舟科技-创新工场团队与上海交通大学、北京理工大学等单位联合研发的中文语言模型—孟子轻量型模型,超越腾讯、搜狗等公司,在中文语言理解评测CLUE榜单上登顶第一,刷新业界记录。
孟子预训练模型是基于澜舟团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于Transformer架构,仅包含十亿参数量,基于数百G级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
循环智能
循环智能创立于2016年,为企业提供从全渠道沟通数据采集到录音转写、内容挖掘、NLP语义建模、会话分析洞察和沟通实时辅助的完整解决方案。运用NLP、语音、多模态、大模型等人工智能技术打造「销售科技」方案,帮助企业的销售团队提升销售业绩。
杨植麟,循环智能联合创始人,清华大学交叉信息院NLP实验室负责人,智源青年科学家。本科毕业于清华大学,博士毕业于卡内基梅隆大学,GoogleScholar引用累计10,000余次,与多名图灵奖得主合作发表论文。作为第一作者发明的XLNet在20项任务上超越GoogleBERT,是2019年全球引用最高的同行评审NLP论文。他发明的Transformer-XL是首个全面超越RNN的注意力语言模型,也是ACL2019引用最高的论文。曾主导开发盘古NLP大模型,获世界人工智能大会「2021SAIL之星」,入选福布斯亚洲30under30。他创办的公司循环智能累计融资超4亿元,连续三年营收增长超100%。
追一科技
追一科技是一家企业级智能服务AI公司,创立于2016年3月,主攻深度学习和自然语言处理,为金融、零售、生活服务等领域企业提供智能服务系统和解决方案。追一科技的智能服务系统AIforce,拥有AI语义理解能力、智能产品矩阵。
「我们始终站在自然语言处理(NLP)技术研发和实践的前沿,在大规模预训练模型、自然语言智能交互(NL2X)、NLG(自然语言生成)等领域屡有创新,并将我们的技术成果开放给业界,持续推动NLP技术的发展。」
追一在机器阅读理解与NL2SQL技术上拥有深厚积累,举办了国内首个中文NL2SQL比赛,并在机器阅读理解比赛中多次登顶榜首。
2021年4月,追一科技开源了国内首个中文生成式预训练模型T5PEGASUS,在自动摘要、问题生成多个自然语言处理任务上达到了新高度。凭借出色的小样本学习能力,T5PEGASUS可以帮助企业和开发者大大减轻数据标注训练负担。
2021年11月,追一科技联合粤港澳大湾区数字经济研究院(IDEA)发布10亿级大规模预训练模型「周文王」。
潞晨科技
类似于ChatGPT这样的大模型,对于任何一家企业来说,训练成本都是极高的。即使花巨资使用超级计算机集群、聘请专家,也难以实现AI模型的高效训练。针对这一行业痛点,也有很多初创公司在提出自己的解决方案,潞晨科技就是其中的代表。
2021年,潞晨科技发布大规模并行AI训练系统——「夸父」(Colossal-AI),通过多维并行、大规模优化器、自适应任务调度、消除冗余内存、降低能量损耗等方式,旨在打造一个高效的分布式人工智能训练系统,作为深度学习框架的内核,帮助用户在最大化提升人工智能训练效率的同时最小化训练成本。
潞晨科技的团队核心成员均来自美国加州大学伯克利分校,斯坦福大学,清华大学,北京大学,新加坡国立大学,新加坡南洋理工大学等国内外知名高校。
尤洋,潞晨科技董事长兼总裁,新加坡国立大学校长青年教授。尤洋是UCBerkeley博士,曾创造ImageNet和BERT训练速度世界纪录,获IPDPS和ICPP最佳论文,西贝尔奖学金,ACM-IEEEHPCFellowship,LotfiA.ZadehPrize,ACMDoctoralDissertationAward,福布斯30岁以下精英榜(亚洲),IEEE-CS超算杰出新人奖。
小冰公司
小冰公司前身为微软(亚洲)互联网工程院人工智能小冰团队,是微软全球最大的人工智能独立产品研发团队。该团队于2013年12月在中国组建,2014年9月扩展建立日本研发分部,团队分布于北京、苏州、东京等地,技术产品覆盖中国、日本及印度尼西亚等多个国家,商业客户覆盖全球范围。为加快小冰产品线的本土创新步伐,促进小冰商业生态环境的完善,2020年7月13日,微软宣布将小冰分拆为独立公司运营。
作为微软全球首个以中国为总部的人工智能产品线,小冰经多年发展,已成为微软最有价值的人工智能技术框架之一。小冰框架以自然语言处理(NLP)为基础,持续推动完备迭代发展,目前是全球承载交互量最大的完备人工智能框架之一,技术覆盖自然语言处理、计算机语音、计算机视觉及人工智能内容生成。其中,在开放域对话、多模态交互、超级自然语音及内容生成领域居于全球领先。
李笛,2013年加入微软,同年创立微软人工智能情感计算框架,于2014年推出微软小冰。小冰是目前全球范围内承载交互量最大的人工智能系统,占全球交互总量60%以上。2020年7月,微软宣布将小冰分拆为独立公司运营,李笛担任小冰公司CEO。
徐元春,小冰公司首席运营官、人工智能创造力实验室负责人,CCF计算艺术分会执行委员,中国音像与数字出版协会音乐产业促进工作委员会专家委员会特聘专家,中国乐器协会未来音乐科技专业委员会委员。从2017年开始领导团队从事小冰在AI创造领域的技术研发、产品革新和应用落地。致力赋予AI拟合人类的创造能力,运用AI技术展开具有创造性的内容生成,并倡导通过AI技术解决高度定制化内容的供需矛盾。目前在文本、声音与视觉方面掌握全球领先的核心技术,拥有丰富的包括端到端的音乐创作(作词,作曲,编曲)、诗歌(现代诗,古诗)、绘画(西方油画,中国画)、艺术设计等创造模型,在AI创造领域不仅内容形态众多且质量稳定,并已形成完善的产品线,以及广泛的合作伙伴生态阵营。
思必驰
思必驰被列入国家发改委「互联网+」重大工程和人工智能创新发展工程、工信部人工智能与实体经济深度融合创新项目、江苏省工业和信息产业转型升级项目、江苏省科技计划项目等,并累计参与40余项国家标准、行业标准制定。凭借雄厚的AI技术实力与广泛的产品业务落地,2020年,思必驰完成pre-IPO轮融资;2021年3月,思必驰完成股份制改造,正式更名为:思必驰科技股份有限公司。
俞凯,思必驰创始人、首席科学家、上海交大教授上海交通大学-苏州人工智能研究院执行院长。剑桥大学工程系博士,入选国家级人才工程、科技部中青年科技创新领军人才,国家自然科学基金委优青。中国计算机学会语音对话及听觉专业组副主任,中国人工智能产业发展联盟学术和知识产权组组长,中国语音产业联盟技术工作组副组长。2014年获得“吴文俊人工智能科学技术奖”进步奖,2016年获评“科学中国人年度人物”。IEEE高级会员,IEEESpeechandLanguageProcessingTechnicalCommittee委员。在一流国际期刊和会议上发表论文180余篇,担任InterSpeech、ICMI等国际权威学术会议程序委员会主席,以及ACL、EMNLP、InterSpeech等国际会议的语音和对话技术领域主席,多次获得国际权威期刊和会议优秀论文奖,以及多个国际公开研究评测竞赛冠军。
面壁智能
公司创始团队来自于清华大学计算机系自然语言处理与社会人文计算实验室,并由知名清华大学教授担任首席科学家。公司目前已完成百万级天使轮融资,并与知名机构与公司达成战略合作。
聆心智能
AIGC初创企业聆心智能由清华大学黄民烈教授创立,成立于2021年11月,由清华大学计算机系孵化。团队核心成员均来自于清华大学、卡内基梅隆大学、谷歌等国内外顶尖高校及公司,具有丰富的商业化经验。聆心智能的核心人员是国内最早开展大模型底层技术的团队,在语言生成、对话生成方面具有独特的技术优势。
自成立以来,聆心智能致力于将最先进的人工智能技术应用到精神健康的数字诊疗服务上,通过建立先进的AI数字疗法体系,为临床患者和广大心理亚健康人群提供高质量、低成本、个性化、全天候的情绪支持、心理咨询和干预方案,为用户提供更科学、高效的精神健康服务。
作为AI心理赛道中自然语言处理基因领先的创业团队之一,聆心智能已开发了心理咨询及朋辈支持服务线上平台聆心悠然、AI数字疗法软件聆忧,可为不同需求层次的用户提供服务。
基于生成式大模型,聆心智能打造了Emohaa情绪疗愈机器人,并与知名精神心理平台好心情达成合作,成功落地了国内首款人工智能心理陪伴数字人;与高端豪华电车品牌Beyonca合作,打造了新一代智能驾舱的贴心助手。
同时,聆心智能自研全球技术指标领先的中文对话大模型OPD,在自动评测和人工评测中显著优于同类模型;去年11月,推出了首个超拟人AI产品---「AI乌托邦」,该系统允许用户快速定制AI角色,只需要输入简单的角色描述,就可以生成相应人设的AI,与之进行深度对话和聊天。