ADL129《大规模预训练模型及其应用》开始报名线上线下同步开启

2022年8月17-19日苏州(线上线下同步举办)

学术主任:黄萱菁教授复旦大学/邱锡鹏教授复旦大学

主办单位:中国计算机学会

本期ADL主题《大规模预训练模型及其应用》邀请到崔一鸣(资深科学奖,科大讯飞)、刘知远(教授,清华大学)、丁宁(博士生,清华大学)、刘鹏飞(博士后,卡耐基梅隆大学)、杨红霞(技术总监,阿里巴巴达摩院)、李磊(助理教授,加州大学圣巴巴拉分校)、侯璐(高级研究员,华为诺亚方舟实验室)、尹伊淳(高级研究员,华为诺亚方舟实验室)共8位专家做专题讲座。活动日程:

特邀报告1:面向自然语言理解的预训练模型

特邀讲者:崔一鸣,资深科学家,科大讯飞

特邀报告2:DeltaTuning:大模型的小参数高效微调

特邀讲者:刘知远,长聘副教授,清华大学;丁宁,博士生,清华大学

特邀讲者:刘鹏飞,博后,卡耐基梅隆大学

讲者简介:刘鹏飞博士,卡耐基梅隆大学语言技术研究所博士后,InspiredCognition科技公司联合创始人。在自然语言处理及人工智能领域的顶级会议发表学术论文50余篇,谷歌学术引用4000余次。曾连续获得ACL2021BestDemoPaper,ACL2022OutstandingDemoPaper奖项,以及上海市计算机学会优秀博士论文,人工智能学会优秀博士论文,百度奖学金,微软学者,AI华人青年学者等荣誉。担任顶级会议ACL,EMNLP,NeurIPS等领域主席以及卡耐基梅隆大学自然语言处理课程的联合讲师。领导开发了首个基于深度学习的高考英语AI系统,自动审稿机器人,AI系统可解释排行榜等开源产品,受到来自于DeepMind等公司的合作邀请,以及多名投资人的意向投资。

特邀报告4:超大规模多模态预训练模型建设与其产业化落地

报告摘要:近年来,随着预训练技术在深度学习领域的飞速发展,超大规模模型逐渐走进人们的视野,成为人工智能领域的焦点。继OpenAI推出1750亿参数的GPT-3模型之后,我们于自2021年初提出百亿参数的超大规模中文多模态预训练模型M6(Multi-ModalitytoMulti-ModalityMultitaskMega-transformer),在多项多模态和自然语言下游任务表现出突出的能力。作为业界最大的中文多模态预训练模型M6,我们持续推出多个版本,参数逐步从百亿规模扩展到十万亿规模,在大模型、绿色/低碳AI、AI商业化、服务化等诸多方面取得突破性进展,比如对比相同参数规模1750亿的GPT-3模型,我们只需要其1%的算力,绿色/低碳是大模型普及的必要条件。M6服务内部近50个部门并在阿里云对外200+产品中投入使用,被MITTechReview评为2021年度中国AI突破技术并重点推荐。

今年,在探索算力极限的同时,我们也积极展开了针对通用模型这一预训练技术“皇冠”的探索,提出业界首个通用的统一大模型(模态、任务和架构)M6-OFA,极大的降低模型在预训练、适配下游任务、推理过程中的难度,更加便捷的从在线模型构建、在线模型部署、应用发布的全流程预训练服务,能够支持成百上千个应用的开发与部署。同时随着移动芯片计算能力的指数级增长,智能移动设备在内容展示终端这一传统角色之外,逐渐承担起更多任务。如何充分利用好移动算力,我们也探索了一条大模型由云计算走向端计算,端云协同建模M6-Edge。

特邀讲者:杨红霞,技术总监,阿里巴巴达摩院

特邀报告5:机器翻译预训练方法

报告摘要:预训练已经成为自然语言处理中的重要方法。如何在神经网络机器翻译中利用预训练方法来提升翻译能力?直接将预训练好的BERT/GPT等语言模型应用于机器翻译很难获得预期效果。本次讲座将围绕单语预训练、多语言预训练、多模态预训练三个方面来介绍机器翻译中预训练方法研究最新进展。预训练在机器翻译中需要达到三个目标:设计有效优化目标适应翻译任务;充分利用大量单语上已有预训练模型;拉近跨语言跨任务跨模态表示。通过预训练和细调方法,在双语翻译,多语言联合翻译(包括zero-shot场景),语音翻译,图像辅助翻译等不同翻译场景都取得了显著成效。

特邀讲者:李磊,助理教授,加州大学圣巴巴拉分校

讲者简介:李磊博士,加州大学圣巴巴拉分校助理教授。本科毕业于上海交通大学计算机系(ACM班),博士毕业于卡耐基梅隆大学计算机系。曾获2012年美国计算机学会SIGKDD最佳博士论文第二名、2017年吴文俊人工智能技术发明二等奖、2017年CCF杰出演讲者、2019年CCF青竹奖、2021年ACL最佳论文奖。在机器学习、数据挖掘和自然语言处理领域于国际顶级学术会议发表论文100余篇,主导研发火山翻译和Xiaomingbot写稿机器人等产品。担任IEEETPAMI杂志编委和2017KDDCup、2018KDDHands-onTutorial、2019-2020KDDSponsorship联合主席,IJCAI2017、AAAI2019/2020,EMNLP2019-2022、AACL2020、NeurIPS2021/2022、KDD2022等大会领域主席。

特邀报告6:预训练语言模型的压缩和加速

报告摘要:基于Transformer的预训练语言模型在多种NLP下游任务上取得了SOTA的效果。本报告首先回顾语言模型的基本概念和最近几年业界典型的预训练语言模型以及它们的应用场景。巨大的参数量使得这些模型的训练和推理成本极高,阻碍了这些模型在边缘设备或云上的部署。本报告然后梳理近期预训练语言模型训练加速和推理压缩加速方法和优缺点,并重点介绍报告人在该研究领域的一些最新进展,包括使用知识蒸馏、动态网络、网络量化(包括量化训练、并行后量化以及生成模型的量化)和参数共享复用等对预训练语言模型进行极致压缩和加速的算法与落地情况。最后,本报告会展望未来的研究方向和一些思考。

特邀讲者:侯璐/尹伊淳,高级研究员,华为诺亚方舟实验室

讲者简介:侯璐,2019年于香港科技大学获得博士学位,目前在华为诺亚方舟实验室语音语义组担任高级研究员,从事NLP和多模态大模型预训练和压缩加速的研究和落地工作。已在ICML,NeurIPS,ICLR,EMNLP,ACL等机器学习和自然语言处理领域发表论文十余篇,并获得ACL2022杰出论文奖。

讲者简介:尹伊淳,2018年于北京大学获得博士学位。目前在华为诺亚方舟语音语义实验室担任高级研究员,主要从事高效预训练语言模型和神经符号的研究与落地。在ACL、EMNLP等自然语言处理会议上发表多篇论文,其中一篇是EMNLP2020引用次数最高的论文。

学术主任:

黄萱菁,教授,复旦大学

复旦大学教授,中文信息学会理事,中国计算机学会自然语言处理专委会副主任,计算语言学学会亚太分会执委,亚太信息检索学会指导委员会委员。主要从事人工智能、自然语言处理和信息检索等方向研究。近年来承担了国家重点研发计划课题、国家自然科学基金等多项研究。迄今在ACL、SIGIR、IJCAI、AAAI、ICML、EMNLP、NAACL、IEEETKDE、IEEE/ACMTASL等国际重要学术刊物和会议发表论文200余篇,被引11,000多次。曾获AI2000人工智能全球最具影响力提名学者、人工智能全球女性、福布斯中国科技女性、上海市育才奖、复旦大学“研究生心目中的好导师”等多项奖励。

邱锡鹏,教授,复旦大学

邱锡鹏,复旦大学计算机学院教授,国家优青获得者,主要从事自然语言处理、深度学习等方向的研究,发表CCFA/B类论文70余篇,获得ACL2017杰出论文奖(CCFA类)、CCL2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选PaperDigest发布的ACL/EMNLP/NAACL/IJCAI会议的最有影响力论文(该会议每年所有发表论文中被引用数前10名的论文),主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程,2018年获钱伟长中文信息处理科学技术奖青年创新奖,2020获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人)。培养学生多次获得一级学会优博、微软学者、百度奖学金等。

线下地址(疫情允许的情况下):苏州市相城区高铁新城相融路600号CCF业务总部&会员活动中心

线上地址:报名交费成功后通过邮件发送。

报名须知:

1、报名费:CCF会员2800元,非会员3600元。食宿交通费用自理。根据交费先后顺序,会员优先的原则录取,额满为止。疫情期间,根据政府疫情防控政策随时调整举办形式(线上、线下)。

THE END
1.推荐几个在线练题平台腾讯云开发者社区最近在刷LeetCode,对于这种刷题平台由衷的喜欢,同时发现了几个非常好的在线练习平台,分别是学习Git、SQL、正则表达式的在线练习平台。 看到有人在评论里面问有没有Python的在线练题平台,想起来我这还是个Python的账号呢,汗颜呀,所以补充一下我之前用过的Python在线练题平台。 https://cloud.tencent.com/developer/article/1667969
2.GitHub中适合新手学习机器学习的项目,以及学习三款工具Keras:Keras 是一个高级神经网络库,建立在 TensorFlow 之上,提供了简洁而灵活的接口。你可以学习如何使用 Keras 构建和训练神经网络模型,包括卷积神经网络、循环神经网络等。项目链接:https://github.com/keras-team/keras Fast.ai:Fast.ai 是一个面向初学者和中级学习者的深度学习教育平台,提供了一系列的课程和教程https://blog.csdn.net/itcast_cn/article/details/131403576
3.GitHublearninghub/learninghub:learningNotifications Fork0 Star1 learning-hub又一个OJ的在线编程学习平台. learning-hub.github.io/learning-hub/ License Apache-2.0 license 1star0forksBranchesTagsActivity Star Notifications master BranchesTags Code Folders and files Latest commit 53 Commits https://github.com/learning-hub/learning-hub
4.24常见渗透测试漏洞靶场列表11. MS08067实战型训练平台: http://bachang. 12. 东塔在线靶场: https://labs./index/course/index 0x03 漏洞靶场 1. DVWA: http://www. 2. BWVS: https://github.com/bugku/BWVS 3. BWAPP: https:///projects/bwapp 4. WAVSEP: https://github.com/sectooladdict/wavsep http://www.360doc.com/content/23/0410/06/77981587_1075837858.shtml
5.Taurus:面向机器学习的数据面架构(下)5.2.3. 在线训练 Taurus 的机器学习模型也可以被更新以优化全局指标,这对于单个交换机无法观察到的行为(如下游拥堵)很有帮助。我们将遥测数据包送入控制面的训练应用程序,并使用流量规则配置时间作为估计,评估更新数据面模型权重所需的时间。 图13 显示,更高的采样率(对应更多的批处理数据)收敛速度更快(几十到几https://developer.aliyun.com/article/1111129
6.线上python哪个平台好?Worktile社区3. 分享和共享:可以将Notebook保存为文件或分享到GitHub等平台。 ### 三、Google Colab Google Colab是一个基于云的Python编程环境,可以免费使用。它提供了一个Jupyter Notebook的界面,并且可以直接在云端运行代码。 ### 优势 1. 云端运行:所有代码和数据都存储在云端,无需担心本地环境的配置和限制。 2https://worktile.com/kb/ask/90158.html
7.超全整理:程序员都在用什么工具?“计算机科学里两件最难的事:缓存失效和命名。” Codelf 通过搜索在线开源平台 Github, Bitbucket, Google Code, Codeplex, Sourceforge, Fedora Project 的项目源码,帮开发者从中找出已有的匹配关键字的变量名,从而帮助为变量名苦恼的开发者命名。这个搜索服务支持直接搜索中文。 https://xie.infoq.cn/article/3808624e50341691b5e44c647
8.线上教学质量监测方案2、课程教学方案二:教师使用班级微信群、QQ群等开展互动教学,疑难解答。各任课教师按照班级课表,及时发布学习计划和资源,微课、作业、课件等,指导学生按时完成学习任务。老师在微信群、QQ群等在线平台通过“语音+图片+文字+小视频”的形式进行教学直播,开展实时讨论、作品点评、小视频分享等活动。 https://www.oh100.com/a/202301/5942245.html
9.从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接另一种做法参考论文Anthropic LLM ,通过三个阶段的训练,包括语言模型预训练,偏好模型预训练,以及偏好模型微调。首先在大规模语料上进行语言模型的预训练,这一步直接采用指令微调后得到的LLM。然后从StackExchange/Reddit/Wikipedia等获取混合对比数据集,进行偏好模型的预训练。最后在人类反馈对比数据上进行微调,训练符合人类https://www.shangyexinzhi.com/article/10160427.html
10.一步一步教你在线免费训练机器学习模型(启用GPU和TPU)由于我无法在这篇文章中涵盖所有在线训练机器学习模型的服务,因此本文将有第二部分。 所有需要学习和实践机器学习的资源都是开源的,可在线获取。从计算、数据集、算法以及免费在线提供的各种高质量教程,你只需要互联网连接和学习的热情。 我希望这篇文章有用,因为它解决了开始走向机器学习和数据科学之路的业界人士所面https://blog.itpub.net/31545819/viewspace-2216969/
11.卷王都在用!100款宝藏级AIGC工具分享,强烈建议收藏!!用户输入想要润色、修改的文本内容,点击“一键优化”之后,它就能自动识别文本类型、风格以及写作目的,用户还能调整想要修改的幅度,平台就能基于原文一键输出英文改写结果,还支持智能纠错、多样改写等AI功能,使语言表达更加地道、简洁。网页链接:https://www.writingo.nethttps://www.changbiyuan.cn/news/2023/news_0711/69335.html
12.AI资料入门:快速获取与利用AI资源的指南AI工具与平台利用指南 1. 开发工具与环境 Jupyter Notebook:集成Python、R或Julia等语言的交互式环境,方便编写、运行和展示代码。 Google Colab:结合了Jupyter Notebook的便利性和Google云服务的计算能力,支持GPU加速,适合AI模型训练。 2. 社区与论坛 参与具有活跃AI社区的论坛如Stack Overflow的AI版块、Reddit的AI论坛https://www.imooc.com/article/349375
13.私有化部署,开源轻量级的团队在线协作工具——Kooteamkooteam是一款轻量级的在线团队协作工具,提供各类文档工具、在线思维导图、在线流程图、项目管理、任务分发,知识库管理等工具。 介绍 kooteam是一款轻量级的在线团队协作工具,提供各类文档工具、在线思维导图、在线流程图、项目管理、任务分发,知识库管理等工具。 同时也是一个免费开源的产品,遵循Apache Licence 2.0开源协议https://news.51cto.com/art/202005/617354.htm
14.有趣的开源社区微信扫码赞助本站 服务器还剩278天 +1年 : 用户总数 2.6w 开源项目 3533 关于本站 HelloGitHub 是一个发现和分享有趣、入门级开源项目的平台。 希望大家能够在这里找到编程的快乐、 轻松搞定问题的技术方案、 大呼过瘾的开源神器, 顺其自然地开启开源之旅。https://hellogithub.com/