ADL129《大规模预训练模型及其应用》开始报名线上线下同步开启

2022年8月17-19日苏州(线上线下同步举办)

学术主任:黄萱菁教授复旦大学/邱锡鹏教授复旦大学

主办单位:中国计算机学会

本期ADL主题《大规模预训练模型及其应用》邀请到崔一鸣(资深科学奖,科大讯飞)、刘知远(教授,清华大学)、丁宁(博士生,清华大学)、刘鹏飞(博士后,卡耐基梅隆大学)、杨红霞(技术总监,阿里巴巴达摩院)、李磊(助理教授,加州大学圣巴巴拉分校)、侯璐(高级研究员,华为诺亚方舟实验室)、尹伊淳(高级研究员,华为诺亚方舟实验室)共8位专家做专题讲座。活动日程:

特邀报告1:面向自然语言理解的预训练模型

特邀讲者:崔一鸣,资深科学家,科大讯飞

特邀报告2:DeltaTuning:大模型的小参数高效微调

特邀讲者:刘知远,长聘副教授,清华大学;丁宁,博士生,清华大学

特邀讲者:刘鹏飞,博后,卡耐基梅隆大学

讲者简介:刘鹏飞博士,卡耐基梅隆大学语言技术研究所博士后,InspiredCognition科技公司联合创始人。在自然语言处理及人工智能领域的顶级会议发表学术论文50余篇,谷歌学术引用4000余次。曾连续获得ACL2021BestDemoPaper,ACL2022OutstandingDemoPaper奖项,以及上海市计算机学会优秀博士论文,人工智能学会优秀博士论文,百度奖学金,微软学者,AI华人青年学者等荣誉。担任顶级会议ACL,EMNLP,NeurIPS等领域主席以及卡耐基梅隆大学自然语言处理课程的联合讲师。领导开发了首个基于深度学习的高考英语AI系统,自动审稿机器人,AI系统可解释排行榜等开源产品,受到来自于DeepMind等公司的合作邀请,以及多名投资人的意向投资。

特邀报告4:超大规模多模态预训练模型建设与其产业化落地

报告摘要:近年来,随着预训练技术在深度学习领域的飞速发展,超大规模模型逐渐走进人们的视野,成为人工智能领域的焦点。继OpenAI推出1750亿参数的GPT-3模型之后,我们于自2021年初提出百亿参数的超大规模中文多模态预训练模型M6(Multi-ModalitytoMulti-ModalityMultitaskMega-transformer),在多项多模态和自然语言下游任务表现出突出的能力。作为业界最大的中文多模态预训练模型M6,我们持续推出多个版本,参数逐步从百亿规模扩展到十万亿规模,在大模型、绿色/低碳AI、AI商业化、服务化等诸多方面取得突破性进展,比如对比相同参数规模1750亿的GPT-3模型,我们只需要其1%的算力,绿色/低碳是大模型普及的必要条件。M6服务内部近50个部门并在阿里云对外200+产品中投入使用,被MITTechReview评为2021年度中国AI突破技术并重点推荐。

今年,在探索算力极限的同时,我们也积极展开了针对通用模型这一预训练技术“皇冠”的探索,提出业界首个通用的统一大模型(模态、任务和架构)M6-OFA,极大的降低模型在预训练、适配下游任务、推理过程中的难度,更加便捷的从在线模型构建、在线模型部署、应用发布的全流程预训练服务,能够支持成百上千个应用的开发与部署。同时随着移动芯片计算能力的指数级增长,智能移动设备在内容展示终端这一传统角色之外,逐渐承担起更多任务。如何充分利用好移动算力,我们也探索了一条大模型由云计算走向端计算,端云协同建模M6-Edge。

特邀讲者:杨红霞,技术总监,阿里巴巴达摩院

特邀报告5:机器翻译预训练方法

报告摘要:预训练已经成为自然语言处理中的重要方法。如何在神经网络机器翻译中利用预训练方法来提升翻译能力?直接将预训练好的BERT/GPT等语言模型应用于机器翻译很难获得预期效果。本次讲座将围绕单语预训练、多语言预训练、多模态预训练三个方面来介绍机器翻译中预训练方法研究最新进展。预训练在机器翻译中需要达到三个目标:设计有效优化目标适应翻译任务;充分利用大量单语上已有预训练模型;拉近跨语言跨任务跨模态表示。通过预训练和细调方法,在双语翻译,多语言联合翻译(包括zero-shot场景),语音翻译,图像辅助翻译等不同翻译场景都取得了显著成效。

特邀讲者:李磊,助理教授,加州大学圣巴巴拉分校

讲者简介:李磊博士,加州大学圣巴巴拉分校助理教授。本科毕业于上海交通大学计算机系(ACM班),博士毕业于卡耐基梅隆大学计算机系。曾获2012年美国计算机学会SIGKDD最佳博士论文第二名、2017年吴文俊人工智能技术发明二等奖、2017年CCF杰出演讲者、2019年CCF青竹奖、2021年ACL最佳论文奖。在机器学习、数据挖掘和自然语言处理领域于国际顶级学术会议发表论文100余篇,主导研发火山翻译和Xiaomingbot写稿机器人等产品。担任IEEETPAMI杂志编委和2017KDDCup、2018KDDHands-onTutorial、2019-2020KDDSponsorship联合主席,IJCAI2017、AAAI2019/2020,EMNLP2019-2022、AACL2020、NeurIPS2021/2022、KDD2022等大会领域主席。

特邀报告6:预训练语言模型的压缩和加速

报告摘要:基于Transformer的预训练语言模型在多种NLP下游任务上取得了SOTA的效果。本报告首先回顾语言模型的基本概念和最近几年业界典型的预训练语言模型以及它们的应用场景。巨大的参数量使得这些模型的训练和推理成本极高,阻碍了这些模型在边缘设备或云上的部署。本报告然后梳理近期预训练语言模型训练加速和推理压缩加速方法和优缺点,并重点介绍报告人在该研究领域的一些最新进展,包括使用知识蒸馏、动态网络、网络量化(包括量化训练、并行后量化以及生成模型的量化)和参数共享复用等对预训练语言模型进行极致压缩和加速的算法与落地情况。最后,本报告会展望未来的研究方向和一些思考。

特邀讲者:侯璐/尹伊淳,高级研究员,华为诺亚方舟实验室

讲者简介:侯璐,2019年于香港科技大学获得博士学位,目前在华为诺亚方舟实验室语音语义组担任高级研究员,从事NLP和多模态大模型预训练和压缩加速的研究和落地工作。已在ICML,NeurIPS,ICLR,EMNLP,ACL等机器学习和自然语言处理领域发表论文十余篇,并获得ACL2022杰出论文奖。

讲者简介:尹伊淳,2018年于北京大学获得博士学位。目前在华为诺亚方舟语音语义实验室担任高级研究员,主要从事高效预训练语言模型和神经符号的研究与落地。在ACL、EMNLP等自然语言处理会议上发表多篇论文,其中一篇是EMNLP2020引用次数最高的论文。

学术主任:

黄萱菁,教授,复旦大学

复旦大学教授,中文信息学会理事,中国计算机学会自然语言处理专委会副主任,计算语言学学会亚太分会执委,亚太信息检索学会指导委员会委员。主要从事人工智能、自然语言处理和信息检索等方向研究。近年来承担了国家重点研发计划课题、国家自然科学基金等多项研究。迄今在ACL、SIGIR、IJCAI、AAAI、ICML、EMNLP、NAACL、IEEETKDE、IEEE/ACMTASL等国际重要学术刊物和会议发表论文200余篇,被引11,000多次。曾获AI2000人工智能全球最具影响力提名学者、人工智能全球女性、福布斯中国科技女性、上海市育才奖、复旦大学“研究生心目中的好导师”等多项奖励。

邱锡鹏,教授,复旦大学

邱锡鹏,复旦大学计算机学院教授,国家优青获得者,主要从事自然语言处理、深度学习等方向的研究,发表CCFA/B类论文70余篇,获得ACL2017杰出论文奖(CCFA类)、CCL2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选PaperDigest发布的ACL/EMNLP/NAACL/IJCAI会议的最有影响力论文(该会议每年所有发表论文中被引用数前10名的论文),主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程,2018年获钱伟长中文信息处理科学技术奖青年创新奖,2020获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人)。培养学生多次获得一级学会优博、微软学者、百度奖学金等。

线下地址(疫情允许的情况下):苏州市相城区高铁新城相融路600号CCF业务总部&会员活动中心

线上地址:报名交费成功后通过邮件发送。

报名须知:

1、报名费:CCF会员2800元,非会员3600元。食宿交通费用自理。根据交费先后顺序,会员优先的原则录取,额满为止。疫情期间,根据政府疫情防控政策随时调整举办形式(线上、线下)。

THE END
1.练习:训练机器学习模型你从制造设备中收集了正常设备和故障设备的传感器数据。 现在,你想使用 Model Builder 来训练机器学习模型,用于预测机器是否会出现故障。 通过使用机器学习来自动监视这些设备,你可以提供更及时和更可靠的维护,这样可以节省公司的资金。 添加新的机器学习模型 (ML.NET) 项 https://docs.microsoft.com/zh-cn/learn/modules/predictive-maintenance-model-builder/5-exercise-train-model-builder/
2.用美图WHEE在线训练风格模型Contra实验编程美图出品的ai绘画创作平台whee,除了具备常用的文生图,图生图等功能,还可以进行风格模型训练. 本篇介绍如何用whee训练一个立体主义风格模型. 训练效果 第一步,进入风格模型训练 打开whee在线版( whee.com ),找到风格模型训练. 进入后的界面: 第二步,训练设置 风格模型名称 填写"立体主义".如果后续有更新版本的计划https://www.zcool.com.cn/article/ZMTYxMDM5Ng==.html
3.tensorflow在线训练模型怎么实现问答在TensorFlow中,可以使用tf.keras模块中的fit()方法来实现在线训练模型。在线训练模型是指在不断接收新数据的情况下,持续更新模型参数,以适应新的数据分布。以下是一个简单的示例代码https://www.yisu.com/ask/73190902.html
4.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
5.海艺AI:免费AI图片生成器,在线模型训练,打造个性化艺术海艺AI:免费AI图片生成器,在线模型训练,打造个性化艺术 原创Ada巴巴Ada AI助手2024-05-19 08:03江苏听全文 海艺AI简介 海艺AI(SeaArt)是一款由成都海艺互娱科技有限公司开发的国产AI绘画工具。 它利用尖端的人工智能技术,让用户无需专业技能即可创作、分享和生成独特的艺术作品。 https://www.360doc.cn/article/11604731_1123709240.html
6.使用MaixHub零AI经验零代码快速在线训练和部署模型到设备开发使用MaixHub, 不会 AI 训练编程也能快速训练出 AI 模型并快速部署到你的开发板或者是手机和网页服务上! 版权声明:本文为 neucrack 的原创文章,遵循 Chttps://www.jianshu.com/p/12509ad881f9
7.K210物体检测(利用Maixpy在线模型训练串口通信)python3.在线训练模型 https://www.maixhub.com/ModelTraining 根据链接,获取机器码,填写相关信息,上传模型,然后开始训练。有两种训练方式,物体分类和物体检测,物体检测会输出坐标并框出物体,物体分类只会返回物体标签。如果刷新界面后如果一直停留在1%,就是数据集有误,根据Message输出的错误信息修改。 https://huaweicloud.csdn.net/63808518dacf622b8df898e4.html
8.随时间在线训练脉冲神经网络模型的图像数据分类方法与流程10.为了克服上述现有技术的不足,本发明提供一种基于随时间在线训练的脉冲神经网络模型进行图像视觉数据分类的方法,方法取名为ottt(online training through time)。通过本发明提供的方法,可以在训练snn模型时极大地减小训练内存的开销,将训练得到的模型用于计算机图像数据和神经形态图像视觉数据的分类与识别等视觉任务,能够https://www.xjishu.com/zhuanli/55/202210694741.html
9.一步一步教你在线免费训练机器学习模型(启用GPU和TPU)由于我无法在这篇文章中涵盖所有在线训练机器学习模型的服务,因此本文将有第二部分。 所有需要学习和实践机器学习的资源都是开源的,可在线获取。从计算、数据集、算法以及免费在线提供的各种高质量教程,你只需要互联网连接和学习的热情。 我希望这篇文章有用,因为它解决了开始走向机器学习和数据科学之路的业界人士所面https://blog.itpub.net/31545819/viewspace-2216969/
10.货拉拉一站式云原生AI平台建设实践数据工程模型训练在线服务数据工程、模型训练、在线服务是机器学习技术实现的三驾马车,这个流程中处理的数据量大,计算量大、训练框架和版本多样、底层依赖复杂,资源算力管理,需要人工介入解决很多问题,给AI落地带来了比较困难。针对这一系列的问题,货拉拉大数据智能平台组从2020年开始就在探索提供一套完整的云原生的一站式AI解决方案,并从那时起https://juejin.cn/post/7213636024101765181
11.TinyMaix:超轻量级推理框架即将支持 MaixHub 在线模型训练 在Arduino ATmega328上运行 mnist demo 实例 mnist demo 0000000000000000000000000000 0000000000000000000000000000 0000000000000000000000000000 000000000077AFF9500000000000 000000000AFFFFFFD10000000000 00000000AFFFD8BFF70000000000 00000003FFD2000CF80000000000 00000004FD10007FF40000000000 00000000110000http://en.wiki.sipeed.com/news/others/tinymaix_cnx/tinymaix_cnx.html
12.大模型的训练与应用十七百度文心一言API申请与使用指南大模型的训练与应用 | 十七、百度文心一言API申请与使用指南,AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能分享!https://blog.51cto.com/u_16163510/11730653
13.利用EdgeImpulse在线网站自行训练神经网络进行分类识别而基于STM32H7的OpenMV机器视觉模组和云端AI平台Edge Impulse合作,就很好的打通了从数据收集、打标,NN模型训练、优化到部署的整个流程。 去年4月份我们的新品OpenMV4 H7 Plus上市啦,今天我来给大家介绍一下OpenMV4 H7 Plus的新功能——利用EdgeImpulse在线网站自行训练神经网络进行分类识别。 https://www.elecfans.com/d/1532483.html
14.大语言模型训练数据常见的4种处理方法不在线第一只蜗牛大语言模型训练需要数万亿的各类型数据。如何构造海量“高质量”数据对于大语言模型的训练具有至关重要的作用。虽然,截止到 2023 年 9 月为止,还没有非常好的大模型的理论分析和解释,也缺乏对语言模型训练数据的严格说明和定义。但是,大多数研究人员都普遍认为训练数据是影响大语言模型效果以及样本泛化能力的关键因素之https://xie.infoq.cn/article/6edbb0252aecc0fce50c43abb
15.闪豚AI模型训练成本在线计算器模型训练预估时间计算方法:模型计算时间计算公式: 3090显卡:总训练数据X训练次数÷3=所需时间(秒) 4090显卡:总训练数据X训练次数÷7=所需时间(秒) 把得到的秒数时间,换算成小时,就得到该模型预估训练所耗时长。 可以使用在线工具计算模型训练时间: https://www.stunai.cn/mdcalculator https://www.stunai.cn/costcalculator
16.他认为大语言模型的训练过程非常像炼丹,“数据”就是找材料的AI大神李沐在上海交大演讲中谈到大语言模型,他认为大语言模型的训练过程非常像炼丹,“数据”就是找材料的环节,之后的“算力”就是炼“数据”, 举报 多多科技 关注16,331 信息 分享: 直播热点 下载APP领会员 直播中 小言儿~ 直播中 丽丽感谢家人宠爱 直播中 悠然~ 千帆直播 人气主播 直播0 芭比bb 来接我https://www.56.com/u70/v_MTkxMzM0NzYz.html
17.机器学习术语表:机器学习基础知识MachineLearningGoogle一个模型经常出现(甚至可能会持续) 重新训练。动态模型是一个“终身学习者”那个 适应不断演变的数据。动态模型也称为在线模型。 与静态模型相对。 E 早停法 #fundamentals 一种正则化方法,它涉及training中训练损失结束之前 下降。在早停法中,您有意停止训练模型, 当验证数据集的损失开始增加到 increase;也就是泛https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
18.计算机学院七篇论文入选数据库领域顶级会议VLDB2023近年来,大规模预训练模型取得了前所未有的成就。腾讯公司的多款产品和服务,如微信、QQ和腾讯广告,已经广泛应用这些先进的预训练模型以提升用户体验和服务质量。论文“Angel-PTM: A Scalable and Economical Large-scale Pre-training System in Tencent”提出了Angel-PTM,一个专为大模型预训练而精心构建的工业级深度https://news.pku.edu.cn/jxky/3347dc1aea5547b28f167b4110d74f8e.htm