ADL122 《图神经网络》开始报名

2021年11月19-21日北京线上线下同时举办

本期CCF学科前沿讲习班《图神经网络》,对图神经网络的基础理论方法,计算框架,前沿动态和典型应用进行系统性介绍,帮助学员从入门到前沿快速深入地了解图神经网络的基本概念、主要挑战和应用场景,开阔科研视野,增强实践能力。

本期ADL讲习班邀请到了本领域6位来自于著名高校与企业科研机构活跃在该前沿领域的青年学者做主题报告。第1天,林衍凯将首先介绍图神经网络的基础理论方法,王敏捷介绍图神经网络的计算平台与实现原理。第2天,石川和唐杰则以异质网络与认知图谱为案例,带领学员了解图神经网络的重要前沿动态。第3天,我们以生物医学药物发现和自然语言处理为典型场景,邀请唐建和张岳介绍图神经网络的典型应用方法。通过三天教学,旨在带领学员实现对图神经网络从基础理论方法,到前沿科研动态,再到典型应用的全景式的深入学习与思考。

学术主任:刘知远清华大学

主办单位:中国计算机学会

活动日程:

2021年11月19日(周五)

9:00-9:15

开班仪式

9:15-9:30

全体合影

9:30-12:30

专题讲座1:GNN的基础理论、模型与挑战

12:30-14:00

午餐

14:00-17:00

专题讲座2:DGL:高效易用的图神经网络计算平台

王敏捷亚马逊上海人工智能研究院资深应用科学家

2021年11月20日(周六)

9:00-12:00

专题讲座3:异质图神经网络:模型,预训练与应用

石川北京邮电大学计算机学院教授、智能通信软件与多媒体北京市重点实验室副主任

12:00-14:00

专题讲座4:CogDL:图神经网络(GNN)及自监督学习

唐杰清华大学计算机系教授,北京智源人工智能研究院副院长,国家杰青、IEEEFellow

2021年11月21日(周日)

专题讲座5:GeometricDeepLearningforDrugDiscovery

唐建蒙特利尔算法研究所、蒙特利尔大学计算机系和商学院助理教授,CIFAR讲席教授

专题讲座6:图神经网络在自然语言处理的应用

张岳西湖大学特聘研究员

17:00-17:30

小结

特邀讲者:

报告题目:GNN的基础理论、模型与挑战

报告摘要:图结构化数据如社交网络、分子图等在现实世界中无处不在。如何对图结构化数据进行有效表示和处理是深度学习研究中的一个重要课题。针对这个问题,GNN突破性地将深度神经网络从欧式数据推广到非欧式的图结构化数据中,使得我们能够方便有效地对图结构化数据进行节点和图层面的表示处理。本报告将从图表示学习开始,对从图神经网络(GNN)的产生、基础理论和主流模型进行详细介绍。之后,我们将进一步介绍GNN在处理图结构化数据时所面临的独特挑战。

王敏捷亚马逊上海人工智能研究院

讲者简介:王敏捷博士毕业于纽约大学计算机系系统研究实验室,研究方向包括深度学习系统,大规模分布式机器学习等深度学习与系统的交叉领域。发起并参与多项著名开源深度学习系统。其中包括被英伟达评为“ModernAIEngine”的Minerva系统,成为亚马逊首选深度学习框架的MXNet系统,图神经网络框架DGL,可微编程框架MinPy等。他同时也是开源社区DMLC的发起人之一,并在2016年获得英伟达博士奖学金。目前担任亚马逊上海人工智能研究院资深应用科学家,主攻下一代深度学习框架,图神经网络以及开源项目及开源社区建设。

报告题目:DGL:高效易用的图神经网络计算平台

报告摘要:近年来图神经网络(GNN)的发展为深度学习在关系型数据中的应用带来了全新的研究热点。图神经网络的计算模式不同于以往规整张量的计算模式,从而对现有深度学习框架提出了新的挑战。在本报告中,我们会从图神经网络的计算原理出发,从系统层面理解图神经网络和传统图计算和深度学习算法的不同。我们会介绍DeepGraphLibrary(DGL),一款在学界和业界都广受欢迎的开源图神经网络计算框架。本报告会重点讲解DGL的基本使用方法,系统设计原理,以及我们在大规模训练,GPU训练,编译等方向上的一些探索。

石川北京邮电大学计算机学院

报告题目:异质图神经网络:模型,预训练与应用

唐杰清华大学计算机系

讲者简介:清华大学计算机系教授、系副主任,获国家杰青、IEEEFellow。研究人工智能、认知图谱、数据挖掘、社交网络和机器学习。发表论文400余篇,获ACMSIGKDDTest-of-TimeAward(十年最佳论文)。主持研发了超大规模预训练模型“悟道”,参数规模超过1.75万亿。之前还研发了研究者社会网络挖掘系统AMiner,吸引全球220个国家/地区2000多万用户。担任国际期刊IEEET.onBigData、AIOPEN主编以及WWW’23大会主席、WWW’21、CIKM’16、WSDM’15的PCChair。获国家科技进步二等奖、北京市科技进步一等奖、北京市专利奖一等奖、人工智能学会科技进步一等奖、KDD杰出贡献奖。

报告题目:CogDL:图神经网络(GNN)及自监督学习

唐建蒙特利尔算法研究所、蒙特利尔大学

讲者简介:唐建,蒙特利尔算法研究所、蒙特利尔大学计算机系和商学院助理教授以及CIFAR讲席教授。主要研究方向为几何深度学习、图神经网咯、知识图谱以及这些技术在药物设计中的应用。他的团队近期发布了一个专门用于药物研发的机器学习开源系统TorchDrug。他曾获得ICML最佳论文,WWW最佳论文提名。他发表了经典的图表示学习算法LINE,是WWW2015-2019期间引用量最多的论文。他也是ICML以及NeurIPS的领域主席。

报告题目:GeometricDeepLearningforDrugDiscovery

报告摘要:药物研发是一个非常昂贵以及漫长的过程。通过分析生物医药领域大量的数据,人工智能能够极大地加速药物研发的过程,从而变革整个医药研发领域。在生物医药领域,大量的数据都是图结构数据或者三维结构数据(如小分子、蛋白质以及医疗知识图谱等)。因此,图神经网络、几何深度学习、知识图谱等技术在药物发现领域有具体的应用前景。本报告将介绍图神经网络、几何深度学习、知识图谱等技术在药物研发的最新进展并且探讨未来可能的发展方向。

张岳西湖大学

讲者简介:张岳,西湖大学特聘研究员,主要研究领域为自然语言处理、文本挖掘、机器学习等。研究成果包括自左向右处理文本的结构预测算法、多任务融合学习的联合模型、自然语言处理和人类常识研究,以及金融市场应用。发表国际期刊论文30余篇,CCF列表A、B类国际会议论文百余篇。获CCF2018中文计算与自然语言处理青年新锐奖、SemEval2020[HonorableMention]、COLING2018和IALP2017最佳论文奖等奖项。

报告题目:图神经网络在自然语言处理的应用

学术主任:刘知远清华大学计算机系

线下地点:北京中国科学院计算技术研究所一层报告厅(北京市海淀区中关村科学院南路6号)

报名须知:

1、特别提醒:本期ADL举办地--中国科学院计算技术研究所入所必须同时满足以下三点要求:(1)大数据通信行程码必须是绿色,并且保证14日内未去过有1例以上(含1例)本土新冠病毒感染者所在县(市、区、旗)且14日内未去过有陆路边境口岸所在县(市、区、旗);(2)出示:需要提供48小时内核酸检测阴性证明;(3)扫描“北京健康宝”(显示绿码可以通行)和佩戴口罩。

3、报名费:CCF会员2800元,非会员3600元。食宿交通费用自理。根据交费先后顺序,会员优先的原则录取,额满为止。

THE END
1.超强!深度学习Top10算法!top10算法在深度学习以下是我心目中的深度学习top10算法,它们在创新性、应用价值和影响力方面都具有重要的地位。 1、深度神经网络(DNN) 背景:深度神经网络(DNN)也叫多层感知机,是最普遍的深度学习算法,发明之初由于算力瓶颈而饱受质疑,直到近些年算力、数据的爆发才迎来突破。 https://blog.csdn.net/xiangxueerfei/article/details/140894206
2.深度学习残差残差神经网络算法mob64ca141a2a87的技术博客本文解读了一种新的深度注意力算法,即深度残差收缩网络(Deep Residual Shrinkage Network)。从功能上讲,深度残差收缩网络是一种面向强噪声或者高度冗余数据的特征学习方法。本文首先回顾了相关基础知识,然后介绍了深度残差收缩网络的动机和具体实现,希望对大家有所帮助。 https://blog.51cto.com/u_16213724/8718018
3.深度学习及CNNRNNGAN等神经网络简介(图文解释超详细)常见的深度学习算法主要包括卷积神经网络、循环神经网络和生成对抗神经网络(Generative Adversarial Network,GAN)等。这些算法是深度学习的基础算法,在各种深度学习相关系统中均有不同程度的应用 1. 卷积神经网络 卷积神经网络(Convolutional Neural Network,CNN)是第一个被成功训练的多层神经网络结构,具有较强的容错、自学https://developer.aliyun.com/article/1400173
4.第五章深度学习与神经网络基础*1、深度学习算法可以分为监督学习和非监督学习两类。() 正确 错误 *2、自编码器是非监督学习类算法。() 正确 错误 *3、深度学习不同于机器学习,没有非监督类算法。() 正确 错误 *4、循环神经网络更适合于处理图像识别问题。() 正确 错误 *5、循环神经网络更适合于处理语音识别问题。() https://www.wjx.cn/jq/87327809.aspx
5.深度学习与神经网络有什么区别?深度学习算法主要采用反向传播算法来优化模型,其核心思想是通过计算误差反向传播至每一个节点,进而调整权值和阈值等参数。 而神经网络的算法包括感知器算法、反向传播算法、Kohonen自组织网络算法等多种方法,不同的算法适用于不同的场景和问题。 综上所述,深度学习和神经网络有着很多相似之处,但也存在一些差异。深度学https://www.cda.cn/bigdata/201326.html
6.科学网—[转载]联邦学习算法综述摘要:近年来,联邦学习作为解决数据孤岛问题的技术被广泛关注,已经开始被应用于金融、医疗健康以及智慧城市等领域。从3个层面系统阐述联邦学习算法。首先通过联邦学习的定义、架构、分类以及与传统分布式学习的对比来阐述联邦学习的概念;然后基于机器学习和深度学习对目前各类联邦学习算法进行分类比较和深入分析;最后分别从通信https://blog.sciencenet.cn/blog-3472670-1280769.html
7.机器学习深度学习和神经网络之间的区别和联系python传统机器学习、深度学习和神经网络之间的区别可以从以下几个方面来理解: 架构:机器学习基于统计模型。神经网络和深度学习架构只是非常大和更复杂的统计模型,并使用许多相互连接的节点。 算法:深度学习算法与其他机器学习算法的区别在于它们使用具有多层的深度神经网络,这使得网络能够在不需要显式特征工程的情况下学习数据中https://www.jb51.net/python/316268muf.htm
8.深度学习算法原理——神经网络的基本原理腾讯云开发者社区2.1、神经网络的结构 神经网络是由很多的神经元联结而成的,一个简单的神经网络的结构如下图所示: 其中一个神经元的输出是另一个神经元的输入,+1项表示的是偏置项。上图是含有一个隐含层的神经网络模型,L1层称为输入层,L2层称为隐含层,L3层称为输出层。 https://cloud.tencent.com/developer/article/1066395