马毅沈向洋联手,首届CPAL开奖!16人获新星奖,华人学者占据半壁江山数学高维微软科学家人工智能

【新智元导读】国内AI大佬沈向洋和马毅创办的全新学术会议CPAL终于开奖了。本届共有16名学者获得新星奖。

就在昨天,首届CPAL简约学术会议,正式公布了新星奖获奖者名单!

CPAL专注于解决机器学习、信号处理、优化等领域中普遍存在的简约、低维结构问题,并探索低维结构在智能硬件与系统、交叉科学和工程等新兴方向的应用。

而「新星奖」除了会表彰处于职业生涯关键转折点和起点的杰出初级研究人员外,还将为博士生、博士后、初级教师和业界研究人员提供一个平台和支持性指导网络,通过引导学术和职业的发展,进而增加这个领域的代表性和多样性。

获奖名单

CPAL新星奖要求申请者必须符合以下之一:博士生毕业前最后一年,博士后,任职助理教授第一年,或者工业界研究者博士毕业两年内。

今年,大会共收到了来自世界各地57份申请,所有候选人都展示了自己在机器学习、应用数学、信号处理、优化、系统,以及更多跨学科领域的杰出背景和专业知识,申请竞争极为激烈。

为此,由评审委员会主席陈羽北(现任UCDavis助理教授,此前为纽约大学YanLeCun教授的博士后研究员)组织了评审委员会。每一个参与评审的资深研究员,都进行了非常认真的审查和投票(每个成员最多可投20票)。

经过全面评估,大会最终选取了其中的16位,祝贺所有获奖者!

LijunDing,威斯康星大学/华盛顿大学,IFDS博士后研究员

题目:Optimizationforstatisticallearningwithlowdimensionalstructure:regularityandconditioning

很多统计机器学习问题(旨在恢复底层低维信号)都以优化为基础。现有的工作往往忽视了解决优化问题的计算复杂性,或者需要针对具体情况进行算法和分析,尤其是非凸问题。

本研究从调节的统一视角来解决上述两个问题。其特别指出,一旦样本量超过固有维度,(1)一大类凸问题和非光滑非凸问题就会得到良好的条件;(2)良好的条件反过来又确保了开箱即用优化方法的效率,并激发了新算法的灵感。

最后,研究提出了一种称为「平坦性」(flatness)的条件概念,它能在超参数模型中实现精确恢复。

NingyuanHuang,约翰斯·霍普金斯大学,博士生

题目:ApproximatelyEquivariantGraphNetworks

图神经网络(GNN)的置换同变性经常被拿来与卷积神经网络(CNN)的平移不变性相比较。然而,这两种对称性有着本质区别:CNN的是主动对称性,而GNN的是被动对称性。

本研究重点讨论了GNN的主动对称性,考虑到信号在固定图上的学习环境,GNN的自然对称性是图的自同构。

由于现实世界的图往往是不对称的,研究通过图粗化来形式化近似对称,从而放宽了对称的概念。研究提出了近似等变图网络来实现这些对称性,并研究了对称性模型选择问题。

研究从理论和经验上表明,根据所选的对称组,学习到的估计值在表现力损失和规则性增益之间存在偏差-方差权衡。

DanielPaulKunin,斯坦福大学,博士生

题目:StochasticCollapse:HowGradientNoiseAttractsSGDDynamicsTowardsSimplerSubnetworks

本项研究揭示了随机梯度下降法(SGD)的一个隐含偏差,它能将表现力过强的网络转化为简单得多的子网络,从而显著减少独立参数的数量,提高泛化能力。

为了揭示这种偏差,研究确定了不变集,即在SGD下保持不变的参数空间的子集。并重点研究了其中两类与现代架构中常见的简单(稀疏或低秩)子网相对应的不变集。分析发现,SGD对这些简单的不变集具有随机吸引力。

研究从经验上观察到,在预训练的深度神经网络中存在有吸引力的不变量集,这意味着SGD常常会坍缩为具有消失或冗余神经元的简单子网络。研究进一步证明了这种随机坍缩的简化过程如何有利于泛化。

最后,通过这一分析,研究从机理上解释了为什么使用大学习率进行早期训练有助于后续的泛化。

DanielLeJeune,斯坦福大学,博士后研究员

题目:Emergentpropertiesofheuristicsinmachinelearning

在现代机器学习实践中,成功的方法都是建立在设计者扎实的直觉和理论洞察力之上的,但最终往往都是启发式的,并表现出意想不到的涌现行为。有时,这些涌现行为是有害的,但令人惊讶的是,许多涌现行为却带来了意想不到的好处。

通过从理论上描述这些涌现行为,我们可以开发出更强大的方法开发流程,在这个流程中,越来越多的理想行为可以通过设计纳入其中,并以强大的方式加以利用。

本研究将讨论启发式方法和新兴行为的几个例子:线性回归中的子采样和草图技术及其与岭回归的等价性;经验风险最小化以及在分布变化下的相对性能的普适性;以及在dropout和特征学习模型中的适应性,这些模型等价于促进简约的稀疏或低秩正则化。

ShuangLi,爱荷华州立大学,助理教授

题目:TheFutureGeometricAnalysisofOptimizationProblemsinSignalProcessingandMachineLearning

高维数据分析和估计经常会出现在信号处理和机器学习应用之中。这些高维数据的低维结构,启发我们为信号处理和机器学习中的基本问题,开发最优化方法以及基于优化的技术。

近年来,非凸优化广泛出现在工程领域,并被许多启发式局部算法所解决,但缺乏全局保证。最近的几何/形态分析为确定迭代算法是否能达到全局最优提供了一种方法。

在一系列机器学习问题中,包括低秩矩阵因式分解、矩阵传感、矩阵补全和相位检索等,都对经验风险形态进行了广泛研究。有利的几何形状保证很多算法可以避开鞍点并收敛到局部最小值。

本研究将讨论未来信号处理和机器学习中优化问题几何分析的潜在方向。

ShiweiLiu,得克萨斯大学奥斯汀分校,IFML博士后研究员

题目:SparsityinNeuralNetworks:ScienceandPractice

稀疏性通过有选择地消除大部分模型参数,在模型压缩领域表现出了卓越的性能。

为了发现强大的稀疏神经网络,通常需要先训练一个过参数化的密集模型,然后再进行剪枝和重新训练。但随着现代神经网络规模的指数级增长,密集预训练和更新的成本变得越来越高。

本研究将介绍一种无需任何预训练或密集更新,即可从头开始训练稀疏神经网络的方法。

除了在模型压缩方面的优势外,研究还将阐明稀疏性在神经网络中更广泛的优势,包括可扩展性、鲁棒性、公平性,以及构建大规模负责任人工智能的巨大潜力。

YipingLu,纽约大学,柯朗讲师

题目:Simulation-CalibratedScientificMachineLearning

机器学习(ML)在各种应用中取得了巨大成功,为复杂的高维数据提供了一种建立灵活、通用和高效近似值的新方法。

这些成功激励了许多研究人员将ML应用于其他科学应用领域,如工业工程、科学计算和运筹学等经常面临类似挑战的领域。

然而,大规模机器学习(尤其是深度学习)的数学理论仍然匮乏,经过训练的ML预测器总是存在偏差,这些长期存在的问题为ML的辉煌成就蒙上了阴影。

在这项研究中中,作者将介绍一个新颖的SCaSML框架,它可以利用物理模型的结构来实现以下目标:

1)即使基于有偏差的机器学习预测器,也能做出无偏的预测;

2)通过使用估计器克服维度灾难(thecurseofdimensionality)。

SCASML范式将可能有偏差的机器学习算法,与使用严格数值分析和随机模拟的去偏差步骤设计相结合。

从理论上讲,作者将尝试了解SCaSML算法是否最优,以及哪些因素(如平滑度、维度和约束性)决定了收敛速度的提升。

从实证角度,作者将介绍不同的估计器,这些估计器能用有偏差的机器学习估计器对物理量进行无偏且可信的估计。

其应用包括但不限于估计函数矩、模拟高维随机过程、使用自助方法(bootstrapmethods)进行不确定性量化以及随机线性代数。

OmarMontasser,加州大学伯克利分校,FODSI-Simons博士后研究员

题目:TheoreticalFoundationsofAdversariallyRobustLearning

尽管取得了非凡的进步,但目前的机器学习系统在对抗性示例方面仍较弱:测试示例中看似无害,但经过精心设计的扰动会导致机器学习预测器分类错误。

我们能否学习对抗攻击鲁棒性的模型?对于机器学习中的这一重大挑战,实证研究界一直很感兴趣。

在研究中,作者将从理论角度进行阐述,说明超越传统方法和原则(如经验(鲁棒性)风险最小化)的必要性,并提出具有更强鲁棒性学习保证的新算法思想。

RamchandranMuthukumar,约翰斯·霍普金斯大学,博士生

题目:Sparsity-awaregeneralizationtheoryfordeepneuralnetworks

深度人工神经网络具有令人惊奇的泛化能力,但人们对这种能力的了解仍然很少。

在本文中,作者提出了一种分析深度前馈ReLU网络泛化的新方法,该方法利用了隐层激活的稀疏程度。

通过开发一个框架,考虑到每个输入样本的有效模型大小的减少,研究人员能够展示稀疏性和泛化之间的基本权衡。

重要的是,研究结果没有对模型实现的稀疏程度做出强烈的假设,而且比最近基于规范的方法有所改进。

研究通过有力的数字证明了结果,在特定环境下与依赖数据的先验相结合时,即使是在过度参数化的模型中,也不会出现非空界(non-vacuousbounds)。

AmbarPal,约翰斯·霍普金斯大学,博士生

题目:TheRoleofParsimoniousStructuresinDataforTrustworthyMachineLearning

这项研究概述了对抗鲁棒机器学习几何基础的最新理论成果。

现代ML分类器在受到特别设计的输入扰动(对抗示例)时,可能会严重失效。另一方面,在一些涉及视觉的任务中,我们人类鲁棒性更强。

受这种现象的启发,在本研究的第一部分,作者将深入探讨何时才能避免对抗样本的问题。

我们将看到,数据分布的一个关键几何特性——集中在输入空间的小体积子集上——决定了是否存在任何鲁棒分类器。特别是,这表明自然图像分布是集中的。

在本研究的第二部分,作者将针对一些集中的数据分布实证这些结果,并发现利用数据中的这种结构,可以训练出在某些情况下拥有更好的可证明鲁棒性保证的分类器

本研究内容也基于NeurIPS2023,2020和TMLR2023的工作成果。

RahulParhi,洛桑联邦理工学院,博士后研究员

题目:OntheSparsity-PromotingEffectofWeightDecayinDeepLearning

深度学习在实践中取得了巨大成功,最先进的人工智能系统大多基于神经网络。然而,目前还缺乏一种严格的数学理论来充分解释深度神经网络的惊人性能。

在本讲座中,作者将介绍一个新的数学框架,为深入理解深度学习提供一个开端。

这个框架通过稀疏性的视角,精确地描述了训练有素的神经网络的功能特性。支持这一框架的关键数学工具包括变换域稀疏正则化、计算机断层扫描的Radon变换和逼近论(approximationtheory)。

该框架解释了神经网络训练中权重衰减正则化的效果、网络架构中跳转连接和低秩权重矩阵的重要性、稀疏性在神经网络中的作用,并解释了神经网络为何能在高维问题中表现出色。

BaharehTolooshams,加州理工学院,博士后研究员

题目:DeepInterpretableGenerativeLearningforScienceandEngineering

判别式人工智能和生成式人工智能是两种深度学习范式,它们彻底改变了根据文本提示预测和生成高质量图像的方法。

然而,判别式学习无法生成数据,而生成模型则在解码能力方面能力较弱。此外,这两种方法都需要大量数据,而且可解释性较低。

这些缺点严重阻碍了深度学习在以下方面的应用:a)获取监督数据成本高昂或不可行;b)目标超出数据拟合范围,无法获得科学见解。

此外,深度学习在逆问题等具有丰富数学和优化框架的领域,或在可解释性很重要的领域的应用还相当少。

这项研究将讨论深度学习在数据有限或无监督逆问题中的理论和应用。这些应用包括雷达传感、图像中「泊松去噪」和计算神经科学。

HongyiWang,卡内基梅隆大学,高级项目科学家

题目:SpeedingupLarge-ScaleMachineLearningModelDevelopmentUsingLow-RankModelsandGradients

大规模机器学习(ML)模型,如GPT-4和Llama2,是人工智能领域最前沿的进展。

然而,开发这些大规模ML模型需要大量的计算资源,以及对分布式ML和系统的深刻理解。

在这项研究中,作者将介绍三个框架,即ATOMO、Pufferfish和Cuttlefish,它们使用模型梯度和模型权重的低阶近似来大大加快ML模型的训练。

-ATOMO是一种通用压缩框架,实验证明,与稀疏梯度相比,使用低秩梯度可以大大加快分布式训练的速度。

-Cuttlefish通过在训练过程中自动估计和调整这些超参数来解决这个问题。

研究中详细介绍了大规模ML模型(包括LLM)分布式训练的大量实验结果,以展示这些框架的效果。

PengWang,密歇根大学,博士后研究员

题目:UnderstandingHierarchicalRepresentationsinDeepNetworksviaIntermediateFeatures

在过去十年中,深度学习已被证明是一种从原始数据中学习有意义特征的高效方法。这项研究试图揭开深度网络中分层特征学习的神秘面纱。

具体来说,在多类分类问题中,作者研究了深度网络每层特征输出,来探索网络如何变换输入数据。

为此,研究人员首先分别定义了中间特征的「类内压缩」和「类间区分指标」。

通过对这两个指标的分析,他们发现,从浅层到深层,特征的演变遵循一个简单而量化的规律:线性网络的每一层都以线性速率逐步压缩「类内特征」,以亚线性速率提升「类间区分特征」。

据研究人员所知,这是首次对深度网络分层表示中的特征演化进行量化描述。此外,大量实验从数值上验证了这一理论发现。

YaodongYu,加州大学伯克利分校,博士生

题目:White-BoxTransformersviaSparseRateReduction

这项研究中,作者将介绍白盒Transformer--CRATE(即编码RAtereductionTransformer)。

研究人员认为,表征学习的目标是压缩和转换数据分布(例如标记集),使其混合在不相干子空间上支持的低维高斯分布。

最终表示的质量可以用一个统一的目标函数——稀疏率降低来衡量。从这个角度来看,Transformer等流行的深度网络可以自然地被视为渐进优化这个目标的迭代方案。

特别是,研究人员展示了标准Transformer模块可以通过对这一目标的互补部分进行交替优化而推导:多头自注意力算子可被视为梯度下降步骤,通过最小化有损编码率来压缩标记集。

由此,这就产生了一系列在数学上可以解释的白盒Transformer架构。

最后实验表明,这些网络确实能学会优化设计目标:它们能压缩和稀疏化大规模真实世界视觉数据集(如ImageNet)的表示,其性能非常接近精心设计的Transformer(ViTs)。

另外,作者还介绍了CRATE在涌现行为、语言建模和自动编码方面的一些最新理论和实证结果。

RavidShwartzZiv,纽约大学,CDS特任研究员

题目:DecodingtheInformationBottleneckinSelf-SupervisedLearning:PathwaytoOptimalRepresentation

深度神经网络(DNN)在许多领域都表现出色,这主要归功于它们对监督学习任务的熟练掌握。

然而,当标注数据稀缺时,对大量标注数据的依赖就会成为制约因素。

在本研究中,作者以信息瓶颈原理为重点,从信息论的角度来揭开SSL奥秘。

研究人员将深入探讨SSL中「最优表示」的概念、它与数据增强、优化方法和下游任务的关系,以及SSL训练如何学习和实现最优表示。

值得注意的是,SSL似乎能协调学习到的表征与语义类别在多个层次上的对齐,这种对齐在训练过程中不断加强,并在网络深层上变得更加明确。

最后,研究人员基于这些见解设计更强大的自监督学习信息算法,可提升迁移学习效果,建立更高效的学习系统,尤其是在数据稀缺的环境中。

THE END
1.数学建模——启发式算法(模拟退火遗传算法)启发式算法是基于直观或经验构造的算法,在可接受的计算时间和空间条件下,给出待解决优化问题的一个可行https://kaiwu.qboson.com/forum.php?mod=viewthread&tid=431&extra=page%3D1
2.启发式算法详解:贪心禁忌搜索模拟退火遗传算法本文详细介绍了启发式算法,包括贪心算法、禁忌搜索、模拟退火算法、遗传算法的原理和应用。贪心算法每次选择局部最优解,禁忌搜索通过禁忌列表避免局部最优解,模拟退火算法引入随机性和温度控制,遗传算法模拟生物进化优化解。这些算法在不同问题和领域中有广泛应用。 https://blog.csdn.net/runqu/article/details/138411522
3.超启发式算法的分类有哪些?LTD知识百科增长黑武器由于超启发式算法的研究尚处于起步阶段,对于已有的各种超启发式算法,国际上尚未形成一致的分类方法。按照高层策略的机制不同,现有超启发式算法可以大致分为4类:基于随机选择、基于贪心策略、基于元启发式算法和 由于超启发式算法的研究尚处于起步阶段,对于已有的各种超启发式算法,国际上尚未形成一致的分类方法。按照高层https://ltd.com/article/5377476944108263
4.什么叫启发式算法,主要优点和不足有哪些?什么叫启发式算法,主要优点和不足有哪些?相关知识点: 试题来源: 解析 答:在问题结构不良的情况下,为得到近似可用的解,分析人员必须运用自己的感知和洞察力,从与其有关而较基本的模型及算法中寻求其间的联系,从中得到启发,去发现适于解决该问题的思路和途径,这种方法称为启发式方法,由此建立的算法称为启发式算法。https://easylearn.baidu.com/edu-page/tiangong/bgkdetail?id=fe2ebc0feff9aef8941e0627&fr=search
5.以下对基因遗传算法描述正确的是()。B是一种启发式的搜索算查看完整题目与答案 参考解析: 基因遗传算法反映了自然选择的过程;是一种启发式的搜索算法 AI解析 重新生成最新题目 【单选题】如果将人眼比作照相机的话,则相当于暗盒的是( )。 查看完整题目与答案 【单选题】道德是人类社会生活中依据社会舆论、( )和内心信念,以善恶评价为标准的意识、规范、行为和https://www.shuashuati.com/ti/c593711798a74c9a982cf55a7b69423c.html?fm=bd678dea3fa47e926b67e67cbef0c20e02
6.算法式和启发式提出假设就是提出解决问题的可能途径与方案,选择恰当的解决问题的操作步骤,提出假设是问题解决的关键阶段。常用的方式主要有两种:算法式和启发式。它们之间的区别是: 一、算法式 【定义】 算法式是把解决问题的所有可能的方案都列举出来,逐一尝试。此种方式虽然可以保证解决问题,但效率不高。其优点是能够保证问题的解http://m.tj.zgjsks.com/html/2020/zx_0417/33684.html
7.启发式算法设计中的骨架分析与应用37, No. 3 March, 2011 启发式算法设计中的骨架分析与应用 江贺 1 邱铁 1 胡燕 1 李明楚 1 罗钟铉 1, 2 摘要 骨架是指一个 NP- 难解问题实例的所有全局最优解的相同部分, 因其在启发式算法设计中的重要作用而成为该领域 的研究热点. 本文对目前骨架及相关概念的研究成果进行了全面综述, 将骨架本身的http://www.aas.net.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=17389
8.路径规划(十)启发式InformedRRT*算法可能有人会直接想,这里只不过是缩小了采样空间,并不会明显改进算法。但是实际上,当拓展到高维空间时,效率的提升是巨大的。 那么,如何表达这个椭圆呢?下面介绍椭圆采样区域的表达方式 方法1: 先在标准椭圆的方程中采样,再将采样点旋转平移到实际采样区域,需要两个矩阵:平移向量、旋转矩阵。这两个参数只需要在初始化https://www.baltamatica.com/community/sposts/detail/9ba5d708-d44e-a616-28f8-02bdf52cbfb8.html
9.双重信息编码遗传算法在选址模型中的应用AET目前,越来越多的研究人员趋向于采用遗传算法、拉格朗日松弛法、模拟退火算法等启发式算法来达到或逼近该问题的最优解[2]。参考文献[3]使用两步骤近似法构建在库存和运输双重能力约束下,每个周期配送中心的库存成本计算方法,分别用遗传算法、克隆选择算法、粒子群算法求解所建立的模型;参考文献[4]使用经遗传算法改进的人http://www.chinaaet.com/article/185115