1.概率论+统计(很多数据分析建模基于统计模型)、统计推断、随机过程等
2.线性规划+凸优化(或者只学一门叫numericaloptimization,统计、机器学习到最后就是求解一个优化问题)、非线性规划等
3.数值计算、数值线代等
当年我是在数学系学的这门课,主要是偏微分方程的数值解。
但我觉得其开篇讲的数值计算的一些numericalissue更为重要,会颠覆一个数学系出身小朋友的三观。(原来理论和现实差距可以这么大!)
Conditionalnumber,ill-conditionedproblem,会让你以后的编程多留个心眼。
恭喜你,到这里,你就可以无压力地学习MachineLearning这门课了(其实机器学习,通篇都是在讲用一些统计和优化来做clustering和classification这俩个人工智能最常见的应用)。并且你就会发现,ML课中间会穿插着很多其他课的内容。恩,知识总是相通的嘛,特别是这些跨专业的新兴学科,都是在以往学科的基础上由社会需求发展而来。
到这里,其实你已经能看懂并且自己可以编写机器学习里面很多经典案例的算法了,比如regression,clustering,outlierdetection。
学到Mid-level,就已经具备绝大部分理论基础了。然后做几个实际项目,就能上手然后就可以“吹嘘”自己是搞机器学习的,就能找到一份工作了。
但是要读Phd搞机器学习的科研,那么高阶课程必不可少,而且同一个topic你需要上好几门课,并且你博士的课题,很可能只是一本书中一个章节里面一小节里讲的算法,去改进他。
比如,楼主的博士课题就是mixedlinearprogramming+discretegraphicalmodels+markovrandomfields+regression+clustering+segmentation。
高阶课程
再高阶的课程,就是比较specific的课程了,可以看你做的项目或者以后的concentration再选择选修,比如:ProbabilisticGraphicalModels(概率图模型),IntegerProgramming(整数规划),计算机视觉,模式识别,视频追踪,医学图像处理,增强学习,深度学习,神经网络,自然语言处理,网络信息安全,等等等等。
深度学习:目前非常火,打败了非常多几十年积累起来的经典方法。
增强学习:也很火,游戏AI、自动驾驶、机器人等等,它都是核心。
概率图模型:深度学习之前非常popular的“学习”方法,有严格的数学模型和优美的算法,虽然目前被前俩者盖过了风头,但是依然有它的立足之处。什么?你不知道最近用PGM发了篇Nature,打败了CNN?快看下面:
再比如有用偏微分方程做图像处理的(比较小众),那么这时候你肯定要去学一下偏微分方程了,大都是以科研为主导的。
附上顶尖会议排名,共勉:
书目没有特别推荐的,但是建议看英文原版。
另外一个教授给你上课的时候,开头一般是会推荐书给你的(如果你确实喜欢看书的话)。当然了,翻墙是楼主suppose你们需要拥有的基本生存技能。
(注:以下再推荐一些视频,仅受之以渔,多为graduatecourse)
-----------
等的就是你,真的超有趣!高能金融抱团群发车啦~加我拉你进群呦