上手!深度学习最常见的26个模型练习项目汇总

今天更新关于常见深度学习模型适合练手的项目。这些项目大部分是我之前整理的,基本上都看过,大概俩特点:代码不长,一般50-200行代码,建议先看懂然后再实现和优化,我看基本上所有的实现都有明显可优化的地方;五脏俱全,虽然代码不长,但是该有的功能都有,该包含的部分也基本都有。所以很适合练手,而且实现后还可保存好,以后很多任务可能就会用到。

本文包括简介、练手项目和我的建议(建议最好看看这部分)。

简介

本篇是深度学习最常见的26个模型汇总的姐妹篇,建议先看那篇再看本篇。本篇新增了26个模型的练手项目。

练手项目

2.1Feedforwardneuralnetworks(FForFFNN)andperceptrons(P)

前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。算是一种监督学习。

对应的代码:

2.2Radialbasisfunction(RBF)

径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。

2.3Hopfieldnetwork(HN)

Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。

2.4Markovchains(MCordiscretetimeMarkovChain,DTMC)

2.5Boltzmannmachines(BM)

玻尔兹曼机,和Hopfield网络很类似,但是:一些神经元作为输入神经元,剩余的是隐藏层。

2.6RestrictedBoltzmannmachines(RBM)

受限玻尔兹曼机,和玻尔兹曼机以及Hopfield网络都比较类似。

2.7Autoencoders(AE)

自动编码,和FFNN有些类似,它更像是FFNN的另一种用法,而不是本质上完全不同的另一种架构。

2.8Sparseautoencoders(SAE)

稀疏自动编码,跟自动编码在某种程度比较相反。

2.9Variationalautoencoders(VAE)

变分自动编码,和AE架构相似,不同的是:输入样本的一个近似概率分布。这使得它跟BM、RBM更相近。

2.10Denoisingautoencoders(DAE)

去噪自动编码,也是一种自编码机,它不仅需要训练数据,还需要带噪音的训练数据。

对应对应的代码:

2.11Deepbeliefnetworks(DBN)

深度信念网络,由多个受限玻尔兹曼机或变分自动编码堆砌而成。

2.12Convolutionalneuralnetworks(CNNordeepconvolutionalneuralnetworks,DCNN)

卷积神经网络,这个不解释也都知道。

2.13Deconvolutionalnetworks(DN)

去卷积网络,又叫逆图形网络,是一种逆向的卷积神经网络。

2.14Deepconvolutionalinversegraphicsnetworks(DCIGN)

深度卷积逆向图网络,实际上是VAE,且分别用CNN、DNN来作编码和解码。

2.15Generativeadversarialnetworks(GAN)

生成对抗网络,Goodfellow的封神之作,这个模型不用解释也都知道。

2.16Recurrentneuralnetworks(RNN)

2.17Long/shorttermmemory(LSTM)

长短期记忆网络,RNN的变种,解决梯度消失/爆炸的问题,也不用解释,这几年刷爆各大顶会。

2.18Gatedrecurrentunits(GRU)

门循环单元,类似LSTM的定位,算是LSTM的简化版。

2.19NeuralTuringmachines(NTM)

神经图灵机,LSTM的抽象,以窥探LSTM的内部细节。具有读取、写入、修改状态的能力。

2.20Bidirectionalrecurrentneuralnetworks,bidirectionallong/shorttermmemorynetworksandbidirectionalgatedrecurrentunits(BiRNN,BiLSTMandBiGRUrespectively)

双向循环神经网络、双向长短期记忆网络和双向门控循环单元,把RNN、双向的LSTM、GRU双向,不再只是从左到右,而是既有从左到右又有从右到左。

2.21Deepresidualnetworks(DRN)

深度残差网络,是非常深的FFNN,它可以把信息从某一层传至后面几层(通常2-5层)。

2.22Echostatenetworks(ESN)

回声状态网络,是另一种不同类型的(循环)网络。

2.23Extremelearningmachines(ELM)

极限学习机,本质上是随机连接的FFNN。

2.24Liquidstatemachines(LSM)

液态机,跟ESN类似,区别是用阈值激活函数取代了sigmoid激活函数。

2.25Supportvectormachines(SVM)

支持向量机,入门机器学习的人都知道,不解释。

2.26Kohonennetworks(KN,alsoselforganising(feature)map,SOM,SOFM)

Kohonen网络,也称之为自组织(特征)映射。

对应的代码KN/SOM:

后续建议

我个人感觉能力提升最快的方式是:先横向学习一个领域,做到全面的认识;然后从头到尾一项一项去突破,做到有深度。如果今天学点这个,明天学点那个,水平提升很慢,建议顺着技术发展的主线从头到尾学完。技术是无止境的,积累很重要,但有量远远不够,还得讲究方法。

对应到本文,学会并实现和优化这些模型,远远不够。我建议还可以有如下尝试:

CTA核心技术及应用峰会

5月25-27日,由中国IT社区CSDN与数字经济人才发展中心联合主办的第一届CTA核心技术及应用峰会将在杭州国际博览中心隆重召开,峰会将围绕人工智能领域,邀请技术领航者,与开发者共同探讨机器学习和知识图谱的前沿研究及应用。

THE END
1.练习:训练机器学习模型你从制造设备中收集了正常设备和故障设备的传感器数据。 现在,你想使用 Model Builder 来训练机器学习模型,用于预测机器是否会出现故障。 通过使用机器学习来自动监视这些设备,你可以提供更及时和更可靠的维护,这样可以节省公司的资金。 添加新的机器学习模型 (ML.NET) 项 https://docs.microsoft.com/zh-cn/learn/modules/predictive-maintenance-model-builder/5-exercise-train-model-builder/
2.用美图WHEE在线训练风格模型Contra实验编程美图出品的ai绘画创作平台whee,除了具备常用的文生图,图生图等功能,还可以进行风格模型训练. 本篇介绍如何用whee训练一个立体主义风格模型. 训练效果 第一步,进入风格模型训练 打开whee在线版( whee.com ),找到风格模型训练. 进入后的界面: 第二步,训练设置 风格模型名称 填写"立体主义".如果后续有更新版本的计划https://www.zcool.com.cn/article/ZMTYxMDM5Ng==.html
3.tensorflow在线训练模型怎么实现问答在TensorFlow中,可以使用tf.keras模块中的fit()方法来实现在线训练模型。在线训练模型是指在不断接收新数据的情况下,持续更新模型参数,以适应新的数据分布。以下是一个简单的示例代码https://www.yisu.com/ask/73190902.html
4.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
5.海艺AI:免费AI图片生成器,在线模型训练,打造个性化艺术海艺AI:免费AI图片生成器,在线模型训练,打造个性化艺术 原创Ada巴巴Ada AI助手2024-05-19 08:03江苏听全文 海艺AI简介 海艺AI(SeaArt)是一款由成都海艺互娱科技有限公司开发的国产AI绘画工具。 它利用尖端的人工智能技术,让用户无需专业技能即可创作、分享和生成独特的艺术作品。 https://www.360doc.cn/article/11604731_1123709240.html
6.使用MaixHub零AI经验零代码快速在线训练和部署模型到设备开发使用MaixHub, 不会 AI 训练编程也能快速训练出 AI 模型并快速部署到你的开发板或者是手机和网页服务上! 版权声明:本文为 neucrack 的原创文章,遵循 Chttps://www.jianshu.com/p/12509ad881f9
7.K210物体检测(利用Maixpy在线模型训练串口通信)python3.在线训练模型 https://www.maixhub.com/ModelTraining 根据链接,获取机器码,填写相关信息,上传模型,然后开始训练。有两种训练方式,物体分类和物体检测,物体检测会输出坐标并框出物体,物体分类只会返回物体标签。如果刷新界面后如果一直停留在1%,就是数据集有误,根据Message输出的错误信息修改。 https://huaweicloud.csdn.net/63808518dacf622b8df898e4.html
8.随时间在线训练脉冲神经网络模型的图像数据分类方法与流程10.为了克服上述现有技术的不足,本发明提供一种基于随时间在线训练的脉冲神经网络模型进行图像视觉数据分类的方法,方法取名为ottt(online training through time)。通过本发明提供的方法,可以在训练snn模型时极大地减小训练内存的开销,将训练得到的模型用于计算机图像数据和神经形态图像视觉数据的分类与识别等视觉任务,能够https://www.xjishu.com/zhuanli/55/202210694741.html
9.一步一步教你在线免费训练机器学习模型(启用GPU和TPU)由于我无法在这篇文章中涵盖所有在线训练机器学习模型的服务,因此本文将有第二部分。 所有需要学习和实践机器学习的资源都是开源的,可在线获取。从计算、数据集、算法以及免费在线提供的各种高质量教程,你只需要互联网连接和学习的热情。 我希望这篇文章有用,因为它解决了开始走向机器学习和数据科学之路的业界人士所面https://blog.itpub.net/31545819/viewspace-2216969/
10.货拉拉一站式云原生AI平台建设实践数据工程模型训练在线服务数据工程、模型训练、在线服务是机器学习技术实现的三驾马车,这个流程中处理的数据量大,计算量大、训练框架和版本多样、底层依赖复杂,资源算力管理,需要人工介入解决很多问题,给AI落地带来了比较困难。针对这一系列的问题,货拉拉大数据智能平台组从2020年开始就在探索提供一套完整的云原生的一站式AI解决方案,并从那时起https://juejin.cn/post/7213636024101765181
11.TinyMaix:超轻量级推理框架即将支持 MaixHub 在线模型训练 在Arduino ATmega328上运行 mnist demo 实例 mnist demo 0000000000000000000000000000 0000000000000000000000000000 0000000000000000000000000000 000000000077AFF9500000000000 000000000AFFFFFFD10000000000 00000000AFFFD8BFF70000000000 00000003FFD2000CF80000000000 00000004FD10007FF40000000000 00000000110000http://en.wiki.sipeed.com/news/others/tinymaix_cnx/tinymaix_cnx.html
12.大模型的训练与应用十七百度文心一言API申请与使用指南大模型的训练与应用 | 十七、百度文心一言API申请与使用指南,AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能分享!https://blog.51cto.com/u_16163510/11730653
13.利用EdgeImpulse在线网站自行训练神经网络进行分类识别而基于STM32H7的OpenMV机器视觉模组和云端AI平台Edge Impulse合作,就很好的打通了从数据收集、打标,NN模型训练、优化到部署的整个流程。 去年4月份我们的新品OpenMV4 H7 Plus上市啦,今天我来给大家介绍一下OpenMV4 H7 Plus的新功能——利用EdgeImpulse在线网站自行训练神经网络进行分类识别。 https://www.elecfans.com/d/1532483.html
14.大语言模型训练数据常见的4种处理方法不在线第一只蜗牛大语言模型训练需要数万亿的各类型数据。如何构造海量“高质量”数据对于大语言模型的训练具有至关重要的作用。虽然,截止到 2023 年 9 月为止,还没有非常好的大模型的理论分析和解释,也缺乏对语言模型训练数据的严格说明和定义。但是,大多数研究人员都普遍认为训练数据是影响大语言模型效果以及样本泛化能力的关键因素之https://xie.infoq.cn/article/6edbb0252aecc0fce50c43abb
15.闪豚AI模型训练成本在线计算器模型训练预估时间计算方法:模型计算时间计算公式: 3090显卡:总训练数据X训练次数÷3=所需时间(秒) 4090显卡:总训练数据X训练次数÷7=所需时间(秒) 把得到的秒数时间,换算成小时,就得到该模型预估训练所耗时长。 可以使用在线工具计算模型训练时间: https://www.stunai.cn/mdcalculator https://www.stunai.cn/costcalculator
16.他认为大语言模型的训练过程非常像炼丹,“数据”就是找材料的AI大神李沐在上海交大演讲中谈到大语言模型,他认为大语言模型的训练过程非常像炼丹,“数据”就是找材料的环节,之后的“算力”就是炼“数据”, 举报 多多科技 关注16,331 信息 分享: 直播热点 下载APP领会员 直播中 小言儿~ 直播中 丽丽感谢家人宠爱 直播中 悠然~ 千帆直播 人气主播 直播0 芭比bb 来接我https://www.56.com/u70/v_MTkxMzM0NzYz.html
17.机器学习术语表:机器学习基础知识MachineLearningGoogle一个模型经常出现(甚至可能会持续) 重新训练。动态模型是一个“终身学习者”那个 适应不断演变的数据。动态模型也称为在线模型。 与静态模型相对。 E 早停法 #fundamentals 一种正则化方法,它涉及training中训练损失结束之前 下降。在早停法中,您有意停止训练模型, 当验证数据集的损失开始增加到 increase;也就是泛https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
18.计算机学院七篇论文入选数据库领域顶级会议VLDB2023近年来,大规模预训练模型取得了前所未有的成就。腾讯公司的多款产品和服务,如微信、QQ和腾讯广告,已经广泛应用这些先进的预训练模型以提升用户体验和服务质量。论文“Angel-PTM: A Scalable and Economical Large-scale Pre-training System in Tencent”提出了Angel-PTM,一个专为大模型预训练而精心构建的工业级深度https://news.pku.edu.cn/jxky/3347dc1aea5547b28f167b4110d74f8e.htm