人工智能算法深度学习(nolearn是一个Python软件包它提供了几种机器学习算法的抽象)

(nolearn是一个Python软件包它提供了几种机器学习算法的抽象)

深度学习是神经网络编程中相对较新的进展,它代表了一种训练深度神经网络的方法。本质上,任何具有两层以上的神经网络都是深度神经网络。自从Pitts(1943)引入多层感知机(multilayerperceptron)以来,我们就已经具备创建深度神经网络的能力。但是,直到Hinton(1984)成为第一个成功训练这些复杂神经网络的研究者之后,我们才能够有效地训练神经网络。

深度学习由许多不同的技术组成,本章概述了这些技术。后文将包含有关这些技术的更多信息。深度学习通常包括以下特征:

以下各节概述了这些技术。

大多数学习算法是有监督的或无监督的。有监督的训练数据集为每个数据项提供了预期的结果;无监督的训练数据集不提供预期的结果。预期的结果称为标记。学习的问题在于大多数数据集是带标记的和未带标记的数据项的混合。

要理解标记和未标记数据之间的区别,请考虑以下真实世界的例子。当你还是小孩子的时候,在成长过程中可能会看到许多车辆。在生命的早期,你不知道自己在看轿车、卡车,还是货车,只知道看到的是某种车辆。你可以将这种接触看成车辆学习过程中无监督的部分。那时,你学习了这些车辆之间的共同特征。

在学习过程的后期,你将获得标记。当你遇到不同的车辆时,一位成年人告诉你,你看的是汽车、卡车或货车。无监督的训练为你奠定了基础,而你会以这些知识为基础获得标记。如你所见,有监督和无监督的学习在现实生活中非常普遍。深度学习用它自己的方式,结合无监督和有监督的学习数据,很好地完成了工作。

一些深度学习架构使用不带结果的整个训练集,来处理部分标记的数据,并初始化权重。你可以在没有标记的情况下,独立训练各个层。因为你可以并行训练这些层,所以这个过程是可伸缩的。一旦无监督阶段初始化了这些权重,监督阶段就可以对其进行调整。

卷积是一项经常与深度学习结合的重要技术。Hinton(2014)引入了卷积,以使图像识别神经网络的工作方式类似于生物系统,并获得了更准确的结果。卷积的一种方法是稀疏连接,即不会产生所有可能的权重连接。图9-1展示了稀疏连接。

图9-1稀疏连接

常规前馈神经网络通常会在两层之间创建所有可能的权重连接。在深度学习术语中,我们将这些层称为“稠密层”(denselayer)。卷积神经网络不表示所有可能的权重,但其会共享权重,如图9-2所示。

图9-2共享权重

如图9-2所示,神经元只是共享3个独立的权重。红线(实线)、黑线(虚线)和蓝线(虚线)表示各个权重。权重共享使程序可以存储复杂的结构,同时保持内存使用和计算的效率。

本节概述了卷积神经网络。第10章“卷积神经网络”将用一整章讨论这种神经网络。

Dropout是一种正则化算法,对深度学习有很多好处。和大多数正则化算法一样,Dropout可以防止过拟合。你也可以和卷积一样,以逐层的方式将Dropout应用于神经网络。你必须将一个层指定为Dropout层。实际上,在神经网络中,你可以将这些Dropout层与常规层和卷积层混合使用。切勿将Dropout层和卷积层混合在单个层中。

Hinton(2012)引入了Dropout,将其作为一种简单有效的正则化算法,以减少过拟合。Dropout通过移除Dropout层中的特定神经元来发挥作用。丢弃这些神经元的行为可防止其他神经元过度依赖于被丢弃的神经元。程序将删除这些选定的神经元及其所有连接。图9-3说明了这个过程。

图9-3Dropout层

图9-3所示的神经网络从上至下包含一个输入层、一个Dropout层和一个输出层。Dropout层已删除了几个神经元。虚线圆圈表示Dropout算法删除的神经元,虚线连接线表示Dropout算法删除神经元时删除的权重。

GPU,即计算机中负责图形显示的部分,是研究人员解决前馈神经网络训练问题的一种方法。由于现代视频、游戏使用了3D图形,因此我们大多数人都熟悉GPU。渲染这些图形、图像在数学上运算量大,而且为了执行这些操作,早期的计算机依靠CPU。但是,这种方法效率不高。现代视频、游戏中的图形系统处理需要专用电路,这种电路集成到了GPU或视频卡上。本质上,现代GPU是在计算机中运行的计算机。

研究人员发现,根据GPU的处理能力可以将其用于密集的数学任务,如神经网络训练。除了计算机图形学之外,我们将用于一般计算任务的GPU称为通用GPU(General-PurposeuseofGPU,GPGPU)。当应用于深度学习时,GPU的表现异常出色。将它与ReLU激活函数、正则化和常规反向传播算法相结合,可以产生惊人的结果。

但是,GPGPU可能难以使用,因为为GPU编写的程序必须使用名为C99的编程语言。该语言与常规C语言非常相似,但在许多方面,GPU所需的C99比常规C语言困难得多。此外,GPU仅擅长特定的任务,即使是对GPU有利的任务,也因为优化C99代码而变得具有挑战性。GPU必须平衡几类内存、寄存器,以及数百个处理器内核的同步。此外,GPU处理有两种相互竞争的标准:CUDA和OpenCL。两种标准为程序员学习制造了更多的困难。

幸运的是,你无须学习GPU编程,也可以利用它的处理能力。除非你愿意花费大量的精力,来学习一个复杂且不断发展的领域的细枝末节,否则我们不建议你学习GPU编程,因为它与CPU编程完全不同。产生有效的、基于CPU程序的好技术,通常会产生极其低效的GPU程序,反之亦然。如果你想使用GPU,就应该使用支持它的、已有的软件包。如果你的需求不适合深度学习软件包,则可以考虑使用线性代数软件包,如CUBLAS,其中包含许多高度优化的算法,以及针对机器学习通常需要的线性代数。

高度优化的深度学习框架和快速GPU的处理能力可能是惊人的。GPU可以凭借强大的处理能力获得出色的结果。2010年,瑞士AI实验室IDSIA证明,尽管有梯度消失问题,但GPU的出色处理能力,使得反向传播对深度前馈神经网络来说是可行的[1]。在著名的MNIST手写数字识别问题上,该方法胜过了所有其他机器学习技术。

我们可以将本书中的示例分为两种。第一种示例向你展示如何实现神经网络或训练算法。本书中的大多数示例都是基于算法的,我们将在最低层面上探讨该算法。

应用示例是本书中包含的第二种示例。这些更高层面的示例说明了如何使用神经网络和深度学习算法。这些示例通常会使用本节中讨论的框架之一。通过这种方式,本书在理论和实际应用之间取得了平衡。

H2O是一种机器学习框架,支持多种编程语言。尽管H2O是用Java实现的,但它被设计为一个Web服务。H2O可以与R、Python、Scala、Java以及可以与H2O的RESTAPI通信的任何语言一起使用。

此外,H2O可以与ApacheSpark一起用于大数据和云计算操作。SparkingWater软件包让H2O可以在跨计算机网络的内存中运行大型模型。

除了深度学习,H2O还支持其他多种机器学习模型,如对数概率回归、决策树和梯度提升(gradientboosting)。

你可以在GitHub上找到nolearn软件包。

深度学习框架Lasagne的名称源自意大利美食千层面(lasagna)。拼写lasagne和lasagna均被视为这种意大利美食的有效拼写。在意大利语中,lasagne是单数形式,lasagna是复数形式。无论使用哪种拼写,用lasagna来形容深度学习框架都很形象。图9-4展示了千层面与深度神经网络一样,由许多层组成。

图9-4千层面

人们还为JavaScript创建了深度学习支持。ConvNetJS软件包实现了许多深度学习算法,尤其是在卷积神经网络领域。ConvNetJS的主要目标是在网站上创建深度学习示例。

深度信念神经网络(DBNN)是深度学习的最早应用之一。DBNN就是具有多个层的常规信念神经网络。Neil在1992年提出的信念神经网络不同于常规的FFNN。Hinton(2007)将DBNN描述为“由多层随机的潜在变量组成的概率生成式模型。”由于这个技术描述起来很复杂,因此我们要定义一些术语。

DBNN和FFNN之间的主要区别总结如下。

这些是DBNN和FFNN重要的差异。第一点是DBNN的最大限制因素之一。DBNN仅接收二进制输入,这一事实通常严重限制了它可以解决的问题类型。你还需要注意,DBNN只能用于分类,而不能用于回归。换言之,DBNN可以将股票分为购买、持有或出售等类别,但它无法提供有关库存的数字预测,如未来30天内可能达到的数量。如果需要这些特征中的任何一个,则应考虑使用常规的深度前馈神经网络。

与FFNN相比,DBNN最初似乎有些局限性。但是,它们确实具有根据给定输出生成合理的输入的能力。最早的DBNN实验之一是让DBNN使用手写样本将10个数字分类。这些数字来自MNIST手写数字数据集。用MNIST手写数字对DBNN进行训练,它就能产生每个数字的新表示,如图9-5所示。

图9-5DBNN生成的数字

以上数字摘自Hinton(2006)的深度学习论文。第一行显示了DBNN从其训练数据生成的各种不同的0。

RBM是DBNN的中心。提供给DBNN的输入通过一系列堆叠的RBM传递,它们构成了神经网络的各层。创建附加的RBM层会导致DBNN更深。尽管我们没有对RBM进行监督,但是希望对最终的DBNN进行监督。为了完成监督,我们添加了一个最终的对数概率回归层,以区分类别。对于Hinton的实验(见图9-6),类别是10个数字。

图9-6DBNN

图9-6展示了一个DBNN,使用的超参数与Hinton的实验相同。超参数指定了神经网络的架构,如层数、隐藏的神经元计数和其他设置。呈现给DBNN的每个数字图像大小均为28×28(即784)维的向量。这些图像是单色的(即黑白的),每个像素都可以用一个比特来表示,与DBNN的所有输入均为二进制的要求兼容。上面的神经网络具有三层堆叠的RBM,分别包含500个神经元、500个神经元和2000个神经元。

以下各小节讨论用于实现DBNN的多种算法。

第3章“霍普菲尔德神经网络和玻尔兹曼机”包含了对玻尔兹曼机的讨论,这里不赘述。本章介绍玻尔兹曼机的受限版本——RBM,并堆叠这些RBM以获得深度。第3章的图3-4展示了RBM。RBM与玻尔兹曼机的主要区别在于,RBM可见(输入)神经元和隐藏(输出)神经元具有仅有的连接。在堆叠RBM的情况下,隐藏神经元将成为下一层的输出。图9-7展示了如何将两台RBM堆叠在一起。

图9-7堆叠的RBM

我们可以计算RBM的输出,可以利用第3章“霍普菲尔德神经网络和玻尔兹曼机”中的公式3-6进行计算。唯一的区别在于,现在我们有两台RBM堆叠在一起。RBM1接收传递到其可见神经元的3个输入;隐藏神经元将其输出直接传递到RBM2的两个输入(可见神经元)。请注意,两个RBM之间没有权重,RBM1中H1和H2神经元的输出直接从RBM2传递给I1和I2。

训练DBNN的过程需要许多步骤。尽管这个过程背后的数学原理可能有些复杂,但是你无须了解训练DBNN的每个细节也可以使用它们。你只需要了解以下要点。

有了这些知识,你就可以跳到本章9.8.8小节的深度信念应用。如果你想了解DBNN训练的具体细节,请继续阅读。

图9-8总结了DBNN训练的步骤。

图9-8DBNN训练

在单层上执行无监督训练时,第一步是计算直到该层的DBNN的所有值。你将针对每个训练集进行这种计算,DBNN将为你提供当前正在训练的层的采样值。采样是指神经网络根据概率随机选择一个真/假值。

逐层采样的目的是产生一个二进制向量,提供给对比散度算法(contrastivedivergencealgorithm)。在训练每个RBM时,我们总是将前一个RBM的输出作为当前RBM的输入。如果我们要训练第一个RBM(最接近输入),只需将训练输入向量用于对比散度。该过程允许对每个RBM进行训练。DBNN的最终Softmax层在无监督阶段未受训练,最后的对数概率回归阶段将训练Softmax层。

一旦逐层训练完了每个RBM层,我们就可以利用“上下算法”(up-downalgorithm)或对比散度算法。完整的算法包括以下步骤,这些步骤将在后文中介绍。

和第6章“反向传播训练”中介绍的许多基于梯度下降的算法一样,对比散度算法也基于梯度下降。它使用函数的导数来寻找让该函数产生最小输出的函数输入。在对比散度过程中估计了几个不同的梯度,我们可以使用这些估计值代替实际梯度计算,因为实际梯度太复杂而无法计算。对于机器学习,采用估计值通常就足够了。

另外,我们必须通过将可见神经元传播到隐藏神经元来计算隐藏神经元的平均概率。该计算是上下算法中的“向上”部分。公式9-1执行以下计算:

(9-1)

公式9-1计算每个隐藏神经元的平均概率(

)。

上方的短横表示它是一个平均值,正号标记表示我们正在计算算法中正向(即“向上”)部分的平均值。偏置会添加到所有可见神经元的加权和的S型激活函数值中。

接下来,必须为每个隐藏神经元采样一个值。利用刚计算出的平均概率,该值将随机分配为true(1)或false(0)。公式9-2完成了这种采样:

(9-2)

公式9-2假设

是0~1的一个均匀随机数。均匀随机数意味着该范围内的每个可能的数字都有相等的被选择概率。

负梯度的计算是上下算法的“向下”阶段。为了完成这种计算,该算法使用吉布斯采样来估计负梯度的平均值。GemanD.和GemanS.(1984)引入了吉布斯采样,并以物理学家JosiahWillardGibbs命名。该技术通过循环迭代

次来完成,以提高估计的质量。每次迭代执行两个步骤:

(1)采样可见神经元提供给隐藏神经元;

(2)采样隐藏神经元提供给可见神经元。

对于吉布斯采样的第一次迭代,我们从9.8.4小节获得的正隐藏神经元样本开始。我们将从采样可见神经元的平均概率[即步骤(1)]。接下来,我们将利用这些可见的隐藏神经元,对隐藏的神经元进行采样[即步骤(2)]。这些新的隐藏概率是负梯度。对于下一次迭代,我们将使用负梯度代替正梯度。这个过程在每次迭代中重复,并产生更好的负梯度。公式9-3完成了对可见神经元的采样:

(9-3)

公式9-3实质上是公式9-1取反的结果。在这里,我们使用隐藏值确定可见平均值。然后,正如对正梯度所做的,我们使用公式9-4采样一个负概率:

(9-4)

公式9-4假设

是0~1的一个均匀随机数。

公式9-3和公式9-4只是吉布斯采样步骤的一半。这些方程式实现了步骤(1),它们在给定隐藏神经元的情况下对可见神经元进行了采样。接下来,我们必须完成步骤(2)。给定可见的神经元,我们必须对隐藏神经元进行采样。这个过程与9.8.4小节“计算正梯度”非常相似。但这一次,我们要计算负梯度。

刚刚计算出的可见神经元的样本可以获得隐藏平均值,如公式9-5所示:

(9-5)

和以前一样,平均概率可以采样一个实际值。在这种情况下,我们使用隐藏平均值来采样一个隐藏值,如公式9-6所示:

(9-6)

吉布斯采样过程继续进行。负的隐藏样本可以在每次迭代中进行处理。一旦计算完成,你将拥有以下6个向量:

这些值将更新神经网络的权重和偏置。

所有神经网络训练的目的都是更新权重和偏置。这种调整使神经网络能够学习执行希望它执行的任务。这是DBNN训练过程中无监督部分的最后一步。在这个步骤中,将更新单层(玻尔兹曼机)的权重和偏置。如前所述,各个玻尔兹曼层是独立训练的。

权重和偏置会独立更新。公式9-7展示了如何更新权重:

(9-7)

学习率(ε)指定应该采用计算出的变化的比率。较高的学习率将使学习速度更快,但它们可能会跳过一组最佳权重。较低的学习率将使学习速度更慢,但结果的质量可能更高。值

代表当前训练集元素。因为

是向量(数组),所以

用“||||”标识其长度。公式9-7还使用了正平均隐藏概率、负平均隐藏概率和负采样值。

公式9-8以类似的方式计算偏置:

(9-8)

公式9-8使用了来自正向阶段的采样隐藏值、来自负向阶段的平均隐藏值,以及输入向量。权重和偏置更新后,训练的无监督部分就完成了。

到目前为止,DBNN训练一直侧重于无监督训练。DBNN仅使用训练集输入(

值),即使数据集提供了预期的输出(

值),无监督的训练也没有使用它。现在,使用预期的输出来训练DBNN。在最后阶段,我们仅使用数据集中包含预期输出的数据项。这个步骤允许程序将DBNN与数据集一起使用,而其中每个数据项不一定具有预期的输出。我们将该数据称为部分标记的数据集。

DBNN的最后一层就是针对每个分类的神经元。这些神经元具有前一个RBM层输出的权重。这些输出神经元都使用S型激活函数和Softmax层。Softmax层确保每个类的输出总和为1。

采用常规的反向传播训练最后一层。最后一层实质上是前馈神经网络的输出层,前馈神经网络从顶层RBM接收其输入。第6章“反向传播训练”包含了对反向传播的讨论,因此不赘述。DBNN的主要思想是,层次结构允许每一层解释下一层的数据。这种层次结构使学习可以遍及各个层。较高的层学习更多的抽象概念,而较低的层由输入数据形成。在实践中,与常规的反向传播训练前馈神经网络相比,DBNN可以处理更复杂的模式。

本小节介绍一个简单的DBNN示例。这个示例就是接受一系列输入模式及其所属的分类。输入模式如下所示:

我们提供每个训练集元素的预期输出。这些信息指定了上述每个元素所属的分类,如下所示:

[[1,0],[1,0],[1,0],[0,1],[0,1],[0,1]]本书示例中提供的程序将创建具有以下配置的DBNN。

首先,我们训练每个隐藏层。然后,我们在输出层执行对数概率回归。该程序的输出如下所示:

如你所见,该程序首先训练了隐藏层,然后进行了288次回归迭代。在迭代过程中,误差水平显著下降。最后,样本数据查询了神经网络。神经网络响应是在我们上面指定的两个类别中输入样本出现在每个类别中的概率。

如神经网络报告了以下元素:

[0.0,1.0,1.0,1.0,0.0,0.0,0.0,0.0]其中,元素属于1类的概率约为96%,而属于2类的概率只有约4%。针对每个分类报告的两个概率之和必须为100%。

本文摘自:《人工智能算法(卷3):深度学习和神经网络》

自早期以来,神经网络就一直是人工智能(ArtificialIntelligence,AI)的支柱。现在,令人兴奋的新技术(如深度学习和卷积)正在将神经网络带入一个全新的方向。本书将演示各种现实世界任务中的神经网络,如图像识别和数据科学。我们研究了当前的神经网络技术,包括ReLU激活、随机梯度下降、交叉熵、正则化、Dropout及可视化等。

本书适合作为人工智能入门读者以及对人工智能算法感兴趣的读者阅读参考。

THE END
1.深度学习(DeepLearning)软件资源列表深度学习软件资源列表( Deep Learning ) 列表源自http://deeplearning.net/software_links/,本文进行分类整理。 星号代表对软件库的推荐度,考虑了适用范围、开发语言、更新情况、文档示例完整性等方面,Just personal opinion。 根据编程语言,对深度学习的软件资源分类: https://www.jianshu.com/p/da00448f081d
2.从零开始:深度学习软件环境安装指南机器之心从零开始:深度学习软件环境安装指南 在搭建深度学习机器之后,我们下一步要做的就是构建完整的开发环境了。本文将向你解释如何在一台新装的 Ubuntu 机器上安装 Python 和 Nvidia 硬件驱动、各类库和软件包。 为了进行强化学习研究,我最近购置了一台基于 Ubuntu 和英伟达 GPU 的深度学习机器。尽管目前在网络中能找到https://www.jiqizhixin.com/articles/2017-10-02-4
3.深度学习平台DeepLearningCaffe深度学习平台 Deep Learning on QingCloud 基于强劲的 GPU 计算资源,搭载多个主流深度学习框架,可极速搭建深度学习开发环境,全面提速 AI 应用开发。https://www.qingcloud.com/products/deeplearning/
4.常用深度学习的软件深度学习模型预测Q2: 我可以在没有GPU的情况下使用深度学习软件吗? A2: 是的,你可以在没有GPU的情况下使用大多数深度学习软件,虽然GPU可以显著加速训练过程,但许多框架也支持在CPU上运行,如果你的任务不是特别复杂或者数据集较小,CPU可能足够使用,对于大型模型和大规模数据集,缺乏GPU可能会导致训练时间过长。 https://www.kdun.com/ask/707532.html
5.避免踩坑不使用Anaconda深度学习需要安装的软件包深度学习软件库、 一、下载与安装Python 1、下载地址 下载Python的官方网址是:Python Source Releases | Python.org 进入官网后可以见到如图: 2、版本选择 选择“Looking for a specific release? (正在选择某个特定版本吗?)“栏目下载想要的Python版本。 https://blog.csdn.net/StringEast/article/details/129688827
6.苏州苏映视图像软件科技有限公司基于深度学习的AI视觉平台为多种AOI设备赋能,满足复杂的工业应用。在传统CV无法达到检测标准的场景下有效解决缺陷的定位,检测,分类以及OCR等问题。 INSAI深度学习软件 苏映视EcoAI软件拥有用户友好的界面,操作简便,无需编写任何代码。同时,它功能强大,能够胜任多种任务,包括定位、识别、分割和3D检测等。不仅如此,它还https://www.insnex.com/insaisdxxrj
7.aiditron深度学习软件创建纵向联邦学习作业华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:aiditron深度学习软件。https://support.huaweicloud.com/topic/971483-5-A
8.深度学习工具下载深度学习工具为免费软件,它稳定且强大的功能得到了很多用户的认同。本软件使用的语言是简体中文,使用的过程很方便。深度学习工具在2024年12月12日更新到了最新版本,这次升级对功能进行了诸多改进。而且还减小了软件的体积,这个版本优化后体积为11.57MB,比之前的版本更强大、轻快了。 深度学习工具完善了很多细节,更加快速https://www.180disk.com/soft/91349.html
9.如何在实战路上与时俱进:深度学习更优实践构建深度学习研究环境首先要考虑硬件环境的支持,这也是深度学习算法区别于其他机器学习算法的重要一点,同时还要依据实际需求对深度学习软件框架进行规划和选择。 3.1硬件环境选择 深度学习需要很高的内在并行度、大量的浮点计算能力以及矩阵运算,传统的基于CPU集群的云计算技术并不擅长处理这类问题,例如,斯坦福大学的研究人员https://www.51cto.com/article/527689.html
10.ide深度学习常用软件火山引擎是字节跳动旗下的云服务平台,将字节跳动快速发展过程中积累的增长方法、技术能力和应用工具开放给外部企业,提供云基础、视频与内容分发、数智平台VeDI、人工智能、开发与运维等服务,帮助企业在数字化升级中实现持续增长。本页核心内容:ide深度学习常用软件https://www.volcengine.com/theme/1207426-I-7-1
11.深度学习语音合成软件语音合成软件哪个最好?以上是俄语音标学习软件的一些特点和优势。如果你想更好地学习俄语,提高你的发音能力,不妨尝试一下这些专业的俄语音标学习软件。它们将成为你学习俄语的得力助手,让你在学习俄语的道路上更加轻松、快捷地前行。 祝你学习俄语的旅程愉快! 四、不同深度学习软件的区别? https://tool.a5.cn/article/show/65932.html
12.学习笔记深度学习相关研究与展望Reviewofdeeplearninge)低功耗设计。鉴于嵌入式设备对功耗非常敏感,具有功耗优势的 FPGA 芯片可能成为研究的一个热点,设计基于FPGA 类似 Caffe 的可编程深度学习软件平台会是一个研究方向。 f)算法层优化。由于深度学习技术巨大的计算量和存储需求,不仅要在硬件上进行加速,算法模型优化上也可以锦上添花,如稀疏编码、层级融合、深度压缩等https://developer.aliyun.com/article/940282
13.VisionproVIDI基于深度学习的工业图像分析软件VIDI深度学习软件 将深度学习的标注、训练、测试流程,以PC软件的方式进行封装,降低了用户使用深度学习https://www.51halcon.com/thread-3997-1-1.html
14.深度学习原理与实践了解深度学习的软件框架 我们暂且不管深度学习是什么,深度学习有多强大。作为信息行业的杰出的工程师,首先需要知道深度学习真正带来的是什么?未来,深度学习对社会以及各个行业会带来什么影响?拥有大量深度学习人才的中国企业将会在世界上充当何种角色?深度学习又会给我们带来什么样的机遇与挑战? https://labs.epubit.com/bookDetails?id=N17878
15.深度学习常用软件纪录深度学习常用软件纪录 一般工作环境一般来说,笔者的代码是运行在服务器上的,服务器上具有多块显卡作为主要计算环境,服务器具有外网独立IP,就笔者的为例,是运行的Ubuntu 16.04系统,目前而言,Ubuntu等基于Linux内核的对于深度学习周边框架的支持比较好,建议大家使用Ubuntu作为主要开发环境(可以是远程的计算环境,本地编辑https://www.dianyuan.com/eestar/article-9720.html
16.构建VMware混合云平台深度学习参考堆栈(参见图 8)是一个集成的高性能开源堆栈,已针对英特尔? 至强? 可扩展处理器进行优化。该堆栈旨在帮助人工智能开发人员基于英特尔? 架构提供出色的体验。它不仅可降低深度学习软件组件中常见的复杂性,为定制化解决方案提供灵活性,还能够使企业快速创建深度学习工作负载的原型并加以部署。 https://www.intel.cn/content/www/cn/zh/cloud-computing/building-a-vmware-hybrid-cloud-platform.html
17.ViMoDeeplearning深度学习训练软件工业视觉软件ViMo Deeplearning是思谋自主研发的工业视觉深度学习训练软件,基于ViMo Cloud算法打造。它提供智能标注、自动训练、模型调优和高效推理等功能,用户无需编程即可完成物料分类、缺陷检测、工件定位和字符识别等任务。https://cn.smartmore.com/visminfo143.html
18.康耐视深度学习VIDI介绍工具与概念(2)腾讯云开发者社区Cognex ViDi Suite深度学习软件用于训练基于标记图像集的视觉优化深度神经网络 (VODNN)。经过训练的网络可以执行以下操作: 找到并识别图像中的特征。 找到并读取图像中的字符和字符串。 识别、定位和表征图像中的缺陷。 对图像分类。 Cognex ViDi Suite 工具操作分为两个阶段: https://cloud.tencent.com/developer/article/2014365
19.突破性深度学习—康耐视VisionPro视觉软件访问突破性的深度学习图像分析 通过API连接VisionPro ViDi,这是专为工业图像分析设计的首款深度学习软件。这种突破性的技术专为复杂检测、元件定位、分类、以及光学字符识别而优化,远超即使是优秀的检测员。 集成、通用的通信和图像采集 借助VisionPro,用户可以通过任意相机或图像采集卡使用功能较强的视觉软件。康耐视采集https://www.iianews.com/ca/_01-ABC00000000000290802.shtml
20.基于深度学习的软件缺陷预测模型【摘要】:为了提高软件的可靠性,软件缺陷预测已经成为软件工程领域中一个重要的研究方向.传统的软件缺陷预测方法主要是设计静态代码度量,并用机器学习分类器来预测代码的缺陷概率.但是,静态代码度量未能充分考虑到潜藏在代码中的语义特征.根据这种状况,本文提出了一种基于深度卷积神经网络的软件缺陷预测模型.首先,从源代码https://www.cnki.com.cn/Article/CJFDTotal-XTYY202101005.htm
21.工程造价用什么软件计算用友畅捷通erp软件作为国内领先的企业管理软件之一,它不仅可以整合各个部门的信息,实现资源共享,还可以通过数据分析功能帮助企业进行成本控制和优化。在工程造价计算方面,它可以直接从成本计划、采购和库存等方面进行综合管理,为工程项目提供全方位的支持。 维度四:数字化深度学习软件https://h.chanjet.com/ask/807ab9abb6731.html
22.Python深度学习机器学习深度学习框架软件开发人工智能入门书籍当当北京鼎美文化图书专营店在线销售正版《2023新书 深度学习入门2:自制框架 Python深度学习机器学习深度学习框架软件开发人工智能入门书籍 9787115607515》。最新《2023新书 深度学习入门2:自制框架 Python深度学习机器学习深度学习框架软件开发人工智能入门书籍 9787115http://product.dangdang.com/11435515047.html
23.人工智能工具:适用于机器学习和深度学习的编程软件推荐对于机器学习和深度学习,以下是一些适用的人工智能工具和编程软件推荐: TensorFlow: TensorFlow是由Google开发的开源人工智能库,被广泛用于机器学习和深度学习项目。它提供了丰富的API和工具,可以在各种硬件平台上部署,如CPU、GPU和TPU。 PyTorch: PyTorch是一个基于Python的开源深度学习框架,由Facebook开发和维护。它提供https://www.simyk.com/newsinfo/6267809.html