用活人脑细胞造AI系统!语音识别已成功,可无监督学习|Nature子刊

由真实人脑细胞构建的“迷你大脑”和微电极组成的AI系统,已经能够进行语音识别——

从数百个声音片段中准确认出某个特定人的声音的那种。

最近,一项颇为前沿的类脑研究登上了Nature子刊。

这个特别的AI系统甚至可以进行无监督学习:

研究人员只是一遍遍播放音频片段,不提供任何形式的反馈来告诉系统答对还是错。

最终,该系统在两天的训练之后,准确率直接从最初的51%升到了78%。

这,究竟是怎么实现的?

发明该系统的主要目的,是解决硅芯片的高能耗等问题。

一般来说,这个问题的解题思路都是靠类脑计算。

但这种思想下设计的“传统”类脑芯片大多数都是直接基于数字电子原理,完全模仿大脑功能的能力着实有限。

在此,该研究直接用上了一个叫做“类器官”的东西:

它指的是能够在实验室中利用人的干细胞培养出的微型器官,包含其代表器官的一些关键特性。

具体而言,研究人员将活体脑细胞组成的脑类器官(形状类似小团球)和高密度微电极阵列进行连接,构建出一个叫做“Brainoware”的系统。

微电极在Brainoware中的作用一是向类器官发送电信号,达到传送信息到“脑”中的目的;二是检测大脑神经细胞的放电响应,然后交给外部设备进行读取和解析。

这样的系统可以表现出类似神经网络的功能,并可以进行无监督学习。

将它连接到特定硬件,就可以被训练于语音识别。

具体任务中,研究人员将8个人说日语元音的240个音频片段转换为信号序列,然后发送给系统,让它识别出某个人的声音。

最开始,Brainoware的准确度只有30%-40%。

但经过两天的训练之后,它就可以78%的准确率识别出特定说话者。

作者在此强调,所谓的训练只是重复音频片段,不给予任何反馈,也就是所谓的无监督学习。

不过,需要注意的是,目前Brainoware只能识别谁在讲话,但听不懂任何讲话内容。

而在该实验之后,研究人员试着用一种药物来阻断脑类器官中神经细胞之间形成新的连接。

结果发现,这样操作之后,系统的准确率就不会有任何改善了。

作者解释,这说明Brainoware的学习能力取决于神经可塑性。

今年三月份,该团队其实就是已经用该系统来尝试预测Hénon图了(数学领域中一种可表现出混沌行为的动力系统)。

结果Brainoware也是在无监督学习了4天之后(每天代表一个训练周期),被发现它能够比没有长短期记忆单元的人工神经网络预测得更准。

相比之下,后者可是经过了至少50个训练周期。

而再往前一点,澳大利亚一家科研团队则试图教“盘中大脑”打乒乓球游戏,结果它5分钟内就学会了,速度比AI还快17倍。

那么未来,计算机会由大脑组成吗?

还不好说。

如本文作者介绍,他们这个研究目前属于概念验证,后面还有很多问题要解决:

例如,Brainoware系统的性能还能提高,但最重要的问题是类器官只能存活一到两个月。

并且,Brainoware本身虽然不需要太多功耗,但维持它运转的外部设备的功耗水平并不低。

诸如一系列等等问题。

但不管怎么样,它的研究对我们进一步理解人脑的学习奥秘等问题都有帮助。

参考链接:

Meta开启Ray-Ban智能眼镜多模态AI功能测试,可识别物体、翻译语言

2023.12.13

0.6预览版GeekbenchML发布:扩展至桌面端,可跨平台设备对比AI性能

Soul推出“SoulX”AI模型,已应用于旗下App“苟蛋”聊天机器人

THE END
1.人工智能深入了解神经网络 通过Frank La La|2019 年 2 月 神经网络是很多高级的人工智能 (AI) 解决方案的基本元素。但是,很少人取消 derstand 这一概念的核心数学或结构化基础。虽然初始研究神经网络返回日期数十年来,它不是直到最近的计算能力和训练数据集的大小进行它们实际供常规使用。 https://docs.microsoft.com/zh-cn/archive/msdn-magazine/2019/february/artificially-intelligent-a-closer-look-at-neural-networks
2.(图解)类神经网络的复兴:深度学习简史腾讯云开发者社区然而若采用仅有两层的神经网络,不如使用其他理论更完备也更好实践、同样只有两层的「浅层」机器学习模型。因此在1990年代,支持矢量机(Support Vector Machine)等「浅层机器学习模型」成为主流技术,此为机器学习的第二波浪潮。 接下来,让我们来继续谈谈类神经网络是如何再度复甦。https://cloud.tencent.com/developer/article/1080858
3.在AI智能中有几种重要的神经网络类型?6种重要的神经网络类型分享!这将我们带到了接下来的两类神经网络:卷积神经网络和循环神经网络。 2. 卷积神经网络(CNN) 在CNN 流行之前,人们用于图像分类的算法有很多。人们过去常常从图像中创建特征,然后将这些特征输入到一些分类算法中,例如 SVM。一些算法也使用图像的像素级值作为特征向量。举个例子,您可以训练一个具有 784 个特征的 SVM,https://m.w3cschool.cn/article/95743536.html
4.什么是神经网络?神经网络的类型Cloudflare不过,它们大致可以分为以下几类: 浅层神经网络通常只有一个隐藏层 深度神经网络有多个隐藏层 与深度神经网络相比,浅层神经网络速度更快,所需的处理能力更低,但无法像深度神经网络那样执行大量复杂任务。 下面是目前可能使用的神经网络类型的不完整列表: 感知器神经网络是一种简单的浅层网络,有一个输入层和一个输出https://www.cloudflare-cn.com/learning/ai/what-is-neural-network/
5.机器学习19:多类别神经网络MultiClassNeuralNetworks该飞机是波音 747、空客 320、波音 777 还是巴西航空工业公司 190? 这是苹果、熊、糖果、狗还是鸡蛋的图像? 在现实世界中,多分类问题需要从数百万个单独的类中进行选择。例如一个可以识别几乎任何东西的图像的多类分类模型。 目录 1.一对多 2.多类神经网络 https://download.csdn.net/blog/column/8117549/131538081
6.应用各种类型的深度神经网络来解决不同的学习任典型深度神经网络LeNet-5虽然提出的时间比较早,但它是一个非常成功 的神经网络模型,LeNet-5的网络结构如图所示。 1.1 结构:LeNet-5 共包含 8 层 整体上是:输入层>卷积层>池化层+激活函数>卷积层>池化层+激活函数>卷积层>全连接层>输出层 输入层:N 个 32x32 的训练样本 https://blog.51cto.com/u_13229/7691640
7.物理神经网络物理神经网络 编辑 物理神经网络是一种类型的人工神经网络,其中可电调整的材料被用来模拟一个的功能神经突触。“物理”神经网络用于强调对用于模拟神经元的物理硬件的依赖,而不是基于软件的方法来模拟神经网络。更一般而言,该术语适用于其他人工神经网络,其中忆阻器或其他电可调电阻材料用于模拟神经突触。 物理神经网络的https://vibaike.com/111076/
8.两类忆阻神经网络的稳定性分析【摘要】:忆阻神经网络作为类脑研究的重要算法之一,备受国内外众多学者的关注。而稳定性是忆阻神经网络最基本的动力学行为之一,其理论研究涉及到微分方程、Lyapunov稳定性理论、脉冲控制理论、生物科学、计算机科学等学科知识。忆阻神经网络稳定性相关成果已广泛应用于模式识别、语音合成、联想记忆等实际工程。众所周知,含有https://cdmd.cnki.com.cn/Article/CDMD-10635-1021769979.htm
9.类脑智能与脉冲神经网络类脑智能算法主要通过对生物神经系统的模拟,构建更符合生物神经系统原理的人工智能算法及计算框架。近年来,起源于神经科学理论基础的脉冲神经网络(spike neural network, SNNs)已成为类脑计算领域的主流框架之一。然而,目前snn使用的基于反向传播(BP)直接训练的LeakyIntegration‐and‐Fire (LIF)神经元模型大多没有考虑周期https://cst.dhu.edu.cn/2022/0906/c3127a299265/page.htm
10.类脑运算脉冲神经网络(SpikingNeuralNetwork)发展现状类脑运算–脉冲神经网络(Spiking Neural Network)发展现状 前一段时间忙于博士论文的攥写和答辩, 抱歉拖更 继上一章: 类脑运算–脉冲神经网络(Spiking Neural Network)叙述 SNN是第三代人工神经网络(ANN),是一类event驱动的神经形态算法,可能具有广泛的应用领域,并适用于各种极低功耗的神经形态硬件。现阶段SNN 的应https://www.pianshen.com/article/94171855502/
11.类脑计算:从神经网络到真正的人工智能丨CCF中国科学院自动化研究所研究员余山表示,现在的深度学习从广义上来说也是类脑计算,因为它不是基于规则的机器学习系统,而是用神经网络从经验中学习知识。所以类脑计算和现在的深度学习两者是互相借鉴,互相促进的关系。 在类脑这一领域,目前国内机会较多。我国在计算、工程、智能技术方面有比较好的基础,脑科学方面总体和https://www.leiphone.com/category/ai/WOIMqvQZwFvOxFUK.html
12.清华NLP图神经网络GNN论文分门别类,16大应用200+篇论文机器之心本文总结了清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用。 [ 导读 ]图神经网络研究成为当前深度学习领域的热点。最近,清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用进行了综述,并https://www.jiqizhixin.com/articles/2019-08-12-2
13.智慧法治学术动态(2023年第18期总第42期)2023年5月9日,在《自然·机器智能》第5卷第4期上发表的一项新研究中,荷兰国家数学与计算机科学研究所(CWI)科学家展示了类脑神经元如何与新颖的学习方法相结合,能够大规模训练快速节能的尖峰神经网络。该技术潜在的应用包括可穿戴人工智能(AI)、语音识别、增强现实等诸多领域。(人民日报) https://www.jfdaily.com/sgh/detail?id=1028742
14.PyTorch的nn.Module类的定义和使用介绍python在PyTorch中,nn.Module类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类,本文介绍PyTorch的nn.Module类的定义和使用介绍,感兴趣的朋友一起看看吧+ 目录 在PyTorch中,nn.Module 类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类。nn.https://www.jb51.net/python/314596jdu.htm