机器学习能力何时能赶上人类大脑?——机器与人脑在学习机制上的比较分析 信息化动态

2024年,多路径的技术创新正在驱动AI学习机制越来越像人类大脑,主要突破包括通过“子采样-升采样-旁路”大型语言模型大幅加快机器学习效率,通过图神经网络模型如GNNs等能有效消除大模型幻觉,采用神经算法推理器如NAR等可提高AI推理稳健性,通过类脑计算信息处理模式构建了新型芯片和算法一体化结构等。可以说,机器学习一直在缩短与人类大脑学习的差距,但是什么时候才能真正赶上甚至超越人类大脑,这需要从两者学习机制差距上寻求有效答案。

近年来,人类大脑学习机制不断得到部分厘清

1.人类大脑神经的可塑性是人类学习和产生记忆的基础

长期研究发现,大脑神经可塑性是人类开展学习和记忆活动的基础。人类大脑通过化学反应、物理变化、神经元再利用、海马体主导以及多巴胺等多种神经递质共同发生的复杂活动构成了我们获取新知识和行为习惯的能力。

2.大脑神经元活动产生多种用途记忆

人类的学习和记忆活动可以概括为“人脑对一手经历和二手资料,通过辨识、分类保存、以后再现用于判断的完整过程”。记忆是人脑一切高等级思维活动的基础,也是衡量一个人智力水平的重要指标。人类记忆的形成在微观颗粒度上是大脑内部不同区域的神经元群周期性地同步激活的过程。日本东北大学研究发现,学习形成记忆有两个平行过程,一个发生在训练期间,称为在线学习,而另一个发生在休息期间,称为离线学习。

3.大脑计算采用双加工系统

4.大脑决策质量的提升需要通过长期学习和思考

与理性系统相比,直觉系统思维存在多种“陷阱”,如幸存者偏差、光环效应、锚定效应等。因此,人类大脑要进行高质量决策,可行提升途径包括两类。一是通过增加长期记忆储备的方式来提高直觉思考系统的准确率,二是通过增强认知的方式主动进行理性系统思考,减少对直觉思考系统的依赖。这两种提高决策质量的途径都需要人脑保持持续地学习与研究,通过多次神经元信号反复刺激,加强已有的神经元连接并在连接神经元外围使用髓鞘脂进行包裹,增强认知、增加长期记忆储备、强化海马体的检索和定向功能(记忆巩固)。

机器的学习机制及其演进

1.传统机器学习适用于数据特征较为明显的场景

2.深度学习技术适用于复杂真实环境的机器学习

深度学习是机器学习的一个子领域,其基本原理是通过构建和训练多层神经网络进行非线性变换,捕捉复杂真实环境的特征和模式,从而实现对复杂现象的建模和学习。深度学习模型在处理非结构化数据(图像、视频和声音等)的效率和应用效果更强。2006年深度神经网络出现以后深度学习机制开始加速成熟,2014年深度学习框架的出现大幅降低了深度学习的使用门槛,2023年GPT等大型预训练语言模型的出现又再次显著增强了深度学习的语言理解和生成能力。

深度学习模型可以用来处理高维数据,自动提取特征,能够满足机器复杂决策任务。例如,DeepMind团队提出的DQN(DeepQ-Network)算法,通过深度神经网络来优化Q学习值函数,实现对复杂环境的有效应对,目前已经在金融交易、机器人控制和自然语言处理等领域取得了显著成果。

3.“深度学习+强化学习”成为机器学习重点演进方向

深度学习和强化学习的结合,即深度强化学习(DeepReinforcementLearning,DRL),是近年来机器学习的重点突破方向之一。深度学习非常适合解决非结构化的真实世界场景,而强化学习能够实现较长期的推理(longer-termreasoning),同时能够做出更好更鲁棒的决策。二者结合能够让机器人从自身经验中不断学习,使得机器人能够通过数据,而不是人工手动定义的方法来掌握运动感知的技能。

目前,通过深度分层强化学习(DHRL)、Transformer架构改进强化学习算法(TRL)等方法,可以进一步显著提升智能体的学习能力和适应能力,协调多智能体达到最优整体性能。

4.类脑计算机制不断向人脑运作机制趋同

类脑计算(Brain-likeComputing)机制是指借鉴生物大脑的神经元与突触之间的连接方式,基于神经形态工程的计算理论、体系结构、芯片设计以及应用模型与算法,通过软硬件结合,实现高效、低功耗的模拟人脑的信息处理方式。

类脑计算在机制上不断地与人类大脑趋同,具有如下特点。第一、存算一体,类脑计算模型的数据存储与计算过程在同一位置进行,这是模拟工作记忆的平台作业方式;第二、采用事件驱动机制,这是借鉴神经元接收到足够强度的信号时才进行计算机制。第三、高度并行运算,这是参考每个神经元可以独立处理信息。第四、自主学习与动态调节能力,类脑计算系统具有自主学习能力,并能根据外部环境的变化进行动态调节,从而提高系统的适应性和鲁棒性。

机器学习能否赶上人类大脑?

根据雷·库兹韦尔利用摩尔定律进行的推算,到2029年,机器学习将拥有与人类大脑相同的处理能力,到2045年,人工智能将达到技术奇点,能够以远超任何可以想象的速度改进自己。未来人类很有可能和智能体走向合体方向,即成为Cyborgs。马斯克在2024年也表示,按照当前的技术进步速度,到2030年人工智能的智力可能超越人类,超级智能可能产生“奇点”。

事实上,机器学习要达到人类大脑水平还面临一些关键性的理论基础和技术挑战,主要集中在以下几个方面。一是人类对大脑神经工作机理的认知还在不断地刷新,大脑远比我们想象得更为复杂1。例如多巴胺对人类学习和记忆能力的刺激作用和奖励预测误差机制、海马体与大脑新皮层进行记忆交流的尖波涟漪效应、大脑通过DNA损伤和修复来促进长期记忆以及杏仁体对情绪性长期记忆的形成机制等领域的研究还才刚刚起步。二是类脑智能运算机制从理论上还不能全面解释自然智能的产生和原理,在复杂应用场景下难以推广应用。另外,其实用化芯片运算规模与人类大脑的千亿神经元级别相去甚远、算法精准性和能效指数仍有很大提升空间。三是深度强化学习模型仍存在诸多局限性。例如,深度神经网络模型的表达能力有限、幻觉轮廓识别能力不足、缺乏比拟大脑的创造性思维和灵活性等。

预计未来数年,人类大脑的兴奋性和抑制性神经元的配合机制将被融入到新一代高效脉冲神经网络模型中,脉冲神经网络得以与深度神经网络融合,SNN的低能耗高效率优势和DNN的复杂任务处理优势实现“1+1>2”,生物形态的机器人将逐步实现生物系统稳态维持和环境抵抗干扰能力,具备低能耗、自组织、高鲁棒性和高认知能力,机器将会从形态上和思维模式、思维能力上越来越像人类。

作者:张小东

扫一扫在手机上查看当前页面

地址:福州市鼓楼区屏西路27号邮政编码:350003您是本站第位访问者

为确保最佳浏览效果,建议您使用以下浏览器版本:IE浏览器9.0版本及以上;GoogleChrome浏览器63版本及以上;360浏览器9.1版本及以上,且IE内核9.0及以上。

THE END
1.机器学习:开启智能未来的钥匙腾讯云开发者社区机器学习作为人工智能的核心方法,通过分析数据中的隐藏规律,让计算机从中获取新的经验和知识,不断提升和改善自身性能,从而像人一样根据所学知识做出决策。https://cloud.tencent.com/developer/article/2478495
2.人工智能基础知识速成一、机器学习概念与原理 什么是机器学习? 机器学习是人工智能的一个分支,通过从数据中学习和改进算法,使计算机系统在没有明确编程的情况下也能够自动地学习和改进。机器学习是一种实现人工智能的技术手段,能够让计算机“自我学习”,从而实现更准确的预测和决策。 https://www.jianshu.com/p/90fcb8dc2b95
3.机器学习找不到创新点?三种特征选择的方法包你拿下顶会!最近特征选择特别火!多次荣登各大期刊会议,例如登上Nature子刊bGGO、计算效率狂提98%的FSFS……妥妥的机器学习领域热门创新点! 通过从原始特征集中精心挑选出最相关、最有用的特征,能够显著提高模型的准确性,大大减少了过拟合的风险,降低了计算成本。 特征选择的主流策略涵盖了过滤法、包裹法、嵌入法等多种方法。为https://www.bilibili.com/read/cv40067807
4.人工智能机器学习深度学习这一系列主要分享Iran Goodfellow&Yoshua Bengo《深度学习》的阅读总结。 人工智能、机器学习以及深度学习的关系人工智能,在Dartmouth会议的定义:学习或者智能的任何特性都能够被精确地加以描述,使得机器可…https://zhuanlan.zhihu.com/p/8976535645
5.机器学习知识:机器学习中的离线训练与在线推理其次,在离线训练中,模型的参数和超参数是可以不断进行调节和优化的,而在线推理中,则需要将训练好的模型固定下来不再进行修改。最后,离线训练和在线推理都需要考虑时间和计算资源的限制,从而在算法和模型上进行优化。 四、结语 离线训练和在线推理都是机器学习中非常重要的领域,这两个领域的发展直接关系到机器学习技术https://wenku.baidu.com/view/269b3033862458fb770bf78a6529647d2728349d.html
6.机器学习:在线学习和离线学习区别机器学习中的在线学习(Online Learning)和离线学习(Offline Learning)是两种不同的学习方式,它们在数据处理和模型更新方面有着明显的区别。以下是它们的主要区别: 数据获取方式: 在线学习:在在线学习中,模型是不断地从数据流中接收新的样本并进行学习。这意味着模型会随着时间的推移不断更新,以适应新的数据。 https://blog.csdn.net/weixin_41194129/article/details/132998721
7.机器学习RLHF:在线方法与离线算法在大模型语言模型校准中的博弈基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,简称RLHF)作为一种有效的校准方法,已逐渐在GPT-4、ChatGPT等先进模型中展现出其独特优势。然而,随着离线对齐算法的迅速崛起,RLHF所面临的挑战也日益严峻。本文将从RLHF的基本概念入手,探讨在线方法与离线算法在大型语言模型校准中的优劣,并通过实验https://developer.aliyun.com/article/1542161
8.强化学习离线模型离线模型和在线模型强化学习离线模型 离线模型和在线模型 在推荐算法领域,时常会出现模型离线评测效果好,比如AUC、准召等指标大涨,但上线后业务指标效果不佳,甚至下降的情况,比如线上CTR或CVR下跌。 本文尝试列举一些常见的原因,为大家排查问题提供一点思路。 1. 离线、在线特征不一致https://blog.51cto.com/u_14499/11815202
9.2020届计算机科学方向毕业设计(论文)阶段性汇报CUDA中对于统一内存寻址的实现以及原本CUDA处理内存问题的对比。 郝琰 三维特征点提取的前期实验调查 本次汇报介绍了用于三维特征点提取的机器学习方法和传统几何方法的实验结果对比。 金之涵 二次分配问题中的组合构型第一次汇报 Monge矩阵和Kalmanson矩阵中最小哈密顿圈有通解。事实上,Monge矩阵可以被刻画为二阶差分非https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3709
10.从8个维度全面比较机器学习算法不同的 ML 算法会有不同的偏差 - 方差权衡,偏差误差来自于模型偏向于特定解或假设的事实。例如,在非线性数据上拟合线性决策边界时,偏差较大。另一方面,是方差测量模型方差带来的误差,它是模型预测与期望模型预测的均方差。 5. 在线和离线 在线和离线学习是指机器学习软件学习更新模型的方式。在线学习意味着可以一次https://time.geekbang.org/column/article/226084
11.网站工具。涉及大数据几大组件Python机器学习和数据分析学习记录的一些笔记,以及所看得一些电子书eBooks、视频资源和平常收纳的一些自己认为比较好的博客、网站、工具。涉及大数据几大组件、Python机器学习和数据分析、Linux、操作系统、算法、网络等 - josonle/Coding-Nowhttps://github.com/josonle/Coding-Now/
12.机器学习,能为5G通信技术带来哪些新挑战?强化学习是基于智能体与外部环境之间的动态交互,可以在线处理数据。智能体通过探索环境和奖励或惩罚行为来学习,并以最佳行动序列优化累积奖励。 图一:人工智能,机器学习,监督学习,无监督学习,强化学习之间的关系 3、机器学习在5G通信中的应用 近年来,全球研究人员对利用机器学习发展5G通信技术表现出了极大的兴趣。接下来https://www.xakpw.com/single/31167
13.蚂蚁金服新计算实践:基于Ray的融合计算引擎架构蔡芳芳随着计算和 AI 体系逐步成熟,我们希望机器学习应用能更多地在动态环境下运行、实时响应环境中的变化,这推动了机器学习从传统离线学习逐渐向在线学习演进。相比于传统的离线机器学习,在线学习可以带来更快的模型迭代速度,让模型预测效果更贴真实情况,对于线上的波动更加敏锐。https://www.infoq.cn/article/ualTzk5OwDb1crVHg7c1
14.机器学习与微博:TensorFlow在微博的大规模应用与实践微博机器学习平台承担了离线训练和在线预测任务。微博实时产生的文本、图片、视频显示后转入后台,用于提取特征、离线训练。 越来越多的业务使用深度学习方法,TensorFlow/Caffe 框架被集成进来。 离线训练主要使用 GPU 机群。由于业务增长过快,计算机群有一部分来自阿里云。 https://36kr.com/p/1721923682305
15.FEM前沿研究:智能工业数据解析与优化—论文—科学网已有的建模方法多为静态建模,当工况发生改变时,需要人工离线对模型进行调整,无法满足工业系统的实时、快速需求。针对时变的生产工况,将系统优化与数据解析相结合,通过学习、预测、反馈、调整,提出带有反馈闭环结构的优化模型在线调整方法,对模型参数进行自适应修正并对优化方案进行重新调整和再优化。https://news.sciencenet.cn/htmlpaper/2021/7/20217151683757164957.shtm
16.机器学习方法在数字芯片设计中的应用电子创新网Imgtec社区随着深度学习的概念深入人心,相比于传统方法,机器学习(ML, Machine learning)的方法对于处理NP-complete问题提供了一整套新的解决方案。芯片设计过程可以看成不断的伴随着从一个step到另外一个step的抽象化任务模型建模的过程,其方法论在半导体发展的过程中不断的完善,汇集了种类繁多的各种抽象化模型任务,几乎可以包含所https://imgtec.eetrend.com/blog/2022/100565005.html
17.大数据与人工智能学习中心《人工智能应用基础》、《机器学习技术应用》、《深度学习技术应用》、《计算机视觉技术应用》、《自然语言处理》。 (4)主要特色 以真实的专业领域工程问题为依托,结合在线学习平台,智能终端实训套件及项目应用环境,将多学科交叉项目与应用场景结合起来,让学生在工程实践过程中主动学习和建构“AI + X”产业知识,从而培https://www.mitu.cn/wzxy/dsjyrgznxxzx/list.htm
18.机器学习平台可视化建模模型部署深度学习机器学习机器学习平台覆盖算法开发、模型训练评估、在线推理预测建模全流程。 有效支撑数据智能化分析场景,赋能企业AI转型升级。https://sf.163.com/product/ml
19.一文看懂什么是强化学习?(基本概念+应用嘲+主流算法)在线学习 VS 离线学习 详细请查看《强化学习方法汇总》 百度百科和维基百科 百度百科版本 强化学习(reinforcement learning),又称再励学习、评价学习,是一种重要的机器学习方法,在智能控制机器人及分析预测等领域有许多应用。 但在传统的机器学习分类中没有提到过强化学习,而在连接主义学习中,把学习算法分为三种类型,https://easyai.tech/ai-definition/reinforcement-learning/