中科院院士张钹:我们正处在AI算法不可控的危险状态

8月19日,2022世界机器人大会主论坛正式开幕,期间,有三位院士到场,就“未来机器人:目标、路径和挑战”的主题进行了一场深刻的谈话。

三位院士分别为中国科学院院士,清华大学计算机系教授、现任清华大学人工智能研究院院长,微软亚洲研究院技术顾问的张钹;中国工程院院士、机器人技术国家工程研究中心主任,辽宁省科学技术协会主席,北京邮电大学自动化学院院王天然;中国科学院院士,中国科学院自动化研究所研究员、机器人理论与应用专家乔红。

短短一个小时内,三位机器人领域的顶尖专家就人工智能与机器人的区别、智能机器人的未来、为什么要人机共融、机器人目前面临的伦理思考等多个话题进行了探讨。

在会上,张钹提到,第二代人工智能的算法是利用深度神经网络和对数据的训练来形成人工智能的,而纯粹靠数据驱动的方法必然不可解释、不可靠,因此即使机器人的智能还很低,但人工智能算法的不可控仍然可能使人类处于危险状态。

在很多人的印象里,“机器人”和“人工智能”好像是两个不分家的概念,甚至于现在的机器人只要一被提起,就自带“智能”的先天属性。然而,在张钹看来,机器人和人工智能是两个完全独立的领域。

“最明显的一点,它们的目标完全不同。人工智能是用机器来模仿人类的智能行为,追求的是机器行为与人类行为的相似性,甚至是越相似越好;而机器人则是为了协助人类完成一些本来是由人来完成的任务,追求的是完成任务或者人类信任。”张钹说。

而在这个以机器人为核心主题的世界机器人大会上,张钹也详细科普了机器人的三大主要研究内容:

张钹表示,机器人的三大主要研究内容里,只有“智能控制”部分与人工智能有所重叠,这也就是为什么他认为说人工智能包含机器人,或者机器人包含人工智能都是不对的,这本身就是两个追求目标不同的学科。

“所以我认为这两个领域的名字也起得不好,‘机器人’这个名字让大家误解成它是一个人或者必须像人;人工智能则让人家以为人工智能做智能的,但实际上人工智能只能在模仿智能行为,即智能的外部表现,并非在模仿智能。”张钹补充道。

他也谈到了机器人的未来,同人工智能领域近些年热议的“通用人工智能”一样,机器人领域也有相似的争论:即系统是否需要具备一定的通用性,去完成很多任务?

在张钹看来,这个问题在人工智能领域是有讨论的必要性的,但是在机器人领域之中,没有必要做一个通用机器人去代替人,因为机器人本身就是为了完成一定的任务而制造的,比如专门做手术、专门举重等等,基本表现都是专用的,那么就不必让一个手术机器人去扛重。

所以他预言,将来会使多种多样的智能机器人出现,每个机器人来完成一定或一类工作。

就着张钹对机器人未来的畅想,另外两位院士也提出了自己的看法。

乔红认为,将来的机器人主要有三个要求:

王天然则进一步认为,不管未来机器人做成什么样子,有一个问题肯定是共通的:机器人与人类应该保持什么样的关系?换句话说,也就是“人机共融”问题,这是人与机器人关系的一种抽象概念,具体指人与机器人可以相互理解、相互感知、相互帮助,实现人机共同演进。

对于现在两种甚嚣尘上的观点,王天然也发表了他的看法,一种是“将来机器人会统治人类”,他认为过于科幻,人造的机器不可能达到这个目标;而‘机器人造出来是为了取代人’的说法,王天然也认为是在故意挑起人和机器的矛盾,在他看来,机器人的目的不是和人争夺,现在整体的目标就是机器换人,人取代人。

那么机器人和人类最好的关系是什么呢?王天然用了四个字:“宛如同类。”

他解释道:“如果机器人要能替人类服务,那最好是伙伴关系,虽然你是机器我是人,但是我们俩感觉却好像是同类,而不是一个人和一个机器在一起。这样就能使得机器人能够更好为人类服务,而不是统治人类。”

而要谈到机器人与人类的关系,那么必然还会面临另一个问题:伦理。

阿西莫夫认为,关于机器的伦理问题有两个需要思考的方面:机器人如果智能超过人类,或有意识以后,我们应该如何让机器人按照伦理准则来行为;人类如何按照伦理原则来设计和使用机器人。

张钹认为,上述两个方面表面看起来简单,实际上却关系到三大难题:

张钹展开说明了第三个问题,他表示,如果机器人完全按照规则来执行,那就不是智能机器人,只有人类制造者给予了它一定的自主性,机器才能有创造性,才能逐渐学会自主解决问题,而这必然就要付出一个代价——机器人可能会不受控制。

张钹说:“当20世纪人工智能发展起来以后,虽然机器人还处在智能很低的阶段,但我们已经处在了一个危险状态,为什么呢?因为我们处于不可控状态,比如说用深度学习的方法开发出来的人工智能算法没有可靠性保证的。”

“我们要提出来第三代人工智,必须要解决第二代人工智能的算法不安全、不可靠、不可信、不可控的状态或问题,而这种担心现在看起来已经是一个近忧,而并非远虑了。”

THE END
1.算法原理与代码实例讲解:自主学习自主学习算法随着人工智能技术的不断发展,自主学习成为了人工智能领域的一个重要研究方向。自主学习是指机器能够自主地从数据中学习知识和技能,而不需要人类的干预。这种学习方式可以让机器更加智能化,能够更好地适应不同的环境和任务。 在自主学习中,深度学习是一种非常重要的技术。深度学习是一种基于神经网络的机器学习方法,它可https://blog.csdn.net/m0_62554628/article/details/139816417
2.OpenAI发布人工智能新算法,糅合VR技术“教”会机器人自主学习首先,收集真实世界中的图像不仅费时费力,而且花费的成本也将是天文数字。反观模拟数据,可以更快、更有效率的达到相同的学习效果。也正因此,OpenAI为最新的人工智能算法提供的都是有着不同风格背景和纹理的虚拟图像。 另外很重要的一点,相较于真实世界的图像,人工智能算法在对虚拟图像进行分析的时候可以不用考虑现实场https://m.sohu.com/a/676462821_121687414
3.人工智能的自主学习技术人工智能的自主学习技术 人工智能(Artificial Intelligence,简称AI)的自主学习技术是指通过算法和模型,使机器能够从大量的数据中自动学习和提取知识,从而能够在面对新的任务和问题时做出准确的判断和决策。自主学习技术是AI领域的一项核心技术,已经在许多领域取得了重大的突破和应用。 自主学习技术的核心在于机器的自动学习https://wenku.baidu.com/view/f2f868986ddb6f1aff00bed5b9f3f90f77c64d05.html
4.人工智能A算法:引领智能化发展的未来之路随着科技的发展,人工智能已经成为了当今社会的热门话题。而人工智能A算法的出现无疑将推动智能化发展的未来之路。人工智能A算法是一种基于大数据和深度学习的算法,通过对复杂问题进行模拟和推理,实现了人工智能的自主学习和智能决策。 人工智能A算法在各个领域都有着广泛的应用。在医疗领域,它可以通过分析病例和医学数据http://chatgpt.kuyin.cn/article/3534398.html
5.从算法到硬件平台,人工智能大潮下的Intel做了什么极客公园目前英特尔的人工智能芯片产品分为四个种类,分别为至强可扩展处理器系列、Nervana 神经计算处理器、Movidius、以及 FPGA。 在英特尔中国研究院院长宋继强看来,人工智能的演进,将由机器学习逐渐过渡到自然智能,人工智能芯片需要逐渐具备处理歧义、场景推理以及自主学习的能力。 https://www.geekpark.net/news/224501
6.通过算法的治理——人工智能语境下的法律转型而对于这种弱人工智能的界定,去除了简单的拟人式想象,只将其看作一种基于算法设计通过数据自主学习以优化数据处理的计算机制,本质在于算法和数据。 效率导向推动下人工智能在法律活动中的应用 从将人工智能作为优化数据处理的计算机制出发,对于人工智能与法律的关联,很容易将其作为一种法律活动的辅助工具加以理解。事实https://www.cdstm.cn/theme/khsj/khzx/khcb/201902/t20190221_909208.html
7.李书恒算法共谋的反垄断规制研究在人工智能学习达到一定成熟度后,尽管双方的算法系统各不相同,也可能在机器的自主学习下达成共谋,实现垄断的结果。可以预见,在未来人工智能之间共谋的实现不需要算法间交流或与经营者保持一致的意图便可能达成,这将放大算法作为执行合意的工具的效果,从而使得不受干涉的自由经营与竞争走向垄断。https://www.jfdaily.com/sgh/detail?id=1054994
8.孙保学:人工智能的伦理风险及其治理当前,我们正身处以人工智能技术为核心的第三次信息技术浪潮之中。它的突破性变革表现在:一方面,从技术(软件和硬件)的演进和发展的角度看,不仅计算机的运算能力较几十年前取得了飞速提升,而且以深度学习为代表的人工智能算法使人工智能的自主学习能力大大增强。学习算法具备了更强的自主能力,能够自行学习和编程,处理https://aiethics.hunnu.edu.cn/content.jsp?urltype=news.NewsContentUrl&wbtreeid=1147&wbnewsid=2002
9.人工智能六大领域拓展阅读 人工智能新观察:中国需要怎样的人工智能创新生态? 打破人工智能算法黑箱 人工智能需要自主学习https://36kr.com/p/1480310728667913