摘要:当前人工智能研究中的核心理论问题之一是人工智能的“理解力”问题。对于大多数的计算模拟而言,人们无法获得那种传统认识论意义上的透明性。从计算科学的技术实现层面看,面对巨大而复杂的计算量,人类不可能审查全部的计算过程,这就造成了人类在认识上存在着不透明性的盲区。基于认知不透明性与认识不透明性的区分,机器认识中的不透明性会导致“理解”的缺失。从认识透明性的角度分析人对机器可能的认识把握程度及其要求,可以对机器的理解能力的本质及其限度做出相对精准和深入的探讨,为人们厘清机器认识论的特征,进而理解人工智能与人类智能的本质联系与区别,提供一条富有启发性的路径。
关键词:认识不透明性;理解;计算模拟;机器认识论
作者董春雨,北京师范大学价值与文化研究中心(北京100875)。
对于“理解”问题的研究,本身已经构成一个极其完整和宏大的论域。本文不可能全面梳理有关理解问题的所有思想资源,甚至连与计算机和人工智能技术密切相连的自然语言处理、语义分析学等问题都暂时无法顾及。笔者主要从所谓的认识透明性的角度,通过这样一个具体的切入点,分析人对机器可能的认识把握程度及要求,从而对机器的理解能力的本质及限度做出一些相对精准和深入的探讨,以期为进一步理解AI与人类智能的联系与区别,提供一条富有启发性的路径。所以,本文后面提到的理解概念,主要是与认识不透明性密切联系在一起并在相对狭义的意义上使用,它的基本含义是:(1)一个认识的主体(包括人或机器即AI,下同)对认识的对象即客体(包括人或机器即AI,下同)在某一时刻t时各种状态的了解;(2)一个认识的主体对客体在历时过程中各个环节具体机制的把握即对因果机制的认识;(3)借助于“主体间性”的概念,在扩展认识主体内涵的前提下,将人对人的理解的讨论延伸到人与机器的双向理解以及机器与机器之间理解的论域,同时也带来了对AI本身的群体社会性、演化性等问题的探讨。
一、认知的透明性与认识的不透明性
哲学界自古以来就有一个关于人类认识的预设,即存在着一个现象领域,在这个领域中没有什么是可隐藏的。后来的认知哲学将这一观点系统地扩展到了心灵领域,使透明性(luminosity)成为认识论中的一个核心概念。它认为,心灵的各种状态对于我们自身而言是自明的,即人能够知道它的有知状态——如果一个认知主体知道p,那么他就知道他知道p。我们心灵的各种状态对于我们自身是透明的,可以有一种特殊的通道对这些状态进行觉知,一旦心灵拥有内容,我们就能够对这些内容有所觉知。可见认知哲学中的透明性,强调的是人的心灵与人的认识之间的“透明”关系,而且“对思维最恰当的理解,是将其视为心智中的表征结构以及在这些结构上进行操作的计算程序”。这种对人类心灵的基本理解,也被称为心智的计算—表征理解(Computational-RepresentationalUnderstandingofMind,CRUM),它为我们理解思维与认识中的透明性提供了一个基本的参照和前提。
众所周知,在近代科学革命发生之初,机器首先以望远镜等形式实现了对人类感觉器官的延伸。20世纪40年代以来,由于电子计算机的发明和广泛使用,它所具有的强大的运算能力催生了一门新的科学——计算科学,其实质是人类脑力的外推和增强。特别是近20多年来,由于大数据和机器学习技术的出现,机器对人类认知能力的本质性扩展从量变进入到质变的领域。真正的人工智能技术开始成熟起来了,阿尔法狗(AlphaGo)等的诞生便是一个典型的事例。这种形势的微妙变化,也促使人们更加严肃和审慎地看待人和机器主要是AI之间的关系。如何看待AI的本质遂成为问题的关键所在。于是,一个根本问题摆在了人们的面前:在机器智能的认知过程中是否存在着一个类似于人类认知过程中所面临的问题,即机器认知的透明性问题?
因此,我们首先需要区分认知哲学中的透明性与计算科学中的认识透明性(transparency)概念的区别和联系。有关机器认识透明性的研究,远没有认知哲学中有关与人类大脑相联系的透明性的研究那样历史悠久、系统和深入。
从上述定义不难看出,所谓的认识不透明性,已不像认知不透明性那样,仅局限于对认识主体自身心灵性质的反省,而是着眼于认识的全过程,将认识的主体、认识的客体、认识的过程和方法等各种因素与各个环节纳入到所考虑问题的范围之内,即汉弗莱斯只是对作为一种科学方法的计算机模拟的发展做了简单的展望就已经看到,对于大多数的计算模拟而言,人们实际上无法获得那种传统认识论意义上的透明性——因为从计算科学的技术实现层面上看,面对巨大的计算量,人类不可能审查全部的计算过程,这就造成了人类在认识上一定存在着盲区即不透明性。
计算机模拟和计算科学在当下已经构成了一套具备独特意义的新的科学方法,而这些方法也为科学哲学引入了新的绕不开的问题,那就是与“计算方法”密切联系在一起的“认识不透明性”问题。因此,其后汉弗莱斯在很多场合下,探讨了认识不透明性的性质和分类等问题。
二、机器认识的不透明性:原则与技术实现
(一)理论原则上的不透明性
除了与计算本身相联系的问题之外,符号表征也牵涉到一个更为宽泛的话题即模型和实在的关系问题。
这样,我们自然就无法要求科学理论的模型,能够全面反映、符合它所要表征的那个对象的全部属性和规律,那么抽象的理论模型和具体的被观察世界的关系是怎样的呢?实际上这个问题在科学哲学中早已有过许多专门的探讨,无论是种类繁多的英美哲学,还是风格各异的欧陆哲学,给出的答案最后几乎都归结到一点,那就是“同构”。
所谓同构,有时又称为同型(形)或同态,本意指的是形式上的相似性,当代数学中则被严格定义为一个集合中某些元素与另一个集合中的某些元素之间具有的某种对应关系。如果两个事物之间具有某种对应关系,就可以说它们之间有一个函数成立,或者说两者之间有一个映射关系;这类关系中最强的一种,也称一一对应关系,即不仅每一个输入变量值刚好有一个输出变量值与之对应,而且每一个输出变量值也刚好有一个输入变量值与之对应,就称“一一对应”。
理论模型与现实事物之间是否存在“同构”关系?对它的回答,将帮助我们从哲学本体论与认识论的角度回答科学表征的实质及其限度是什么;更进一步,才能使我们去透彻地理解认识的不透明性问题。例如,人们的感觉与知觉是否存在一种同构的关系,不仅关涉自心、他心与主体间性问题,而且也与被知觉的物理世界之间存在着可知与不可知的关系问题。虽然有人认为,“心理意象的结构对应于实际感知体的结构”,这种同构关系,打开了人类心灵通达世界的各种道路,但这种同构关系也是有局限性的,那就是“心灵”所能反映的,充其量只能是全部的现实世界的一部分内容。如何来看待这一点呢?众所周知,古希腊哲学家普罗泰戈拉早就说过一句名言:人是万物的尺度。过去人们对它的解读是主观唯心主义式的,当代哲学则从人的主体性出发强调“关系实在”的意义,它突出的是人的观察能力的有限性:尽管借助于各种科学仪器的帮助,人类感知世界的局限通常可以获得某种程度的突破,但最终的界限在哪里,却仍然是一个不得而知的问题。
这样,理论模型在感知世界的过程中所发挥的作用就清晰了起来:理论模型与被感知事物之间的同构关系是一种必要的认识论前提——人们是通过结构的等价性即同构关系来认识事物的,即客观世界的结构可以与人们构建的理论模型的结构进行类比而被认识,同构关系因此成为科学表征的精华也就不足为奇了。它对于以计算模型和算法为基础的机器学习或AI而言,也不能例外。
无论如何,科学模型或者科学表征是我们认知世界所依赖的重要方法。我们上面关于科学(模型)表征的离散性与连续性、简单性与抽象性以及同构性等问题的讨论,为进一步探讨以计算模型和算法为基础的AI的技术发展前景做了一定程度的澄清:从理论原则上讲,理性的符号表征的方式可以为AI智力水平的提高提供充分的可能,比如就目前专门机器人阿尔法狗下围棋所能达到的高度来看,它已经超越了人类。AI是可以基于对围棋规则的理解通过“自我博弈”的手段,不断在机器学习过程中提高棋艺,最终不仅在思考的速度上超过人类,而且在思维的自主创新方面也具有可能性。
也许,仅从外部实用功能的角度来定义AI的观点来看,机器的可使用性及其有效性所能达到的高度看起来是无法限量的。但这种观点很早就受到了人们的质疑。这一争议的关键所在是人机的划界问题,即人类智能和机器智能的本质区别到底是什么?首先,人们从一开始就对图灵测试等类似的问题进行了广泛的讨论,至今难有定论。从目前机器学习的过程和机制来看,AI水平的提高离不开大数据技术的支撑,通常它是大量数据“投喂”训练的结果,故有“数据是粮食”之说。
再次,人类还具有不确定的“自由意志”等品质,它们也将是机器智能在发展过程中难以克服的巨大障碍,因为以符号表征为基础的技术路径从根本上讲依然难以跳出计算主义的窠臼,通过理性主义的路径达到非理性的彼岸,这似乎是一个悖论。这一悖论的存在也在提醒我们,那种试图从机器智能的结构和工作机制反过来理解人类大脑的工作原理的还原论做法,虽然在神经科学的研究领域和脑机接口等技术领域已经取得了有目共睹的成绩,但它最终所能达到的高度似乎是有限的。
最后,人类的认知基础可能并不如洛克所主张的“白板说”,而是偏向于康德所说的“先验综合判断”——人生下来就有某些认识和应对世界的能力,这种能力在与其他生物物种的比较中其差别也是异常明显的,我们现在一般将这种差别概括为认识的主体性的一部分内容,其本体论基础实际上蕴含在DNA的先天差别之中;反观机器认知,既需数据投喂,又靠算法支撑,在认识活动开始之前,可谓白板一块。这种认知前提的差异也许从有关碳基生命与硅基生命的比较中可以看得更加透彻。
综上所述,我们在这里主要讨论了机器智能的工作原理及其所受的若干限制,即分析了机器认识的不透明性在理论原则上的一些表现。但这仅仅是问题的一个方面,下面我们将从技术实现层面转入对不透明性问题的讨论。
(二)技术实现上的认识不透明性
从算法层面上来看,人们在认识不透明性方面遇到的问题似乎更多。
1.算法的复杂层级关系带来的不透明性问题
尽管我们可以简单地以一种仅理解其运算逻辑的方式来实现理解机器算法的目的,但实际上,这种简化没有特别的用处,人类面临的更大挑战,是如何理解由大量简单模块协同工作后产生的结果。在大数据时代,一个研究往往需要分析数十亿或数万亿个数据示例以及数以万计的数据属性,一种算法的内部决策逻辑是随着对训练数据的“学习”而改变的。处理大量特别是具有异构属性的数据会增加代码的复杂性,同时也需要使用内置于代码中的技术和装置来管理它,这样的一系列过程无形中增加了对计算过程的认识不透明性。
三、限度与意义
最后,在传统的认识论中,由于人是认识活动中居于主动或主导地位的一方,人们将这一认识论特征也称为“人类中心主义”的。然而随着计算机与人工智能技术的崛起,人在认识活动中的地位已经发生了深刻变化。计算机的使用而带来的计算方法在哲学上的新颖性,正在使人类逐步失去其在认识论中所处的中心地位。我们曾根据大数据条件下机器认识的不可替代性进一步明确了人类中心主义面临的困境,提出解决这一问题的关键是要建构以机器为主体的非人类中心认识论,这在某种程度上可以消解人与机器的对立,承认机器在认识论中应有的价值。
认识论的立场从人类中心主义向非人类中心主义的转变,使“理解”的意义和任务变得更加错综复杂起来。毫无疑问,“理解”的本质首先是一种“关系”,关系就意味着至少是两者之间或以上才能发生的;其次它的核心诉求是“真”或者“正确”。就其具体表现而言,有如下两个方面的考虑。
第一,从理解问题产生的主动的一方来讲,本来它最初主要关心的是单个人本身的“自知”和“自觉”,即本文一开始就讨论过的“认知科学当中的透明性问题”,这里不再赘述。
第二,就人和人之间的多认识主体的理解而言,其最重要的表现还有所谓的“他心”问题。它同样很早就进入了人们的研究视野,例如在中国古代哲学中的表述就是庄子与惠子游于濠梁之上关于“子非鱼”的那一段经典对话。这一问题的本质是一个人对他人意图的推测与判定,当然推测与判定的前提是一个人对另一人意图的认知和理解。及至当代哲学,它已演变成主体间性问题了。
以上我们讨论人自身、人与人、人与机器之间的理解问题即透明性问题,除了那些理论原则之外,在人与机器关系的问题上,近些年来脑机接口技术的进步给我们思考透明性问题带来了一些新角度。
脑机接口(BrainComputerInterface,BCI)技术指的是通过某类传感器探测和采集脑内活动的一些信号如脑电波,再通过与传感器联结的计算机中的智能算法识别或解码脑信号的含义,最终将它们编码为外部机器如假肢、轮椅或机器人等可以理解并执行的控制命令,形成在人的身体不动的情况下由“脑控”来操纵的外部设备的运动,即达到“意念制动”或“心控外物”的行动效果。现阶段该技术可以帮助因为伤病而失去肢体或感官功能的残障人士,通过不同的脑机接口重新获取行动或感知的能力;而在未来,它还可以进一步用于健全人获得超常的行动和感知能力,这意味着脑机接口技术将会深刻改变人的感知和行动方式,即从根本上改变作为认识主体的人的认知活动的特性,并因可以赋予认识主体原先不能具备的某些能力甚至是某种特殊能力而使其发生某种意义上的“新进化”。
严格地讲,有关“记忆清除”“数字克隆”“意识上传”等话题,都还停留在科幻等文学和影视作品当中,但就是在这样的情况下,脑机接口技术的发展已经展现出了另一种十分诱人的前景,它就是近期受人瞩目的所谓“意识上传”现象。所谓“上传大脑”,主要有三种类型:第一种是上传人类完整的“心智”;第二种是上传部分记忆,尤其是有重要意义的且不容易找回的内容;第三种是上传信息。从脑科学和人工智能的一些研究来看,第三种情形可能更接近于目前“脑机接口”的真实状况。如果要将每个人的大脑都克隆到机器当中或者云端,甚至还需考虑“数字人”随信息变化、数据更新而带来的进化,从而实现数字人的发育和永生,我们面临的挑战还是极其严峻的。
尽管“脑机接口”技术当下在许多方面给世人带来更多的还是遐想,但它引发的问题却令人深思。
首先,脑机接口技术意味着外部符号系统和其他认知工具可以被深度嵌入人类的认知系统之中,形成一个完整的、有机式的“耦合系统”,在这一系统中,人的肉身与技术元素之间构成了一种互为因果、相互调节的不可分割的整体,即脑机接口中的非人技术元素已经成为认知过程或认知系统的一部分,这对认知主体的心灵延展方式提出了新问题,而借助于脑机协同所实现的智能增强将使认识主体进入一种新的存在和发展状态之中,并引发认识主体的新进化;以至于有可能出现这样的情况:在大脑和外部设备一起完成认知任务的时候,离开了某种外部设备,该认知任务就不可能完成。那么这个外部设备与认识主体的关系是可以分离的吗?可接下来的问题依旧是,虽然当前的脑机接口技术可以实现认知的部分功能,但颇具形而上学色彩的人机之间的认识透明性将从根本上限制认识主体的可能的延展程度,即外在的东西和内在的东西是否一定有不可逾越的本体论区别?当外在的东西对内在的东西起到替代作用时,难道它还不具有与内在的东西相同的本体论地位吗?
其次,从当前的脑机接口技术的发展趋势来看,机器因素所发挥的作用会越来越大,那么其终极状态是否是“机器心灵”的诞生?即当机器部分的作用不仅仅是算力和速度的增长,而是逐步延展到能够自主和灵活地处理一些认知问题时,它就不仅具有工具的属性了,在一定程度上会成为拥有“心灵”的机器,从而具有了某种意义上的“主体性”,此时它能不能在形而上学意义上被看作一个有意识的实体就成为一个值得深思的问题了。
结语
本文关于人与智能机器划界问题的讨论,可以帮助我们对人工智能的未来发展做一些思考。
首先,人工智能的本质从一开始就是对人类智能的模拟,如果严格遵循笔者一直强调的认识论中对透明性概念的理解——只有在一个认知主体知道A时,那么“他”才知道“他”知道A——推广到机器认识论中,机器透明性认识的合理形式就应该是:只有在作为机器认识主体的机器本身知道A,那么它才知道它知道A。这里的“知道”是对人类“理解”行为的模仿,据此,一种透明性的认识追求应是对作为机器认识主体的机器的“自我意识”而言的,明确这一点极其重要,通过本文的讨论,我们才能明确机器意识的本质应该是什么,或者说现在虽然还没有真正的机器意识的出现,但明确人类意识与机器意识之间的区别,并对机器意识在机器认识论中的作用做出界定,是有利于明确其未来发展的可能和方向的。
其次,我们前面在探讨人—机关系及其在透明性问题上的表现时指出,其中存在的最根本的困难之一也许是非理性因素的表达和实现方面的问题,比如人所独有的自由意志、灵感和情感等方面的问题,都是人工智能研究目前亟须突破的难点,有人甚至将这种鸿沟归结为碳基与硅基之间不可约化的区别。而从某种程度上来讲,机—机关系之间的理解似乎在这一点上反而简单了一些,因为它们的工作运行机制和方式基本上是同质化的,其基础本就属于计算、逻辑方法等范畴之内的事情,期间的沟通联络无论在硬件上还是在软件上都相对更容易一些,障碍相对更小一些,特别是在目前的人工智能技术普遍采用相对简单的平行数据储存与读取结构并运行相同算法的条件下。但是当我们在考虑由机—机关系形成的复杂智能网络问题时,除了需要注意单体人工智能内部所发生的独特的突变即产生暗知识等导致不透明性的可能外,从前面有关主体间性若干特征的讨论来看,我们还应该意识到机器群体以自组织形式出现的“协同进化”效应——这样一个由纯粹的人工智能组成的机器社会,应该具有开放性、灵活性、多样性,这种不确定性之于认识透明性又意味着什么?它可能是我们必须面对的另一种困难。