按照以色列人工智能专家尤瓦尔·赫拉利(Yuval Noah Harari)的观点,“人工智能不仅能够侵入人类,在以往认为专属于人类的技能上打败人类。”机器超过人类的身体能力和认知能力。意大利信息学家弗洛里迪(Luciano Floridi)在《第四次革命——人工智能如何重塑人类现实》中提出图灵革命(即人工智能革命)是继哥白尼革命、达尔文革命、神经科学革命之后的第四次革命,人工智能对人类社会进行了全面塑造。人工智能专家明斯基(M.Minsky)认为机器会达到甚至超过人类智能,“没有理由认为机器有人所没有的局限”,机器能够思维不但在理论上具有可能性,在实际操作中也指日可待。
机器能够模拟人类思维的首要前提是机器能够理解人类认知,机器具有理解能力。实际上,机器不但在认识论和形而上学层面的“如何理解这个世界”缄默不语,而且在语义学层面的“如何解释世界”也止步不前。
一、人工智能的技术路线及其理解困境
人类智能包括很多方面的能力,例如,思维能力、计划能力、解决问题的能力、领悟思想的能力、语言使用的能力以及学习能力等。科学家们尝试从不同进路让机器模拟人类能力,特别是模拟人类思维过程。一般来讲,人工智能分为三种技术路线:符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism)。
符号主义人工智能以钮厄尔与西蒙等人为代表,他们的人工智能技术路线是通过引进物理符号系统(physical symbol system)来模拟人类思维。人类智力也是物理符号系统,人类智力类似于数字计算机的信息处理系统,他们认为只有物理符号系统才能具有智能,因此,基于物理符号系统的计算机程序可以模拟人类的思维过程,能够具有人类的智能特征和多种能力,“既然(这些完备的机器人)原则可满足任何一种特定的输入-输出规定,那么它们也就能在任意一种预先规定的环境下,做出任何一种预先规定的事来——明确地解算问题、编写交响曲、创作文学作品和艺术品以及实现任意一种目标。”
联结主义人工智能的技术路线主要通过神经网络方法,通过对于人类大脑的组织结构和运行模式来模拟人类思维。一切人类实践与技能在头脑中都表现为一个信念系统,由与上下文环境无关的初始行为和事实所构成。虽然,联结主义人工智能与符号主义人工智能技术路线不同,但它们具有共同的理论预设:认知是信息处理,且信息处理是可计算的。两种技术路线的不同之处在于,人工智能中的符号主义基于自上而下的道路,物理符号系统致力于把客观世界做成形式模型,而联结主义如包括神经网络、深度学习等基于自下而上的道路,神经网络致力于把大脑做成形式模型。
行为主义人工智能另辟蹊径,它与符号主义、联结主义在哲学上的功能主义和计算主义不同,人工智能源于控制论,强调的是认知的具身性和情境性,智能是在认知主体与环境的交互中生成的,布鲁克斯(Rodney A.Brooks)在《智力没有原因(Intelligence Without Reason)》中提出,冯·诺依曼计算模型在特定的方向上引领了人工智能,但生物系统中的智能与之是完全不同的。
行为主义人工智能具有以下特征:“1.情境性。机器人处于一个世界中,它们不处理抽象的描述,而是处理此时此地的世界,这直接影响着系统的行为;2.具身性。机器人拥有身体并直接体验世界,它们的动作是与世界动态的一部分,并对它们自己的感觉有即时的反馈;3.智能性。它们被观察到是智能的,但智能的来源不仅限于计算引擎。它也来自世界的情况,传感器内部的信号转换,以及机器人与世界的物理耦合;4.涌现性。系统的智能来自于系统与世界的互动,有时来自于系统各组成部分之间的间接互动。”
行为主义人工智能进路认为智能是基于“感知-行动”的反应机制,不是依靠形式化推理或者神经网络就可以模拟的。
人工智能已经引发一场可媲美工业革命的技术革命。“正如天文学继开普勒发现了天体运行规律之后取代了星相学一样,对机器的智能过程的经验论方面的探索所发现的众多原理将最终导致一门科学。”不管是人工智能的符号主义、联结主义还是行为主义技术路线,都基于理性主义,受到图灵可计算主义理论、香农信息论以及维纳控制论的启发,对大脑的思维活动进行模拟,对信息进行加工计算,进而做出反应。
人工智能可以分为弱人工智能与强人工智能,弱人工智能(Weak AI)指的是在严格的程序规定下的,只对设定刺激做出反应。弱人工智能认为计算机只是逻辑运算程序,不同于人类思维,计算机不能对人类思维进行认知模拟。强人工智能(Strong AI)也称为通用人工智能(artificial general intelligence,简称AGI),强人工智能主张计算机具有认知能力,能够解释说明人类的认知。
弱人工智能是传统工具的延伸,强人工智能则是人类大脑的延伸。
按照夏皮罗(S.C.Shapiro)的观点“强人工智能基于对计算主义(computationalism)教条的信仰,心理状态就是计算状态,认知就等于计算。”在弱人工智能看来,计算机的认知与人类认知不同,因为人类能够理解所处理的信息。强人工智能不仅赞同机器具有模拟思维能力,并且能够解释具有理解能力的原因。
“智能加工过程取决于主体掌握的知识。深刻的和首要的问题是要理解其中的运算与数据结构。”人工智能需要把任何种类的智能活动变成一套指令,因为在计算主义看来一切推理都可以归结为计算,机器人可以复制人类智能行为。但人类认知与机器认知存在根本区别,人类在漫长的认识世界过程中建立起大致相同的认知方式,人类通常能够理解所处理的信息,而机器只是按照指令与推理规则进行反应。
二、对“机器具有理解能力”的反驳
对“机器具有理解能力”的反驳一般具有几个理由:机器不具有意向性、机器不识语义以及知识的形式化难题这三方面来分析。
(一)机器不具有意向性
人工智能哲学家博登(M.Borden)指出“意向性被看作是区分个体的人与机器的根本特征之一:机器和人可以做同样的事情,但是人有意向性,而机器没有。”意向性(intentionality)指的是心灵表征或者呈现事物、属性、状态的能力,意向性是人类独有的特征。20世纪50年代,人工智能先驱图灵(Alan M Turing)通过模拟游戏(Imitation Game)来思考“机器是否能思维”,他设计出“图灵机”讨论机器是否能够思维,对机器的理解或意识等问题进行哲学探讨。图灵认为没有意向性(intentionality)就没有智能,所谓意向性指的是心灵表征或呈现事物、属性或状态的能力,机器与人类可以具有相同的功能,但是机器没有意向性,人具有意向性。
人与机器有本质的区别,人具有理解能力,而机器没有。在图灵看来,“机器能够思维”不具备逻辑可能性以及经验可能性。机器只能对人类行为进行模拟,不能对人类思维进行模拟。图灵认为心理状态与行为之间存在着联系,可以通过行为或行为倾向来表征心理状态。机器是根据一组明确的规则执行一组操作的装置。给机器一套指令,告诉它在每种情况下该做什么,机器便可做算术和逻辑推导,但没有一台机器能够成为完整或充分的心智模型,心智与机器本质上是不同的。图灵认为计算机中编码的二进制对应人类大脑中的神经元“开”和“关”,机器能够通过图灵测试只能说明机器的某种功能与表现出来的行为与人是类似的,但并不能说明机器结构与人脑结构是相同的,并未真正揭示人类的认知机制,更不能说明机器具有心灵表征和意向性,机器不能像人类一样行动是基于意向基础之上的,因此,机器不具有理解能力。
图灵测试是人工智能的试金石,但通过图灵测试的机器不一定具有真正的人类智能,人类的心灵不能通过算法模拟而获得。
图灵从几个方面反驳机器具有智能和理解能力:“1.神学的反对意见。思维是人类不朽灵魂的一种机能;2.机器思维的后果太可怕了,我们希望并且相信机器做不到这一点;3.离散状态机器的能力是有限度的;4.机器没有意识,缺乏真实情感;5.机器具有能力缺陷,不具有人类的仁慈、机智、幽默感等能力;6.机器缺乏创造性,不能创造出新东西;7.大脑的神经系统是连续的,但计算机系统是离散的,离散的机器不能模仿连续的大脑;8.人可以解决突发问题,人具有默会知识,但机器只能遵循规则;9.人具有心灵感应,但机器不行。”
通过上述质疑可以看出,不同学科的学者从不同视角验证了机器不具有智能:数学家认为机器不能判定哥德尔定理;神经科学家认为机器不能模拟神经系统;心灵哲学家认为机器没有意识;哲学家认为机器不具有默会知识;等等。通过图灵测试的机器只是对人类智能进行模拟,并不是真正理解人类行为,不是真正具有智识。
(二)机器只识语法、不识语义
机器只能在功能上模拟人类,在模拟过程中机器并不通晓语义,所以机器并不能真正理解人类,人类的认知过程是心理过程。约翰·塞尔(John Searle)认为心理过程与程序过程是两个不同的过程,计算机程序是按照纯语法加以定义的,但思维绝不仅仅是处理无意义的符号问题,还包括了意义的语义内容。
人心不仅仅是形式的或者语法的过程,人心还具有心理内容。计算机程序永远不可能替代人心,理由在于“计算机程序只是语法的,而心不仅仅是语法的,心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”
塞尔通过“中文屋论证(Chinese Room Argument)”的思想实验对人工智能能够理解的观点进行批判,塞尔设想出一台可以模拟“理解”的计算机程序。把一个只懂英文、不懂中文的人锁在一个房间,给出中英文“脚本”以及用英文表示的形式化规则,如果通过长期训练,屋内人能够根据指令和规则来处理中文符号,但屋内人未必真正理解中文符号,或者说屋内人并不具有理解中文符号的能力。塞尔的思想实验得出计算机系统可以在完全不懂中文的情况下,通过程序来模拟人类理解中文等认知能力。
计算机不能产生新知识。在塞尔看来,机器或者算法不是真正理解了人类语言的意义,只是对人类行为模拟或者功能模拟而已。计算机的模拟不能等同于事实本身,能够对心理过程进行模拟也并非能够必然得出计算机模拟就是心理过程本身。
计算机程序与人类理解完全是两码事。在中文场合,屋内人具有人工智能以程序方式输入的每样东西,而屋内人什么也不理解。在英文场合,屋内人理解每样东西,但没有理由相信,理解与纯形式的计算机程序之间有任何关联。塞尔认为计算机在处理符号时,没有对符号的内容与含义加以使用,而人类则不同。约翰·塞尔认为“计算机理解的故事和我理解的故事完全是两码事……计算机及其配置的程序并没有对理解提供充分条件,因为计算机和程序运行的过程当中不存在理解。”
所以,不懂语义的计算机程序并不能真正具有理解能力。
(三)人类知识的形式化难题
德雷福斯(H.Dreyfus)从现象学视角对符号主义人工智能进行批判,从认识论、形而上学方面来挑战AI的研究方法基础,他在《计算机仍然不能做什么:人工理性批判》指出,符号主义人工智能学派站在笛卡尔的传统理性主义立场上,从而继承了其所有的错误假设:生物学假设、心理学假设、本体论假设以及认识论假设。“
生物学假设:在某一运算水平上,大脑与计算机一样,以离散的运算方式加工信息;心理学假设:大脑被看作一种按照形式规则加工信息单位的装置;认识论假设:一切知识都可被形式化,可以被编码成数字形式,也就是说,凡是能理解的都可以通过逻辑关系来表达;本体论假设:存在是一组在逻辑上相互独立的事实,知识可以被编入计算机程序。”
德雷福斯认为人工智能的4个假设包括形式规则的非实质性应用,人类所知的世界具有一定的形式、客观结构,而且所有的知识都能被形式化,这个假设意味着,人类所知或所能理解的一切表达都可以是脱离语境的,形式规则或者定义都可以用计算机来处理。德雷福斯认为人工智能的心理学假设、认识论假设与本体论假设具有共同之处,即它们都认为,人一定是一种按照规则对原子事实形式的数据做计算的装置,这些假设都把关于理解的概念,看作是形式化的表达。
人工智能心理学假设的经验性证据是对认知模拟的科学方法论的批判。德雷福斯:“要想对心理学假设做经验性证实,产生了一个科学方法论的问题——如何评价证据的问题。”德雷福斯认为大脑是否像数字计算机那样工作完全是一个经验的问题,需要由神经生理学来回答。如果心理学要成为研究人类行为的科学,它必须把人作为客体来研究。心理学出现了从行为主义到心智主义的普遍转移。
行为主义心理学(behavioral psychology)主张以客观的方法研究人类的行为,从而预测和控制有机体的行为。行为主义心理学完全忽视学习者的内部心理过程,只强调外部刺激,否定意识的作用。行为主义锐意研究可以观察的行为,但是由于它不研究心理的内部结构和过程,否定意识的重要性。在德雷福斯看来,整个行为主义的方法论都是错误的。
德雷福斯与塞尔一样,主张人类的认知并不包括规则的应用或者内部图像的应用。人类智能具有现实性(situated)(由人类自身的处境来决定)和具身性(embodied)(人体实时发生的有意图的感觉运动与所处环境之间的相互作用)。
计算不同于认知,计算缺乏现实性与具身性,仅仅存在于计算机之中,游离与抽象于现实世界之外,德雷福斯认为无论人类知识还是物理实在,都没有一种可以完全根据规范标准来描述某种形式化结构的能力。虽然形式规则可能是描述人类知识的一种方法,但它并没有为某种智能系统对这种知识的再生产提供基础。
三、对机器具有理解能力的反思
(一)理解基于对语义的把握
机器能够做出正确反应既不是说明机器具有理解能力的充分条件,也不是说明机器具有理解能力的必要条件。计算机程序只是从外部行为解释了人类的理解,计算机程序不是理解的充分条件,人类不理解也同样可以行使规则。塞尔用“中文屋论证”反驳了强人工智能的理论基础,即编程的计算机具有理解能力,并且,计算机程序在某种意义上解释了人类理解。塞尔反驳了西蒙的观点,即数字计算机已经具有同人类相同的理解能力。同时,也反驳了认为智能不过是一种物理符号处理的符号主义观点。意识不过是一个形式化过程,麦卡锡指出,恒温器那样简单的机器都具有信念。
博登《逃出中文屋》一文反驳了塞尔的观点,她指出,“重要的问题不是‘一台机器何时理解了某件事情?’(这个问题暗示存在着某个明确的断点,理解在那里终止了,这是一种误导),而是‘为了能够做出理解,一台机器(无论是不是生物的)必须能够做到哪些事情?’这个问题不仅关系到计算心理学是否可能,而且关系到它的内涵。”显然,“能够做到”是用于判断“理解”的主要标准。
人工智能的三种技术路线都不能给出判断“理解”的主要标准,联结主义的代表是人工神经网络,主要是处理数据;行为主义的代表形式是强化学习方法,主要是信息处理,符号主义代表的是知识图谱和专家系统,主要是知识处理和推理。计算机模拟大脑需要把任何种类的智能活动变成一套指令,因为在计算主义看来一切推理都可以归结为计算,机器人可以复制人类智能行为。计算机是信息处理的工具,用计算机去解决问题,必须把问题程序化,且这个问题可计算,一定要以算法为前提。机器是数理过程与物理过程的结合,机器的计算不是心理过程,也无法给出人类理解的标准。
(二)理解需要揭示事物间的因果关系
机器不可能通过数据分析和算法模拟具有人类智能和理解能力,理解也需要揭示事物间的因果关系。希尔斯(Alison Hills)提出“要理解为什么p,你需要能够将q视为p的原因。”因果相关反映了人类的认知,是基于数据驱动和数据相关的人工智能无法取代的。因果关系专家珀尔(Judea Pearl)在《为什么——关于因果关系的新科学》中指出,如果将人工智能提升到人类智能的水平,人类必须对自身的因果认知推理模式有深入了解。只有给机器配备真正的因果推理模型,机器才可以说是具有真正的智能。在珀尔看来,今天的机器学习在导向上是错误的,它是以数据为导向的,而非以人的推理特征为导向,“我们仍然无法教会机器理解事情的前因后果”。
因果关系是比大数据更基本的东西,因果模型是比数据更真实的逻辑。世界的知识都可以用因果网络来表达,因果网络可以分为三个层次,最低层次是相关关系,第二层次是干预层次,第三层次是反事实层次。第一层次需要的是观察能力,观察变量之间的关系;第二层次需要的是行动能力;第三层次需要的是想象、反思与理解能力,是针对没有发生的事情的预测和想象。
珀尔提出大数据分析和深度学习都在因果关系的最低层级,没有任何智能可言。“深度学习具有独特的优势,但这类程序与我们对透明性的追求背道而驰。即使是阿尔法狗的程序编写者也不能告诉我们为什么这些程序能把下棋这个任务执行得这么好。”
理解是因果推理的证据,“理解自己的意图,并用它作为因果推理的争取,具备这一能力就说明行为主体已经达到自我觉察的水平……目前还没有任何一个智能机器能达到这个水平。”为了实现与人类的自然沟通,强人工智能必须了解关于人类意图的词汇,而这需要他们模拟自由意志的幻觉,这些是机器不具备的。
(三)理解的复杂性分析
理解过程是一个非常复杂的过程,非机器能力所及。约翰·豪奇兰德(John Haugeland)的“好的旧人工智能(GOFAI:Good Old-fashioned AI)”基于笛卡尔式的观念:所有的理解都是形式化的并使用恰当的符号表征。人与机器的解题方式不同。“人和机器之间之所以有这种差别,是因为这项任务所要求处理的是拓扑关系,为此就必须忽略纯粹的量度方面的关系。人脑完全适合于这种拓扑学特征。因为这些特征告诉我们事物典型特征,而不是事物的具体量度。”
理解是一个复杂的认知过程。伽达默尔立足于理解本体论,他在《真理与方法》中提出“理解不属于主体的行为方式,而是此在本身的存在方式。”机器只有发展到强人工智能阶段才可能具有人类的认知能力和理解能力。塞尔认为:“‘理解’并不是一个简单的二元谓词;甚至存在着许多不相同的理解类型和层次,即使排中律也往往不能直接应用于“X理解Y”这种形式的陈述;在很多情况下,究竟X是否理解Y,是一个需要判断的问题,而不是一个简单的事实。”理解除了需要把握事物的规定性外,还需深入到它们的“理据或理由”的层面,甚至还包括把握它们的意义与价值等。“理解的特征在于它把个别的片段性的信息结合为一个统一的整体。”
希尔斯认为“理解为什么是p(而q是为什么是p)”,至少具有以下6种认知能力:“1)就其他人给出的原因做出一些解释;2)用你自己的话解释为什么p;3)从q的信息中得出p(或可能p)的结论;4)从q(其中p及q与p及q相似但与p及q不相同)的信息中,得出p(或可能p)的结论;5)给出p的信息,给出正确的解释q;6)给出p的信息,给出正确的解释q。”理解基于人类的认知能力,只通过程序性功能模拟不能真正理解人类。具有理解能力还需要拥有人类情感,具有同理心才能够挖掘事物隐藏的因果关系,才能理解人类的外部行为。
综上所述,人工智能对人类智能只处于功能模拟阶段,仅限于模仿人类的某些行为,而理解基于对事物背后因果关系的揭示,基于对语言的意义的把握,理解是一个复杂的过程,人工智能机器不管基于符号主义、联结主义还是行为主义技术路线,都不是基于对人类认知能力的探求,不能明确语句和语词的意义,因此,人工智能机器不具有人类理解能力,现在的机器还不是真正意义上的人工智能。
机器人公司 机器人应用 智能医疗 物联网 机器人排名 机器人企业 教育机器人 机器人开发 独角兽 消毒机器人品牌 消毒机器人 |