对“中文屋思想实验四个主要版本的考察

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

对“中文屋"思想实验四个主要版本的考察

作者:王佳

来源:《武汉理工大学学报(社会科学版)》2011年第04期

摘要:“中文屋”思想实验提出30年来,学界对该思想实验在批判强人工智能的有效性问题上一直争论不休。特别是强人工智能的支持者往往通过转换视角,添加问题或构建新理论模型等方式试图躲避“中文屋”的责难。为应对各种回应,塞尔在保持“中文屋”论证的基本逻辑结构和要点不变的前提下,通过修改思想实验的描述形式进行一一答复,从而保证了该思想实验对强人工智能批判上的效力。借助对“中文屋”几个主要版本及其相关答复的考察,表明“中文屋”在批判强人工智能上的有效性,同时指出这种有效性并不依赖于思想实验外在描述形式的变化,而依赖于蕴含其中的论证结构和论证形式。

关键词:“中文屋”思想实验;强人工智能;语法与语义;模拟与复制

中图分类号:B08文献标识码: A DOI:10.3963/j.issn.1671-6477.2011.04.021

一、强人工智能与“中文屋”思想实验

在《心、脑与程序》一文中,约翰·塞尔(JohnSearle)首次提出用来反对强人工智能的著名思想实验——“中文屋”(Chinese Room)。他以罗杰·尚克(Roger schank)等人构想的“故事理解”程序为依托,通过设想可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。

“故事理解”程序具有如下特征:该程序设计的目的是试图模仿人类理解故事的能力。就这种理解能力而言,当被问及与故事相关却没有直接提及的信息时,人类可以表现出能够根据故事情景予以推断的能力。尚克等人设想:如果存在这样一台具有“故事

理解”程序脚本的机器,当人们向它呈现相似的故事情节并问其同样问题时,机器如果能够像人类那样给出预期的答案,那么这台程序化的机器就是真实地理解了故事的意义,进而也就具有了真实的认知能力。塞尔将类似于尚克的理论构想称之为强人工智能(strongAI),该理论与弱人工智能(weak AI)相区别,后者只强调计算机在实现人工智能时的工具意义,而强人工智能则主张“程序即心灵”,即机器或计算机只要被给予恰当的程序,如尚克的“故事一理解”程序,并通过图灵测试,那么就可以判定它具有理解力和相关的认知状态。

为了批判强人工智能,塞尔提出了一种用于检验心灵理论的有效方法,“如果我们的心灵实际按照这一理论所说的那种所有心灵都采用的原则去工作,将会出现什么样的情况”,基于此种方法,塞尔提出了“中文屋”思想实验。

“中文屋”思想实验可以概述为:只懂英文的塞尔被关在一个屋子中,屋中存有一批中文符号和相对应的英文规则书,塞尔的工作就是按照规则书将屋外传进来的中文符号以另一种排序方式传出屋外,但他始终不知道传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。在屋外的观察者看来,屋内的塞尔由于理解了中文问题,因而做出了适当的回答。而事实上,塞尔仅仅是按规则书操作符号,即模拟程序工作,他始终没有理解中文问题。既然屋中的塞尔不理解中文,那么,尚克所设想的具有“故事一理解”脚本的计算机也就同样不理解故事的含义。因此,塞尔认为只要程序被定义为基于纯粹形式原理的计算操作,那么程序本身就同“理解”没有关系。由此,即“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”。

二、“中文屋”论证结构及其要点

“中文屋”思想实验的有效性依赖于蕴含其中的论证结构,任何对该思想实验有效性的质疑,如果最终没有撼动这一论证结构的话,那么从根本上说都是无效的。同样,对“中文屋”思想实验的理解必须首先把握它的论证要点,否则任何指责和评论都将背离“中文屋”的原初用意。

塞尔在《心、脑与科学》中明确指出“中文屋”论证具有如下的简单的逻辑结构。前提: 1,脑产生心。

2,语法不足以满足语义。

3,计算机程序是完全以它们的形式的或语法的结构来定义的。

4,心具有心理的内容,具体说具有语义内容。结论:

1,任何计算机程序自身不足以使一个系统具有一个心灵。简言之,程序不是心灵,它们自身不足以构成心灵。

2,脑功能产生心的方式不能是一种单纯操作计算机程序的方式。

3,任何其他事情,如果产生心,应至少具有相当于脑产生心的那些能力。

4,对于任何我们可能制作的,具有相当于人的心理状态的人造物来说,单凭一个计算机程序的运算是不够的。这种人造物必须具有相当于人脑的能力。

上述论证结构中实际包含两个方面的论证要点,一个是批判要点:批判将语法等同于语义、程序等同于心灵;另一个是主张要点:主张人工智能事物至少应具有大脑产生心灵的因果力。塞尔将这两个论证要点概括为需要辩护的两个重要的命题:其一,人类(和动物)的意向性是大脑的因果特性的产物,这是心理过程同大脑真实因果关系的经验事实,这说明某种大脑过程对于意向性来说是充分的;其二,示例一个计算机程序本身绝对不可能构成意向性的充分条件。

“中文屋”论证结构中又蕴含有两种论证形式。塞尔在《“中文屋”中的二十一年》中指出,“中文屋”的有效性始终依赖于它所蕴含的两个逻辑真理,即“语形不等同于语义”以及“复制不等同于模拟”。而依据这两个逻辑真理,我们又可以从上述论证结构中提取出两种论证形式:逻辑论证和经验论证。

就逻辑论证而言,其有效性依赖于“语法不等同于语义”,它用于支撑“中文屋”论证中的批判要点,表述为如下推理形式。前提:

1,语法不足以满足语义。

2,计算机程序是完全以它们的形式的或语法的结构来定义的。

3,心灵具有心理的内容,具体说具有语义内容。结论:

程序不是心灵,它们自身不足以构成心灵。就经验论证而言,其有效性依赖于“复制不等同于模拟”,它用于支撑“中文屋”论证中的主张要点,表述为如下推理形式。前提:

1,模拟不等同于复制。

2,大脑具有产生心灵的能力。

3,计算机程序仅仅作为工具对心灵进行模拟。结论:

凡是具有心灵的人造物至少应复制等同于大脑产生心灵的因果力。

概括起来,“中文屋”论证表达了两个方面的要点,蕴含了两类论证形式。其中论证要点体现了“中文屋”思想实验所要表达的反强人工智能主旨,而两类论证形式则是它有效性的根本保证。下面我们将依托“中文屋”论证要点和论证结构,考察几类质疑“中文屋”有效性的典型观点,并借此分析“中文屋”不同版本的有效性。

相关文档
最新文档