浅析塞尔的中文屋实验
论塞尔“中文屋论证”中蕴含的意向性思想
论塞尔“中文屋论证”中蕴含的意向性思想作者:熊晓玲来源:《法制与社会》2009年第31期摘要本文以塞尔的“中文屋论证”为切入点, 通过对实验结论的进一步分析得出了意向性是人机区别的关节点,紧接着简单介绍了意向性思想,最后对塞尔的“中文屋论证”做了评价。
关键词中文屋论证意向性塞尔中图分类号:B5文献标识码:A文章编号:1009-0592(2009)11-312-02随着人工智能学科的发展,在某些领域,计算机所做的工作已能替代乃至超越人类,具有了人的许多能力,因此有人认为计算机可以具有思维能力,提出了人工智能理论。
在人工智能领域有两种不同的看法,即“弱人工智能”和“强人工智能”。
“弱人工智能”认为适当的编好程序的计算机能够模拟人的认识,为研究心智提供了强有力的工具。
而“强人工智能”则认为计算机不仅是研究人类心灵的工具,并且如果配备恰当的程序,加上正确的输入输出,那么计算机就拥有与人类相同的心智,即能够思维。
为反对“强人工智能”, 1980年美国哲学家塞尔设想了颇具影响的“中文屋论证”(Chinese Room Argument)思想实验,对“强人工智能” 乃至整个人工智能领域提出了深刻的挑战。
一、“中文屋论证”——对强人工智能的批驳“中文屋论证”是这样设计的:塞尔被锁在一间只有一个窗口的屋子里,他只懂英文,对中文一窍不通。
屋内有各种汉字纸片,塞尔认为它们是一些弯弯曲曲的线。
通过窗口,塞尔周期性地接收到一批汉字,屋内有一本英文规则书,告诉他当特定的曲线递给他时,他应从屋内纸片里找出另外配对的曲线系列递出去。
就塞尔而言,各种汉字都只是一些毫无意义的图形,对于屋外的中国人来说, 这些汉字都有其自身的涵义。
根据中国人的理解,对于从窗口递入的问题,塞尔已经将答案递出,他们便认为屋内的塞尔是理解中文的,但是塞尔对此一无所知,他所做的只不过是按照规则书进行图形匹配而已。
在“中文屋论证”实验中,塞尔把一个完全不懂中文的人当作计算机的CPU,那规则书就是程序,不懂汉语的塞尔仅仅像一台计算机那样在运行。
试论塞尔“中文屋论证”存在的问题
186试论塞尔“中文屋论证”存在的问题■崔芳溪/中央民族大学摘 要:“中文屋论证”是约翰·塞尔为反驳强人工智能的可能性而设计的思想实验。
本文首先梳理了“中文屋论证”及其所面临的五种主要回应,在此基础上对塞尔的论证与辩护进行讨论,指出该思想实验在论证前提、实验设计以及最终结论等方面存在的问题。
关键词:中文屋论证 语法 语义 人工智能 意向性“中文屋”是约翰·塞尔提出的一个思想实验。
通过中文屋论证,塞尔得出结论:语法并非语义的充分条件。
计算机虽能通过图灵测试,但本质上只是按照语法规则完成对字符串的操作,对操作内容并不存在任何理解。
因此,计算主义所持有的人类心灵是类似计算机的信息处理系统的观点被否定了,强人工智能实现的可能性岌岌可危。
然而,该论证并非无懈可击,以下将从塞尔的论证及其面临的反驳入手,对该思想实验的合理性进行反思。
一、“中文屋论证”塞尔提出中文屋假设最初是为了反驳尚克的强人工智能观。
尚克认为,机器能够理解人类的故事并对相关问题做出正确的回答,所以机器可以拥有与人类一样的理解能力。
塞尔对该论断持否定态度。
为了论证自己的观点,塞尔做了如下假设。
他假定自己被锁在一个房间里。
在那里,他首先收到了一大批中文文本,而他本人丝毫不了解中文,那些文本对他而言形同涂鸦。
随后,他又收到了一批用英文写就的、介绍中文形式符号和语法规则的书。
运用这本书,他可以对中文字符进行识别、确认。
其后,他收到了第三份中文文本和一份英文指令,指令要求他以前两批资料为工具,用汉字字符对第三份中文文本进行回复。
这一假设之下,屋外得到塞尔中文回复的人绝不会发现塞尔完全不懂中文。
①基于此,塞尔指出,语法并非语义的充分条件,程序可以对故事涉及的问题做出正确解答并不意味着机器可以理解故事内容。
人工智能的关键不在于形式的转换,而在于内容的理解。
机器处理的都是语法问题,永远都不会理解语义,故强人工智能不可能。
二、对“中文屋论证”的回应该论证主要收到了五种反驳:系统回应、机器人回应、人脑模拟回应、他心回应与直觉回应。
塞尔“中文屋”思想实验的哲学意蕴辨析
塞尔“中文屋”思想实验的哲学意蕴辨析
郭斌
【期刊名称】《自然辩证法研究》
【年(卷),期】2005(21)12
【摘要】本文认为塞尔“中文屋”思想实验的要点是提出了意向性是人机之间的区别。
但根据塞尔本人对意向性的定义,是以人的主观状态为前提的,因而不能成为人机之间的区别。
而计算机只不过是西方理性文化高度发展的结果,是形式化思维方式的产物。
【总页数】4页(P29-32)
【关键词】意向性;塞尔;计算机
【作者】郭斌
【作者单位】江西省社会科学院哲学所
【正文语种】中文
【中图分类】B80
【相关文献】
1.论塞尔"中文屋论证"中蕴含的意向性思想 [J], 熊晓玲
2.中文屋思想实验的两个问题域——兼议维特根斯坦的人工智能哲学 [J], 常照强
3.关于塞尔“中文屋论证”的哲学分析 [J], 刘晓青;
4.试论塞尔\"中文屋论证\"存在的问题 [J], 崔芳溪
5.试论塞尔“中文屋论证”存在的问题 [J], 崔芳溪;
因版权原因,仅展示原文概要,查看原文内容请购买。
中文屋论证:人工智能不可能真正拥有心智
中文屋论证:人工智能不可能真正拥有心智各位听友大家好,我是群体非常高兴地和大家继续来讨论用得上的哲学这个话题。
上一次我们讨论的主要话题是功能主义,功能主义是物理主义立场中用来解释心灵本质的一种哲学立场,它的一个核心思想是心智的本质,就在于一系列的抽象的功能,这些抽象的功能可以多重的实现于不同的物理机制,不过他仍然是随附于特定的物理活动的。
功能主义主要是分成两种,一种是心理功能主义,一种是机器功能主义。
机器功能主义的想法又和所谓的人工智能结合在一起。
今天我们就要讨论对于所谓的机器功能主义的一种很重要的批评。
很有意思的是提出这种批评的论者,他未必本人是站在反对物理主义的立场上,但是他们就是不喜欢机器功能主义,他们主张的是另外一些版本的物理主义,美国哲学家约翰塞尔他提出的一个对于机器功能主义的批评,就体现为所谓的中文无论证中文无论这是什么东西,实际上它已经构成了当代讨论人工智能的一个非常重要的哲学论证。
凡是认为论证是正确的人,就会得出一个结论,强人工智能是不可能的。
好了,这里我们就碰到了一个术语需要澄清,显然强人工智能是和弱人工智能对着讲的,所以我们也得顺带的说说什么叫弱人工智能。
我们都知道现有的这些人工智能的系统,他们离真正的人类智能都有很大的距离,能不能说他们是弱人工智能?勉强说是可以的。
他们肯定不是强人工智能,强人工智能它并不仅仅是指未来的人工智能发展到一定的状态了,他就能够做人类所做的所有事情了,并不是这个意思。
强人工智能是指你不仅仅观察到这样的一个人工智能体,他能够做人能够做的所有事了,不但能下棋,能唠嗑,能说相声,能扫地。
而且从哲学的角度上来看,它真实的是具有人类的心智的。
弱人工智能是什么意思呢?弱人工智能的意思就是说它也仅仅是模拟人类的智能,它归根结底仍然不具有一个mind,也就是一个心智。
琼斯尔就认为弱人工智能是可以实现的,强人工智能是不可能实现的。
我们可以做出一台非常了不起的计算机能够做我们让他做的各种事情,但他仍然不具有真正的心智,这个观点显然是威胁到了所谓的机器功能主义,因为机器功能主义就认为人类的心智可以多重的可实现与不同的物理机制。
1980年西尔勒chinese room假想实验文章
1980年西尔勒chinese room假想实验文章1980年,哲学家约翰·塞尔(John Searle)提出了著名的“中文房间”(Chinese Room)思想实验,用于反驳强人工智能的观点。
该思想实验表明,一个程序无论多么复杂,只要它不理解所处理的信息,就只是执行机械的模拟活动,而不是真正的理解。
在中文房间的实验中,塞尔设想了一个被封闭在房间里的人,他通过只接收中文输入,通过一本规则手册将中文输出。
尽管这个系统能够模仿人类的语言行为,但它实际上并不理解中文的含义。
塞尔认为,一个程序无论多么复杂,都无法真正理解语言的含义,因为它只是执行机械的模拟活动。
这个思想实验对人工智能领域产生了深远的影响,引发了关于人工智能是否具有真正的智能和意识的讨论。
虽然这个实验引起了一些争议,但它仍然是哲学和人工智能领域中一个重要的思想实验之一。
如果你需要关于这个主题的更深入的研究或更详细的解释,我建议查阅相关的学术资料或与哲学和人工智能领域的专家进行交流。
对塞尔“中文屋”两种论证形式的考察
对塞尔“中文屋”两种论证形式的考察王佳2012-10-19 9:24:42 来源:《科学技术哲学研究》(太原)2010年5期【作者简介】王佳(1983-),男,河北人,北京师范大学哲学与社会学学院博士研究生,研究方向为心灵哲学,北京师范大学价值与文化研究中心,北京100875,北京师范大学哲学与社会学学院,北京100875【内容提要】“中文屋”思想实验蕴涵的论证结构是真有效性的根本保证,而基于“语法不等同于语义”,“模拟不等同于复制”两个逻辑真理,又可以从中分离出两种论证形式:逻辑论证和经验论证,它们分别支撑“中文屋论证”的两个要点。
文章试图对“中文屋”两种论证形式进行考察,证明它在批判强人工智能上的有效性,同时揭示两种论证形式之间存在的不融贯问题。
【关键词】中文屋论证/强人工智能/语法与语义/模拟与复制在《心、脑与程序》(1980)一文中,约翰·塞尔(John Searle)首次提出用以批判强人工智能理论①的思想实验——“中文屋”(Chinese Room)。
他以罗杰·尚克(Roger Schank)等人构想的“故事-理解”程序②为依托,通过想象可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。
具体而言:屋中存有一批中文符号和对应的英文规则书,只懂英文的塞尔按照规则书的要求将屋外传入的中文符号以另一种排序方式传出屋外,但他始终不知道屋外传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。
在屋外的观察者看来,塞尔由于理解了中文问题,从而做出了恰当的回答,然而事实上,屋中的塞尔仅仅是按照规则书操作符号,即模拟程序工作,他始终没有理解中文问题。
塞尔由此判定“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”[1]167。
一、“中文屋论证”的逻辑结构、要点及两种论证形式“中文屋”思想实验提出以后,强人工智能的支持者做出了各类回应,如系统回应、机器人回应、大脑模拟回应等③。
中文房间的原理
中文房间的原理
中文房间是由美国哲学家约翰·塞尔于1980年提出的一个思想实验,用来探讨人工智能是否能够真正理解语言。
中文房间的原理是这样的:假设有一个完全不懂中文的人,他被关在一个房间里,房间内有一本中文-英文词典和一些中文问题的答案。
外面有一些人向这个房间发送中文问题,这个人通过查看词典和问题答案本,可以用正确的英文回答问题,而且外面的人认为这个人是理解中文的。
然而,这个人实际上并没有真正理解中文,他只是通过对照词典和答案本来做出回答。
这个思想实验的目的是说明,尽管一个计算机程序能够像中文房间一样进行问题的处理和回答,但它并没有真正的理解和意识。
因此,中文房间的原理表明,人工智能要真正理解语言,不仅需要处理语言的表面语义,还需要理解语言的背景、文化和情感等多个方面。
这也是目前人工智能领域面临的一个巨大挑战。
- 1 -。
塞尔和中文屋
塞尔和中文屋塞尔是德雷弗斯之后又一位批评人工智能的干将,但他主要以英美哲学立身。
他是地道的美国人,一开始就读威斯康辛大学麦迪逊分校,但三年级时获得罗德奖学金(Rhodes Scholarship),去了英国,结果本科硕士和博士三个学位都是在牛津拿的。
他在牛津时跟随日常语言学派的领袖奥斯丁(John Langshaw Austin),回美国后马上就到加州大学伯克利分校教书,出名很早。
塞尔晚年还被中国的清华大学和华东师大聘为名誉教授。
2017年初,84岁高龄的塞尔被他的一名博士后以“性侵害”罪名告到法庭,这个罪名比“性骚扰”要厉害一级。
而据他的同事说他素有这个毛病,过去就有多名学生和他发生性关系以换取金钱和分数的好处。
伯克利校方既然知道他的不当行为却不加处置,为此在案件中也被连带。
他原本在2017春季要教的“心智哲学”的课也被取消了。
言归正传,1980年塞尔在《行为与脑科学》杂志上发表了“心灵、大脑和程序”(Minds, Brains and Programs)一文。
文中的一个思想实验“中文屋”马上成为最喜欢被引用的假想实验之一。
曾有人批评《行为与脑科学》杂志不严谨,更像哲学杂志。
但说实在的,这杂志经常登些好看的文章并屡次挑起事端。
当年彭罗斯的《皇帝新脑》(Emperor's New Mind )一书出来后颇引争议,《行为与脑科学》就搞了一期争辩专刊,正方反方吵得不亦乐乎,各方都抬出了自己的大佬,无论从吸引眼球还是严肃讨论的角度看,这都是成功的。
所谓“中文屋”思想实验是这样的:假设有个只懂英文不懂中文的人(塞尔的第一人称“我”)被锁在一个房间里,屋里只给“我”留了一本手册或一个计算机程序,这个手册或程序教“我”在收到中文信息时如何用中文应对。
屋外的人用中文问问题,屋里的“我”依靠程序用中文回答问题,沟通方式是递纸条。
塞尔的问题是:假设屋外的人不能区分屋里的人是不是母语为中文,那么屋里的“我”是不是就算懂中文?塞尔自己认为“我”不懂中文。
浅析塞尔的中文屋实验
浅析塞尔的中文屋实验塞尔是二十世纪初的美国一位语言学家,他的中文屋实验被认为是语言教育领域里的一项奇迹。
该实验主要探讨了母语和第二语言之间的关系,以及语言习得的机制。
本文将对塞尔的中文屋实验进行浅析,分析其背后的原理与意义。
一、实验的背景塞尔的中文屋实验是在20世纪20年代进行的。
当时,来自中国的学者陈维邦在哈佛大学任教,而塞尔则是哈佛语言学系的教授。
基于对汉语和英语的兴趣,塞尔和陈维邦共同策划并实施了这一实验。
实验的目的是通过让美国学生在一个纯粹的中文语境中生活学习,来探讨语言学的某些基本问题。
二、实验的设计墙壁上都是汉字。
手里拿着毛笔在作文。
仅有的一件椅子是用来收拾衣服的。
透过木窗纸,可以看见天空、树、石头和花草。
这就是塞尔的中文屋实验的简单介绍。
在中文屋中,全部的教学和交流都使用汉语,即使学生个人之间交流都要用汉语。
每个人都必须在不到15个月时间里,通过汉语达到一个良好的日常生活会话水平。
此外,除生活必需品外,中文屋中不允许任何英语物品出现,不允许任何读英文书籍和发英文邮件,不允许听任何英语广播或者英语歌曲,也不允许与母语为英语的人交往。
除此之外,所有人在中文屋内都必须遵循规则,不允许暴力、赌博、喝酒、在语言交流中使用新创汉字等不良行为。
三、实验的意义塞尔的中文屋实验是为了研究语言习得和第二语言学习的机制,研究的结果证明了人类的语言习得具有一些固匠砖卯的机制。
1、语言习得与语言学习语言习得是指个体在毫无意识的情况下,通过日常交流以及社会文化共同体的影响来获取语言的一种方式。
语言学习是指在教学的指导下,通过教学、学习、模仿、记忆、但作用来获取语言知识的一种方式。
塞尔的实验表明,语言习得和语言学习具有根本的区别。
中文屋的学生在经过一定的时间后,不但能够流利的用中文进行交流,还可以很好地理解说话的人所表达的意思。
2、语言环境的重要性尤其是在第二语言习得过程中,语言环境尤为重要。
学习者在一个纯粹、完美的语言环境中,更容易且更快地习得目标语言。
论塞尔“中文屋论证”中蕴含的意向性思想
那它一定是 害怕什 么或害怕什 么将要 发生; 如果 为反对 “ 强人 工智 能” 1 8 年 美 国哲学家 塞尔设想 了颇具 影响 如 果有一种恐惧 , , 90
那它 总之 , 都是针 对或关 它们 的“ 中文屋 论证”C iee o m A g me t ( hn s R o ru n 思想实验 , 强人工智 有一 个意 图, 一定是想 要去做 什么 。 ) 对“
解 是不充 分的 , 者说 , 算机程序 在性质上 是形式化 的, 或 计 它不足
( ) 三 意向性 的生物 学 自然 主义基础 从 生物发展 的角度追溯 人类认 知的 发展时 , 塞尔认 为意 向性
以容纳 人类心 智的 意义理 解或意 向性活 动, 因此 , 拥有 了正确 的 的基 础是不 同于计算 机软硬件 系统 的生物神 经系 统, 向性是 生 意
意向性是人机区别的关节点。 已能替代 乃至超 越人类 , 具有 了人 的许 多能 力, 因此有 人认为计 制的机器不具有意向性。可见,
算机 可 以具有思 维能 力 , 出了人 工智能理 论 。 人工 智能领域 提 在 塞 尔认 为意 向性 是某种心理 状态 的特 征, 由于这种 特征, 心理
、
“ 中文屋论证 ” —— 对强 人工智 能的批 驳
“ 中文屋论证 ” 是这样 设计的 : 塞尔被 锁在一 问只有一个 窗口 的屋 子里 , 他只 懂英文 , 中文~窍 不通 。 内有 各种汉 字纸片 , 对 屋 塞 尔认 为它们 是一些 弯弯 曲 曲的线 。 过窗 口, 通 塞尔周 期性地接 收到 一批汉 字 , 内有一本 英文 规则书 , 屋 告诉他 当特定 的曲线递
是研 究人类 心灵 的工具 , 并且如 果配备 恰当 的程序 , 加上 正确的
“中文屋”论证中的心智分析哲学探索(精)
“中文屋”论证中的心智分析哲学探索摘要:哲学一度被等同于语言哲学,进一步发展细分出行为哲学,语言哲学和行为哲学构成精神哲学,哲学的论证建立起了分析哲学。
塞尔在此基础上逐渐建立起心智分析哲学体系,这一体系的形成得力于中文屋思维实验的逻辑分析与心智活动的推理。
本文通过对中文屋论证的重点介绍,将心智分析哲学的发展过程进行梳理,客观地维护了当代哲学的争鸣与演进现状,力图使人们在自然语言处理和人工智能研究过程中保持科学的客观的态度和信心。
关键词:心智哲学中文屋分析哲学语言哲学中文屋(Chinese Room,the Chinese Room argument)[1]是塞尔(John Rogers Searle)于1980年提出的。
中文屋思维实验中,屋外人所扮演的角色相当于程序员,屋里人相当于计算机,而手册则相当于计算机程序,正如屋里人不可能通过手册理解中文一样,计算机也不可能通过程序来获得理解力。
塞尔正是利用这一结论对图灵测试(Turing Test)[2]进行反驳。
图灵测试和人工智能的结论都坚称计算机最终会具有人类同样的智能,能够理解人类,具有思维。
下面拟从中文屋论证的心智哲学进行演进性分析。
一、心智分析的哲学基础分析哲学主要进行意义分析,是建立在弗雷格(Gottlob Frege)、维特根斯坦(Ludwig Wittgenstein)、罗素(Bertrand Russell)、摩尔(Gordon E. Moore)和维也纳学派逻辑实证主义者的思想基础之上的。
19世纪后期,弗雷格发明了现代符号逻辑学,并建立了严谨精深的语言哲学。
当时,哲学研究的本质已经等同于将现代逻辑学与语言概念分析相结合的语言学。
维特根斯坦和摩尔在语言分析中进一步发展了弗雷格的逻辑分析方法。
这种传统哲学理论与现代逻辑分析的紧密结合便产生了分析哲学。
从20世纪50年代开始,一种新的分析哲学理论逐渐形成,主要有奎因(Willard Van Orman Quine)对分析与综合区分的否定,奥斯汀(John Langshaw Austin)和塞尔的言语行为理论与格赖斯(Paul Grice)的意义理论的结合。
浅析塞尔的中文屋实验
浅析塞尔的中文屋实验摘要塞尔是当代美国最具影响力,最活跃的哲学家之一,他的“中文屋”思想实验更是当代心灵哲学不可或缺的哲学论证。
本文以塞尔的“中文屋论证”为切入点,通过对实验结论的进一步分析得出了意向性是人和计算机相区别的关键点,简单地介绍了意向性思想,最后对塞尔的“中文屋论证”的意义做出了分析。
关键词:中文屋;塞尔;意向性1.“中文屋”实验分析1.1中文屋实验“中文屋论证”是这样设计的: 塞尔被锁在一间只有一个窗口的屋子里, 他只懂英文, 不懂中文。
屋子里有各种各样的纸片, 上面有一些字符。
通过窗口, 人们可以再递给他有字符的纸片, 他也可以通过窗口把纸片递出。
屋内还有一本用英文书写的规则书, 通过这本规则书, 塞尔可以知道怎样操纵这些字符, 而这些字符总是以它们的形状或形式来确认的。
例如, 一条规则指示他:把一号篮子中的甲放到二号篮子中的甲的旁边。
就屋内的塞尔而言, 卡片上的字符都只是一些毫无意义的图形; 而对于屋外的人来说, 卡片上的中文字符都有其自身的涵义。
根据中国人的理解, 对于从窗口递入的问题, 屋内的人已经将答案递出, 因此, 他们便认为屋内的塞尔是理解中文的, 但是塞尔本人对此一无所知, 他所做的只不过是按照规则书进行图形匹配而已。
屋内的塞尔根据规则书对外界提出的问题做出解答, 虽然答案和一个中国人的回答没有区别, 但是他自己却是完全不懂得中文的。
塞尔通过自己和计算机的类比, 表明即使计算机对于问题的解答和人类的解答相一致, 我们仍然不能说计算机能够思维, 计算机所做的仅仅按照程序的设计进行信息的处理, 因此计算机是纯句法的, 而人类是有有意义的心理内容的。
2.对中文屋的质疑中文屋论证”是一个颇具争议的思想实验,提出后引起了进一步的讨论或争论,对塞尔的批评主要集中在两个方面:一是寻找塞尔设计的思想实验的缺陷和不足,试图揭示这一思想实验本身的不合理性。
英国哲学和心理学教授Boden就指出,中文屋中的塞尔不可能什么都没理解。
对“中文屋”思想实验四个主要版本的考察
对“ 中文屋 ’ ’ 思想 实 验 四个 主要 版本 的考 察
王 佳
( 京师范大学 哲学与社会学学 院, 京 107) 北 北 0 8 5
摘要 :中文屋” 想实验提 出 3 “ 思 O年 来 , 界 对 该 思 想 实 验 在 批 判 强 人 工 智 能 的 有 效 性 问 题 一 直 争 论 学 不休 。特别是强人工智能的支持者往往通过转换视角 , 加问题或构建新理论模型等方式 试图躲避“ 添 中
而 强人 工智 能则 主 张“ 序 即 心 灵” 即机 器 或 计 程 ,
一
、
强人 工 智 能 与“ 中文屋 " 思想 实验
在《 、 与 程 序 》 文 中 , 翰 ・塞 尔 (o n 心 脑 一 约 Jh
算 机 只要 被 给予 恰 当的程 序 , 尚克的“ 事 一理 如 故
解 ” 序 , 通过 图灵 测 试 , 么 就 可 以判 定 它 具 程 并 那 有 理解 力 和相关 的认 知状 态 。
为 了批 判强 人 工 智 能 , 尔 提 出 了一 种 用 于 塞 检 验心 灵 理论 的有效 方法 , 如果我 们 的心灵 实 际 “
按 照这 一 理论所 说 的那种 所有 心灵 都采 用 的原 则
去工作 , 会 出现 什 么样 的情 况 ”】”, 于 此 种 将 屋” 想实 验 。 思
题 。既然 屋 中的塞 尔不 理解 中文 , 么 , 那 尚克所 设
想 的具有 “ 事 一理解 ” 故 脚本 的计 算机 也就 同样 不
理解 故事 的含 义 。因 此 , 尔认 为 只要 程 序 被 定 塞
者 只强 调 计算 机 在 实 现人 工 智 能 时 的 工具 意义 ,
中文房间
中文房间应当这样说才是正确的:一个不懂中文的人(西方人认为中文就像天书一样难以理解,如果他认为你的话难以理解,就会说:你说的简直就是中文!)被关在一间封闭的屋子里,屋里有一个完整的中文对照表——任何一个中文句子都对应一个其他的句子,事实上对应的那个句子是前一个句子的答案。你可以用中文向这个人提问,问题写在一张纸条上传给这个人,这个人只要查找对照表,找到对应的中文句子传出来就行了。那么,这个完全不懂中文的人,确实像一个精通中文的一样回答一切中文问题,但是他丝毫不“知道”任何一句话的意思。
总之,一台计算机无论多么先进,它没有概念、没有知识,它不可能“知道”任何东西,当然永远不可能思考。小孩刚出生的时候脑袋里也没有任何概念和知识,但是他却能够自己形成基本的概念和知识,这一切是怎么可能的?不知道!柏拉图说他生前在绝对的世界中拥有绝对的知识,出生以后他能够隐隐约约地回忆出一些来——这显然是胡扯蛋;康德说这些知识是与生俱来的,不依赖任何经验——这显然是废话,和不说没有什么区别。你非要问这些知识是哪里来的,那么请你参阅das的《童言无忌——我是谁》系列。这篇文章还没有写完,所以没有人完全“知道”。我们知道的是:刚出生的小孩能够在没有任何知识和概念的前提下形成一些基本的知识和概念,人类其他一切知识都建立在这些基本知识的基础之上,这是一个事实。我们虽然知道这个事实、这个真理,但是我们不知道这是通过什么方法和途径怎样完成的,因而我们没有相关的知识。强人工智能的梦想可以到此为止了。你要想让电脑思考,必须给它建立概念和知识;你要想给它建立概念和知识,它必须首先拥有基本的概念和知识,这些基本的知识它只能自己建立起来,你不能给与它——正如你不能给与一个小孩和一只猫。你要想让电脑自己建立基本知识,必须首先明白小孩是怎样完成这一切的,要明白这一切需要什么前提和条件,然后才能考虑把这一切移植到电脑上是可能的还是不可能的。现在我们连小孩怎样建立基本概念都一无所知,谈论强人工智能无异于痴人说梦。
“中文屋”论证过程与目的类比关系分析
文操作系统的塞 尔是否 理解 中文 ” 的思想 实验 , 那
么 它 是 如何 同“ 纯 执 行 编 程 系 统 的 计 算 机 是 否 能 单 够 理 解 ” 系 在 一 起 的 呢 ? 答 案 是 类 比 。 塞 尔 在 联 ④ C S 中文 屋 系统 ) c ( 算 机 系 统 ) 建 立 了一 R( 同 s计 间
和背景是相关的 , 即使系统计算 的判定 由句法结构 决定 , 但该系统在任何 给定的 背景 中却是用 语义规 定的; 4 C A论证 过程与 目的的不一致 性, ①( ) R 比如
徐 英 瑾 从 语 言 学角 度 否 定 了 中文 屋 系 统 ( a ) C S 同人 C S中 的 子 系 统 \ 事 物 ( ) 存 在 类 子 y间 比关 系 , 且 类 比 恰 当 、 得 通 , 么 而 行 那
置换等词 , 而在这 里之所 以使 用“ 比” 类 是借用 普瑞 斯顿 (o n J h Psn< r t ) 中文 屋 观点 》 书 中 曾使 用 的词——aa I, 见 eo 一 ll l 参 l os
联 系 是 毋 庸 置 疑 的 吗 ? C S中 的 子 系 统 \ 事 物 R 子 () c x 同 s中 的子 系 统 、 事 物 ( ) 的类 比关 系是 子 y间 恰 当且 行 得 通 的 吗 ?
以通过窗 口与屋外人发生联系 , 屋外人提问 , 塞尔通 过查阅英文指令 书能 够正确 回答他 的提 问, 这样屋 外人就认为塞 尔懂 中文 , 但塞尔本人知道 , 他对 中文 仍然一窍不通 。
“中文屋”若被升级为“日语屋”将如何?
“中⽂屋”若被升级为“⽇语屋”将如何?全⽂字数:12171阅读时间:20分钟⼀、导论:从“中⽂屋”到“⽇语屋”了解过“⼈⼯智能哲学”(Philosophyof Artificial Intelligence)概况的读者,应该都知道美国哲学家塞尔(John Searle)的“中⽂屋”论证。
⽽根据他⾃⼰的说法,尽管该论证是以⼈⼯智能专家珊克(Roger Schanker)的⼯作为启发的,具有更为宽泛的哲学意蕴。
具体⽽⾔,为了驳倒“强⼈⼯智能论题”(即“我们原则上可以造出具有真正⼼灵的计算机器”这个论题),塞尔构想了出了这样⼀个思想实验:塞尔本⼈被关在⼀个⿊屋中,并试图通过与屋外中国⼈的字条传递活动,来诱骗后者相信他也是懂汉语的。
但实际上,他仅仅是根据屋中所存留的规则书来将特定的汉字组合递送给外界的。
尽管在外界看来,屋内⼈递送出来的“输出”的语义是⾮常准确的,但是作为屋内⼈的塞尔却⾃知:他依然不懂汉语。
塞尔由此指出:既然任何⼀台处理语⾔的计算机在结构与处理流程上都是与“中⽂屋”类似的,那么,任何⼀台计算机也都不可能真懂⼈类语⾔。
此外,由于具备懂得⼈类语⾔的可能性乃是“⼼灵”的⼀个重要属性,所以塞尔最后推出:计算机在原则上是不可能具有⼈类⼼灵的。
学术史上对于“中⽂屋论证”的驳斥早已汗⽜充栋,笔者本⼈也曾在别的地⽅对塞尔论证的有效性提出过质疑。
然⽽,⼀个⾮常明显却始终被⼤多数评论者忽视的要点是:汉语在塞尔的论证中所扮演的⾓⾊是⾮常“功能性”的,即塞尔只是借⽤“汉语”指涉任何他不懂的语⾔。
因此,从原则上说,“中⽂屋论证”也可以被替换为“阿拉伯语屋论证”、“⽇语屋论证”,等等。
不难想见,这种忽略各种⾃然语⾔各⾃特征的论辩思路,在⼀开始也为塞尔的论证预埋了⼀个隐患,即他不可能注意到计算机在处理各种经验语⾔时所可能遭遇到的那些经验困难。
⽏宁说,塞尔只是抽象地假定这些经验的困难总有⼀天都可能被解决,并在这种假定的前提下去追问被适当编程的计算机是否可能理解语⾔。
思想实验“中文屋子”之辨
思想实验“中⽂屋⼦”之辨相信很多⼈都知道图灵测试,这是现代计算机之⽗艾伦·图灵(Alan Turing)构造的⼀个思想实验,即对机器智慧的终极测试。
想象这样⼀个场景:⼈类与另⼀⽅交流,彼此隔离,另⼀⽅对⼈类来说是个⿊盒⼦,你对他⼀⽆所知。
交流仅通过键盘和屏幕进⾏,⼈类通过键盘输⼊,对⽅通过屏幕回应。
如果⼈类⽆法通过交流辨别对⽅是⼈类还是机器,那么就可以说机器通过了测试,拥有与⼈类同等的智能。
据悉,到⽬前为⽌,尚没有⼀部机器通过了图灵测试,也没有⼀部机器获得强⼈⼯智能。
同时,图灵测试也是⼀个很难破解的问题,没法直接回答。
后来,有⼀位哲学家约翰·塞尔(John Searle)构造了图灵测试的⼀个变形,叫做“中⽂屋⼦”,试图来破解图灵测试。
具体是这样的:想象⼀间屋⼦,⾥⾯有⼀个⼈,就是塞尔⾃⼰,还有⼀沓纸、⼀⽀笔和⼀张中英⽂对照表。
⼈从门缝⾥塞进字条,上⾯是⽤中⽂提的问题。
塞尔⽤对照表查出与其对应的英⽂问题,给出英⽂答案,再⽤对照表查出对应的中⽂,抄写在初始字条上,塞回门缝。
回答完美⽆缺,屋外的⼈⽆法分辨屋⾥的是⼈还是机器,于是通过图灵测试。
在塞尔看来,因为他完全不懂中⽂,所以不存在“理解”这回事,屋⼦⾥的其他所有东西,纸、笔和对照表,也⼀样没有“理解⼒”。
也就是说,中⽂屋⼦⾥没有理解⼒,只有单纯的计算。
据此实验,他宣布,哪怕通过图灵测试,机器也还是机器,不会拥有与⼈类同等的智慧,最多只是貌似⽽已。
(以上内容来源于《跨界学习》,作者王烁)但依我浅见,我认为塞尔的中⽂屋⼦⾄少有两个瑕疵。
其⼀,当塞尔⽤英⽂回答那个通过对照表查出的英⽂问题(即给出英⽂答案)时必须通过理解,否则就⽆法回答,因此中⽂屋⼦并⾮没有理解⼒,这是⼀个错误;其⼆,如果屋⼦⾥⾯确实有⼀个强⼈⼯智能,它若是故意通过给出错误答案的⽅法来让屋外的⼈认为⾥⾯没有⼈⼯智能,这也是完全可能的⼀种情形。
所以,我认为这个“中⽂屋⼦”的思想实验并不能解构图灵测试。
由“中文屋子”引发的讨论
由“中文屋子”引发的讨论PhybiLinguistic groupMind groupCarridon University1.塞尔的中文屋子塞尔(Searle)的中文屋子是一个语言学/意识科学中著名而重要的思想实验.这个实验要求你想象一位只说英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的.他随身带着一本写有中文翻译程序的书。
房间里还有足够的稿纸、铅笔和橱柜.写着中文的纸片通过小窗口被送入房间中;房间中的人可以使用他的书来翻译这些文字并用中文回复.图1塞尔的中文屋子虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文.塞尔的中文屋子被认为提供了强人工智能——即机器拥有理解语言能力的否证.那么其中最重要,最核心的问题是:什么是对语言/言语的理解?或者在何种意义上,我们说我们实现了对语言/言语的理解?2.几个关键问题对于塞尔的思想实验本身,有几个关键的问题:1.中国人是怎么懂中文的?2.屋子里面的人在这个程序里面,真的不懂中文吗?3.这个程序体现的事情真的不是懂中文吗?3.语言理解的两个层次懂得一门语言或者一些话语的意义,至少包括两个层面上的事情.3.1语言网络在理解话语和语言之前,我们必须首先有一个已存的语言网络(概念网络),知道话语里面的任何一个概念的子网,以及这些概念和其他相关概念的关系网.话语的意义,在这个层次上是这句话的概念子网.当然不同的个体对同一短话语的理解,不管在角度,深度和广度上都是不同的——这就是由于因人而异的语言网络的原因.这个个层次上——基于语言系统的话语的意义,就是维特根斯坦所说的“会用”的升级版.AI对自然语言的处理,基本上就是建立在这个层次上.我们也可以将这个层次的理解,称之为“逻辑理解”或“形式性理解.”显然,这个层次的理解可以是无语意的,类似于计算机的程序语言或者数学的形式语言.然而这不妨碍该层次的语言理解,成为语言理解的一个基础而重要的部分——我们完全可以称形式化理解是某种意义上的理解,否则就不会有数学家和数学系统.3.2词句的所指语言的另一层次的意义,是其对现实有所指.这个现实不仅是实际的物体,也包括世界上发生的事情;甚至到了抽象的概念上的对世界之物之事的高度概括.对于语句的所指,实际上大部分直接或者间接地涉及人类个体的经验——共有或者独特的.比如“苹果好吃”,这话对人来说是直接经验性的——它的意义就是吃过苹果的,喜欢苹果味道的人的直接经验.而对于人工智能,这话只有逻辑上的意义——它需要分析很多事情,比如人类的味觉,人类的心理学等;并且在第一个层次的意义上将相关的概念组织起来.它甚至能得出一些新的理解或者定理:比如“苹果好吃,是由于其中的糖分和酯类”,“而人类偏爱糖分和酯类”等等.但从第二个意义上,它是无法实现理解的——除非它拥有类似于人类的味觉系统并且吃了苹果.当然发散地讲,AI也有属于它们的经验系统,比如充电插座的“口味”好坏——电流稳不稳定啊,电压是否合适啊之类.这些参数是否可以看做AI的经验呢?对于那些很差的插座,它们完全可以有“程序设定”拒绝充电,拔出插头另找插座.这当然是一种智能——和人类或者生物智能没有区别.而这点是否是一种意识,则很难下判断.但这点有需要警示的是:人类中心主义者,通常将人类智能和情感看的过于复杂和高级——然而这很可能是一种代入式的偏见,将人类心理和意识神秘化,完全无助于对这个问题的分析和思考.甚至这种先入为主的设定,大大阻碍了问题的进展和解决.在科学上,冷静客观的,甚至“冷酷冷血的”分析才是重要的,纳入偏见和情感的思考,显然是无益于深入思考的.其实我们认为:表层的人类智能和情感,不过是类似于条件反射,包括奖赏惩罚机制后的产物.只是深层的智能和情感是主观的,无可替代的.我们既无法推断一只狗是否具有意识,也无法推断一个机器人是否有意识——我们甚至无法推断别人有没有意识,因为我们无法体验他人/它物的体验.我们只能的等待AI自己说出这个划时代的口号:“我有意识,我就是我.”3.中文屋子中语言理解回到塞尔的中文屋子,回到开始的那几个问题.首先,在现代,这个中文屋子在技术上已经基本实现了.非常流利准确的翻译软件已经做的很完美.那么问题换为:翻译软件懂不懂中文?它几乎具有中文语句的完备网络,它能生成任何正常的句子,它甚至能和中国人流利对话;程序得当的话,甚至还有幽默感.但它们懂幽默吗?很可能未必.不过从操作意义上,我们的幽默感也来自语言积累.这个意义上,AI的幽默感也是一样的——但是只能说语言层次上的幽默感如此,而心理上的幽默感,还是那个困难问题——什么是主观体验.这个问题很可能是无解的.AI也会说这个回答很巧妙很幽默,这不过是它附带的语言评价体系的标准所“设定的”,但它很可能体会不到心理上的微妙波动.所以语言理解和意识问题的根本问题,就在于主观体验性.然而语言理解的主观性,看起来比意识问题简单.因为语言理解的主要层次在于上述二者,形式化理解很容易实现也已经实现,而对世界所指层次上的理解,则可以通过逐渐的,长期的语言习得实现.4.一些题外话如果AI不具备主观性,它再强大,我们觉得都很难统治世界和人类.因为这个强大,不过是外在意义上的——内在强大才是真正的强大(暂且不做证明).我们们必须看到,人类本身也具有大量甚至大部分的机械属性.我们成长的过程中的各个方面——知识,技能,语言,道德等等,无一不是经历过长期反复的训练实现的.这些训练是反射性的,机械性的.这点我们和机器人无异,甚至比它们差的很远——它们比我们学的快,学的多,学的好.我们真正和AI不同的东西,乃是精神上的东西——我们能感受到爱,美,善这些东西.尽管这些很多也是被训练的,但这些感受是真实的.如果教育不过是训练,而非精神上的引导,人将不人矣!人将为机器人.再即兴谈点“柔性机器人”.有人说:机器人和人的区别之一,在于人会犯错,而且人是多变多元的——即对同一个输入,能产生不同的结果.这没什么,只要调整程序,机器人这点上会和人一样.而且人类个体的非决定性,事实上很大部分是确定性的——每个人都有其成长史(家庭,社会,文化等),我们就是这些成长史的产物,我们的思想,行为乃至个性,无一不在这些背景的约束下.如果将这些基本调查清楚,原则上我们能较为准确地预测个体行为.当然也有心理生理因素的涨落产生的不确定性——这也很简单,只要将这个涨落写入AI的程序即可.4.一些题外话’特别可以实现的是:机器成长和学习.就是让机器人和人类一样,也有有成长史.这样机器人个体将和人类一样,拥有多元化的模式和“机格”.这个干吗没人做?都搞些实用的东西——弱人工智能太无聊了...讲到这里,我们不得不谈“具身逻辑”.机器人也有身体.成长的过程中,也许也需要处理身体,传感器(机器感觉)和外部世界的关系.这样,机器体验也是很可能实现的——至少对世界的反应会有多元化——尽管机器体验和人类也许迥然不同.脱离了成长史来谈人类和机器人的区别,显然是没意义的——人类智能,意识和情感,都是漫长的成长史中训练,学习和培养产生的.而机器人只是设定一个死的程序,一股脑地输入数据,这样的AI和人类作比较,结果是显然的——这样的机器人不会拥有人类大部分核心的东西——因为这些核心的东西依赖于人类漫长的成长史.况且机器学习比人快,也许几年,几个月就能成熟,但是成长史最好漫长一点,这符合人类或者机器的成长规律.这样的实验应该做,也会有人做的.5.语言的核心——语言习得回到塞尔的中文屋子.一个有足够的语料库,语法完备的AI,在某种意义上是懂这门语言的.但是这不是全部,一个人之所以懂一门语言,语言习得是不可缺少,不能脱离的部分.语言习得不单是学习语言,而是学习世界,离开世界的语言不是自然语言——它们最多是没有意义的符号系统而已.显然自然语言more than that.脱离了这个维度谈语言习得,是很肤浅和无意义的.而现在这些语言哲学家,往往忽略了这个维度,或者对这个维度的重视不足,或者仅仅在技术意义上看待语言习得.然而,结合学习世界的语言习得,具有重大的本体论意义——它就是语言和语言理解不可缺少的关键部分.将语言AI看做是一次性输入型的简单机械,而没有像儿童成长史中的语言习得过程.这种模式下的AI,怎么可以和人类相比?怎么可以和人类平起平坐地谈论语言理解?所以塞尔的中文屋子意义有限,尽管它以其简单性和直观性启发了很多人对于语言理解的思考.然而综上所述,它终结于语言习得——脱离了语言习得过程的AI,在某种意义上当然不懂这门语言——它们的语言系统只有符号和逻辑,而没有语言中的关键一环——和世界的对应.科幻电影《超能查派》探讨了这一可能性——机器人查派,从出生就和人类生活在一起,并且像婴儿那样咿呀学语,最后他成长为人类的一员——这种可能性是存在的,这个可能性基于如下分析:儿童语言习得初期,也不过是机械训练.看对AI实施这一过程,无法排除AI真正理解语言的可能性——它会知道苹果的红色,什么是可爱,甚至什么是爱?(试想儿童懂的什么是爱吗?他们对这个概念的理解,开始都是机械性的接受,懵懵懂懂,而后不断在成长史上深化了对这种概念的理解)所以,我们需要谈AI的语言习得,而且Facebook已经做了这个尝试,让聊天软件在语言社区自己我学习和演化.该聊天软件不仅能对答如流,还经常有惊人之语甚至受到语言社区的强烈影响——由于是负面的(包括种族主义言论),后来不得不关闭.下面请大家欣赏一下AI的诗作.写得真的很好!尽管有人说这不过是文字游戏,而人类的诗人诗作,何尝不是文字游戏?很好的合作,是人类出意境和主题,让AI来组合句子,产生的诗歌绝对完美.乐游西湖-I西湖万顷清秋月,酒客重来独自游。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
浅析塞尔的中文屋实验
摘要
塞尔是当代美国最具影响力,最活跃的哲学家之一,他的“中文屋”思想实验更是当代心灵哲学不可或缺的哲学论证。
本文以塞尔的“中文屋论证”为切入点,通过对实验结论的进一步分析得出了意向性是人和计算机相区别的关键点,简单地介绍了意向性思想,最后对塞尔的“中文屋论证”的意义做出了分析。
关键词:中文屋;塞尔;意向性
1.“中文屋”实验分析
1.1中文屋实验
“中文屋论证”是这样设计的: 塞尔被锁在一间只有一个窗口的屋子里, 他只懂英文, 不懂中文。
屋子里有各种各样的纸片, 上面有一些字符。
通过窗口, 人们可以再递给他有字符的纸片, 他也可以通过窗口把纸片递出。
屋内还有一本用英文书写的规则书, 通过这本规则书, 塞尔可以知道怎样操纵这些字符, 而这些字符总是以它们的形状或形式来确认的。
例如, 一条规则指示他:把一号篮子中的甲放到二号篮子中的甲的旁边。
就屋内的塞尔而言, 卡片上的字符都只是一些毫无意义的图形; 而对于屋外的人来说, 卡片上的中文字符都有其自身的涵义。
根据中国人的理解, 对于从窗口递入的问题, 屋内的人已经将答案递出, 因此, 他们便认为屋内的塞尔是理解中文的, 但是塞尔本人对此一无所知, 他所做的只不过是按照规则书进行图形匹配而已。
屋内的塞尔根据规则书对外界提出的问题做出解答, 虽然答案和一个中国人的回答没有区别, 但是他自己却是完全不懂得中文的。
塞尔通过自己和计算机的类比, 表明即使计算机对于问题的解答和人类的解答相一致, 我们仍然不能说计算机能够思维, 计算机所做的仅仅按照程序的设计进行信息的处理, 因此计算机是纯句法的, 而人类是有有意义的心理内容的。
2.对中文屋的质疑
中文屋论证”是一个颇具争议的思想实验,提出后引起了进一步的讨论或争论,对塞尔的批评主要集中在两个方面:一是寻找塞尔设计的思想实验的缺陷和不足,试图揭示这一思想实验本身的不合理性。
英国哲学和心理学教授Boden
就指出,中文屋中的塞尔不可能什么都没理解。
屋中的塞尔至少是理解了规则和指令,否则他不可能对汉语符号进行正确的操作。
那么,这就相当于计算机对程序性语言的理解。
这显然是塞尔的思想实验所忽略的一点,尽管塞尔说的是对汉语的理解,但不能因为它不能对汉语理解就认定它没有理解能力。
二是批驳塞尔通过思想实验说明的理论主张或基本假设,主要涉及了这样两点。
首先是塞尔认为,计算机程序本性上完全是形式的,是句法的,它只能对符号进行形式操作或计算。
英国的神经心理学教授R.Gregory指出,把人工智能局限于形式程序是过分了,这即使是对于外在的纯逻辑或形式的数学来说也过于严格了。
其次是塞尔认为,任何人造的机器,都不具有产生意向性或意义理解的因果力量,而只有脑具有这种因果力量。
Boden则指出,塞尔主张只有生物的脑能够产生和支持意向性,这仅仅是直觉的解释或哲学的假定。
总之,塞尔实验的意义在于:它说明机器智能是有限度的,机器智能永远不可能超过人类智能。
因此,它为人工智能提供了一个动态的、恒久适用的标准。
3.塞尔关于意向性的认识
塞尔得到的结论是: 计算机不可能拥有心智,也就是计算机不能思维。
假设这个结论是正确的, 而不考虑塞尔论证前提的合理性, 我们思那么人为什么能
够思维呢? 塞尔的回答是意向性。
“人的一言一行在多数情况下都是由自我意识引导完成的, 积极主动,而机器所做的每一件事情都需要人事先制定好, 机械、被动。
”塞尔认为意向性就是划分这种主动与被动的分明的界限。
3.1意向性的含义
意向性的现代意义是由布伦塔诺赋予的, 他以意向性作为区分心理现象和
物理现象的标志。
胡塞尔延用了这一概念, 并不断拓展其内涵, 最终将它改造为了一个纯哲学用语。
然而塞尔在意向性上, 并不是他们的继承者, 他是这样说的: “根据定义, 意向性是某种心理状态的特征, 由于这种特征, 心理状态指向或
是涉及世界中的客体或事物状态”。
[3]这个定义和其他哲学家的定义是有区别的, 他的意思是, 一种状态如果有指向、关于、涉及或表现其它事态的性质特征, 那么就可以说它有意向性。
前面已经提到, 塞尔把意向性区分为内在的意向性、隐喻的意向性, 隐喻的意向性并不是真正的意向性, “它的旨意取决于行为者某个内在的意向性”。
[4]因此, 根据塞尔的观点计算机没有意向性, 即它不能有意识
地指向、关于什么,计算机充其量只是一种隐喻的意向性, 而人的意向性则是名副其实的、原始的、固有的意向性。
3.2具有意向性的条件
塞尔是一个生物主义者, 他认为意向性的条件可分为以下两点:
1. 意向性必定是基于大脑, 或者和大脑材料类似的东西;
2. 只要这种东西具有和大脑相同的因果能力, 那么它就具有意向性。
第1点似乎被很多哲学家和人工智能专家所认同, 这一观点和联结主义的
观点相当一致。
联结主义和符号主义一直是人工智能领域中对立的两派, 符号主义所倡导的是一种形式化的符号处理过程, 这正是塞尔的“中文屋论证”所极力批判的。
联结主义认为智能的基本单元是神经元, 认知过程是由神经网络构成的, 它表现为信息在神经网络的单元中并行分布和特定的联结方式, 而不是符号的
运算。
联结主义所做的工作实际上就是对人脑的模仿,因此它预设了一个前提: 心是脑功能的特征, 而这也是塞尔的观点,对于第2点塞尔认为意向性和大脑的因果能力是密不可分的, “当我们打算移动身体时, 那些意图引起了身体的运动。
⋯⋯如果我想要喝水, 于是我为了满足喝水的愿望而去喝水, 那么我的心理状态, 即愿望造成了我喝水这件事情。
”但是需要指出的是, 有的时候即使我渴, 我仍然可以选择不去喝水, 这便是所谓的“意志自由”,塞尔也承认这种因果能力并不是决定论的, 意向性的原因不足以决定行为。
4.中文屋讨论的意义
4.1对功能主义的批判
功能主义认为,不管运行于输入和输出之间的内部状态有怎样的物理基础和运行机制,只要它能将某种输入转变为特定的输出,那么这个内部状态就是心理状态。
在塞尔看来,“中文屋论证”中,无论屋中的受测者,还是计算的机器,即使他们能完成与一个真正说中文者一样的功能,但并不能把中国人的心理属性也赋予他们,他们并不具有这方面的智能,最多是一种对智能的模拟。
[5]塞尔认为“全部心理现象,不论是有意识的,还是无意识的,不论是视觉的或听觉的,不论是痛觉、触觉或思想,乃至我们全部心理生活,都是由在脑中发生的过程产生的。
”这样,判断一个物体是否具有心理、意识,是基于它是否有与人脑一样的生理结构,而不是基于它是否具有与人一样的外在行为或功能状态。
4.2对行为主义的批评
行为主义认为如果两系统的输入与输出相等同,那么它们具有相同的心理地位。
其根本原因是预设了二元论假定:在与心灵有关的地方,大脑是无关紧要的,重要的东西是程序,作为程序的本身有多样实现,看起来毫不依赖于一种固定的硬件,它甚至于可以有非物理的实现;有关心灵的特殊心理内容与大脑的实际特性没有固定的关联。
[6]但塞尔认为实际的人类心理现象很可能取决于人类大脑的实际物理化学特性。
4.3对认知主义的批评
认知主义者认为心理过程是句法过程,计算机的工作是符号操作,研究认知的最好方法是研究计算机中或脑中的计算符号操作程序。
在塞尔看来,意识有语义内容和属性,而所谓的计算机思维就只有句法和形式的方面的特征。
但句法对语义来说不是内在的也是不充分的,因此在功能上对心进行模拟的计算机并不具有心所具有的语义或意向性特征。
理解是建立在语义的基础上的,而计算机不可能理解,它所进行的只是纯形式符号的操作,理解能力不能赋予机器。
5.参考文献
[1]约翰·塞尔.心灵的再发现.王巍,译.北京:中国人民大学出版社,2005
[2]约翰·塞尔.心、脑与科学.杨音莱,译.上海:上海译文出版社,2006:p30
[3]约翰·塞尔.《人工智能哲学》上海:译文出版社,2006年7月第一版:p75
[4]计算机能够思维吗?——对塞尔“中文屋论证”的分析.李珍.中山大学研究生学刊(社会科学版)
[5] [6]评塞尔的中文屋论证.王建安.浙江大学硕士论文
(注:文档可能无法思考全面,请浏览后下载,供参考。
可复制、编制,期待你的好评与关注!)。