“机械因子”与“自由因子”的交锋——文学伦理学批评视阈下对《我,机器人》的解读
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
020《名家名作》·评论
[摘 要] 《我,机器人》中塑造的各个机器人尽管受到机器人学三大法则的束缚,却仍表现出异常行为。
受文学伦理学批评中核心理论术语“斯芬克斯因子”的启发,欲运用“机械因子”和“自由因子”分析机器人由“守序”走向“失控”的深层伦理原因,进而理解小说中内含的伦理矛盾。
两种因子随着故事情节的发展交锋碰撞,此消彼长,在不平衡中引发了一系列人机伦理冲突,启示着人类做出这个时代正确合理的“科学选择”。
[关 键 词] “斯芬克斯因子”;科学选择;《我,机器人》;文学伦理学批评
“机械因子”与“自由因子”的交锋
——文学伦理学批评视阈下对《我,机器人》的解读
王书琪 王思琦 潘禹西
一、引言
人类长期以来都在思索一个问题——“人类是唯一____的动物”,而这一空格在被古往今来的哲学家反复删改修订之后,现在最常被填入的词语是“思索”[1]。
但自从机器人被发明以来,思索能力似乎不再为人类所独有,机器人愈发具有人的特征,人类的主体性受到了前所未有的挑战。
未来人类将走向何处,将如何与机器人和谐共处,将如何良好地从伦理选择过渡到科学选择等问题也引发了文学界的思考。
美国科幻小说作家阿西莫夫在其短篇小说集《我,机器人》中对这些问题做出了他的回答,他在章节故事《转圈圈》中首次提出机器人学三大法则,即:“一、机器人不得伤害人类,或因不作为而使人类受到伤害。
二、除非违背第一法则,机器人必须服从人类的命令。
三、在不违背第一及第二法则的情况下,机器人必须保护自己”[2]。
显现出其硬科幻文学中的人文关怀以及对人机未来发展的畅想。
他充分意识到,当今人类文明已进入新的发展阶段,机器人技术突飞猛进,面临着科学与人结合的问题,即需要做出当今科学时代的“科学选择”,使人完成科学的伦理人的身份转变。
在分析《西游记》与中国志怪小说时,聂珍钊教授提到,理解一部文学作品,就需要从“斯芬克斯因子”的分析入手,进而对作品做出客观的价值判断,挖掘其
对于我们今天的意义[3]。
“斯芬克斯因子”是聂珍钊教授在《文学伦理学批评导论》中提出的一种人兽结合的、残存在人身上的动物性特征的因子,由人性因子与兽性因子两部分组成,并通过理性意志和自由意志发挥作用。
两种意志之间的力量消长,导致文学作品中人物性格的变化和故事情节的发展。
[3]在书中的九篇短篇故事中,阿西莫夫将文笔重点置于塑造各个形象迥异的机器人角色并对它们非人的行为进行阐述,因此在使用文学伦理学批评理论解读《我,机器人》这部科幻文学作品时,针对阐释人类善恶伦理选择的“斯芬克斯因子”并不能够完全适用于分析机器人的伦理行为。
本文将直接利用“机械因子”与“自由因子”对《我,机器人》进行文学伦理学批评研究。
“机械因子”受人类内嵌于机器人之中的绝对法则的影响,支配机器人的主要行为;“自由因子”则是机器人自由意志的外在表现形式,导致其挣脱法则的束缚甚至对法则进行自我理解。
在《我,机器人》的人机交互过程中,面对复杂矛盾的伦理环境,机器人由于机器人学三大法则之间的调整,其“机械因子”和“自由因子”的强度此消彼长,机器人的伦理选择与行为得到了不同的发展。
二、“机械因子”的绝对控制
阿西莫夫所提出机器人学三大法则并非凭空捏造,它是对人类道德规范基本指导原则的逻辑抽象。
《我,
基金项目:国家级大学生创新创业训练计划项目“人类命运共同体视阈下的‘伦理选择’——《我,机器人》的人机伦理研究”
(项目编号: 202310697035)。
021
机器人》中的伦理问题实际上就是人类自我的伦理问题,机器人所面临的伦理矛盾实际就是人类自我的道德矛盾。
[4]三大法则奠定了机器人学的伦理基础,作为人类伦理道德的抽象镌刻在机器人的正子脑中,成为相对稳定的、根本的、非人性的机械因子,并在具体的伦理环境中灵活调整,控制了机器人在伦理混乱下的伦理选择。
在三大法则此消彼长的作用下,“机械因子”主导机器人在伦理环境中的行为,构成机器人伦理秩序和规范的主要部分。
在《转圈圈》一章中,被命名为速必敌的机器人在采矿过程中出现异常,只能按照环形路线不断转圈。
由于机器人第二法则与第三法则产生了不可调和的矛盾,机器人速必敌面临着执行命令还是自我伤害的伦理冲突。
这种“行为相锁”的僵局最终由人类工程师让自己生命陷入危险而打破,至高无上的第一法则摆脱了第二、三法则的矛盾冲突,打破法则死锁状态,将置身于持续转圈圈困境下的机器人解救出来。
三大法则并非平级关系,而是按其重要性排列,第一法则为最重要的法则,第二法则以第一法则为根本前提,以此类推。
同时,每条法则的命令强度也会影响机器人的伦理选择,因而即便第二法则优于第三法则,但在命令中没有强调是紧急事件,对于第三法则被加强的速必敌,“异常高的第三法则电位,便刚好抵消原本异常低的第二法则电位,第三法则驱使它回来,而第二法则驱使它前进”[2]。
在“机械因子”的作用下,三大法则之间相互调和,支配机器人做出使人类不受到伤害的伦理选择。
《消失无踪》中的纳斯特十号机器人是体现机械因子调和作用的最佳证明。
作为受到法则修订的特殊机器人,纳斯特十号混入其他六十二个同型号正常机器人中,并在调查中不断说谎,甚至用花言巧语迷惑其他机器人别做它做不到的事,使人难以区分。
纳斯特十号在接收到“给我消失掉”的命令后,由于“这个命令以最紧急的形式表述,下令者又是最有权力指挥他的人。
找不到更紧急的形式或更高的指挥权,来撤销和取代这个命令”[2],因此急躁的、强烈的语气使该命令下的第二法则强度大大增强,即便进行一次又一次筛查,纳斯特十号仍受着消失命令的主宰,走向绝对自我的行动自由,从而引发无法控制的伦理困境。
同时,由于人类擅自修订第一法则这一特殊行为,镌刻在纳斯特十号的第一法则并不完全,“机械因子”对机器人的制约大大下降,触发至高无上的第一法则的难度大大提高。
最终,机器人心理学家苏珊通过与纳斯特十号展开心理上的较量,以智取胜,引诱其做出异常行为并成功捕获它。
机器人的行为与伦理选择被人类制定的机器人学三大法则所控制,在这一“机械因子”的作用下,机器人必须服从人类命令,为人类服务。
在这种类似于“主仆”模式的人机关系下,机器人时常“身不由己”,缺乏自我意志,就连自杀也无法做到,因为第三法则的限制。
机器人的一切行动受制于“机械因子”,三大法则保证了人类对机器人的绝对控制,巩固和维系人类和机器人之间的伦理秩序。
以“机械因子”为核心的机器人行为准则从一开始便规定了机器人低于人类的伦理身份。
但面对复杂多变的伦理环境以及多重未知因素的综合作用,原本正常的指令也会面对失效的窘境,机器人亦会陷入盲目遵从人类指令的困境。
三、“自由因子”的束缚挣脱
机器人的“机械因子”由人类设定出的机器人学三大法则构成,作为机器人的行为准则支配其活动。
随着科学技术的不断完善,在机器人各个方面都越来越“似人”的情况下,三大法则势必无法控制机器人的一切行动。
通过对阿西莫夫笔下机器人的分析,发现控制机器人的因素除了“机械因子”,还有“自由因子”。
“自由因子”即机器人的自由意志,表现为机器人自发形成的性格特点与行事作风,是人性在机器人身上的体现。
如《逃避》中,随着第一法则的削弱,金头脑已经计算出人类在恒星际跃迁的过程中会死去然后重生,但它发展出一种似人的“幽默感”,给科学家们来了一场恶作剧。
它确保宇航员的安全,但宇航员无法操作任何控制仪器,它提供了充足的食物,但通通是豆子和牛奶,它甚至把宇航员的死亡经历安排得很有意思。
对于金头脑来说,它的幽默感是一种勉强逃避现实的方法,在人类走投无路的时候,通常的反应也是逃避现实,陷入妄想,喝得酩酊大醉,或者变得歇斯底里。
金头脑的“逃避”是一种游离在三大法则之外的自我表露,是合乎逻辑、符合人性的自由选择。
它遵守了三大法则,并没有将人类的生命置于危险中,这是“机械因子”的作用。
但在明知道“不会造成人员伤亡”的情况下,它依然逃避苏珊的盘问,使用恶作剧“捉弄”物理学家们这一行为是“自由因子”
022《名家名作》·评论
主导而自发形成的恶趣味。
而在《抓兔子》这一章,当人类不在场时,机器人大卫就会产生故障,但是当任何一个人出现,它则会恢复正常。
在不断的实验与推测中,多诺凡发现,当人类不在场时,个体主动性需求会上升,但危急时刻发出的六重命令也要求极高的主动性,无力处理局面的大卫只能变成“精神病患”,不自觉地玩弄起自己的手指头,让从属变成只会“跳舞”“列队”的玩具,这就是它偏离心智体系的场合。
它的反应体现了“自由因子”在机器人中的作用。
在出现紧急危机的时刻,三大法则已经无法调配大卫的行动,它在无法完成六重命令的重压下“精神崩溃”。
然而,随着科技进步和人工智能的进化,“自由因子”存在变相解读“机械因子”的可能,在《不可避免的冲突》中,机体更加成熟,它替人类分担了一些计算和诠释的重担,但也变相掌控了人类命运的前进方向。
人类甚至发现,机体会根据不服从主管的程度修改命令,从而尽可能使结果相同,并且机体一旦研制出更适合人类社会发展的方向,则会不惜牺牲一部分人类去达成目标。
在这种可能出现的新型人机伦理关系面前,“三定律”则越发显得苍白无力、漏洞百出。
机体统治人类社会文明进程的过程也印证了“三定律”在规约机器人道德行为方面的缺失。
当机器人的“自由因子”失去控制,人机关系则会滑向看似是“主奴关系”的陷阱,而要达到和谐共生的人机关系,则需要合理调配“机械因子”与“自由因子”。
四、结语
事实表明,科学时代的人已经不能脱离科学而存在。
科学几乎影响了人的所有方面。
[3]在《我,机器人》中,机器人的种种失控行为均得到了人类的纠正,机器人的“机械因子”和“自由因子”最终得到了平衡,人机伦理秩序得到了重建。
同样,在当今科学选择时代下,科技伦理滞后于科学技术的迅猛发展,弗兰肯斯坦情结愈发加重,人类必须及时回答如何解决科技伦理滞后形成的科学技术上的伦理悖论的问题。
不可否认的是,机器人所面临的道德冲突,其实就是人类自己会遇到的冲突。
科幻小说中机器人产生的异样行为都是在给当代的人类提供教诲。
在《我,机器人》中,阿西莫夫笔下的机器人在机器人学三大法则的绝对支配下,特殊的伦理环境导致“机械因子”和“自由因子”二者失去平衡,从而陷入了不同的伦理混乱,做出的伦理选择也让人匪夷所思。
这说明即使确保着人类至上的地位,仅由三条定律构成的机器人学三大法则仍无法控制机器人的所有行为,仍有进一步讨论的必要。
1985年,阿西莫夫就已发现修缮机器人学三大法则的必要性,增加了第零定律,同时修改了其他定律。
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
尽管做出了修改,这些仍不足以解释科幻小说中机器人的所有行为,运用于实际机器人设计之中依然不够成熟。
阿西莫夫围绕人类安全与利益而提出的机器人学三大法则给当今人机伦理秩序建设树立了典范,也引发了对关于人机伦理的一系列思考,如人类设定的机器人法则如何应对每一个突发情况。
他曾写道:“科技的发展和应用是不可预测的,它一定会给人类带来好处和弊端……”因此,在这个新的科学时代里,机器人技术在不断进步,人机伦理准则必须紧跟发展适应时代的变化,要审慎考量相应的法则,以科学平衡机器人的“机械因子”和“自由因子”,让机器人真正为人类服务,做出符合人类利益的伦理选择,成为人类的好助手,同时使人类在科学选择的过程中变得更完善。
参考文献:
[1]布莱恩·克里斯汀.最有人性的“人”[M].闾佳,译.北京:人民邮电出版社,2012:8.
[2] 艾萨克·阿西莫夫.银河帝国8:我,机器人[M].叶李华,译.南京:江苏文艺出版社,2013.
[3]聂珍钊:文学伦理学批评导论[M].北京:北京大学出版社,2014:38.
[4]刘华杰.闲话勾勒姆、科学与弗兰肯斯坦(Ⅲ)[J].博览群书,2002(4):39-42.
作者简介:
王书琪(2003—),女,汉族,江西南昌人,西北大学在读本科生,研究方向:文学伦理学批评。
作者单位:西北大学。