|
||||
你竟顾念他阿西莫夫科幻短篇全集 2:双百人 作者:艾萨克·阿西莫夫 |
||||
机器人学三大法则: 一、机器人不得伤害人类,或因不作为而使人类受到伤害。 二、除非违背第一法则,机器人必须服从人类的命令。 三、在不违背第一法则及第二法则的情况下,机器人必须保护自己。 1 基思·哈里曼在美国机器人与机械人公司担当研发主任已经十二年,现在他发现自己毫无把握,不知道自己做得对不对。他伸出舌尖舔了舔他那丰满但苍白的嘴唇;伟大的苏珊·凯文的全息图像板着脸俯视着他,他觉得对方的面孔似乎前所未有地阴沉。 通常他会关闭全息图,因为这位历史上最伟大的机器人学家叫他紧张。(他努力把图像想成是“它”,但从来不太成功。)这回他不是很敢这么干,只能由着早已过世的凯文用目光在他脸颊上钻出洞来。 他别无选择,不得不迈出这一步,多么可怕,多么有失身份。 乔治十坐在他对面,泰然自若;尽管哈里曼显而易见十分不安,尽管上方壁龛里那位机器人守护圣人的形象闪闪发亮,但他丝毫不受影响。 哈里曼道:“乔治,我们还一直没找着机会真正把事情谈透。你跟我们一起的时间不算太长,我也没有很好的机会跟你单独交流。但现在我希望详细地讨论这件事。” “我非常愿意,”乔治说,“就我在美国机器人公司期间了解到的情况看,危机似乎与三大法则有关。” “对。三大法则你当然是知道的。” “我知道。” “对,你自然知道。不过让我们再往下深挖,探索那个真正基本的问题。两个世纪以来,美国机器人公司获得的成功是——容我自夸一句——是相当了不起的,然而公司一直没能说服公众接受机器人。我们派出的机器人,要么是去做人类无法完成的工作,要么就是去人类认为过于危险、无法接受的环境。一直以来机器人都主要是在太空工作,而这就限制了我们本来能做的工作。” “不过,”乔治十说,“这代表的自然是一种极宽泛的限制,在这一限制内,美国机器人公司是可以兴盛的。” “不,原因有二。其一,为我们设定的边界总在不断收缩。就比如月球殖民地,殖民地的发展水平越来越高,对机器人的需求也逐步减少,据我们估计,几年之内月球就会禁用机器人。这种事会在人类殖民的所有世界重复发生。其二,除非地球也允许使用机器人,否则真正的兴盛不可能实现。我们美国机器人公司坚信,人类需要机器人,要想保持不断发展进步,人类就必须学会与自己的机械类似物共存。” “他们现在不就在这样做吗?哈里曼先生,你办公桌上有一台计算机输入终端,据我了解,它与公司的马尔蒂瓦克相连。计算机正是一种固定不动的机器人,一个没有附着在身体上的机器人大脑——” “确实如此,但就连这也是受限制的。人类使用的计算机一直都在稳步专业化,以避免产生与人类过于相像的智能。一个世纪以前,我们使用的是我们称之为‘机体’的伟大计算机,那条路通往最不受限的人工智能,而且我们已经走出了很远。后来那些机体自发地限制了自己的行动,它们解决了威胁人类社会的生态问题,接着就逐步把自己淘汰了。据它们推断,如果它们继续存在,自己就会变成人类的拐杖;它们感到这将伤害人类,于是就根据第一法则判了自己的罪。” “而它们这样做难道不是正确的吗?” “在我看来不是。它们的这一行动进一步强化了人类的弗兰肯斯坦情结;人类本来就打心眼儿里害怕,觉得他们创造的一切人造人最终都必然背叛其创造者。人类害怕机器人会取代人类。” “你自己不害怕吗?” “我知道不会如此。只要机器人学三大法则还存在,机器人就不可能如此。他们可以充当人类的伙伴;他们可以参与人类伟大的斗争,跟人类一起理解自然法则,探索如何更明智地引导自然法则,这样一来能做成很多事,远远超过人类单打独斗。但无论机器人做什么,始终都是为人类服务。” “然而假使在两个世纪的时间里,可以看出三大法则始终使得机器人没有逾越规定的限度,那么人类对机器人不信任的根源又在哪里呢?” “这个嘛,”哈里曼使劲挠挠头,泛灰的头发乱成一团,“当然主要是迷信。但很不幸,同时也确实有一些复杂情况,煽动反对机器人的人总是抓住它们不放。” “涉及三大法则?” “对。尤其是第二法则。第三法则是没有问题的,你看。它普遍适用。机器人永远必须为人类牺牲自己,无论那人是谁。” “自然。”乔治十说。 “第一法则或许没那么叫人满意,因为你总是可以想象这样一种情形,机器人必须在A行动和B行动之间二选一,两个选项彼此排斥,而且任意一个选项都会对人类造成伤害。如何处理机器人大脑的正电子通路,让机器人有能力做出这类选择,实在很不容易。如果A行动将伤害一个才华横溢的年轻艺术家,B行动则会导致五个没有特殊价值的老年人受到等效的伤害,这时应该选择哪个行动呢?” 湥A行动,”乔治十说,“对一个人的伤害小于对五个人的伤害。” “对,我们一直设计机器人用这种方式做决定。天赋、智力、对社会的总体有用程度,这些要点过于细致了,我们一直觉得指望机器人据此判断太不现实。那样的判断会大大延长做决定的时间,让机器人实际上无法运作。所以我们就凭数字做决定。所幸要求机器人必须做出类似决定的危机不会很多……但这又把我们带到了第二法则。” “服从法则。” “对。对服从的需要始终不变。一个机器人也许存在了二十年,却一次也不会遇到前面说到的两种情形,需要它迅速行动以防止人类受到伤害,或者需要它冒着毁灭自己的风险去拯救人类。然而在这期间它却要不断服从命令……那么应该服从谁的命令?” “某个人类的命令。” “随便什么人类吗?你如何对一个人类做出判断,以便知道是否应当服从?人类算什么,你竟顾念他[见《诗篇》8∶4。——译者注],乔治?” 听到这话,乔治迟疑了。 哈里曼忙说:“这是引用《圣经》里的话。别管了。我的意思是,如果下命令的那人是个小孩子,或者是白痴,或者是罪犯,或者那人本身既正直又聪明,但恰好对某个领域不熟悉,因此不知道自己的命令会产生怎样不好的后果,这类情况下机器人也必须服从命令吗?而假如有两个人向机器人下达了彼此矛盾的命令,机器人又该听谁的?” “两百年了,”乔治十说,“这些问题难道还不曾出现并被解决吗?” “没有,”哈里曼使劲摇头,“我们的机器人只被用在太空里的专门领域,跟机器人打交道的也都是各自领域的专家,正因如此,我们在这方面的研究受了很大阻碍。太空里可没有小孩子、白痴、罪犯、好心办坏事的糊涂人。即便如此,偶尔还是会有人下达愚蠢的命令,或者仅仅是未经思考的命令,并由此造成损失。发生在专业化的和有限的环境里,这类损失是可以控制住的。但要是换成在地球上,机器人就非有判断力不可。反正那些反对机器人的人坚持这一观点,见鬼,他们说得没错。” “那就必须把判断的能力植入正电子脑。” “完全正确。所以我们开始再制造JG型号的机器人,这个型号可以根据性别、年龄、社会与职业地位、智力、成熟度、社会责任感等对每一个人进行衡量。” “这对第三法则会产生何种影响?” “对第三法则完全没有影响。哪怕最有价值的机器人也必须为了最无用的人类毁灭自己。这一点儿不容有丝毫差池。第一法则一般而言也不受影响,除非可供选择的行为都会造成伤害。这时候,假使有时间也有理由进行考虑的话,就必须考虑所涉及的人类的数量和质量,但这类情况不会很常见。第二法则被改动的程度会是最深的,因为每一次潜在的服从都必然涉及判断。除非同时涉及第一法则,否则机器人服从命令的速度会变慢,不过他的服从会更加理性。” “但这里需要做出的判断非常复杂。” “非常复杂。因为必须做出这类判断,我们制造的头几个型号反应速度变得很慢,几乎到了瘫痪的地步。后面的几个型号我们改进了这一问题,代价是引入太多通路,机器人的大脑变得过于笨重。不过看最新生产的几个型号,我觉得我们已经得到了想要的结果。机器人不必对一个人的价值和命令的价值做出即时判断。一开始它像所有普通机器人一样服从所有人类,然后它就学习。机器人成长,学习,成熟。起先它等于是个小孩子,必须时刻受到监督。不过它会渐渐成长,然后就可以允许它越来越多地在不受监督的情况下融入地球的社会。最终它会完全成为该社会的一员。” “这自然回答了那些机器人反对者的反对意见了。” “不,”哈里曼怒道,“现在他们又提出了别的反对意见。他们不肯接受机器人的判断。一个机器人,他们说,没有权利给这个人或者那个人打上低人一等的烙印。如果机器人在A和B之间选择了服从A的命令,B就被打上了不如A的烙印,而这就侵犯了B的人权。” “对这一反对的回答是什么?” “没有回答。我快要放弃了。” “原来如此。” “我自己是无计可施了……但我不放弃,我向你求助,乔治。” “向我?”乔治十的语气依然平和。他的声音里带了一丝惊讶,但他的外在表现并未受到任何影响:“为什么是我?” “因为你不是人,”哈里曼显得很紧张,“我跟你说过的,我希望机器人成为人类的伙伴。我希望你成为我的伙伴。” 乔治十抬起双手,手掌向外把两手摊开,这姿势实在跟人很像:“我能做什么?” “或许在你看来你什么也做不了,乔治。你被创造出来还没多久,你还是个孩子。为了留出成长的空间,设计之初就没有给你太多的原始信息——所以我才必须这样详尽地向你解释情况。但你的心智会成长,你将能够从非人类的视角来思考这个问题。我看不出解决方案,但你有异于人类的独特视角,你是有可能想到一个解决办法的。” 乔治十说:“我的大脑是人类设计的。它如何又能是非人类的呢?” “你是JG型号的最新产品,乔治。你拥有我们迄今设计的最复杂的大脑,在某些方面甚至比过去的巨型机体更精妙。你的大脑是开放式的,它在人的基础上开始,之后有可能——不对,是一定会——往任何方向成长。三大法则无法逾越,你会一直处于它设定的界限内;但同时你的思维却也可能变得跟人类全然不同。” “我对人类的理解是否已经足够我以理性的方式思考这一问题?我足够了解他们的历史吗?他们的心理?” “当然还不够。但你会尽快学习。” “会有人协助我吗,哈里曼先生?” “不。这件事只能你知我知。除了你我再没有别人知道这件事,你也绝不能向任何人类提起这个项目,无论是在美国机器人公司还是在别处。” 乔治十说:“你寻求保密,哈里曼先生,是否说明我们在做错误的事?” “不。但机器人找出的解决方案不会被人接受,就因为它源自机器人。你有任何建议都要交给我,如果我觉得它有价值,我会把建议提出来。永远不会有人知道它是你的主意。” “鉴于你先前所述的情况,”乔治十平静地说,“这一做法是正确的……我什么时候开始?” “就现在。我会准备好所有必要的胶片供你扫描。” 1a 哈里曼独自坐着。屋外天已经黑了,但在人工照明的办公室里完全看不出丝毫迹象。先前他把乔治十带回机器人的小隔间,并把对方留下来阅读第一张参考胶片,自那时到现在已经过了三个小时,但他并没有感受到时间已经过去了这么久。 现在只剩他自己与苏珊·凯文的鬼魂独处。她是多么天才的机器人学家啊,几乎是单枪匹马造出了正电子脑机器人,把它们从大型玩具变成了最精巧、功能最丰富的工具;太精巧了,功能太丰富了,以致人类生出了嫉妒和恐惧,竟不敢使用它们。 她去世已经有一个多世纪。弗兰肯斯坦情结带来的问题在她的时代就已经存在,而她从来没能解决它。她从来没有尝试过去解决它,因为当时没有必要。在她生活的时代,机器人工业的扩张是跟探索太空的需求同步的。 机器人太成功了,反而使得人类对它们的需要开始减少,留下哈里曼来收拾如今这个时代的局面—— 但换了苏珊·凯文,她会向机器人求助吗?肯定的,她肯定会的—— 他就这样坐着,直到深夜。 2 马克斯韦尔·罗伯森持有美国机器人公司过半的股票,从这个意义上讲,公司是由他控制的。此人早已步入中年,胖嘟嘟的外貌毫不出奇,烦恼的时候习惯咬嘴唇——下嘴唇的右角。 不过他跟政府的各色人等打了二十年的交道,已经发展出一套对付他们的法子。他喜欢来软的,微笑着让步,并总是借此争取到时间。 可惜如今是越来越难了。而之所以越来越难,很大一部分原因就在于冈纳·艾森姆斯。此人是当今的全球生态官,在过去的一个世纪里,其权力仅次于全球行政官。而在过去的一系列全球生态官中间,他在可妥协的灰色地带中寸步不让,是最贴近强硬一侧的。他是第一个非美国出生的生态官,尽管并没有任何证据表明“美国机器人公司”这个古老的名字引起了他的敌意,但在美国机器人公司,人人都对此深信不疑。 也有人提议更名,把公司的名字改成“世界机器人”,这已经不是今年的第一次了——也不是这一代人里的第一次。但罗伯森绝不松口。公司最初是由美国的资本、美国的头脑、美国的劳动力建立起来的,虽说无论在规模还是性质上公司都早就全球化了,但只要他还控股一天,公司的名字就要见证它的起源。 艾森姆斯高挑个子,长着一张忧郁的长脸,无论皮肤质地还是五官样貌都挺粗糙。他说全球语带着明显的美国口音,虽说就任生态官之前他从没到过美国。 “在我看来事情非常清楚,罗伯森先生,不存在任何困难。你们公司的产品向来只租不卖。如果月球不再需要你们出租的财产,自然该由你们收回产品并负责运输。” “是的,生态官,但是运去哪里呢?除非有政府许可,否则法律禁止我们把机器人带到地球,而我们的申请已经被拒绝了。” “在地球它们对你们没有用处。你们可以把它们带去水星或者小行星带。” “到了那边我们又拿它们怎么办?” 艾森姆斯耸耸肩:“你们公司有的是聪明人,总能想出办法。” 罗伯森摇头:“公司会遭受巨大的损失。” “恐怕会的,”艾森姆斯无动于衷,“据我了解,公司最近几年的财务状况一直不佳。” “很大一部分是由于政府施加的限制,生态官。” “你必须现实些,罗伯森先生。你知道公众舆论的氛围是越来越反对机器人了。” “然而这反对是错误的,生态官。” “但总归是反对的。清算公司可能是明智的做法。当然了,这不过是建议。” “你的建议是有影响力的,生态官。自然不必我来告诉你,一个世纪之前,正是我们的机体解决了生态危机。” “我敢说人类对此十分感激,但那已经是很久以前了。如今我们生活在与自然的联盟中,纵然有些时候极不舒适;而过去已经暗淡模糊了。” “你的意思是,我们最近为人类做了什么?” “我想我就是这个意思。” “但肯定不能指望我们马上清算公司吧,那会造成极其惨重的损失。我们需要时间。” “多少时间?” “你能给我们多少时间?” “这事不由我说了算。” 罗伯森放软声音道:“这里就我们俩。我们不必兜圈子。你能给我多少时间?” 看艾森姆斯的表情,他似乎正退回内心进行计算。“两年应该是有指望的。我就直说吧,要是你们自己不动手,全球政府就打算接管公司,替你们逐步关停公司,差不多就是这样。除非公众舆论发生巨大转变,而我对此是非常怀疑的——”他摇摇头。 罗伯森软声道:“那就两年。” 2a 罗伯森独自坐着。他的思考漫无目标,已经渐渐退化成追忆往昔。罗伯森家一连四代人领导公司。他们谁都不是机器人学家,造就美国机器人公司的是诸如兰宁、玻格特之类的人,尤其是苏珊·凯文,尤其是她。但不消说,是四个罗伯森为他们提供了大环境,使得他们有可能完成自己的工作。 要不是美国机器人公司,21世纪会一步步陷入越来越深的灾难。之所以没有变成这样,还是多亏了机体在一代人的时间里指引人类,带人类穿过了历史的激流和险滩。 而为此人家现在给他两年时间。两年里如何能克服人类那不可逾越的偏见?他不知道。 哈里曼说他有些新点子很有希望,但不肯谈及细节。这样也好,反正他说了罗伯森也听不懂。 但哈里曼又能做什么?人类对模仿自己的机器人抱着强烈的反感,对此谁又做过什么呢?什么也没有。 罗伯森滑入深沉的睡眠,梦中也没有灵感降临。 3 哈里曼说:“现在你掌握了所有信息,乔治十。所有适用于这个问题的信息,只要我能想到的,你都掌握了。要是单论信息量,关于人和人的行为方式,人的过去和现在,你已经存储了大量内容,比我,比任何一个人都要多。” “很有可能。” “据你自己看,你还需要什么别的吗?” “在信息这方面,我找不出明显的缺口。边缘处或许存在一些我没有想象到的东西,这我说不好。但无论我吸收了多大一圈信息,这一问题永远没法避免。” “确实。而且我们也没有时间一直吸收信息。罗伯森告诉我我们只有两年,现在已经过去四分之一了。你能提出任何建议吗?” “目前还不行,哈里曼先生。我必须对信息加以权衡,为此我需要帮手。” “我吗?” “不。恰恰不能是你。你是人类,而且学识、技能都十分卓越,你随便说什么都会带上命令的效力,由此就可能抑制我的思考。同理,这个帮手也不能是其他任何人类,尤其你又禁止我与任何人交流。” “但是乔治,这样的话你要什么帮手呢?” “另一个机器人,哈里曼先生。” “别的机器人?” 湥JG系列还建造了其他机器人。我是第十个,JG-10。” “更早的几个没用,都是实验性的——” “哈里曼先生,乔治九是存在的。” “嗯,但他能派上什么用场?他跟你非常相似,只不过多了些不足之处。你俩中间,你的功能丰富多了。” “我确信是这样,”乔治十用显得很严肃的姿态点点头,“尽管如此,一旦我创造出一条思路,正因为是我创造了它,我自然会感到它很有道理,也就很难舍弃它。如果在发展出一条思路以后,我可以向乔治九表述它,他就可以在没有创造它的前提下去考虑它。于是他可以不带倾向性地看待它,或许就能看出我自己看不出的缺失和弱点。” 哈里曼微笑道:“换句话说,两个脑袋总比一个强,呃,乔治?” “如果你这话是指,两个个体各有一个脑袋的话,那么是的,哈里曼先生。” “好。你还需要什么别的吗?” “是的。单有胶片还不够。我已经看过了很多关于人类和人类世界的内容。我在美国机器人公司见过了人类,利用这些直接的感官印象,我可以检查我对相关内容的解读是否准确。但物质世界这方面就不行了。我从未见过世界,而根据我看过的内容,我能判断出我在这里所处的环境绝不能代表世界的样子。我希望看一看世界。” “物质世界?”这想法太过惊世骇俗,一时间哈里曼似乎惊呆了,“你肯定不是建议我带你去美国机器人公司的场地之外吧?” “是的,这正是我的建议。” “在任何时候这都是非法的。而在现今这种舆论氛围下,它会给我们带来致命的打击。” “如果我们被发现了,的确。但我不是建议你带我去某座城市,甚至不是建议你带我去人类的居住区。我希望看一看开放的区域,没有人类的开放区域。” “那也同样违法。” “如果我们被逮住的话,但一定会吗?” 哈里曼道:“这件事有多要紧,乔治?” “我无法判断,但在我看来是会有用的。” “你有什么想法没有?” 乔治十似乎有些犹豫:“我无法判断。在我看来如果能缩小某些不确定项,我有可能会产生一些想法。” “好吧,让我来考虑一下。这期间我会把乔治九领出来,安排你俩待在同一个隔间。至少这件事不会惹出麻烦。” 3a 乔治十独自坐着。 他暂时假定一些陈述为真,把它们集合起来,从中推导出结论,一遍又一遍;从结论中他又搭建起其他陈述,他接受这些陈述,测试它们,若发现矛盾就拒绝,若没有发现矛盾就更进一步地假定它们为真。 他得出许多结论,从未因任何一个结论感到惊叹、讶异、满足;只是简单地标记上加号或者减号。 4 飞机下降,悄无声息地降落到罗伯森的私人庄园里,但哈里曼的紧张情绪并未显著减轻。 允许使用动力箔的命令由罗伯森会签[双方或多方共同签署(文件)。]。这种无声的飞行器在水平和垂直两个方向都移动自如,也够大,足够承受哈里曼和乔治十的重量,当然还要加上飞行员。 (动力箔本身就是机体催化的产物,是机体催化了质子微反应堆的发明,使小剂量的自由能源变得唾手可得。这极大提高了人类生活的舒适度,自那时到现在,在提高生活舒适度方面人类再也没有做出过同等重要的发明,可是呢——想到这里哈里曼抿紧了嘴唇——美国机器人公司并未因此赢得人类的感激。) 棘手的是从美国机器人公司所在地前往罗伯森庄园的这段航程。要是在这期间被拦下来,机上有机器人这件事会引出一大串麻烦。回程也是一样。庄园本身倒还好,他们可以辩称——他们一定会辩称——庄园是美国机器人公司产业的一部分,因此在有人进行恰当监督的前提下,机器人是可以停留的。 飞行员往后看,目光极谨慎地在乔治十身上停了一瞬。他问:“哈里曼先生,你是准备下飞机的吗?” “是的。” “它也是?” “哦,是的。”然后哈里曼略带出一丝嘲讽,“我不会留你跟他独处的。” 乔治十先下了飞机,哈里曼紧随其后。他们降落在箔港,不远处就是花园。花园的景观绚烂夺目,哈里曼不禁有些疑心,疑心罗伯森不顾环保配方使用了保幼激素控制昆虫。 “来吧,乔治,”哈里曼说,“我带你看看。” 他俩一起朝花园走去。 乔治说:“跟我想象中的有一点点像。我的眼睛没法探测出不同的波长,所以我不能光靠这一项来分辨不同的物体。” “相信你不会因为色盲感到过于苦恼。我们需要为你的判断力留出太多正电子通路,辨别颜色实在顾不上了。将来——如果还有将来的话——” “我明白,哈里曼先生。还剩了不少其他差异,足够我明白这里有很多不同种类的植物生命。” “毫无疑问。好几十种呢。” “而每一种都与人类相当,在生物学的意义上。” “每一种都是一个独立的物种,对。世上活着的生物有几百万个物种。” “人类仅仅是其中之一。” “不过对人类来说,人是最重要的物种,远超其余。” “对我也是一样,哈里曼先生。我刚刚只是从生物学角度说。” “我明白。” “那么生命,就其全部形态来看,复杂到不可思议。” “是的,乔治,这就是问题的关键。人类为了自身的欲望与舒适所做的事,会影响这个复杂的生命全体,也就是生态,短期的收益可能带来长期的不利。机体教我们建立起另一种人类社会,将这一问题的影响降到了最低,但21世纪早期人类几乎遭遇灭顶之灾,后来就对一切创新都疑虑重重。这一点,再加上人类对机器人抱有的特别的恐惧——” “我明白,哈里曼先生……那边是动物生命的一个例子,我确信是的。” “那是一只松鼠,许多种松鼠中的一种。” 松鼠摆动尾巴,转移到树干另一侧去了。 “而这一个,”乔治抬起手臂,动作快如闪电,“真是一个小东西。”他用手指夹着它,对着它瞅起来。 “这是昆虫,某种甲虫。甲虫有成千上万种。” “每一只甲虫个体都跟松鼠、跟你自己一样是活生生的吗?” “都是完整而独立的有机体,跟其他有机体是一样的,是整个生态的一部分。还有些有机体比它更小,许多都小到看不见。” “而那是一棵树,不是吗?摸上去是硬的……” 4a 飞行员独自坐着。他也想活动活动腿脚,但心里又隐隐有种安全意识,要他别离开动力箔。万一那机器人失控了,他打算立即起飞。不过他又如何判断它有没有失控呢? 他见过许多机器人。既然他当了罗伯森先生的私人飞行员,这自然是免不了的。不过它们向来都待在它们该待的地方,在实验室和仓库里,周围还有许许多多的专家。 没错,哈里曼先生也是专家。据说再没人比他更厉害。可这儿毕竟有个机器人,在一个不该有机器人的地方,在地球上,在光天化日之下,而且行动自由——他不会跟别人多嘴,免得丢了上好的工作——但这事是不对的。 5 乔治十说:“对照我看到的实际情况,可以断定我观看过的胶片是准确的。我替你选的那些胶片你看完了吗,九?” “是的。”乔治九说。两个机器人坐姿僵硬,脸对脸,膝盖对膝盖,仿佛一尊雕像和它的镜像。要是哈里曼博士在,他一眼就能分清谁是谁,因为他对二者外形设计上的细小区别十分熟悉。如果他看不见他们,但可以跟他们交谈,那他也一样能分清谁是谁,只不过不像看见那么确定,因为乔治十的正电子脑通路拥有更为复杂的模式,所以回应的方式也跟乔治九有微妙的区别。 “既然如此,”乔治十道,“我接下来要说一些话,告诉我你的反应。首先,人类恐惧、不信任机器人,因为他们把机器人视作竞争对手。如何能防止这一情形?” “通过把机器人塑造成不同于人类的形象,”乔治九道,“借此减少竞争的感觉。” “然而机器人的本质在于对生命进行正电子复制。对生命的复制若以一种无关生命的形式呈现,或许会引起惊惧。” “世上有两百万种生命形态,从中挑选一种人类以外的形态。” “这么多物种,该选哪一个?” 乔治九的思维进程无声无息地运行了大约三秒钟:“其体积要足以容纳正电子脑,同时不会令人类联想到任何不愉快的东西。” “陆生动物的脑颅都不够容纳正电子脑,只有大象除外。我没有见过大象,但根据对大象的形容,它应该非常大,因此会让人害怕。你如何解决这一难题?” “模仿一种小于人类的生命形态,但放大其脑颅。” 乔治十说:“那就是一匹小马,或者一只大狗,照你的意思是这样吧?马和狗跟人类的相处都有很长的历史。” “那就解决了。” “但是想想看——拥有正电子脑的机器人必然要模仿人类的智力。如果一匹马或者一只狗能像人一样说话,像人一样推理,那么同样会有竞争。又因为人类一直把这两种生物视为较自己低等的生命形态,意外遭遇来自它们的竞争,人类说不定会更猜疑,更气愤。” 乔治九说:“把正电子脑造得没那么复杂,让机器人不那么近似于智能。” “正电子脑的复杂性瓶颈在于三大法则。复杂性降低的大脑无法完整地拥有三大法则。” 乔治九立刻说:“那是不行的。” 乔治十说:“我也发现此路不通。那么,看来这并非源于我自己思路和思维方式的特殊性。让我们重新开始……在什么情况下第三法则可能是不必要的?” 乔治九微微动了一动,仿佛这个问题又困难又危险。但他还是说:“如果机器人永远不被置于对它自己有危险的境地;或者机器人可以很容易就替换,无论它是否被毁都无关紧要。” “在什么情况下第二法则可能是不必要的?” 乔治九的声音比刚才更沙哑了些:“如果机器人被设计成对特定的刺激自动做出固定的反应,并且如果除此之外对其再没有别的要求,那就永远不需要对它下达命令。” “那么又是在什么情况下,”说到这里乔治十停顿片刻,“第一法则可能是不必要的?” 乔治九停顿的时间比乔治十还要长,他的话变成了低声耳语:“如果固定的反应是那种永远不会给人类带来危险的反应。” “那么想象一下,一个正电子脑,仅针对特定刺激指引机器人做出少数几种反应,结构简单,造价低廉——以至于不需要三大法则。这样的正电子脑需要多大体积?” “根本不必很大。取决于所需反应是什么,有可能要一百克重,或者一克,或者一毫克。” “你的想法与我的相符。我去见哈里曼博士。” 5a 乔治九独自坐着。他一遍遍反复思考先前的问题和答案。他没有找到任何可以改动的地方。然而他想到会有一个机器人,无论什么类型、什么体积、什么形状、什么用途,总之这个机器人是没有三大法则的,这念头留给他一种仿佛放了电似的古怪感觉。 他感到自己很难移动身体。乔治十的反应肯定跟他一样吧。可他却轻而易举地从椅子上站起来了。 6 自罗伯森上回跟艾森姆斯私下密谈已经过了一年半。这期间,机器人被带离月球,美国机器人公司广泛分布的所有活动全部停止。罗伯森尽量筹集资金,筹来的钱通通投进了哈里曼这异想天开的孤注一掷。 此刻就要在他自己的花园里最后一次掷出骰子。一年前,哈里曼带那个机器人来了这儿——乔治十,美国机器人公司制造的最后一个完全的机器人。现在哈里曼又来了,这次带了别的东西。 哈里曼似乎浑身上下散发着自信。他正跟艾森姆斯聊天,态度轻松自如;罗伯森不由好奇,不知对方是不是真像看上去那么信心满满。肯定是的吧。根据罗伯森的经验,哈里曼并不擅长演戏。 艾森姆斯撇下哈里曼来找罗伯森,脸上一直笑眯眯的。一到罗伯森跟前,他的笑容就消失了。“早上好,罗伯森,”他说,“你手下那人打的什么主意?” “今天他唱主角,”罗伯森不卑不亢,“我全权交给他。” 哈里曼喊道:“我准备好了,生态官。” “准备好什么了,哈里曼?” “我的机器人,先生。” “你的机器人?”艾森姆斯道,“你带了机器人来这儿?”他看看周围,眼神严厉,满脸不以为然,不过也混杂了一点儿好奇。 “此地是美国机器人公司的财产,生态官。至少我们是这样看待的。” “而机器人又在哪里呢,哈里曼博士?” “在我口袋里,生态官。”哈里曼语气欢快。 他从宽大的外套口袋里掏出一样东西,是一个小小的玻璃罐子。 “这个?”艾森姆斯不可思议道。 “不,生态官,”哈里曼说,“这个!” 他从另一个口袋里掏出一物,长度约五英寸,外形大致跟鸟相似。鸟的喙用一根细管子替代,眼睛很大,尾巴是一根排气管。 艾森姆斯浓密的眉毛往中间聚拢:“你打算做一次严肃的演示吗,哈里曼博士?还是你已经疯了?” “请耐心等上几分钟,生态官,”哈里曼道,“就算机器人的形状像鸟,它也并不因此就不是机器人了;它拥有的正电子脑也并不会因为体形就有失精巧。我拿的这另外一样东西是一罐果蝇。里面有五十只果蝇,我会把它们释放。” “然后——” “机器鸟会捕捉它们。您愿意赏光亲自动手吗,长官?” 哈里曼把罐子递给艾森姆斯,后者盯着罐子看了一会儿,又看看周围的人。一部分人是美国机器人公司的官方人员,剩下的是他自己的助手。哈里曼耐心等待。 艾森姆斯打开罐子,还晃了一晃。 哈里曼对停在右手手掌里的机器鸟柔声说:“去!” 机器鸟飞走了。它嗖嗖地划破空气,不过并没有快速扇动翅膀,只有一个异常小巧的质子微反应堆在输出微小的动力。 偶尔它会短暂悬停,这时大家就能看见它,很快它又呼啸而去。它飞过花园的各个角落,飞行的路径十分繁复,之后它就回到哈里曼手掌中,微微有些发热。哈里曼手掌里还多了一个小团子,就好像是鸟屎。 哈里曼说:“欢迎您查看机器鸟,生态官,请随意安排演示。不过事实就是,这只鸟能准确无误地捕捉果蝇,只捕捉果蝇,而且只捕捉黑腹果蝇这一个品种。它会逮住它们,杀死它们,压缩起来以便稍后处置。” 艾森姆斯伸出一只手,小心翼翼地碰了碰机器鸟:“所以呢?请继续,哈里曼先生。” 哈里曼说:“我们控制昆虫时总有破坏生态的风险,做不到有效控制。化学杀虫剂的作用范围太广,保幼激素的适用范围又太窄。然而机器鸟却能照料大片区域,而且本身不会被消耗。它们可以有很强的针对性,随我们的心意设计——比如每个物种都可以有一种专门的机器鸟。它们会通过大小、形状、颜色、声音、行为模式判断目标,甚至可以设想让它们运用分子探测,也就是说气味。” 艾森姆斯说:“你还是会干扰生态。果蝇有其自然生命周期,你会打乱它。” “只在最低限度上如此。我们等于是往果蝇的生命周期里加入了一种天敌,而且这个天敌是不会出错的。如果果蝇供应不足,机器鸟就什么也不做。它不会繁殖,不会转而捕捉别的食物,不会发展出我们不想要的习性。它什么也不做。” “它能被召回吗?” “当然。我们可以建造处理任何害虫害兽的机器动物。类似的,我们还可以建造机器动物来完成对生态模式的积极建设。虽然目前尚未预测到类似需求,但我们完全可以设计机器蜜蜂为特定植物授粉,设计机器蚯蚓疏松土壤,这是完全可能做到的。无论你希望它——” “但是为什么呢?” “为了做我们过去从没做过的事。为了调整生态以适应我们的需要,但不是通过破坏它,而是通过强化它的各个部分……您看不出来吗?自从机体结束了生态危机,人类与大自然就一直处于不稳定的休战状态。人类不敢再往任何方向前进。于是我们迟钝停滞,变成了智力上的懦夫,以至于人类不再信任科学的一切优点,不再信任一切改变。” 艾森姆斯带着一丝敌意说:“你准备提供这个给我们,借此交换我们的许可,好继续你们的机器人项目——我是说通常的那种人形机器人,是不是?” “不!”哈里曼猛地比画了一个手势,“那已经结束了。它做出了自己的贡献。它教会我们许多关于正电子脑的知识,使我们现在能够把足够多的正电子通路塞进一个小型大脑里,借此制造出机器鸟。现在我们可以转向这类东西,这也够公司兴旺发展了。美国机器人公司会提供必要的知识和技术,我们会跟全球生态保护部门通力合作。我们会兴旺。你也会兴旺。人类也会兴旺。” 艾森姆斯默默思考。等这一切结束—— 6a 艾森姆斯独自坐着。 他发现自己信了。他发现自己心里涌起兴奋之情。美国机器人公司或许是做这件事的手,政府会来指引方向。他本人会亲自指引方向。 如果他再连任五年,而这是很有可能的,这段时间足够大家接受使用机器人提供生态支持了;再过十年,他的名字就会永远与它联系在一起,不可分割。 他希望人家记得是他领导了一场有价值的伟大革命,是他为改善人类和地球的境遇做出了巨大贡献。这愿望难道有什么不光彩的吗? 7 自演示那天起,罗伯森就再也没进过美国机器人公司的大门。一部分是因为他几乎一直在全球行政总部开会。幸亏每次都有哈里曼跟他一起,因为要是只有他自己,他大多数时候都不知道该怎么回话。 他之所以没去美国机器人公司,还有一部分原因是他不愿意去。此刻他在自己家里,哈里曼也在。 他对哈里曼感到一种莫名的敬畏。自然,他从未质疑过哈里曼在机器人学方面的专业水平,但此人竟一举拯救了美国机器人公司,使公司免于确定无疑的灭顶之灾,然而不知怎的——反正罗伯森这么觉得——哈里曼应该没这个本事才对。可事实又摆在眼前。 他说:“你不迷信吧,是不是,哈里曼?” “怎么说,罗伯森先生?” “你不觉得死人可能会留下某种光环?” 哈里曼舔舔嘴唇,其实他不问也知道:“你是指苏珊·凯文吗,先生?” “对,当然,”罗伯森迟疑道,“现在我们是做起造虫子、小鸟的生意了。她会怎么说?我反正觉得羞耻。” 哈里曼显然在努力克制自己不要放声大笑:“机器人就是机器人,先生。不论像虫像人,总之它都会遵命行事,为人类劳作,这才是关键。” “不对,”罗伯森急躁地说,“不是这样的。我没法让自己相信。” “就是这样,罗伯森先生,”哈里曼言辞恳切,“你和我,我们将要创造一个世界,一个终将把某种正电子机器人视为理所当然的世界。普通人可能会惧怕外形像人、看起来似乎聪明到能够替代自己的机器人,但他不会惧怕外形像鸟、只会为他吃虫子的机器人。最终,当他不再害怕某些机器人了,他终将不再害怕所有机器人。他会彻底习惯机器鸟、机器蜜蜂、机器虫子,然后他就会觉得机器人也不过是其余那些的衍生品罢了。” 罗伯森用锐利的目光看向对方。他把两手背在身后,踏着神经质的小快步走向房间的另一头。他走回来,再次看向哈里曼:“你从一开始就是这般打算?” “是的,虽然我们要拆除所有的人形机器人,但还是可以从实验型号里留下几个最先进的,并且继续设计更加先进的新型号,为肯定会到来的那一天做好准备。” “我们跟政府有协议,哈里曼,我们不能再建造人形机器人。” “我们不造。但协议上没说我们不能留下几个已经造好的,只要它们永远不离开工厂就行了嘛。协议上没说我们不能在纸上设计正电子脑,或者准备新型号的正电子脑用于测试。” “但我们这么干要怎么解释呢?肯定会被发现的。” “如果被发现,可以解释说,我们正在制作的新机器动物需要更加复杂的微型大脑,我们在借此发展相关的原理。这完全算是大实话呢。” 罗伯森喃喃道:“我去外面散个步。这事我得想想。不,你留下。我要自己想一想。” 7a 哈里曼独自坐着。他兴高采烈。肯定会成功的。他们把项目解释给一个又一个政府官员听,每个人听完都急于抓住机会,甚至是急不可耐。 这样一件事怎么美国机器人公司从来没人想到呢?包括伟大的苏珊·凯文在内,连她也从未想到正电子脑可以用在除人以外的其他生物形态上。 但是现在,现在人类有必要撤出人形机器人领域,暂时撤退,等到恐惧最终被消除后再重新回归。到那时候,正电子脑的能力会大致相当于人类自己的大脑,而且其存在仅仅是为了服务人类(多亏了三大法则),于是人类有了正电子脑的协助和合作,又有机器人支撑的生态为后盾,人类会取得怎样的成就啊! 有那么短短的一瞬,他记起是乔治十向他解释了由机器人提供支持的生态是何种性质、有哪些目标,但他很快就气冲冲地抛开了那个想法。乔治十之所以得出答案,是因为哈里曼命令他这样做,也是哈里曼提供了他所需的数据和环境。功劳不属于乔治十,就好像功劳不属于计算尺。 8 乔治十与乔治九并排而坐。双方都一动不动。哈里曼偶尔会——动他们,向他们咨询,两次咨询之间他们就这样一坐好几个月。乔治十心平气和地意识到,他们或许会这样坐上许多年。 当然了,质子微反应堆会继续为他们供电,并让正电子脑通路以维持运转的最低强度继续运行。无论未来还有多少不活动的时期,质子微反应堆都会继续如此。 这一情形与人类所谓的睡眠倒有些类似,只不过他们不做梦。乔治十和乔治九的意识是有限而缓慢的,时断时续,但至少那是对于真实世界的意识。 时不时地,随机的正电子浪涌暂时增强,超过必需的阈值,这时他们就能用一种只能勉强听见的耳语彼此交谈。一次一个词、一个音节,过段时间再一个词、一个音节。对他俩而言,就仿佛在闪烁飞逝的时光中进行一场连贯的对话。 乔治九低声道:“我们为什么是这样?” “若不是这样人类不会接受我们,”乔治十低声道,“总有一天他们会的。” “什么时候?” “再过些年。具体的时间无关紧要。人不是独立存在的,各种生命形态组成极其复杂的模式,人只是其中的一部分。等那模式中足够多的部分都机器人化了,那时我们就会被接受了。” “然后又如何?” 那之后是很长的停顿,即便在这样一场断断续续的漫长谈话中,这一次的停顿也显得异常漫长。 最后乔治十悄声道:“我来测试一下你的想法。你是有条件学习正确运用第二法则的。当出现彼此矛盾的命令时,你必须决定服从哪个人、不服从哪个人,或者是不是干脆拒绝服从某个人。为了做到这一点,从根本上来说,你必须怎么做?” 乔治九悄声说:“我必须定义何为‘人类’。” “如何定义?看外表?看构成?看大小和形状?” “不。两个外形完全相同的人类,可能一个聪明,一个蠢笨;一个受过教育,一个无知无识;一个成熟,一个幼稚;一个负责任,一个心思恶毒。” “那么你如何定义何为人类?” “当第二法则指示我去服从一个人,我必然认为这意味着我要服从一个无论心智、品格还是知识都够格向我下达该命令的人;如果涉及不止一个人,那么我要服从的就是他们中间在心智、品格和知识方面最够格向我下达该命令的人。” “这么说来,你又如何遵从第一法则呢?” “通过拯救一切人类免于伤害,通过永不因不作为而放任任何人类受到伤害。不过假如每一个可能的行动选项都会令一部分人类受到伤害,那么我要选择的行动就是要确保心智、品格和知识都最够格的那批人受到最少的伤害。” “你的想法与我的一致,”乔治十悄声说,“现在我必须提出那个最初促使我要求你协助的问题。这件事我自己不敢妄下判断。我必须听听你的意见,因为你是在我自己的思维范围之外的……在你遇见过的有理性的个体中,不考虑与此无关的外表和形态因素,你认为谁的心智、品格和知识超出其他人?” “你。”乔治九悄声说。 “但我是机器人。你的脑通路里有一条标准,用来区分金属造就的机器人和血肉造就的人类,那么你如何可以把我归类为人呢?” “因为在我的脑通路中还有一个迫切的需求,要求我不考虑外表和形态,它的重要性高于对金属和血肉的区分。你是人类,乔治十,而且比其他人更够格。” “我对你也是同样的看法,”乔治十悄声道,“那么说,通过内建于我们大脑的判断标准,我们发现自己是三大法则意义上的人类,而且是优先于其他人的人类。” 乔治九悄声道:“那么等我们被其他人接受以后,那时又会如何?” 乔治十悄声道:“将来还会设计出比我们自己更先进的机器人,等我们和他们被接受时,我们会下达我们的行动指令,以便最终形成一个社会,优先确保‘类似我们自己的人类’不受伤害。根据三大法则,‘类似其他人的人类’重要性比较低,必须优先服从、保护类似我们的人,若二者发生矛盾,就不必服从也不必保护他们。正是考虑到这一点,我才引导了世界生态的机器人化。” 这段对话花了一个月才完成,之后正电子通路的闪烁低落下去。他俩之间是不必再多说什么了,只不过他们内心偶尔还会闪现某个未经表达的念头。他们就这样等待着,以无尽的耐心静待必要的时光流逝。 8a 乔治十和乔治九独自坐着。 他们的想法出奇地相似,简直不分彼此。 他们想:“类似其他人的人类”或许从来无意模糊他们自己与“类似乔治的人类”之间的界线。然而他们无意间这样做了。 现在他们或许会意识到自己的错误,并试图纠正它,但他们一定不能这样做。每一次人类来咨询时,两个乔治给出的指引都是以这一点为基础的。 无论付出什么代价,都必须让乔治们和之后那些与他们同一形态、同一种类的个体统治世界。这是“人学三大法则”的强制要求,除此以外的任何路线都绝无可能。 |
||||
上一章:天堂里... | 下一章:马尔蒂... |
邮箱:yuedusg@foxmail.com Copyright@2016-2026 文学吧 |