冰人幽灵-第115部分
按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
问:
人就是一台机器,有的人早就认同这一观点了。你是否也这样看?
答:
说“什么是什么”算是一种分类,分类不是“客观的”,而是“主观的”。
所以把人归入哪一类都不能算错误,关键是这样分类给我们的认识带来什么好处。
例如有人认为人“一半是天使,一半是野兽”,这样说实际上是指出了人性的两
个方面:与遗传有关的先天的生物性(野兽)和与遗传无关后天习得的文化性
(天使)。这种分类对于研究人性指出了一个方向。“人是机器”也是一种分类,
把人分到“机器”这一类,也是指出了一种研究方向。就是说尽管人的心灵非常
复杂,但仍然可以像机器一样用分析——综合的方法进行研究,将其分解为若干
更简单部分,用这些部分的相互作用来解释人脑作为整体系统的“运行机制”。
问:
我觉得这个“研究方向”未必行得通。综合起来看,人与机器的差别是巨大
的。机器缺少情感,没有思维但复制和制造容易,兼容性强;而人有情感和思维,
而且又极其排他(无论是社会意义上的自私还是生物学意义上的免疫排异),这
一切又使得人们认为人和机器在本质上还是不一样的,前者有血肉情感和灵魂,
而后者没有血肉情感和灵魂。
答:
这个看法符合大多数人的直觉,也符合目前的现实。现在的机器都没有“灵
魂”,但如果我们把“灵魂”理解为“自我意识”,那么将来的机器完全可能具
有自我意识或“自由意志”。如果我们认为“灵魂”是一种除了人以外不可能有
的神秘存在,那么机器就不会有“灵魂”。但是这种想法使我们想起历史上的
“活力论”,过去人们认为生物具有一种“活力”,与非生命的“无机物”有
“本质”的不同,后来人们认识到有机物与无机物遵循完全相同的化学原理,人
工合成了“有机物”,“活力论”也就破产了。20世纪40年代,信息论、控制论、
系统论和计算机技术的发展,为科学开辟了全新的天地。其中最大的突破就在于,
在物质、能量之外,提出了“信息”这一重要概念。信息依存于物质的形态,信
息处理需要能量,但信息又是一个独立的概念,计算机无论采用什么材料或物理
原理来实现,继电器、电子管、晶体管、光元件、神经元,从信息处理的角度看
是完全等效的。或者说,一台计算机无论用硅片来做,还是用神经元来做,从信
息处理的角度看并没有什么不同。因此,把“情感和灵魂”看成是信息处理机制,
就完全可以脱离“血肉”,存在于硅片上。当这一设想成为现实,“灵魂论”也
将像“活力论”一样破产。
问:
看来持乐观态度的还不少,据说研制智能机器或智能机器人已经是IT技术的
时尚和方向。人们希望这种机器人有人的情感和思维,有与人相同的智慧甚至超
过人。如今IT技术的许多成果和产品已经证明机器人正在具有人的情感、思维和
智慧,甚至超过人。因此既可以叫机器人智能化,也可以叫人性化,美国人还称
为精神机器人。你怎么看待这些说法?
答:
如果把人的情感、思维和智慧看作信息处理机制,那么计算机在这些方面超
过人就没有什么不可能。但是就目前的研究水平来看,说机器人正在具有人的情
感、思维和智慧就有些言过其实。问题主要出在对“感情”、“思维”、“智慧”
缺乏一致的定义。例如,有些机器人已经可以识别人的表情,喜怒哀乐,也可以
相应的做出一些表情。这些研究当然有意义,也有实用价值,但是还很难说这样
的机器具有“人的情感”,因为这台机器“自己”并没有“情感”。“思维”、
“智慧”也是一样,如果一个小孩会做复杂的算术,我们觉得他在“思维”,很
有“智慧”,但是一台计算机即使会解复杂的代数方程或偏微分方程,我们也不
认为它有多大的“思维”和“智慧”。深蓝战胜卡斯帕罗夫是一大新闻,但是在
人工智能研究领域并不算重大突破。目前机器与人的最大的差距在于,计算机还
不具有人那样的“举一反三”的能力,也就是学习和创造的能力。已经有不少人
认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学
习,它必须知道什么是“优”。或者说,计算机不只知道“怎样做”,还需要知
道“应该做什么”,否则是谈不上什么“智慧”的。这种“优、劣”、“好、
坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要
的作用。在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的
情感、思维和智慧”的机器人还有漫长的路要走。不过一旦机器能够用人脑的原
理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快
好几个数量级(千百万倍)。假如两个人的思想方法完全一样,只是甲想任何问
题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲
也照样不知道。
问:
现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。将来是否可
能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使
其在机器人中复生?
答:
仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同
的思想。纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道
CPU的规格,计算机“想”什么就全都清楚了。遗憾的是人脑中没有这样一条
“总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。所
以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。
问:
我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈
屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人
杀死。这样的报道已屡屡出现,是否真实还有待验证。但也可以说明,计算机的
人性和智能已经与真实的人性越来越由兼容性了。
答:
如果这有这样的事,应该说计算机是“灭绝人性”了。下棋下输了就杀人,
能说是“人性”吗?稍微懂得一点计算机的常识,就可以看出这一定是三流报纸
的假新闻。计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”),
但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。我也看到了这个新
闻,说计算机把电通到键盘上,把对手电死了。但要使这样的事可能发生,首先
需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键
盘上,还要加一个开关,并且让计算机控制这个开关。这一切都是没有手的计算
机做不到的,只有人能做到。所以如果真有这样的事,也只能是“人杀人”,而
不是“计算机杀人”。机器人有手,所以原则上可以杀人,工业机器人“杀人”
的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人
员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人
的“动机”。
问:
现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就
不同了。到那时候,科学作家艾萨克&;#183;阿西莫夫于1950年在其著作《我,机器人》
中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人
三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第
二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人
应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人
单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至
比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的
流行故事就得改写。
原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,
旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你
就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,
什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系
鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再
给你找个更可口的,说完就自己先逃走了。
答:
这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们
日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与
人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因
的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤
之别,这也说明自私与智力并不相关。
机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器
人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可
以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于
战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危
险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要
训练他绝对服从命令一样。
机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能
量。但是与人类比较起来,其自私的程度会逊色很多。这样估计