- 如何教人工智能说人话?
- 徐英瑾
- 5124字
- 2025-03-04 18:02:21
二 主流科幻影视作品对于人工智能的三大误解
笔者将主流科幻影视作品对于AI技术实质的误解分为以下三类:
误解一:AI的典型出场样态乃是人形机器人。比如,在电影《人工智能》(AI)中,主人公小戴维就是一个标准的人形机器人,其外貌与一般的美国小朋友没有任何两样。在电视剧《西部世界》(Westworld)中,整村整镇的机器人都被做成了美国西部牛仔的样子。日本电影《我的机器人女友》(『僕の彼女はサイボーグ』)亦是按照类似的思路将机器人设计成了一个美女的模样。
从影视创作的角度看,将AI设计成人形机器人有三点好处:(甲)这样做可以让真人演员直接扮演机器人,由此省略制作真机器人的道具成本;(乙)人形机器人的表情与动作更容易引发观众的共情;(丙)人形机器人更容易与真人产生戏剧冲突,由此推进剧情发展。但从AI的技术实质上看,这样的做法是多少有点误人子弟的。相关的误解建立在如下三个预设之上:
预设(甲):AI与机器人是一回事。澄清:AI与机器人本就是两个不同的学科,遑论人形机器人研究。严格来说,AI的研究任务是编制特定的计算机程序,使得其能够模拟人类智能的某些功能——譬如从事某些棋类游戏。很显然,这样的智能程序仅仅具备一般商用计算机的物理外观,而未必具有人形机器人的外观。与之相比,机器人的建造乃是“机器人学”的任务,而机器人学所涉及的主要学科乃是机械工程学、电机工程学、机械电子学、控制工程学、计算机工程学、软件工程学、资讯工程学、数学及生物工程学——在其中,AI并不扮演核心角色。当然,AI与机器人技术的彼此结合的确会得出更有趣的工程学应用案例,但是这并不意味着二者在概念上是一回事。
预设(乙):机器人就应当采纳人形机器人的形式。澄清:即使是机器人,也往往不采用人形机器人的外观设置。以世界上第一台全自动机器人“Unimate”为例:该机器人在美国尤英镇的内陆费希尔向导工厂(Inland Fisher Guide Plant)的上承担了从装配线运输件并将这些零件焊接在汽车车身上的工作。在经过特定调试后,这个机器人也能将高尔夫球打到杯子里,并会倒啤酒。但这台机器人并没有类似人类的眼睛、嘴与皮肤。此台机器唯一类似人类肢体之处,仅仅是一个机械臂,以及臂端的一个简易抓举设施(参考图0-2)。由此不难想见,就像我们可以设想只具有一个机械臂的机器人一样,我们自然也可以设想机器人被做成很多别的形状,比如鱼形与鸟形。

图0-2 工业机器人Unimate略图
预设(丙):人形机器人乃是智能或者灵魂的天然载体。澄清:人类其实是具有“万物有灵论”的心理投射倾向的,即会将很多具有动物或者人形的非生命体视为有灵魂者。孩童喜欢对卡通塑料人偶自言自语便是明证,而这种心灵倾向也在成人的心理架构中得到了保留。在心理学文献里,这种心理倾向被称为“人格化”(personification)或者“人类化”(anthropomorphization)。已经有文献指出,这一心理倾向有助于那些缺乏真实社会关系的人通过对于物体的“人化”而获得代偿性的虚拟社会交往,由此克服孤独。1而利用这一心理机制的广告商也能由此将产品包装的外观设计得具有人形外观,以获取消费者的好感。2需要注意的是,激发人格化的心理倾向运作的门槛是很低的:只要对象看上去有点像人就可以了。这也就意味着,就科幻影视的观影体验而言,只要影视主创方将相关的机器人设计得像人,这样的视觉输入就会顺利激发观众的人格化倾向,由此自主赋予这样的机器人以智慧与灵魂。但这样的一种讨巧的做法却在实际的AI研究中完全行不通。具体而言,要赋予一个实际的AI体以任何一种实际的操作功能,都需要编程者在后台付出巨大的努力。很显然,以AI为主题的科幻影视往往会忽略这些辛劳的存在,好像AI的智慧是某种唾手可得之物。这自然会在相当程度上使得公众对AI的技术实质产生误解。
误解二:AI可能具有人类所不具备的全局性知识,即所谓的“上帝之眼”,以此实现对于个体人类的压迫。譬如,在系列科幻电影《生化危机》(Resident Evil)中,保护伞公司的幕后操控者竟然是一个叫“红皇后”(Red Queen)的超级AI体:她(之所以叫“她”,是因为该AI体在片中被赋予了一个小女孩的外观)能够预知以主人公爱丽丝为首的人类团体的行动;而且,她为了保护伞公司的利益,会毫不犹豫地杀死大批无辜的群众。无独有偶,在电影《我,机器人》中,也有一个叫“薇琪”(VIKI)的超级AI体,她(这又是一个具有女性外观的超级程序)经过反复计算之后,得出了一个十分恐怖的结论:只有消灭一部分人类,才能使人类的整体得到更好的发展。她甚至将这个骇人听闻的计划称为“人类保护计划”。
从戏剧冲突的角度看,AI体在这些影视作品中所具有的全局性的冷酷视角,与人类个体所具有的局部性的(但同时却更具温情的)视角构成了鲜明的对照——而这种对照本身就具有很强的戏剧要素。同时,相关影视主创人员对于AI体的设想也满足了一部分观众对于AI的设想:AI虽然缺乏情感,但是在计算能力方面却是超越人类的。所以,AI能够比人类更清楚何为“大局”——尽管这并非个体人类所希望接受的“大局”。
但上述印象乃是建立在对于AI很深的误解之上的,因为超强的计算能力并不意味着对于全局知识的把控。实际上,任何一个智能体若要把握这样的全局知识,还需要一个针对所有问题领域的超级知识图谱,而该知识图谱往往是人类智慧的结晶。举个例子来说:如果你要计算一枚导弹在各种复杂的空气环境中的轨道变化情况,你首先得有一个合理的空气动力学框架(该框架无疑是来自学术共同体的长期知识积累),并在该框架中设置大量的参数——至于如何计算这些参数,则是下一步才要考虑的问题。而在开放性的问题解决场域中,若要建立一个合适的知识图谱,此项任务甚至对于人类建模者来说也是充满挑战的。譬如,在面对所谓的“电车难题”3时,对于该问题的任何一种比较稳妥的解决方案都需要解决者预设一个特定的规范伦理学立场(功利主义的,义务论的,或是德性论的)——而众所周知,我们人类暂且没有关于这些立场之短长的普遍一致的意见。这也就是说,不存在一个用以解决“电车难题”的统一观念前提,遑论在这一前提下去构建统一的知识图谱。从这个角度看,作为人类的智慧转移形态,任何AI体也不能超越人类目前的智慧上限,就所有问题的解决方案给出一个毫无瑕疵的知识图谱。
基于上述分析,我们不妨再来审视《我,机器人》里“薇琪”的结论——杀死一部分人类以保护人类整体的利益是合理的。她得出这一结论的推理过程是:人类的过度繁衍已经影响了地球的安全,所以,必须清除一部分人类以便为更多的人类预留出生存空间。很显然,她得出这个结论的知识框架是建立在某种粗暴的计算方式之上的:将每一个人都视为一个消费者,并且以此为分母,让其平分世界既有的资源总量,最后得出“资源不够分”。而在这个知识框架中被忽略的因素有:(甲)人类不仅是消费者,同时也是生产者,因此,人类有目的的劳动能够使得世界的资源总量增加;(乙)即使目前世界人口太多,也推不出未来人口会继续增多,因为我们必须考虑人口老龄化所导致的人口萎缩问题;(丙)“人类”内部有复杂的社会共同体结构分层(国家、民族、地方共同体、家庭,等等),因此,不存在某种将所有人的乡土背景信息加以消声后的针对全人类的生存机会再分配方案。反过来说,如果有人硬是要将所有这些参数都放在一个超级平台上予以思考的话,他就必须放弃某种全局式的上帝视角,而不得不在种种彼此冲突的立场中进行选择(譬如,在基于不同民族国家利益的不同出发点之间进行选择)。但这样的计算方案显然会固化特定人类团体的偏私,并由此激化不同人类团体之间既有立场的冲突——而不会像主流科幻电影所展现的那样,仅仅激化毫无社会背景的全体AI体与全体人类之间的冲突。
误解三:AI很容易就具备与人类进行顺畅语言与情感沟通的能力。从表面上看,这一误解的具体内容是与上述一条相互矛盾的,因为根据前一条误解的内容,AI应当是缺乏情绪的。但需要指出的是,由于在主流科幻影视中AI已经被人格化,所以,就像影视剧中的人类角色有善恶之分一样,AI角色自然也有善恶之分。而对那些“善良”的AI角色来说,预设其具有与人类共情与交流的能力,乃是主流科幻影视的标准操作模式。比较典型的案例有:在电影《人工智能》中,机器人小戴维不但能够立即学会英语,而且还热烈地渴望能够得到人类母亲真正的爱;在动画电影《超能陆战队》(Big Hero 6)中,充气机器人大白成为了人类小伙伴最值得信赖的“暖男”;在电影《她》(She)中,男主人公竟然在与AI系统OS1聊天的过程中爱上了这个聊天软件;在系列电影《星球大战》(Star Wars)中,礼仪机器人C-3PO的人际交流能力甚至远远超过人类:按照剧情设定,它能够翻译3万种星际语言,并凭借这个本领帮助人类主人在复杂的星际外交活动中游刃有余。
在科幻影视的场景中预设AI体具有流畅的“人-机”交流能力,显然对推进剧情大有裨益。不过,从客观角度看,以上影视作品所呈现的人机一家的美好图景,都已经远远超出了目前主流AI所能实际提供的技术产品的水平。相关评判理由有二:
第一,机器与人类之间的顺畅交流能力,显然首先是建立在“自然语言处理”(Natural Language Processing,简称NLP)技术之上的。目前,这种技术最重要的商业应用乃是机器翻译(machine translation)。不过,目前主流的建立在深度学习路径上的NLP技术并不像科幻电影描述的那么成熟。传统的深度学习程序采用的乃是监督式的学习方式:这种学习方式需要程序员对所有的语料进行辛苦的人工标注,编程成本很高(顺便说一句,人工标注的意义在于:计算机能够借此了解到语料处理的标准答案究竟是什么)。近年来随着互联网上语料的增多,NLP的研究更加聚焦于非监督式学习和半监督式学习的算法。不过,虽然这些算法能够大大减少人工标注的工作量,但由于失去了人类提供的标准答案的校准作用,此类系统的最终输出的错误率也会随之上升。而要弥补这一缺陷,除了提高输入的数据量别无他法。由此不难看出,主流的NLP产品技术水平的提高,是高度依赖训练数据量的扩容的。这也就反过来意味着:这种技术无法应对语料比较少的机器翻译任务,特别是对于缺乏网络数据支持的方言语料与某些个性化的口头禅的处理任务。然而,根据人际交往的常识,对于特定方言与口头禅的熟悉,乃是迅速在对话中拉近人际关系的不二法门。这也就是说,按照现有的技术,我们很难做出一个能够像《她》中的OS1系统那样可以自由地切换各种英语口语而与人类进行交谈的软件——遑论像《星球大战》中的C-3PO那样精通3万种语言的机器语言学家(实际上,目前的AI技术甚至都很难应对地球上的很多缺乏相关网络数据的冷门语言)。
第二,虽然情绪交流乃是人际交往的重要方面,但要在AI体中实现一个可以被算法化的情绪机制,其实是非常困难的。此项工作需要AI专家从认知心理学那里先去提取一种足够抽象的关于情绪生成的理论,然后再设法将其实现于计算机的载体。其中,哪些关于情绪的心理学要素是仅仅对人而言才是有意义的,哪些要素则是能够通用于AI与人类的,则需要逐项鉴别。实际上,目前主流AI能够做的事情,并不是让自己变得具有情绪,而是如何鉴别人类的情绪。比如,从1995年开始,美国麻省理工学院就开始了一个叫“情绪计算”(affective computing)的项目4,其主要思路就是通过搜集从摄像机、录音笔、生理指标感知器中得到的关于人类行为的种种数据,判断相关人类究竟处于何种情绪之中。不过,计算机借以做出这种判断的算法基础依然是某种样式的深度学习机制:就深度学习的有监督学习版本而言,人类标注员需要对每张人脸图片的实际情绪状态进行语言标注,然后以此为样本,慢慢训练系统,使得其也能随之掌握将人脸与特定情绪标签联系的一般映射规律。不过,需要注意的是,由此完成训练的系统即使能够精准地对人脸表达的情绪进行识别,它们自身也是没情绪的:一台能够识别出快乐表情的机器人没有一天自己是快乐的,而且,它们也不知道人类为何会感到快乐。这样的AI产品是很难产生与人类之间的真正共情的,遑论在理解人类的真实情感动机前提下与人类展开深层的精神交流。
从本节完成的讨论来看,以AI为主题的主流影视作品其实是向观众全面掩盖了这样一个真相:现在的主流AI技术其实并不能支持那些在影视中展现出来的信息处理能力。当然,对于未来科技的适当幻想乃是科幻影视作品的天然权利——但需要注意的是,几乎所有以AI为主题的主流影视作品都没有向观众解释清楚,未来的AI专家究竟将沿着怎样的技术路径才能兑现影视主创者在影片中提出的技术许诺。与之相较,以生物学为主题的科幻电影(如《侏罗纪公园》)以及以生态学为主题的科幻电影(如《后天》),对于其所涉及的科学主题的介绍要深入很多,遑论像《地心引力》(Gravity)与《火星救援》这样大量基于真实航天科技知识的“硬科幻”作品。笔者下面就要证明:恰恰是因为真正的AI知识在主流科幻作品中如此稀疏,这些影视作品的传播,其实是加剧了公众对于AI的种种错误理解。