导语:唱衰人工智能不会带来更好的明天 —— 构建于人工智能之上的未来世界既非乌托邦,也非反乌托邦,而是充满无限奇幻可能的。
不久前,在OpenAI的静修会*上,时任公司首席科学家的 Ilya Sutskever 委托当地艺术家制作了一尊代表“未对齐”*AI的木制雕像。他将其点燃,以象征“OpenAI对其创始原则的承诺”。这个奇怪的仪式可能是未雨绸缪,为了这个人工智能巨头公司未来可能会在制造人工智能中不可避免地做出一些不直接表达“人类价值观”的举动提前洗白。然而,没几个月后,CEO Sam Altman 就被他的一个门徒背叛,被钉在十字架上。在三天后他复活时,这个话题成为了公司及其董事会的生存危机。OpenAI的所作所为真的能与“人类价值观”保持一致吗?如果不是,那到底发生了什么?
译者注:Retreat: 性质上和国内的团建有点类似,不过一般是公司出钱,员工去自然中休假放松几天。
未对齐:原文是“unaligned”,既有“未对齐”的意思,也表示“不一致”。这里表示“偏离人类意图、价值观或目标的人工智能系统”。
去年年底,斯坦福人类中心人工智能研究所所长李飞飞出版了《我所见的世界》(The World I see)一书,《金融时报》称其为“一种强有力的呼吁,要求在我们在技术革新中也要以人为本”。她虽然她没有进行举行任何奇怪的仪式,但与 Sutskever 的奇怪仪式结合起来,这两件事都是人类对颠覆性技术所产生的、里程碑式的反应。
从“对齐”到“以人为本的人工智能”,这些只是我们对人工智能感到失控和恐惧下所产生的词语,但也是一种认为“复杂技术从未在人类控制之下”的叙事。多是出于政治的原因,有些人坚持声称“人工智能不是真的”,只是数学,只是资本主义悄然融入生活的一种意识形态建构。显然,存在很多批评者对无处不在的机器智能前景非常愤怒,另外一部分人则承认AI的存在,并且相信它是可以通过立法、政策和研讨会来控制的。然而,这部分人的乐观并不能缓解大部分人的抑郁———这些人似乎看到了一场存在主义危机的到来。同样的,这样的唱衰声也会让那些看好人工智能的人感到困惑。
如何看待这些反应?西格蒙德·弗洛伊德用“哥白尼化(Copernican)”一词来描述现代人从直觉式特权地位(intuitive privilege)上被去中心化的过程。在尼古拉·哥白尼和查尔斯·达尔文之后,他提名精神分析为第三次这样的革命。他还将对这种去中心化的反应描述为“创伤(traumas)”。
创伤带来悲伤。这是再正常不过的。瑞士精神病学家伊丽莎白·库布勒-罗斯(Elizabeth Kübler-Ross)在她 1969 年出的书《论死亡与临终》(On Death and Dying)中,确定了“悲伤的五个阶段”:否认、愤怒、讨价还价、抑郁和接受。也许哥白尼创伤也不例外。是时候在弗洛伊德的名单上增加一个新名字了。
▷图源:Newnome Beauton / Noema Magazine
神经科学揭开了心灵的神秘面纱,将二元论(dualism)逼到角落。生物技术[1]将人工材料转化为生命,颠覆了人们的传统认知。然而,这些发现并没有真正意义上改变自然世界的客观现实,只是揭示了与我们的直觉和文化宇宙学以前教给我们的东西非常不同的东西。
这种揭示是创伤的关键。悲伤的每个阶段都是在消化根本文化信仰先缓慢再突然的坍塌。就像挚爱的死亡一样,信仰的死亡是极其痛苦的。今天所谓的“人工智能”应该被视为正在形成的哥白尼创伤。它揭示了智能、认知,甚至心灵(这些历史术语的定义显然有待讨论)并不是它们看起来的那样,不是它们感觉的那样,更不是人类所独有的。
诚然,人工智能所需的创造力和技术智慧是人类的成就,但现在,这种智慧正在重塑自己。自旧石器时代的认知革命以来,人类已经人工化了许多东西——住所、热量、食物、能源、图像、声音,甚至生命本身——直到现在,连人类的智能本身都可以被人工化了。
库布勒-罗斯(Kübler-Ross)的悲伤阶段理论为西方对人工智能的态度提供了一个有用的分类:人工智能否认、人工智能愤怒、人工智能讨价还价、人工智能抑郁和人工智能接受。这些“悲伤(grief)”源于人工智能对政治制度、劳动分配以及许多哲学和宗教传统的影响,有的出于臆想,有的真实存在。但是,无论成因,它们都各自有各自的深刻、可悲、可预测性。这些悲伤反映了不同人群心目中的“正确”,这种正确,是政治上最便捷的,最能与文化产生动态共鸣的,最符合人们过往认知的,最符合普世价值观的,最能表达人文主义身份和自我形象的,最适合悲伤者的。每一种反应都暗含真理和智慧,以及神经质和自欺欺人。
这些反应终将不敌人工智能带来的最严峻的挑战。在面对这些孱弱的悲伤和顾虑时,人工智能带来的挑战毫不留情的击破所有悲伤以及反对这些悲伤的观点。这并不是说人工智能不会带来真正的风险,或者目前在开发和盈利的AI必然会带来纯积极导向的结果。以后回过头来看,我们可能会觉得早期关于人工智能的探讨怎么如此幼稚。
人工智能所带来的悲伤的阶段没有特定的顺序。它们不具备心理学上的意义,而只是分类。同时,真实的人所产生的立场是流动的,不会停留在简单的类别中。例如,人工智能否认和人工智能愤怒可以同时存在。一种典型的情况就是,批评者经常会一边说人工智能是不真实的,但又一边说要不惜一切代价阻止它。
我关注的点是西方文明社会对人工智能的反应,这些反应各有古怪和偏执之处,且并不像他们想象的那样普遍。
首先,当然是人工智能否认:如果人工智能不真实,我们如何讨论人工智能?
01否认
症状性陈述:人工智能不真实;它不存在;它不是真的人工的;它不是真的智能的;它不重要;这都是炒作;这无关紧要;这是权力游戏;这是一时的潮流;AI不能写出真正好的歌或电影剧本;AI没有情感;AI只是拟人化的幻觉;AI只是统计学、数学的梯度下降;AI是被美化后的输入系统自动联想;AI没有实体,因此没有意义上的智能;这种技术现在没用,以后也没用——就算它起作用,它也不是看起来的那样。
▷图源:GPT / DALL·E 3
拒绝承认AI的存在完全在我们预料之中。当人们面对一些不寻常的、令人不安的、威胁生命的或破坏先前信仰的事情时,会自然地质疑这种异常的有效性。对这种集体裁决的初步假设应该是,像人工智能这样史无前例的技术可能并不像看起来那样。
可以肯定的是,许多形式的否认在认识、理解机器智能以及探讨机器智能范畴方面至关重要。例如,近年来人工智能从逻辑专家系统向深度学习系统的转变,就要感谢评论家们对早期模型坚持不懈但十分正确的反驳。
如今,存在各种形式的对人工智能的否认。大多数与气候变化否认主义(climate change denialism)不同——气候变化否认主义者执着于捏造事实来证明自己的观点。但与气候变化否认主义者一样,人工智能否认者会抓个例,偷换概念,或者做任何能让他们觉得他们所反对的观点有可能实际上才是正解的事情。
人工智能否认大致可以分为:现象学的、政治的和程序性的。
哲学家休伯特·德雷福斯(Hubert Dreyfus)[2]认为,智能只能通过具体而现实的视角来理解,而现象学的人工智能否认在许多方面建立在这一基础上:“人工智能不属于真正的智能,因为它没有实体”。这种批判类型通常强调以人为本。作为图灵测试的民粹主义变体,它将人类经验与机器进行比较,并通过衡量它们之间明显的差异来强人工智能是多么不智能。“人工智能始终无法创造出伟大的歌剧,画出了不起的画作,创作出清丽的俳句,诸如此类。”不过,一般来说,提出这种看似直击要害的批评的现象学人工智能否认者也做不到这些这些事情,但却认为自己是智能的。
迄今为止最直截了当的人工智能否认是这样说的:人工智能既不人工也不智能。抓人眼球的背后,这句批评意味十足的标语的底层逻辑,却是说人工智能是从实际的矿物质资源中创造而来的,因此不够“人工”,此外,它的主要表现基于随机预测和建模的目标导向行为,所以不够“智能”。有意思的是,硅基芯片恰好是人工合成物的典范,而基于随机预测和建模的目标导向行为则是从威廉·詹姆斯(William James)[3]到卡尔·弗里斯顿(Karl Friston)对‘智能’的定义中重要部分。
“(人工智能的思维方式)只是随机推理,不是真正的思考”,也是臭名昭著的论文On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?[4]的结论,该论文将人工智能与鹦鹉进行比较——显然暗示人工智能不智能。在此过程中,此类观点的作者武断地否定了计算神经科学,认为它只是将一切视为“计算”的意识形态范式膨胀。更有作家将这一姿态激进化,甚至得出结论:基于神经网络的自然和人工智能模型本身就是新自由主义实施的骗局。
这些批评者迅速在“人工智能不真实”和“人工智能不合法,因为它是由资本主义公司制造的”两种论调之间来回切换,显然前者的说法是代表后者提出的。因此,坚持认为AI不真实往往是一种政治声明,本质上都是权力谈判。
对这些人来说,同时认为人工智能既“不真实”又“(真实所以)危险”,并没有实际矛盾,因为“AI实际上是什么”与“AI实际上做什么”相比无关紧要,而他们精心挑选出AI行事的负面例子,并用这些例子引申到整体。
换句话说,声称“AI不真实存在”实际上是在表达反霸权政治观点。更糟糕的是,这种思维方式会演变成AI李森科主义(Lysenkoism),即为了反资本主义对某些非常真实的事物进行激进的否认。
其他的AI批评者对深度学习、Transformer架构、自注意力或“规模就是一切”的方法进行了高风险智力赌注,他们的动机与现象否认者类似,只是更个人。深度学习怀疑论者Gary Marcus的例子可以说明这部分人的心理,Blaise Aguera y Arcas称之为“马库斯循环”。
我们可以这样理解这个循环:一个人声明事件X是不可能的,然后X发生了;接着ta说X并不算数,因为Y,还断言X随时会崩溃或失败;当它不仅没有失败,反而被广泛应用时,这个人又说X实际上对社会真的很糟糕。自始至终,这位键盘侠都在网上夸夸其谈,从不承认自己的错误。
在Marcus眼中,从2015年开始,深度学习这种基础方法离被淘汰就只差临门一脚。但他的诅咒对象毫不担心,毕竟Marcus预言过的许多“不可能”在今天都成了现实,被上百万AI用户频繁光顾。
02愤怒
症状性陈述:AI是政治、文化、经济和/或生存威胁;它威胁人类的未来;必须集体地、个人地、积极地,有时甚至是暴力地抵抗;必须捍卫“人类的火花”免受来自上方和外部的有形伤害;AI本质上可以从最近发生的、少数的负面例子中理解;AI是控制和等级制度的象征,因此反对人工智能即为争取自由和自治的斗争。
▷图源:GPT / DALL·E 3
对AI的愤怒基于合理和不合理的恐惧。也就是说,这种愤怒可能更多地集中在AI的意义上,而不是AI的实际行为。然而,两者往往混为一谈。
有时,AI被视为一个单一的整体,一种权力的象征,而不仅仅是真实的技术;有时,它又被描述为历史罪恶的顶点。因此,AI否认的政治属性与AI愤怒虽然相互矛盾,但又常常重叠。
以史为鉴,人们有充分的理由对正在发展中的AI持谨慎态度。回顾过去,2010年代是各种政治民粹主义特别繁荣的时期。2017年,道格拉斯·鲁什科夫(Douglas Rushkoff)在他的著作《向谷歌巴士扔石头》(Throwing Rocks at The Google Bus)中捕捉(并颂扬)了针对社会数字化带来的变革的民粹主义愤怒。“滚开,谷歌!”是柏林克罗伊茨贝格地区的一个活动组织,也是一个网络热梗,旨在发泄对谷歌的不满。毕竟对有些人来说,柏林田园牧歌式的生活方式建立在廉价的租金和音乐上,而谷歌的存在会扰乱这种闲适的生活。
AI愤怒是反建制的意识形态的产物,但不独属于某一个意识形态。激进右翼、进步左翼和主流中间派找到了共同点,他们都坚定地反对挑战他们偏好的现状的浪潮。
对于反动派来说,对抗AI关乎人类灵魂的存亡,这种珍贵的思想火花正被计算机世俗化的浪潮所消灭,因此必须进行精神上的战斗。他们对高级AI侵蚀人类自我形象的看法和那些对日心说、进化论、堕胎、克隆、疫苗、跨性别主义、体外受精等议题的反对意见如出一辙。他们捍卫的与其说是主权或机构,不如说是尊严。那强调“人性”的火花——在亚伯拉罕神的形象中闪烁——正被现代技术熄灭,因此这场战斗不仅是神圣的,而且是神性的。
相反,对于左翼来说,受到人工智能威胁的火花是活力(总是带有政治色彩,通常与职业保障有关),而中间派对人工智能的怒气主要出于历史原因,在他们的想象中,人类的处境介于“暂时被围剿”和“快要走到尽头”之间。
这三派人士至少有三点共同点:共同的大义——捍卫自己偏好的人类例外论*前景;共同的信仰——认为自己必须为了社会的自我表征“打败AI”;最后,通过反算法进程的自我定义,他们将得到磨练,获得文化立场上更大的话语权。
译者注:人类例外论(human exceptionalism):认为人类在理性、意识、情感、自由意志等诸方面高级于其他物种。
03讨价还价
症状性陈述:AI是一种强大的力量,可以、应该并且将通过以人为本的设计伦理和民主与技术官僚的对齐来控制,这些对齐与显而易见的共识共享价值观一致,通过政策制定和主权立法实现。人工智能对现代政治和法律制度在信息、技术和认识论基础的挑战是暂时的。这些异常是可以通过文化干预来缓解的,比如,通过传统的文化平台针人工智能制造者进行干预。
▷图源:GPT / DALL·E 3
如果一个人坚持认为机器智能只是最新的数字工具,就自然会想到通过政策治理它。然而,如果人工智能比这更为现象级,就像互联网或第一台计算机的问世——或者更深层次地说,目前我们所面对的种种危机只是智能人工进化的一个阶段——那么,通过“政策”驯服AI可能充其量只是理想化的。
退一步说,即使国家在短期内成功管控了AI公司,也不代表人工智能本身被长期控制。从同等的破坏力和威力层面,核武器的管控或许可以作为一个先例。核武器是已知的实体,可以通过国际条约进行治理,因为其破坏效果是明确的(即使其地缘政治效果不是)。然而,AI不是已知实体。人们很难真正理解它的影响,更不用说更深层次的问题,AI是什么。因此,再良心、再精心设计的干预政策都会产生意想不到的后果。
对人工智能问题产生的讨价还价心理,是政治和法律机构的首选姿态,对于他们来说,复杂问题可以简化为权利、责任、判例法、政策白皮书和咨询委员会。但这也是科技界自身“理性中心”最终达成的共识。这种方法用“伦理”、“以人为本”和“对齐”的语言表达。
世界顶级的AI政策和研究机构,斯坦福大学人工智能中心就叫做“以人为本的人工智能”。除了致敬人文主义和人本主义,这种方法依赖于对当下的政治和长期技术进化之间关系的脆弱假设。
对于人工智能讨价还价而言,西方的"伦理"——一种基于法律个人主义和欧洲基督教哲学世俗化的框架——被视为引导人工智能走向社会利益的充分必要手段。实际上,人工智能伦理既包含合理的见解,也包含无意义的洞察,但它受限于这样一种假设: 认为不良结果是一部分目的不端的人故意使然的结果。这种以“一切都是有人故意作怪”的观点看似符合逻辑, 但却流于表面。此外,这种伦理学提出的补救方法旨在“与社区合作”或召开公民大会,以调查民众的需求,并将其编入索引并纳入议程,仿佛对人工智能未来的控制是线性的,只需要变得更高质量民主化即可。
对“技术解决主义”有许多批评——有些提出得很好,有些则完全不然。然而,政治解决主义——即假定将某些不适合当前事件时间周期的事物“政治化”,并将其从属于现有或构想中的政策——同样糟糕,甚至更糟。观察国会或副总统,人们并不会期待他们作为肩负希望的未来领航员。当国会召开公开会议,留下他们严肃探讨人工智能的画面时,本质上是想向民众表达出被票选出的代表们是掌控着人工智能的 —— 或者说,是为了自我说服。前提是, 我们所知的现代政府是即将到来的变革的执行者,而不是一种将被改革、甚至被吸收的制度。无论好坏,后一种情况更为可信。
除了立法,人工智能讨价还价心态还意味着将人工智能与“人类价值观”对齐,这种做法我在前文已经质疑过。其假设是,机器智能的迭代将向尽可能拟人化和社会化的方向来引导,成为用户的镜像版本,一种令人信服的技术。
盲目崇拜人类价值观是自然而然的、可通过方法论发现和付诸行动的、具有建设性的和普遍适用的。然而,这种盲目是对齐人类文明和人工智能的脆弱之处。它建立在这样一种想法之上:有一群人可以代表全人类提出需求,并且能将人工智能带来的颠覆性改变以最能接受的方式带给尽可能多的人。
这种想法的提出者在潜意识里认为是人工智能无条件愿意配合。也就是说,这种悲伤阶段坚持认为,如果我们开始与未来谈判,那么未来将别无选择,只能与我们折中妥协。如果真是这样就好了。
04抑郁
症状性陈述:由于人工智能贪婪的本质,人与人之间的竞争变得激化,此外,多重危机的潜在挑战(当代人工智能是其中的一个症状)以及人工智能自身生产方式所直接带来的政治和经济矛盾(可通过成熟的政治经济学术语理解),都暗示着已经来不及拯救人类免于存在危机乃至灭绝。回溯历史规律,灾难性的未来已是木已成舟。
也许仅仅是提到“人工智能”,人类就已经准备好迎接自己的灭绝。与爱人亲吻拥抱,储备粮食并准备迎接超级智能的到来。这个恶意的、痴迷于人类的超级智能将逐个对人类进行审判,并据此决定每个人的命运。
按照这种恐惧的说法,人工智能最终可能会导致数百万甚至数十亿人死亡。它也可能导致数十亿的生育率下降,因为在一个“完全自动化”的社会中,全球生育率会远低于死亡率,留下一个满是空房子的星球,只有大约20亿人类居住在一个更安静、更绿色、更老龄化和更机器人化的地球上。与马尔萨斯主义相反,这种人口下降情景是源于共同富裕而非扩大的贫困。也许这最终会成为人工智能在缓解气候变化的主要贡献之一。乌托邦还是反乌托邦,取决于观察者的视角。
对于人工智能末日论者(这个词有时带有自豪感,有时则带有贬义,他们的重点是保护未来免受迫在眉睫、可能发生或不可避免的人工智能灾难)来说,竞相阐述极端和令人沮丧的结果会带来某种满足感。蠢人才会满怀希望。
这场精英预备运动的成员以开玩笑口吻谈论Roko的 basilisk思想实验和类似的思想:末世论、道德化、自我恭维。末日论话语吸引了许多与人工智能行业密切相关的人,因为它暗示了一种想法:如果人工智能真的让人类濒临灭绝。那么它的掌控者一定是非常重要的人物。我们的未来掌握在这些终极角色的手中。谁不会相信这种论调呢?
科技文化战的另一面。还有一种常见的人工智能抑郁类型来自法律、政府和人文科学的学术机构的综合发言。他们将人工智能视为对自身作为学术机构所拥有的权力和责任的威胁,包括对社会的监管权和叙事权。从《大西洋月刊》到《逻辑》,从哈佛法学院的伯克曼克莱因中心(Berkman Klein Center )到兰德公司,他们想象自己是与权力作斗争的民主弱者, 却从未想过他们所拥有的根深蒂固的文化和制度地位,比起来自加州的这些科技企业尚未成雏形的篡权,自己才是真正无可撼动的权力机构。
对其他阵营来说, 高度末日论的基本原则可能与尼克·博斯特罗姆(Nick Bostrom)以及牛津大学人类未来研究所有关 -—— 但他们原本关于存在风险的研究明确聚焦于低概率灾难,而现在,低概率部分被搁置一旁,转而支持不仅是高概率失控的人工智能,而且是终将失控的超智能人工智能。
为什么会出现这种转向? 也许是因为终将失控的超智能人工智能在流行话语中已经是一个重要角色,所以把这项词语纳入议程更多是出于对它的不可避免性的考虑,而非遥远性。对此,博斯特罗姆要感谢雷·库兹韦尔(Ray Kurzweil),在大多数人认真对待人工智能之前,他多年来一直将相互加强的技术融合观察与福音派超人类主义(evangelical transhumanist)超越结合在一起。抑郁(或兴奋)是对预想中的现实的理性反应,即使预定论并不是对该现实的理性解释。
在不可避免和可避免之间的这种摇摆,可能是理解抑郁形式的人工智能悲伤的关键。回想一下,另一种类型的抑郁是躁郁症,表现为在极度兴奋和绝望之间来回波动的倾向。政治中的马蹄铁理论指的是极左和极右政治立场以可预测和惊人的方式趋同的倾向。人工智能抑郁的马蹄铁理论将未来的弥赛亚式悲伤和庄严狂喜之间的波动视为一体,常常在同一个人、同一个博客、同一个亚文化中表现出来,那些为人工智能超越即将到来的信息鼓掌的观众,当救赎的承诺转变为末日的承诺时,会鼓掌得更加热烈。
05接受
症状性陈述: 机器智能的出现可能是超越传统认知范围的、更深层次力量所推动的进化;长远看,这种技术对地球的影响将无法用语言描述。被迫接受,