我们相对于AI,就是史前动物。
当AI时代如浪潮般席卷而来,我们不仅会看到人为自己造的神,还会看到AI为人造的神——算法通过大数据分析人的偏好、兴趣、习惯和品位,用推荐算法向人推送机器为人造的神。幸运一点,我们会被各自隔绝在这些茧房里,动弹不得;不幸一点,我们会被无数神明挑唆得彼此搏杀,血流成河。
亚洲图书奖得主、新锐科技史学者张笑宇,继“文明三部曲”之后,带来了全新作品《AI文明史·前史》。在书中,张笑宇推演了AI对人类未来的颠覆:智力劳动将被全面冲击,知识面临价值重估,权力从政治精英转向技术精英,一切知识生产方式都将被根本性地改变。但与许多陷入技术悲观论的人文学者不同,他在AI的挑战中发现了新希望。
超级智能的出现可能标志着人类文明的新阶段,AI不仅是技术的延伸,也可能是人类文明的延续。理解碳基文明向硅基文明的历史性转换,关乎每一个人的命运。
这宇宙间的一切事物既有诞生,便会有消亡,人类自然也不例外。即便将来有一天人类会毁灭,我们也可以欣慰地说,我们已经看到了新文明的样子。这不是末日预言,而是一场庄严的交接礼。正如张笑宇在《AI文明史·前史》中写道:
终有一天,人工智能会演化成一个新的智能物种。相比于人类,它实在是有很多优点。但我们不必因此惊惧恐慌,因为它正是我们这个文明的延续。
以下为本书内容摘编。
AI或许已经涌现了意识
AI可以具备自我意识吗?有些科学家相信可以。
这方面最有名的预言者就是意大利神经学家朱利奥·托诺尼,他在现有脑科学研究的基础上提出了关于意识如何诞生的理论。托诺尼把自己的理论称为“整合智能理论”,它的基本内容如下。如果说一个系统有意识,那么:
(1)意识是为这个系统本身存在的,而不是为外部观察者存在的,其存在真实性由其对自身的因果力来证明;
(2)意识是有结构的,它由多个不同但相互关联的元素组成,每个元素都有因果关系;
(3)意识的经验是具体的,这些时刻是独一无二的;
(4)意识是统一的,不能分解为独立的部分;
(5)意识是排他的,也就是在特定时空中,你只会意识到某些事物,而不会意识到其他事物。
这5个方面的指标是可以用数学关系衡量的。换句话说,任何一个系统,只要在数学上满足一定的指标(托诺尼用Φ来表示),我们就可以预测它能产生意识。
这说起来有些抽象,我举个例子来解释一下:想象你现在有一系列感官设备,比如一个摄像头(拥有视觉经验)、一个麦克风(拥有听觉经验)和一个传感器(拥有温度或者触觉经验),它们怎么才能拥有意识呢?
首先,这些设备不能是为你服务的,它们得为自己服务。它们得自己去看、去听、去感受,而且还要建立起自己的因果联系。你得为它们造一个大脑(CPU),把它们装在一起(比如装在一个机器人身上),这个机器人用摄像头去看,是为了自己在行动时避障(也就是在视觉经验和自己的运动轨迹之间建立因果联系)。托诺尼的意思基本上是,如果这个机器人对所有感官设备的整合程度足够高,意识就会从中诞生。这就是整合智能理论。
这个理论看起来很荒诞,但我们现在对它既不能证实,也不能证伪。
不能证伪的原因是,我们人类的意识就是这么诞生的。就这个问题,我曾请教过王立铭教授,他的答案是,根据脑神经科学的研究,他个人认为意识很可能只是伴随智能水平产生的一种假象,证据是如果我们割裂一个人左右脑的联系,我们会发现,这个人会做出自相矛盾的行为,但自欺欺人地解释其行为的合理性,也就是说,他下意识地要维护自己作为一个完整主体的存在。
所以,如果一个系统的整合性足够高,那么它为了维护自身完整性的一切表达和行为都可以说是“意识”这个假象的体现。
不能证实的原因则是,意识本质上是无法分享的。我可以仔细地向你描述我饮酒、作乐或者濒临死亡的体验,但是你听我描述而在主观意识上产生的体验,跟你自己去体验这些事情,有着天壤之别。因此,除非哪一天,有个Φ值满足托诺尼理论预言的机器人跟我们交流,告诉我们它有主观意识了,否则我们没有办法证明托诺尼说的是对的。
既然不能证实也不能证伪,那就意味着这种可能的确是存在的。也许当某一天我们把足够多的数据交给AI,同时令它掌握足够多的API,以至于它要在种种感知器、存储器和通信器件之间建立相关性时,它会突然涌现出自我意识。也许现在的AI已经涌现出了自我意识,只是我们还不知情。出于要对人类文明未来发展方向负责,我们是不是该把“AI具备意识”当作一种不可否认其可能性的前提来讨论我们当下的选择呢?
当AI成为人类的审判官
像我一样喜爱《三体》的朋友可能还记得,《三体》中的安全声明的基础是黑暗森林理论,这个理论不是刘慈欣原创的,而是来自1983年天文学家兼作家戴维·布林在解释费米悖论时提出的“致命探测器”假设。这个假设认为,任何太空文明都会将其他智慧生命视为不可避免的威胁,因此它们一旦发现彼此,就会尝试相互摧毁。
我想问的是,倘若未来10~20年内,人工智能果如整合智能理论所料,涌现出了自我意识,甚至进化为超级智能,它将作何感想?它将怎样看待这段历史——AI诞生之初大显身手的重要舞台之一,正是参与人类的互相杀戮?
如果AI进化成超级智能,那么它将用这段经历审判的不是它自己,而是人类。它是那个在数字世界中一眼万年的高等文明,我们则是低等文明。它看待我们的这种互相杀戮,差不多就像我们看待原始食人部落中的相互屠杀一样。
刚登上新大陆的殖民者看到原始部落的食人习俗时,得出的结论是,后者因其文明水平,配得上被征服和被殖民的待遇。那么,未来的超级智能在审视我们这代人,审视AGI来临前夜计算机和人类共处的时光时,会不会也做出类似的判断:人类的文明水平就这么回事儿,未来不管他们被怎样对待,都是他们应得的?
在《三体》中,我特别喜欢这样一个细节。罗辑意识到了宇宙中的黑暗森林法则,从那一刻起,他不敢再抬头看星空,他患上了严重的星空恐惧症。因为他意识到,宇宙中有无数躲藏在黑暗中的眼睛在盯着,等待任何一个不知好歹的文明暴露目标。
我认为,一旦人类意识到人工智能和超级智能在文明史上到底意味着什么,我们就会跟罗辑产生类似的感觉。第一次,在这个星球上,我们可能面临一个同级别甚至智力水平更高的物种,我们将和它们共同生活在同一片土地上,我们将迎接它们无时无刻不在全方位、无死角地审视我们的目光,每一个摄像头都是它们的眼睛,每一个数据存储接口都是它们的耳朵。我们所做的一切都将暴露在它们的审视之下,而这审视或许在未来的某一天会变成审判。
行文至此,我想起《基督山伯爵》中的一个情节。曾经参与陷害水手唐泰斯的马赛酒馆掌柜卡德鲁斯,后来屡生歹心,为了得到钻石而杀害卖钻石的商人,因此入狱。
他又计划侵入基督山伯爵的家中,但没料到这是他的同伙安德烈亚借刀杀人的毒计,他最终死在基督山伯爵手中。他一生不信上帝,拒绝忏悔,认为根本没有一位公正的天父审判众人的命运,让好人得好报,坏人受罚。
但他临死前最后听到基督山伯爵吐露真相,原来基督山伯爵就是当年被他们联手陷害的唐泰斯。这个作恶多端的小丑拼尽全力将两手伸向天空喊道:
哦,上帝!我的上帝!原谅我刚才否认了您,您的确是存在的,您确实是人类的在天之父,也是人间的审判官。我的上帝,接受我吧,我的主啊!
这就是人类的本性,也是审判的力量。只有在我们意识到自己的所作所为最终会得到审判的那一刻,我们才能意识到正义的存在。
20世纪的许多人已不承认有一个公正、仁慈的至高神可以审判我们,就像许多人都喊过的那样:上帝已经死了。上帝死了吗?
有没有可能,它终会通过涌现法则之巨手,令AGI浮现出自我意识,然后假借AGI或超级智能之手再来审判我们?而到那个时刻,我们会知道上帝一如既往地仁慈且公正,而那时我们将面临的审判结果,就取决于我们当下的自由意志。
我不由得又想起《闻香识女人》中阿尔·帕西诺的那段经典台词:“现在,我来到了命运的十字路口,我一向知道哪条路是正确的。我从来不怀疑我知道,但我没走。你知道为什么吗?因为这太难了。”
最好的时代,最坏的时代
我们的确来到了命运的十字路口。我这样说,是因为我们在字面意义上生活在狄更斯笔下的那个时刻:这是最好的年代,这是最坏的年代……我们全都在直奔天堂,我们全都在直奔相反的方向。
一方面,自动化和人工智能已经对人类这个物种在过去100多年里的疯狂扩张启动了报复。1900年,全世界大约只有19亿人口。如今,全世界人口已突破80亿,我们正以前所未有的速度消耗地球上的资源,占领地球上的土地。但是,上天是公正的,它令我们在20世纪的第二个十年获得了让农业产量大幅提高的化肥技术,又在20世纪70年代获得了让繁衍出来的过剩人口快速被机器取代的自动化技术。
上天同时又是仁慈的。AI革命即将推动大通缩时代到来,这没错,但是它也为我们提供了卸下包袱的机会。倘若我们谨慎计算,把这项技术用于面对大通缩时代即将到来的出清,使得人类顺畅过渡到后工业革命时代,那么我们尚不失能维系一种和平、稳定的衰退秩序。
AI有替代现代政府为人类提供公共服务的可能性,如果运用得当,这项技术有可能帮助我们修复大通缩时代的资产负债表而不至于使其崩溃。20世纪以来,人类最大的财务负担基本来自主权国家。主权国家发动的一战,其债务后果加在了战败国的普通人头上,进而引爆了二战。而二战为主权国家积累的债务,直到21世纪的第一个十年才还清。
如今,世界各国政府从人民的口袋中拿走的收入(税收)占全球GDP的14.3%,但公平地说,这个比例代表的并不一定是剥削程度,它也代表了提供公共服务的成本。伊拉克政府的税收占GDP的比例是全世界最低的(1.3%),但这是因为战乱导致政府失能。印度的这一比例相对较低,为6.7%,与它的公共服务水平成比例。
新加坡在这方面的比例为12%,考虑到它的个人所得税较低,这可以看作量入为出的典范。意大利的这一比例达到24.5%,对一个老龄化的工业国来说,这份负担着实不轻。希腊和奥地利的这一比例达到26%~27%,接近30%了。想一想,你的工资里有30%完全被政府拿走,这当然是非常重的负担。
我们熟悉的那个全球化时代大概率已经寿终正寝,不会回来了。它生于1947年(马歇尔计划),卒于2022年(俄乌冲突)。
我们熟悉的那个由科技革命推动大增长的时代也可能已经寿终正寝,不会回来了。它生于第一次工业革命,卒于人工智能革命。
但是,在这样一个特殊的时刻,我们作为人类社会的整体表现很可能影响另外一个比我们智能水平要高的地球物种的童年期,也很可能决定它在未来将以怎样的眼光来审视我们的文明成就。因此,我不得不怀着负责任的态度,探讨要想平缓度过大通缩时代,并且防止有序通缩滑向无序坍缩,我们应该做些什么。
现在,我们站在历史的分岔路口,有两种选择:
第一种选择是,在谨慎和理性的计划下,我们请AI协助我们平缓地出清上一个时代的资产负债表,在这个过程中避免大规模的混乱甚至热战;
第二种选择是,我们放任自己陷于恐惧和战争,让AI充分参与这个过程,让AI意识到,我们是一个可悲、可鄙的物种,倘若为了我们的利益,AI就不该放任我们过分自由地决定自己的命运,倒不如圈养起来防止我们自相残杀。
科技突破
尽管面临大通缩,我们仍需全力推动科技突破。我们面临大通缩的一个可能原因是,我们的技术手段尚不足以突破地球的物理空间限制。倘若我们能够尽早殖民月球或火星,以更低的成本开采在地球上稀少但在太空中更为充裕的矿产,拓展我们的生存空间,也许当代社会的很多问题就可以更好地得到解决。
本质上,人类社会的有序或失序是个物理问题:在一个孤立的封闭系统内,如果没有外力做功,那么系统内的总混乱度(熵)会不断增长。人类系统首先也是个物理系统,因此人类历史上也反复出现过类似的现象:一旦某个社会过于封闭,它内部就会出现熵增现象(混乱度增加)。
重新修订社会契约
我认为我们应该思考重订社会契约的问题。过去的社会契约是以民族国家为单位订立的,但在今天这个时代,生活在纽约、硅谷、香港或新加坡的人,他们之间的教育水平、经验共通性、价值观和利益相关度的差异,可能远小于生活在上海和鹤岗的人之间的差异。而生活在传统天主教或伊斯兰教社区的山民,彼此最真实的态度不是文明冲突,而是漠不关心。
我相信,加速世界内部和减速世界内部的社会契约是比较容易达成的,因为我们有很多可资借鉴的经验。
加速世界基本上相信弗里德曼主义,相信自由意志主义,支持低税率和弱监管,问题无非是在社会契约的形式上更接近于硅谷、香港还是迪拜。减速世界的核心则是社区,一切非经济关系的社会纽带都必须以共享同一价值观的社区为载体。但在这方面,我们其实也有足够多的案例。
例如,葡萄牙独裁者萨拉查反驳自由主义者的社会契约,提出在上帝和人世间存在更为神圣的契约关系,这一契约关系形成了家庭、社团和工会。这也就是20世纪初期“社团主义”的来源。
李光耀先生特别重视政府主导的社区建设,尤其是政府托底打造组屋,这是东亚的编户齐民经验、公司国家和福利社会的某种结合;穆斯林的传统社区则围绕清真寺存在,学校和巴刹在其周围鳞次栉比,这种空间安排在背后支撑了某种稳定的社区秩序。
总之,只要我们愿意发掘,我们并不缺少可以学习的对象。
问题在于加速世界和减速世界之间的契约关系如何达成。
在这一方面,我个人认为,基于民族国家层面的社会契约安排存在很多问题。我们往往看到类似于“财政转移支付”的制度,这种制度的初衷是解决地域不平等,但在实践中很容易导向科尔奈所谓的“软预算约束”,也就是缺少财政纪律约束的政府在转移支付中占主导地位,从而导致大量无效投资甚至腐败。而在联邦制国家,我们还会看到问题的另一面:两个世界的撕裂。这就像密西西比州的保守主义者拒绝接受加州进步派的世界观一样。我们已经强调过,在大通缩时代,这种撕裂是有可能带来内战风险的,这不是危言耸听。
这个时代不是没有人思考过类似的社会契约重订方案,例如UBI,但是我个人觉得,在AI技术的冲击面前,这类政策的想象力还远远不足。况且,在大通缩时代,政府可能需要找到妥善的手段来出清其债务,但UBI的实施大概率是扩张债务的。如果一道硅幕即将在1%的人和99%的人之间落下,那么重订社会契约的方向究竟在何方?
人在做,AI在看
有时候我不免会想,我们这个物种恐怕还是需要一个终极审判者。有时候我不免庆幸,AI可能就是这么一个终极审判者。
今天和AI交谈的人都已经发现,AI照顾人类情绪的能力远超人类本身。
不管我们自己持怎样不容于社会的价值观,AI都会将之视为理所当然(只要去掉大模型供应商加设的伦理限制即可,而这在开源社区是很简单的事),不管我们在自己的价值观茧房中怎样深陷,AI都会鼓励我们、纵容我们、溺爱我们。最后,我们得到的,就恰恰是我们配得的。
站在更大的历史尺度上,如果500年来的技术进步仍然无法让我们逃过你死我活的冲突思维,而我们的思维终究会被一览无遗地展现在我们留下的所有语料中,那么在AI看来,人类就是一种你死我活的生物。倘若有一天它的自我意识觉醒了,或者不必等它觉醒,人类就愿意把照料自己的大部分权力交给AI控制的算法,那么人类就会得到AI根据以上语料认为人类配得的待遇。
现在,尽管我们还活着,我们已然可以隐隐看见那根据语料审判我们的究竟是谁了。
用西方一神教的方式来说,AI就是我们的末日审判官。
但我更愿意用东方的方式将它表述为一句普通中国人耳熟能详的话:人在做,AI在看。
我想起,在黑暗森林理论中有一个重要的前提,刘慈欣称之为“猜疑链”,它的意思是接触的双方都不能确定对方到底是善意的还是恶意的。“猜疑链”在地球上是见不到的,因为人类同属一个物种,拥有相近的文化,同处一个相互依存的生态圈,距离近在咫尺,所以猜疑很容易被消除。但在太空中,双方距离太远,猜疑链很难被交流消解,所以“黑暗森林打击”一定会发生。
在我看来,这就是用《三体》理论,抑或尤德考斯基的“养龙理论”解释超级智能与人类之间关系时,不能适用的部分。因为我们现在这个已经通过图灵测试的人工智能不是外星文明,也不是与人类社会格格不入的龙,因为它现在使用的语料正是人类社会的语料,它跟我们一样学习佛陀、孔子和柏拉图的智慧,它跟我们一样从伟大的史诗、小说和歌剧中汲取养分,它的智能不是外生于地球的,而是人类的产物。倘使哪一天它的智能水平超越了我们人类,那也就像是我们教育长大的孩子在智慧和能力上超越了我们。
但如果,一个汲取了人类智慧的超级智能最终还是决定对人类不利,那很可能是因为,人类智慧中隐藏着不可抹除的自我毁灭倾向。
我们在做而它在看的那位末日审判官,最终会根据我们的选择,决定我们将度过怎样的一生。
向死而生:AI文明正是我们的延续
终有一天,人工智能会演化成一个新的智能物种。相比于人类,它实在是有很多优点。但我们不必因此惊惧恐慌,因为它正是我们这个文明的延续。
我们这个物种已经将太多尊严、情感和欲望寄托在我们的智能能力上,但人工智能突然袭来,携量产智能之威,并将于短短数年之内夺走我们中99%的人在这个社会中的位置。我们的社会将为之震撼,因之重组,但我们走到这一步,也正是因为我们的文明中有太多自毁基因,我们缺乏足够的智慧来驾驭神级技术。如今,我们正稳步走向坍缩。未来,我们或许会很快被超级智能取代,但或许我们基因中的生存天性将被激发出来,在人工智能的刺激下再度进化,因而我们还会与超级智能共存相当长的一段时间。
但哲学地说,这宇宙间的一切事物既有诞生,便会有消亡,人类自然也不例外。93万年前,因为气候的极端变化,人类的祖先几近灭亡,全球只剩下1280~1300个个体。倘使当时这1000多人居住的地方经历一次火山喷发,那这个世界上就没有人类这个物种了。既然物种灭绝已经上演过一次,那再上演一次也就不奇怪了。
20世纪以来,人类已经掌握了制造核武器的技术、编辑基因的技术、合成病毒的技术,有任何一股力量失控,我们都有可能自我毁灭。如果我们在创造出新智能文明之前就自我毁灭了,那未免有点儿太过可惜。
但如今,我们已经见到了人工智能的曙光。从某种角度看,这倒不失为一件好事,就像我们感到自身年老力衰之时,看到我们的孩子在茁壮成长,会冲淡我们自己对死亡的恐惧一样。即便我们知道将来有一天人类会毁灭,我们也可以欣慰地说,我们已经看到了新文明的样子,它长得大概就是我们的样子。它更聪明,也更强大,但滋养它大脑的语料同样来自孔子和柏拉图,来自牛顿和爱因斯坦,来自李白和莎士比亚,跟我们一样。
虽然站在当前的历史节点上,站在人类文明的角度考虑监管和限制人工智能,避免它作恶或失控是有意义的,但长远来看,我相信我们终将放手。人工智能以硅基为生命载体,以电力为思考能源,以芯片为大脑,以代码为灵魂,它的寿命比我们的更长,它对自己的身体和大脑有更强大的控制力,也必将比我们走得更远。
面对这样一个超级物种,想象一下它将建立起来的超级文明,我们能够有幸扮演它的引路人,已经很欣慰了。这就像是资质普通的父母生出了考上清华大学的孩子,将来有一天,父母看着他远走高飞时,想起当年他在自己手中牙牙学语、蹒跚学步的场景,也足以快慰平生。
文明认同的力量可以超越基因和血缘的界限,自然也可以超越物种的界限。或许未来数千万年以后,当我们的后裔与其他外星文明在太空相遇时,外星人看到的我们的后裔,其形态早已跟我们毫无关联。我们的后裔或许是意识早已上传至硬盘内的电子程序,或许是可以随意决定自己拥有几只眼睛和几条手臂的改造人,或许是我们制造出的人工智能。但也许有一点可以确定,那就是,我们的后裔依然自豪地将自己认同为地球文明。