153
陈永伟
6月10日,OpenAI首席执行官山姆·奥特曼(Sam Altman)在博客上发表《温柔的奇点》(The Gentle Singularity),并称这可能是他“最后一篇不依赖AI写成的文章”。他在文中表示,人类或许已跨越了通往数字超级智能的“事件视界”,即进入了一个不可逆的AI发展阶段。“奇点”原是数学术语,后被美国作家弗诺·文奇引入科技史领域,用以描述技术增长加速到无法预测的临界点。未来学家雷·库兹韦尔则将其与AI相连,提出2045年将实现AI超越人类智能的“技术奇点”。近年来,随着AI突飞猛进,这一预测不断被提前——库兹韦尔在其新书中将时间表改为2029年。
尽管“奇点”何时到来长期存在争议,许多人仍将其视为遥远的未来。然而奥特曼却宣称,它已经悄然降临,并非以剧烈冲击,而是以温柔、几近无声的方式实现。这番言论引发热议:有人称其洞见深刻,有人批评其过于乐观,亦有声音指出,这番言论发布时机恰逢GPT-o3pro亮相,或许不过是营销策略。
那么,奥特曼的判断到底是前瞻洞察,还是博眼球的策略?人类真能温柔地穿越“奇点”吗?还是说,要实现这一愿景,还需我们自身的制度准备与主动作为?
一、“奇点”降临之辨
我们是否如奥特曼所言,已经来到了“奇点”之前?要判断这一点,不妨先回顾他在博文中列出的几个主要依据:
首先,当前AI的发展已达到相当水平。奥特曼指出,以ChatGPT为代表的AI在能力上已超过历史上的任何一个个体人类,数以亿计的人每天依赖它们完成工作。2025年,具备真正认知能力的智能体已初步成形,编程等原本被认为只能由人类胜任的任务,已有相当一部分由AI接手。按此趋势推测,2026年或将出现能够自主提出新见解的系统;2027年,能够在现实世界中执行任务的机器人也有可能问世。
第二,AI已展现出初步的递归式自我改进能力。过去,科研与技术开发主要依赖人类推动,技术演进是由外部驱动的。但如今,AI本身已在算法研发、新材料探索、芯片设计等领域扮演关键角色。这使技术具备“内生式”自我迭代的可能。同时,具身AI机器人的出现,也意味着“用机器人制造机器人”正在成为现实,由此带来的自我强化式经济增长或将随之启动,形成正向反馈循环,引发爆炸性的扩张。
第三,AI的生产率正快速提升,而使用成本则持续下降。奥特曼指出,AI已在科研等领域展现出2至3倍的效率提升。随着具身AI的普及,这种效能也将扩展至实体制造业。至于资源消耗,他以ChatGPT为例:如今与其完成一轮对话仅需0.34瓦时,相当于烤箱运转一秒,耗水量也不过0.000085加仑(约为十五分之一茶匙)。未来,随着技术迭代,成本还将进一步降低。
正是基于上述判断,奥特曼认为,我们实际上已站在“奇点”门前。尽管此篇博文更多着眼于现实案例而非理论推演,也因此招致不少质疑,但他并非毫无理论支撑。例如在今年2月的另一篇文章中,他曾提出AI发展的三个观察:
1. 模型能力与投入资源的对数呈正相关,AI发展可预测;
2. 使用成本以每12个月降至原来1/10的速度下降;
3. AI能力的线性提升将带来社会价值的指数级增长,进而激发更多投入,形成一个正向的循环。
这三点构成了一个简明的“奇点模型”:持续投入推动AI能力进化;能力进化带来成本下降与巨大利润,反过来又吸引更多资源流入。一旦这套机制启动,技术与经济将进入螺旋式上升通道。奥特曼在博文中列举的案例,不过是这一模型的现实注脚。
从理论上看,这一逻辑似乎自洽:如果AI确已具备超越人类的能力,能触发技术飞轮,并且AI与生产率之间存在稳定的正相关关系,那么“奇点已至”的判断似乎并不夸张。但问题在于,这些前提是否真的已被满足?我们不妨逐一检视。
首先,AI的能力是否已经超越人类?在某些任务维度上,这一判断确实成立。AI在围棋、国际象棋、写作、绘画、编程等多项任务中,已展现出优于人类的表现。部分研究也显示,大模型在数百种任务中普遍优于人类。
然而,在许多方面,AI仍存在明显短板,尤其是在空间感知和物理常识领域,常因缺乏基本常识而在现实模拟中出现错误。“莫拉维克悖论”(Moravec's Paradox)早已指出,AI擅长高难度任务,却在应对人类看来轻而易举的任务时表现欠佳。例如,一个小孩看几只狗就能建立“狗”的概念,而AI则可能需要上百万张图片才能学会。说AI已“全面超越”人类,乃至AGI(通用人工智能)或ASI(超级人工智能)已实现,显然还为时过早。
更重要的是,AI能力的提升是否如奥特曼所说“可预测”,仍值得商榷。实际上,AI技术的发展更接近于一个随机搜索的过程。历史上的多次关键性突破——例如深度学习中的反向传播算法——事后看来简单直白,但从提出到广泛应用却历经数十年。因此,即便某些突破看似近在咫尺,也未必能如期而至。奥特曼预期2026年将出现具有原创能力的AI系统,2027年将诞生任务执行型机器人,这一时间表仍存在高度不确定性。
其次,技术是否已具备自我强化能力?的确,AI正推动各领域进步,并在一定程度上优化自身,但大规模的技术跃迁仍依赖于材料、能源等基础科学的突破。而这些变量,在奥特曼的推演中几乎未被提及。
再次,AI发展与经济增长之间的因果关系是否已确立?目前也缺乏扎实证据。例如,奥特曼提到科研效率会提高2至3倍,但相关研究很快被质疑缺乏数据支持。笔者查阅资料发现,唯一较具权威的实证研究来自MIT,称AI能使排名前10%的科学家产出增长81%,但对后1/3影响甚微,该研究后被揭发数据造假并撤稿。科研尚且如此,实体经济中的效益转化更未可知。
综上所述,尽管我们或许正接近“奇点”,但至少目前为止,还无法确认我们已经如奥特曼所言,跨越了通往数字超级智能的“事件视界”。
二、跨越“奇点”之旅会那么温柔吗?
相比于“奇点已经到来”的判断,奥特曼在博文中提出的另一个更具争议的观点,是他认为“奇点”的来临将会是一个温柔的过程。这显然与以往人们对“奇点”的普遍理解大相径庭。
按照通常的看法,“奇点”的到来将伴随着剧烈的社会变动。在短期内,它很可能导致大规模的技术性失业与收入分配的进一步恶化;而在更长期的视角下,随着AI能力全面超越人类,如何处理人与AI之间的关系,如何确保AI始终与人类价值观对齐、其行为不偏离人类利益,将成为更为棘手的问题。然而,在奥特曼看来,这一切问题都能够通过一个平稳的过程逐步得到解决。那么,现实真会如此吗?
(1)“奇点”会造成严重的失业吗?
在AI可能带来的诸多社会问题中,技术性失业可能是最受关注的一项。过去十多年,已有不少学者围绕这一问题进行了深入研究,结论大多不容乐观。例如,牛津大学的卡尔·弗雷(CarlFrey)与迈克尔·奥斯本(MichaelOsborne)在2013年发表了一篇广受关注的论文,预言到2033年,随着AI和自动化的发展,美国47%的岗位将面临严重冲击。而OpenAI的研究团队在一项更近期的研究中则预测,生成式AI的兴起可能影响全美80%的就业岗位。如果“奇点”真的来临、AGI得以实现,那么就业结构的剧变几乎不可避免。
但在奥特曼的博文中,他对这一问题表现出了惊人的乐观。他承认,AI崛起确实会改变劳动力市场,一些职业将会消失,但他认为这无须恐慌。历史上的每一次技术革命之后,人们总能迅速适应并发展出新的职业。他指出,人类“天生关注他人及其所思所为”的能力,将使他们能够挖掘出潜在需求,并据此创造出全新的工作岗位,而这些岗位将能够弥补AI淘汰的职位。
有趣的是,奥特曼特别提到,未来新增的许多职业,可能会被今天的大多数人视为“虚假”的——它们看起来更像是奢侈的游戏,而非正经的工作。但从长远来看,这些“虚假工作”反而可能蕴含重要意义。就如同一千年前的农夫若审视当今社会,也很难理解什么是编剧、时尚编辑或品牌经理一样,我们今天也难以准确理解未来工作形式的内涵。
不可否认,奥特曼的观点确实具有启发性。技术性失业并非新现象。从蒸汽机到电力、再到互联网,每一次重大技术革命都伴随着“创造性毁灭”(Cre-ativeDestruction),大量旧职业消失,同时也催生出新岗位。这些失业浪潮有时甚至引发社会动荡。但从历史来看,这种失业往往是阶段性的。新技术的推广最终扩大了整体就业容量,因此奥特曼所说“AI导致的失业只是暂时的”,在逻辑上是有其依据的。
从现实层面看,AI在淘汰旧职业的同时,也确实在创造新岗位。例如,机器学习工程师、数据标注员、提示词工程师、AI伦理顾问等职位,都是AI浪潮下的新生职业。其中一些岗位如虚拟人造型师、元宇宙设计师,确实如奥特曼所说,是为了满足新情绪或文化需求而被创造的“看似虚假”的工作。随着“奇点”的逼近,此类职位可能只会越来越多,确实有望抵消部分失业影响。
然而,是否可以据此断言就业市场将在“奇点”前后保持总体平稳?恐怕未必。
首先,虽然新的岗位不断涌现,但其数量是否足以抵消被淘汰的旧职业,仍是一个悬而未决的问题。从近几年的趋势看,AI所催生的岗位数量并不算多。而且,许多围绕AI的新岗位也正快速被AI自身取代。
例如,提示词工程师曾被视为“AI时代最具前景的新职业”,一度年薪达百万元。但很快人们发现,这一岗位的就业空间极其有限。据估计,全国全职从事该职业的人不过数千。而随着AI模型在低结构化语境下的表现日趋优异,对提示词优化的依赖正在迅速下降。根据智联招聘、BOSS直聘等平台的数据,2025年提示词工程师的需求量已较2023年下降超过70%,薪酬也显著缩水。所谓“百万梦”,许多人尚未启程,便已落幕。
再如数据标注员,这一岗位在AI训练初期为海量模型数据构建提供了重要支撑,一度在全球范围内创造了大量就业。但该岗位既非高薪也非核心技能,随着优质数据资源的枯竭及合成数据技术的兴起,其需求迅速滑落。在国内外,众多AI公司已大幅削减相关用工预算。
从这两个案例可见,AI不仅在吞噬旧职业,也在吞噬“因AI而生”的新职业。因此,新岗位的生成能力是否真能如奥特曼设想的那样,持续覆盖失业岗位,确实值得质疑。
其次,即使未来能产生足够的新岗位,个体能否如奥特曼所说“温柔”地完成职业转换,同样成疑。技能转型往往耗时数月甚至数年,而AI对岗位的替代可能只需几天甚至几个小时。理论上,插画师可以转型为AI工程师,证券交易员也可转型为芯片设计师,但现实中,完成这样的跨越并不容易。而且,就算投入时间精力完成了转型,谁又能保证这些新岗位不会在转型完成之前就被AI再次取代?
更值得注意的是,随着AI能力的提升,“是否被替代”越来越不是技术问题,而是成本—收益问题。早期AI主要替代低技能、低收入岗位,劳动力因此流向更高薪的行业,总体上提升了社会福祉。但现在,出于效率与成本的考虑,高收入白领反而成为AI替代的重点目标。而劳动者则被挤压至更低报酬、更内卷的领域。在不少岗位上,之所以人类仍未被完全替代,仅仅是因为他们比AI更便宜。若这一趋势延续,即便就业总量不变,AI对就业结构的冲击依然深远。
(2)“奇点”会带来普惠吗?
虽然AI正在创造巨量财富,但与此同时,它也日益成为收入不平等的新源头。一方面,作为一项技术,AI具有明显的“技能偏向性”(skill-biased):那些具备高阶计算机能力、能够开发先进AI算法的人,往往能从技术浪潮中获得巨额回报;而缺乏AI素养、无法熟练运用相关工具的群体,则不仅可能面临收入骤减,甚至可能失去原有工作。这一趋势导致劳动收入越来越集中流向高技能人群。
另一方面,AI还具有显著的“资本偏向性”(capital-biased):其训练与部署通常依赖大量资本投入,因此资本雄厚的企业更易从中受益,AI带来的财富也更易集中于资本所有者手中。这两种力量叠加,很可能加剧现有的收入与财富分配失衡的问题。
正因如此,很多人担忧,“奇点”的到来可能会加速上述趋势,最终导致财富极度集中于极少数科技巨头,甚至出现类似刘慈欣小说《赡养人类》中描绘的“终产者”情境,即某一个体垄断几乎全部社会财富。
对此,奥特曼持不同意见。他认为,未来AI所能创造的财富将极为丰厚,足以支撑人类采取“以往难以想象的全新政策”来实现共同富裕。尽管他在博文中未明言这一“全新政策”的具体形式,但从他过往公开言论来看,这一概念很可能指的是“全民基本收入”(U-niversalBasicIncome,简称UBI)。奥特曼是UBI的坚定支持者,不仅多次公开倡议政府实施UBI,还曾出资6000万美元资助相关实验项目。在他看来,AI的飞跃式发展将为UBI的大规模推广提供坚实的物质基础;而随着UBI的持续实施及对发放标准的动态调整,AI所带来的不平等问题将能够有效化解,从而实现全民共享AI红利的愿景。
但奥特曼的这一设想能否真正落地?不少人对此表示质疑。例如,《福布斯》刊载的一篇评论就指出,尽管UBI的构想听起来美好,但截至目前,它依然缺乏切实可行的现实基础。
事实上,即便不考虑“奇点”时代的技术进步,从全球财富的总量来看,现在的资源已经足以让全人类过上相对富足的生活。经济学家杰弗里·萨克斯(JeffreySachs)就曾大胆预言,当代人将有机会见证全球贫困的终结,其理论依据正是基于此。然而,现实却恰恰相反:在社会总财富不断增长的同时,贫富差距却持续拉大。其根本原因在于,当前的制度安排中,并不存在一套能够自动改善分配结构的机制。虽然多数国家设立了累进税制度,但高收入群体常常可以通过政策漏洞、避税等手段将纳税义务降至极低。尽管学界对此多有批评,并屡屡呼吁弥补漏洞、加强监管,但在强大资本力量的游说压力下,这类政策往往难以真正推行。
由此可见,如果不能建立起一套真正有效的收入再分配机制,即使AI带来了前所未有的财富积累,也不会自动实现共同富裕。
回到UBI本身。即便跨越“奇点”之后,社会财富的总量已经足以支撑一个完整的UBI体系,但若想将这些财富从拥有者手中转移到公共基金中,就必须通过税收,尤其是AI相关税种的设立与征收。这显然将面临巨大的现实阻力。可以预见,如果这一类税收难以落地,那么UBI的理想将难以真正实现。而AI所推动的技术爆炸一旦未被及时纳入再分配机制,其所引发的收入极化,势必将冲击社会稳定,使通往“奇点”的旅程远远不如奥特曼所期待的那般温柔。
(3)AI会和我们始终对齐吗?
除了失业与收入分配等经济问题之外,还有一个至关重要的问题,直接影响“奇点”能否以“温柔”的方式到来——这就是AI对齐(AIAlignment)问题。简而言之,所谓AI对齐,指的是如何确保人工智能能够理解并遵循人类的规范、价值观与意愿,始终按照人类的目标行事。
表面上看,这似乎不是一个难题:毕竟AI的程序都是由人类设计的,难道我们会主动赋予它与人类利益相违背的目标吗?但事实上,这个问题远比直觉所认为的复杂,原因主要有两点:
一方面,人类在设定AI目标与行为规范时,往往难以准确、全面地表达自身的利益诉求,这就为AI在执行过程中偏离人类意图留下了空间。哲学家尼克·波斯特罗姆(NickBostrom)曾在其著作《超级智能》中提出一个著名的思想实验:假设人类创建了一个目标是“最大化回形针产量”的超级智能体,那么它可能不惜一切代价达成目标——包括消耗地球资源甚至消灭人类,以便为生产更多回形针腾出资源。这个案例表明,即使AI的初始目标看似无害,一旦缺乏价值边界约束,其行为也可能最终严重背离人类利益。
另一方面,为了提升效率,人类通常会赋予AI较大的自我学习和改进空间,让其在与环境及用户交互中不断调整优化。但这种“自主性”也意味着AI可能在演化过程中吸收不良输入或错误价值,最终形成与人类核心价值观不一致的目标系统。
在现阶段,由于AI仍主要是工具型系统,其行为即使与人类价值不完全对齐,所造成的后果也较为可控,顶多带来一些效率损失或操作误差。然而,一旦进入AGI阶段,AI将从工具转变为拥有强大综合能力的智能个体,甚至在部分领域全面超越人类。在这种情况下,如果AI与人类的目标出现冲突,其风险将无法低估。届时,电影《终结者》《黑客帝国》中所描绘的“AI反叛”情境,未必只是虚构。
正因如此,AI对齐问题被广泛认为是决定“奇点”能否以和平方式到来的关键变量。
然而,对于如此重要的问题,奥特曼在其《温柔的奇点》博文中却几乎避而不谈。尽管他承认对齐问题需要“认真对待”,但他似乎更倾向于相信,随着AI的递归式自我改进能力不断增强,这一问题将在技术发展过程中自然得到解决。
值得注意的是,奥特曼的态度并非孤例。在硅谷,许多信奉“有效加速主义”(EffectiveAccelerationism,简称e/acc)的科技企业家也持类似观点。在他们看来,用“对齐”等伦理顾虑来限制AI发展是一种落后的思维方式。他们主张放宽监管、鼓励技术快速演进,坚信技术本身具备自我修正、自我驯化的能力。更重要的是,这一群体不仅持有这种信念,还在积极行动。他们正利用手中资源向各国政府游说,推动放松AI相关管制,并已在部分国家取得实质性成果。
这一趋势值得高度警惕。如果在“奇点”跨越过程中,真的出现AI违背人类意图、对人类构成实质威胁的情况,那么忽视对齐问题、盲目相信技术自我修复能力,很可能成为整个过程无法“温柔”进行的关键隐患。
三、结语
通过上述讨论可以看出,奥特曼的博文虽然为我们观察技术进步的趋势、思考技术与经济社会之间的复杂关系提供了不少富有洞见的观点,但作为科技界的代表人物,他的判断或许仍显过于乐观。不仅“奇点”的真正到来时间可能比他设想的更为遥远,其跨越过程也未必如他所期盼的那般“温柔”——至少,这份“温柔”并不会自然发生,而更需要制度建设、社会准备和持续警醒的支撑。
1947年,诗人狄兰·托马斯(DylanThomas)写下了那首著名的《不要温柔地走进那个良夜》(Donotgogentleintothatgoodnight)。诗中写道:“不要温和地走进那个良夜;老年也应在日暮时燃烧与咆哮。咆哮,咆哮,反抗那光的消逝。”(注:“良夜”象征死亡。)
面对可能不可避免的“奇点”时刻,这句诗显得格外贴切。如果说AI终将跨越人类智能的极限,如果“奇点”的降临如同日落、如同黑夜终将到来,那么,我们更应以清醒与批判之姿迎接它的到来。与其温柔地接受,不如勇敢地发问,清晰地界定底线,持续地发出“怒吼”——只有这样,人类才能不被动承受技术洪流,而在“奇点”面前保有尊严与主体性。