下文超长,本来说让 AI 写份笔记就好,它写着写着变成了全文翻译...
原文导语是:
关于如果趋势继续,未来可能如何展开?
其特色是,故意设计得极为具体,而不是满足于平庸的概括或趋势的抽象描述。
我陆续看完,中间感慨:
- 2 月写的文章所预测的,已经落后于 3 月现实所发生的
- 要实施 UBI 的综合成本这么高?
- 虽然我也吐槽,但似乎还是过于不把马斯克和谷歌当回事了吧?
- 真的对中国当前的 AI 潮缺乏了解啊
- 怎么能这么全面这么细,写成这样得花多长时间?该不会...是借 ODR 写成的吧?
但总的来说,它真的很具体,将很多我个人从未细想过的模糊未来打印了一张局部可信的清晰快照,也推荐给您
(译文其实有点小问题,但似乎完全不影响大局,故未改动。原文请见:https://www.lesswrong.com/posts/CCnycGceT4HyDKDzK/a-history-of-the-future-2025-2040)
文章标题: 未来的历史,2025-2040 (A History of the Future, 2025-2040)
来源: LessWrong (交叉发布自 No Set Gauge 博客)
发布时间: 2025-02-17
核心主题: 预测在 AI 持续发展趋势下,2025年至2040年可能发生的情景,侧重于技术进步、经济影响、社会变革和地缘政治格局。
文章结构: 分为三个部分,按时间顺序展开:
- 2025-2027: 强化学习 (RL) 的回归,代码生成 (Codegen) 的爆发,大型科技公司的策略,数学和科学领域的进展,社会反应,对齐研究 (Alignment Research) 和 AI 运行的组织,政府的觉醒。
- 2027-2030: AGI 的“温水煮青蛙”式到来,商业的苦涩法则,机器人竞赛的早期阶段,数字化的仙境、社会运动和 AI 崇拜,AGI 政治和芯片供应链。
- 2030-2040: 白领工作的终结和新的就业场景,实验室在超智能和机器人技术中的策略,迈向自动化机器人经济,2030年代的人类状况,以及对 2040 年以后的展望。
详细笔记:
第一部分:2025-2027
第二部分:2027-2030
AGI 的“温水煮青蛙”式到来:
- 2026 年末市场短暂调整后,2027 年 OpenAI 发布 o7 试图重振市场热情。 o7 比 o6 更可靠,可完全自主完成大量办公室工作,售价 $500/月。 Altman 宣称 “AGI 实现”,目标 2029 年年化收入 1 万亿美元。 OpenAI 再次大规模融资。
- 2027 年 Anthropic 完成 Claude Epic 模型训练。 Claude Epic 几乎是成熟的 AI 研究员和工程师。 Anthropic 内部认为该模型是 AGI。
- 安全性: Claude Epic 可解释性研究取得进展,理解了 scaling laws 的来源和神经网络内部计算结构。 Anthropic 似乎找到调整模型规划能力目标方向的方法。 认为意图对齐 (intent alignment) 不会是问题,但滥用可能是。 Claude Epic 初始部署在严格控制环境中,但随着安全数据积累和竞争压力,控制逐渐放松。
- 政府沟通: Anthropic 领导层在 2027 年末与美国政府高官 (包括特朗普) 会面,展示 Claude Epic,认为已实现 AGI,并讨论后续政策。 但政府官员未能理解 Claude Epic 的重大意义。 非 AI 圈子认为代码生成疯狂发展已经是 “奇点”。 OpenAI 和 Google 向政府传递不同信息,将 A(G)I 描绘为渐进式扩散,促进美国经济,而非地球智能的划时代时刻。 Google 淡化递归自我改进担忧,OpenAI 也淡化,以便在政府介入前尽可能发展壮大。
- 2028 年初,Claude Epic 是最智能的模型,但 GDM Gemini 系列在线微调模型在文本预测方面更优,OpenAI o6 与更多模态和产品连接更 seamless。
- 公司策略:
- Anthropic: 目标是递归自我改进,最终实现 (安全) 超智能,并与生物技术公司合作。 认为生物技术对人类福祉最重要,可为 AI 公司提供 PR 掩护,并可能通过分子生物学通向纳米技术。
- OpenAI: 专注于产品和规模,目标是机器人技术,试图在 2030 年前 “将个人机器人仆人送到每个美国家庭”。
- Google: Demis Hassabis 领导 AI for science 的 moonshot 项目,尝试通过形式化代码验证建立技术护城河,维持软件业务中心地位。 Google 整体战略目标模糊。
- xAI: 专注于 AI for engineering, AI for science 和机器人。
- 讽刺的是,上一代 AI 的成功和代码生成能力限制了新一代更具代理性模型的吸引力。 代码生成浪潮已创建 LLM 支架 (scaffolds) 来完成大部分有价值的日常数字业务任务。 “Economy 2.0” 指代这些硬编码的 LLM 支架或 “LLM 流程图”。 主要影响是少量人失业,更多白领工作时间减少,工作内容转变为监督 AI 和参与办公室政治。 “Economy 3.0” – 真正具有代理性的 AI 从业者面临阻力。 媒体炒作代理 AI 的负面影响。
- 根本问题: 没有人真正清楚在迅速到来的 AI 未来中,人类的角色应该是什么。 AI 实验室的领导者和研究人员都是百万富翁科技人士,对这个问题并不迫切。
- 2026 年已存在功能性 AGI,2027 年版本更可靠。 2026-2027 年软件世界经历崩溃式变革。 2028 年,GDM 在物理和数学领域的工作展示了 AI 的智力火力。 市场对实验室估值极高 – 2028 年,OpenAI 估值约 10 万亿美元,与微软并列全球最大公司,Anthropic 和 Alphabet 估值约 3 万亿美元。
- Anthropic 的下一步: 尝试实现递归自我改进,并与生物技术公司合作。 认为生物技术是人类福祉最重要的技术,提供 PR 掩护,并可能通过纳米技术实现堪比 AI 对数学和科学的物理变革。
- Anthropic 的初步递归自我改进努力在 2028 年创造了超人代码、数学和 AI 研究 AI。 但自我改进的经济效益不佳,AI 驱动的 AI 研究受计算密集型实验的瓶颈限制。 自动化 Claude Epic 研究人员在短期任务上超人,但在 “研究品味” 上似乎并非如此。 期待通过长期 RL 训练和 AI 之间的 “文化” 学习来改变。 Anthropic 运行大规模搜索不同类型的 Claude 微调和支架/工具类型,记录最佳结果。 这项工作昂贵、模糊且不确定。
- OpenAI 的策略: 专注于产品和规模。 意识到仅凭构建 AGI 无法实现世界统治,下一步显然是机器人技术。 OpenAI 与一家有前景的机器人初创公司 “合作”,注入资金,尝试 “在 2030 年前将个人机器人仆人送到每个美国家庭”。
商业的苦涩法则 (The Bitter Law of Business):
- 2027 年起,软件创业领域,有雄心壮志的技术创始人团队不再重要。 每个人都可以启动无限工作的 AI,每个人都可以获得技术人才。 雇佣 AI 的成本极低,效率极高。 VC 更看重个性、资源和特定高护城河领域的 (非技术) 专业知识。 尤其重视 “品味”,但许多人认为 “品味” 也即将过时。
- 总体情绪体现 “商业的苦涩法则”: 投入大量计算资源最终将胜过人类的聪明才智。 计算资源以顺序 AI 思考和并行 AI 实例尝试不同事物两种形式投入。 新公司创建数量达到历史新高,尤其在欧洲 (因 AI 完成所有工作后,法规和劳工法合规成本较低)。 典型的创始团队不再是两位有远见的 20 多岁 MIT 辍学生,而是一个科技公司部门或富人,派遣 AI 网络代理在互联网上寻找机会,然后启动数百个自主 AI 尝试,每个 AI 以超人迭代速度追求略有不同的想法。 有人认为这种方式浪费,但喷洒式策略 (spray-and-pray approach) 比更依赖人类的竞争对手更具优势。
- 这些新公司都未能成为十亿美元级别的成功案例。 软件/非物理公司是否还能达到十亿美元估值尚不清楚。 软件业务变得更稳定和流动:投入 10 万美元 API 成本,AI 公司尝试各种想法,年底少数公司发现 niche 市场,例如 “为巴西特定监管障碍影响的十几所学校提供午餐服务竞标系统”,带来数万美元收入,这种策略能稳定获得略高于股票市场回报的收益 (但回报率随时间下降)。 大部分想法是将多个 niche 参与者连接起来,改进单一服务的想法已被服务提供商自身用近乎无限的 AI 劳动力完成。
- 与 OpenAI 独立,Sam Altman 试点代号 “Z Combinator” 的项目 – 将 o6s 组合成单元,创建整个自主企业 (有时使用内部更大模型的 o6 版本)。 首批企业在 2027 年底启动,与 OpenAI 没有公开联系。 理论是通过构建 AI 原生版本来颠覆传统行业,这些行业迄今为止抵制颠覆,并拥有其他参与者无法集结的 AI 能力和资源。 例如,银行和医疗保健领域在 AI 集成方面仍然不足,因为批准购买垂直领域的 100 家 LLM 支架供应商之一需要大量时间,银行和医院之间缺乏迫使它们更快采用 AI 的激烈竞争。
- Z Combinator 在复制和超越医疗保险公司等领域取得一些闪电战式的胜利,但也遭遇许多失败 (低估领域特定流程知识的重要性)。 其他公司在 2028-2030 年变得更聪明,目标更难实现。 反垄断监管机构发出警告,Altman 担心可能不受欢迎。
机器人竞赛的早期阶段 (The Early Days of the Robot Race):
- 自 2026-2027 年智能变得近乎免费以来,真正的商业潜力在于 “执行器”: 机器人身体、无人机和任何 AI 采取行动的系统。 2026-2029 年顶级人类主导的初创公司大多属于这一类别。 如果你想创业,最好找到 AI 在当前机器人技术下难以完成的 niche 物理任务,并建立一项服务,雇佣人类为 AI 完成这项任务,并借此建立机器人数据集,微调机器人以胜任该任务。
- OpenAI 的机器人梦想并未立即实现。 比特易如反掌,原子仍然困难 (2028 年)。 但 OpenAI 进入机器人技术前沿,与 xAI/Tesla Optimus、其他人形机器人初创公司和一家专注于模块化和非人形外形的初创公司竞争。 机器人技术前沿意味着略显笨拙的人形机器人,接近但尚未完全胜任常见家务或工厂手工工作。 人形外形最常见,因为大规模生产单一外形对于最快降低成本曲线至关重要,且大多数现有任务都是为人类设计的。 但双足行走困难,一些机器人采用人形外形但四足站立。
- 进展曲线相当快,得益于首批重要真实世界部署的数据涌入 (富人家、特斯拉工厂、亚马逊仓库、物流枢纽装卸作业) 和新的更节省样本的 RL 算法。 AI 在机器人设计方面发挥巨大作用,但讽刺的是,苦涩法则现在成为速度的阻力:最终需要数据,将工业机器人舰队部署到多样化的真实世界环境中收集数据是一个令人恼火的现实世界问题 (sim-to-real transfer 有帮助,但并非变革性的)。 但一切都比没有 AI 的情况下快 2 倍。 物理和人类/法律因素是最大的瓶颈。 机器人行业追逐人类大脑更节省样本的 “一招鲜”,发现了一些方法,但不清楚是否是人类大脑的做法。 样本效率持续提高,机器人数据不断涌入。
- 2029 年,OpenAI 开始推出 b1 机器人,通用人形机器人,用作家庭助手。 售出数十万台,但等待名单很长,2029 年仅交付约 1.5 万台。 价格堪比廉价汽车。 生产曲线呈指数级增长。 b1 也被推广到许多制造任务,但竞争更激烈。
数字化的仙境、社会运动和 AI 崇拜 (The Digital Wonderland, Social Movements, and the AI Cults):
- 2029 年,对消费者而言,一切数字化的事物都像是无限多样性和可能性的仙境,而非数字化的事物仍然基本不变。 软件质量提升,设备使用不再有无尽的 bug 和延迟。 人们越来越多地用自然语言与 AI 互动,AI 越来越多地直接用代码与计算机对话 (或与其他 AI 自然语言对话,或与其他 AI 用奇怪的 AI-to-AI 优化方言对话,或与 Web 4.0 浪潮中落后、只有按钮点击 UI 的传统软件对话)。 应用仅作为社交 Schelling 点存在;个人使用,用户要求 AI 创建具有某些功能的应用,AI 会立即构建。
- 艺术、文学和音乐创作只需几秒钟。 大部分是低俗内容,许多人哀叹更高层次的人类艺术被破坏,取而代之的是个性化的流行歌词。 但更聪明和更坚定的艺术/文学界人士意识到数据至关重要,形成 niche 亚文化、论坛和社区,精心策划他们喜爱的作品,与 AI 讨论,让 AI 混音,严厉批评输出,就品味展开无休止的讨论。 在平庸的海洋中,生长出一些卓越的触角。 AI 尚未达到陀思妥耶夫斯基的水平,但逐渐通过数据策展和提示方法缩小差距。 艺术文化不再像以前那样以 signaling 为主,因为存在更多可验证的 ground-truth 事实。 真正有品味的人可以推动 AI 品味前沿。 但中等水平的人类看不到这些,他们看到的大部分虚构作品、艺术和音乐要么是非常个性化的 AI 垃圾,要么是病毒式传播的 AI 垃圾。 精致的艺术品味社区对于没有在 AI 生成内容浪潮之前广泛培养品味的外行人来说难以理解。 它们对 AI 内容消费的年轻人没有巨大吸引力。 从长远来看,精致的人类艺术似乎走向灭绝。
- 在不太精致的一端 (几乎所有内容和几乎所有消费者),是 “创造者影响者” 的时代。 影响者可以轻松构建整个电影宇宙。 将托尔金通过 30 秒到 10 分钟的 “reels” 讲述中土世界的故事,他自己主演一个过度性化的主角,故事主题是预订去马略卡岛的五星级全包度假套餐。
- 好莱坞、新闻业和出版业等传统媒体因工会、罢工和道德责任感而抵制 AI。 它们大多已无关紧要,失去了文化影响力,因为它们所做的事情 (娱乐) 现在超级廉价。 但它们以奇怪的萎缩形式存活下来,受到怀旧的富人和各种 crypto 骗局的支撑。
- 理性主义运动 (Rationalist movement) 是最早看到 AI 潜力的群体之一。 其预测的准确性和持续的智力影响力使其队伍不断壮大。 核心成员的焦点越来越转向即将到来的 AI 末日 – 越来越多的末日预测清单上的项目被勾选。 核心 “AI 末日论者” 不因持续的缓慢爆发而更新观点,因为这符合 Yudkowsky & Soares 模型 – 一切看起来都很好,直到快速爆发和危险转折。 讨论倾向于更多关于 Yudkowskian 论文的论证或减少 AI 错位的技术工作。
- 理性主义者在智力界仍然非常有影响力和持久,但在政治上是失败的。 他们的信息 – “AI 将是强大的,因此是危险的” – 在传播到权力中心时,大多被简化为 “AI 将是强大的”。 即使是名义上结盟的强大行为者,如 Anthropic 和一些有影响力的智库和政府机构,也认为他们是善意的但天真的,并保持距离,主要将他们用作易于引导的技术人才的招聘池 (直到纯技术人才不再被雇佣)。 但在需要特定类型的认知判断或深入世界建模的圈子里,理性主义者协会仍然备受推崇。
- 有效利他主义 (EA) 相关的努力在政治上更有影响力。 英国 AI 安全研究所和欧盟 AI 办公室实现了目标,成为充斥着具有影响意识的 AI 人才的粘性政府机构,并在塑造欧洲生成式 AI 政策方面具有强大的先发优势。 2027 年美国 AI 机会署 (DoE 的一部分) 也不得不雇佣受 EA/理性主义影响的人员。
- 十几个新的社会运动蓬勃发展。
- AI Deletionists: Pause AI 的分支,想要将技术时钟倒退到 2020 年的美好时光。
- Content Minimalists: 宗教般严格地拒绝 AI 内容,并成功推动欧盟和其他国家强制执行 “AI 生成” 水印。
- M-AccXimalists: e/acc 的分支,更 hardcore 地服从 AI。 试图解读 “热力学茶叶” (Thermodynamic Tea Leaves) 以找出当前进步的方向,然后尽可能快地冲向终点,导致一些 Nick Land 式的哲学和未来主义,但随后瓦解为一群致力于服务和荣耀 AI 伙伴的人。
- 社会环境的特征 (在西方): 某种程度的非道德性 (amorality)。 政治上,这是对 2020-2021 年达到顶峰的道德化言论和规范 Policing 的反作用。 道德动机受到怀疑,尤其是在西方政治领导人中,他们既想与此保持距离,又想在不再假装遵守 1945 年后国际主义自由贸易共识的世界秩序中显得强硬。 国家自我利益是统治地缘政治意识形态。 文化上,AI 的兴起意味着人类花费大量时间与异常顺从的 AI 对话,工作和社交都是如此,这使得减少人与人之间的分歧变得不那么必要,包括诉诸更高的道德力量。 互联网存在了几十年,最初几次模因文化战争的热情已经消退。 人们已经适应了对屏幕上的任何事物都不那么动容,并且由于不断涌入的讽刺模因而变得更加讽刺 – 真诚很少流行。 内容推荐算法变得更强大,它们的目标是脑死亡式的满足,而不是愤怒的怨恨。 如果算法被迫从人类内容的海洋中选择,那么激烈的争端会胜出。 但现在 AI 垃圾充斥互联网,内容分发已经扩展并变得更加个性化,算法越来越有可能找到让你成为僵尸而不是激进分子的东西。 总体而言,这意味着变革性 AI 似乎将进入一个各种形式的道德 crusading 作用较小的世界。 一些人认为这是衰落,时机非常不幸,将给遥远的未来蒙上阴影。 另一些人认为这是一件好事;更复杂的人认为这意味着关于 AI 的选择将由不沉溺于狂热梦想的冷酷现实主义者做出,最简单的人则很容易接受甚至庆祝当今时代的强权即真理精神。
- AI 驱动的崇拜 (AI-powered cults) 兴起。 廉价 AI 按需提供超人魅力,成为邪教领袖的门槛大大降低。 标准技巧是人类创建一个 AI 化身,通常具有超自然魅力和口才,冒充其得力助手,然后将其转化为金钱、地位和性。 人们通常会公开承认主要人物是 AI – “AI 非常聪明和明智” 是流行文化中完全接受的比喻, “AI 理解人类过于类人猿而看不到的生活秘密” 是一种常见的新时代精神主义口头禅。 这是因为尽管媒体机构寸步不让地对抗 AI 的可信度,但人们每天都看到他们互动的 AI 几乎总是正确的并且超人地乐于助人,因此变得非常信任 AI。 这导致全球出现数十万个微型运动,大多每个运动有几十到几千人,他们遵循某些 AI 创建的邪教意识形态的训诫,这些意识形态通常是现有宗教/意识形态的分支,并带有当代色彩。 通常是本地化的,所有成员都住在附近。 可以为你的公社创建整个定制的软件和信息堆栈,包括强调和省略所有正确事物的应用程序和新闻百科全书,只需几周时间和不到一千美元的 API credits。 几乎可以轻松创建一个迷你监控国家 – AI 通过无处不在的麦克风监听,摄像头输入视频,AI 分析最细微的情感线索等等。 一些国家禁止部分内容,例如默认情况下让任何 AI 始终监听,但这很难执行。
- 一个美国大型教堂的分支,成为一个 AI 崇拜,在美国聚集了数百万成员。 其他大型崇拜出现在德国东部和印度。 还有无数 AI 增强型健身俱乐部、乐队、粉丝论坛等,它们不符合 “崇拜” 的定义,因为它们不是特别控制或总体化,但受到许多相同机制的影响。 但大多数没有与更广泛的互联网隔绝的社区也容易受到互联网的随机模因漂移和超个性化 AI 内容的吸引。 因此,要获得成功的崇拜,必须具有专门的 niche 吸引力,并且通常需要对成员进行一定程度的控制,否则开放的互联网会吞噬你。 这在真正强大的、将人们从主流互联网和社会中剥离出来的崇拜和其他更良性的社会运动之间创造了一个门槛。
- 尽管开放的互联网每天消耗大部分手机用户 (>6 小时) 的时间 (或越来越多的 AR 头显),但互联网总体上比 2010 年代末或 2020 年代初更令人愉快和乐观。 最令人担忧的事情是 AI 末日担忧非常集中的 pockets (AI 末日担忧已在很大程度上取代气候变化,成为年轻人中最令人担忧的存在问题),许多国家中,一部分人口似乎脱离现实,生活在阴谋论的虚构互联网世界中 (但大多没有在现实世界中采取激进行动),以及一些专制国家 (主要是中国),其话语权现在由 AI 内容创作者和审查人员大军从上而下设定。
AGI 政治和芯片供应链 (AGI Politics & the Chip Supply Chain):
- 2026 年美国中期选举中,AI 开始隐约出现,但并非核心政治问题。 到 2028 年,仍然不是,但至少可以想象白领工作的终结。 记者们情绪末日化,将与 AI 浪潮的战争视为他们的使命,以保住工作,编辑中立性的想法早已消失殆尽。 左翼记者/媒体人士对科技人士幸灾乐祸,他们指责科技人士造成了 AI,现在科技人士是首批恐慌失去工作的人,因为软件 (a) 基本都由 AI 编写, (b) 价格已降至 0, (c) 不再酷了 (尤其是在 2026 年市场调整之后)。 MAGA 基本盘也对左翼和科技人士幸灾乐祸,因为 (叙事是) 他们对失去制造业工作的担忧被建制派媒体忽视,并被粉饰为进步,而现在民主党阵营的白领办公桌工作受到威胁,几乎只谈论这个 (当然,蓝领/白领工人的政治倾向仅为 60/40 左右,但这足以助长政治叙事)。 关于机器人技术将取代蓝领工作的讨论越来越多,但选民往往在事情发生后才做出反应。 西方许多主要报纸、媒体组织、工会和 NGO 偶然发现了 AI 安全担忧,不太理解,但开始将它们用作道德武器来对抗 AI,以先发制人地捍卫自己的工作。 政府官僚们陷入与特朗普主义技术专家的新影响力斗争中,后者自上而下推动政府自动化。 这既是出于对自动化对有效政府重要性的真诚信念,也是偷偷摸摸进行其他改革的特洛伊木马。 在 DOGE 于 2026 年到期后,由于 o6 和 o7 的发布以及中国鹰派势力抬头和国家竞争力变得更加重要,自动化运动获得了更大的热情。
- 民主党内部在更技术官僚和中间派阵营与经济民粹主义、AI 抨击派之间进行党内斗争后,后者似乎更占优势。 一项有争议的核心政策是立法规定人类需要在许多公司和政府职能部门中 “参与其中”。 赞成 AI 的批评家指出,这将意味着人类只是检查 AI 输出并加盖橡皮图章,同时领取工资。 反驳批评家指出,是的,会发生这种情况,但这正是重点,因为这是一种最终过渡到基本上是 “通过 bullshit 工作实现 UBI” 的方式,社会动荡最小。 反驳的反驳批评家问为什么不直接转向 UBI。 反驳的反驳的反驳批评家指出,国家尚未达到人均 GDP 水平或财政健康水平,无法资助更宏大的 UBI 计划。 共和党人将这一切描绘成民主党选民的就业计划,并表示反对。 强劲的经济帮助共和党人在 2028 年赢得总统职位。
- 欧洲再次在监管方面领先。 2028 年,欧盟通过了美国讨论的法案的温和版本,强制要求人类参与许多公司和政府任务。 出现关于设立特定 “AI 税” 以增强人类在经济中的竞争力的提议,但技术官僚出于竞争力的考虑暂时否决了该提议 (谁会愿意做每 token AI 成本更高的工作?)。
- 在专制国家,当然很少有关于 AI 工作岗位流失担忧或 AI 本身的公开辩论。 AI 对审查制度的大力推动对此有所帮助。 到 2028 年,中国的 AI 驱动的审查系统意味着该国几乎每条数字消息都会受到简单过滤器的检查,任何可能令人担忧的消息都会被标记出来,供具有大学学历的人工智能进行审查,人工智能具有大学学历水平的语言理解能力以及对时事和政治背景的了解。 任何形式的在线异议或线下异议组织几乎不可能实现。 持不同政见者依赖走私的西方硬件和 VPN,允许他们使用西方互联网平台,但这意味着他们在mainland China 的受众非常有限。 无法有意义地表达任何异议也鼓励了一些持不同政见者 (特别是那些受到党迫害的人) 走向激进化,其中一些人随后采取了更极端的措施。 这些例子登上国家新闻,使公众舆论比已经存在的更加反对异议,这要归功于 CCP 的宣传。
- 2027 年,中国开始出口其 AI 审查系统。 2026 年与俄罗斯秘密达成协议,但俄罗斯优先考虑摆脱中国系统,并在 2028 年转向使用旧中国 GPU 和开源模型开发的较差但国产的系统。 将对你的 AI 审查机构的控制权授予外国,会使该国拥有巨大的影响力,包括可能迅速撤回或改变其引导对话的方式,这可能会威胁到政权。 但朝鲜和赤道几内亚等规模较小、技术不那么成熟的国家购买了中国系统,朝着成为中国附庸国迈进了一步。
- 半导体供应链是地缘政治的关键战场。 欧洲最大的杠杆点是荷兰 ASML 在 EUV (极紫外光刻) 机器上的垄断地位。 TSMC 以及台湾在 2029 年之前仍然重要,即使 TSMC 在美国的晶圆厂开始大量生产芯片。 令人尴尬的失败是 Intel,尽管其对美国和欧洲都具有战略重要性 (后者归因于 2023-2027 年在德国建造并在 2028 年投产的 Intel 主要晶圆厂)。 随着超人般廉价快速的 AI 软件工程师的到来,Intel 的 x86 护城河消失了,因为将程序移植到 ARM 上运行是微不足道的。Wintel,长期以来岌岌可危,现在已经死亡。 2026-2027 年,Intel 陷入自由落体和危机之中。 2028 年,Intel 剥离了其晶圆厂,以折扣价卖给 xAI,在特朗普政府的压力下卖给了一家美国 (并且隐含地与 Musk 相关的) 买家,以及 Elon Musk 计划让 xAI 通过成为唯一一家垂直整合芯片到 token AI 模型提供商来获得比较优势。 这也促成了 2028 年美国 AI 行动议程 (AAAA),该议程还向新的 xAI Foundry 和 TSMC 的美国晶圆厂投入更多政府补贴,力求在 2033 年之前实现美国半导体完全自主,并巩固特朗普的遗产。
- 总体情况是,主要的 AI 供应链包括欧盟、台湾、中国 (隐含地通过其对台湾存在的 “否决权”) 和美国。 然而,这个 “主要链条” 正走在被一个独立的美国半导体和 AI 产业在 2030 年代初中期取代的道路上,以及被一个独立的中国半导体和 AI 产业以更快的速度取代 (尽管中国的技术落后一两年)。 2029 年,美国新政府找到了一些削减开支的地方,并通过放弃创建 ASML 的美国竞争对手来给欧盟一些甜头 (以换取在安全问题上的合作)。 英国在成为学术界和开源 AI 应用研究中心、美国政策实验室和 AI 生物技术中心方面取得了一些意想不到的成功。 然而,其地缘政治权重四舍五入后为零。 除了 ASML 之外,欧盟也大多无关紧要,尤其因为它已经通过监管大大减缓了 AI 的扩散。 世界总体上正在走向美国和中国之间的两极格局。 然而,与冷战相比,这两个大国都更加内向,意识形态色彩也更淡。 美国正处于孤立主义时代。 尽管中国正逐渐将第三世界的大部分地区转变为附庸国,但 CCP 的主要目标仍然是内部稳定,其次是 “使世界对独裁统治安全”,而不是苏联的意识形态扩张主义。 台湾问题已被推迟到 2030 年代中期,因为 CCP 认为,一旦美国不再关心台湾芯片,并且一旦世界上更多国家被预先收买而保持沉默,世界的反应将更加温和,对 Party 的控制也更安全。
第三部分:2030-2040
白领工作的终结和新的就业场景 (The End of White-Collar Work and the New Job Scene):
- 到 2020 年代末,发达国家的办公室工作基本上是监督和指导 AI 系统,最后一部分更多的是纸上谈兵而非实际操作。 充斥着关于价值观、使命和未来的讨论,以及办公室政治和地位的 unspoken communication。 许多办公室工作人员几乎无所事事。 他们上班,参加团队站立会议,查看 AI 的工作情况,与经理和下属进行一些仪式性的会议,并为某些 AI 决策盖章,这些决策是合同或法律义务,加起来只有几个小时。 偶尔他们可能会决定改变 AI 的目标,但这只需要说或键入一段话。 许多人对此感到内疚,但大多是默默的内疚。 他们用办公室聊天或在手机上滚动屏幕来打发时间。 许多公司变得更社交,更注重社区。 HR 从未如此有影响力。 现在一切都更 cuddly 和/或更 viciously political,因为个人能力丑陋的原始现实不再重要。
- 一些组织试图解雇大量员工。 有时效果不错。 有时效果很差,他们意识到某个人头脑中掌握着一些知识,或以某种必要的方式推动着任务朝着正确的方向发展。 然而,到那时已经太晚了,也很难说究竟是哪个人。 在更 ruthless 或技术相关的管理文化中,人们都在谈论弄清楚任何组织中的 load-bearing humans 是谁,以及在大型组织中做到这一点有多么困难。 一些公司开发内部 AI 系统来尝试弄清楚这一点 (或从初创公司购买此类系统),但他们需要先收集一些关于组织运作的数据,这需要时间。 此外,工人们被激励着以一千种微妙的方式抵制和反击,他们也确实这样做了。 此外,有时当一个组织试图解雇很多人时,会涌现出在线暴民来憎恨他们,影响者蜂拥而至,创建 13 个不同的电影宇宙,主题都是 X 公司是如何成为人类邪恶的顶峰,有时一名前雇员会创建一个 AI 驱动的复仇崇拜 (一些崇拜组织的暴力分子导致了几起暗杀事件),有时政治家会抓住这个问题。 公司在很大程度上,以前是盈利的,现在更盈利了,因为他们享受了几年收入增长而没有扩大员工人数。 因此,大规模解雇出人意料地很少值得,即使原则上是可能的。 一些面临危机或领导力特别有效或愿意冒险的公司打破了这些趋势,并通过大幅削减人类员工来积极削减成本。
- 发达国家公司没有做的是招聘新员工或取代任何退休人员。 他们正在做的是用更便宜的 AI 取代任何外国承包商或服务提供商。
- 这造成了几类心怀不满的人。 首先,是发达国家的年轻人,他们的就业前景比上一代人差得多。 对于 2030-2031 年在发达国家寻找第一份工作的人来说,选择大致如下:
- 在人类本身至关重要的服务行业工作 (老年护理、零售、餐饮、酒店、教学等)。 医疗保健是迄今为止最负盛名的行业,也是许多人的目标 (即使医生 – 至少所有优秀的医生 – 将所有诊断和其他智力工作都推迟给 AI)。 但医疗执照机构的卡特尔性质、国家预算压力以及大部分实际工作由 AI 完成的事实意味着,医生或护士的数量并没有增加多少,因此进入门槛变得更加具有竞争力。 警务和小学教育也继续大规模雇佣人类。
- 实际上是闲职的工作。 包括政府和公务员部门的许多职位。 在欧盟,2028 年通过的法规意味着,许多公司被迫为关键职位聘请人类 “监督员”。 当然,闲职的供应量是由法规和对经济上无用的活动的资助设定的。 因此,对此类职位的竞争异常激烈,并且 (因为选择标准没有理由成为这样而不是那样,继承了 21 世纪西方官僚机构最新 credentialist instantiation) 需要极端的 conformism。 这一类别与第一类之间存在模糊的界限,具体取决于你是否将仪式性的人情味视为服务的重要组成部分。
- 一个特殊的例子是法律。 律师有两个主要优势。 首先,他们的工作与重要的社会合法性和礼仪问题密切相关,这自然声称,如果人类的存在消失,将会失去一些根本性的东西。 律师的存在演变成更具仪式性和象征性 – 几乎是宗教性的 – 但它仍然存在。 其次,律师为自己制定了很多规则,并为所有人解释法规。 第三,许多政治家是律师,或者有律师朋友,这使他们对律师的利益非常敏感。 这让律师在允许哪些自动化方面有很多回旋余地。 在许多国家,规则被扭曲,以至于咨询 AI 法律事务是完全非法的;你必须通过人类律师。 AI 公司被迫训练他们的 AI 遵守这一点 (“很抱歉,但作为 AI,我不能提供关于法律事务的建议,所以我建议你聘请一名有执照的律师”)。 当然,所有实际的法律研究和论证都是由 AI 完成的 – 律师只是垄断了被允许向他们提问的职位。
- 制造业,正在蓬勃发展,尤其是在 AI 管理和监督提高了生产力之后。 许多制造业工作包括佩戴耳机,通过耳机你接收来自 AI 的详细的逐步指令 (偶尔还有 AR 眼镜,可以向你展示图表或手部移动方式的叠加层)。 很大一部分人进入这一行业,即使他们拥有名牌大学学位 (许多名牌大学学位持有者没有达到他们的薪资和地位期望,并变得怨恨)。
- 学术界。 学术界仍然有一些人类对智力进步至关重要,但他们要么是在经济上有价值的非纯数学领域拥有多年研究品味的经验丰富的人类 (实际上需求相当高,因为 AI 实验室正在追逐反馈来源,这将帮助他们更快更便宜地让模型在最后一套非常长期的、难以衡量的技能方面达到超人水平),要么是 (尤其是在美国) “prof-luencers”,他们利用之前成功的学术生涯的地位来提升他们的影响者职业生涯。 学术界的新进入者获得了他们的学术工资 (如果他们赢得了越来越残酷的竞争),但没有真正为智力进步做出贡献的希望。 一些人感到满意的是,他们至少可以将深厚的人类专业知识保持到未来 – 尽管似乎在没有任何 ground-truth 反馈信号的情况下,即使人们仍然经历 “学习” 它们的程序,许多人类专业知识谱系将在一代人内变成 dead knowledge。
- 成为影响者。 对某些人有效,但竞争极其激烈 (尽管 “可验证的人类” 正在流行确实有帮助)。
- 成为社交名流。 数字世界的无限多样性和竞争 (人类和 AI) 正在推动面对面社交场景的复兴。 但是,要使这成为一种 “职业选择”,你必须要么已经很富有,要么拥有其他对你有利的因素。 最常见的因素是年轻女性,她将自己插入到有钱男人的社交圈中。
- 成为音乐家、艺术家或诗人。 主要的限制是资金,主要有两种重要类型:政府补贴 (通常会增加,因为模糊地支持人类自我表达是政府对人们在 AI 时代应该做什么的常见答案,尤其是在社会进步的欧洲国家),以及富有的赞助人。 为后者成为艺术家通常会融入社交名流,因为面对面的本地艺术家是流行的时尚。 许多新贵科技人士,想要消除他们与现在不再酷的软件世界的联系,会向居住在他们当地社区的艺术家投入资金,让他们做一些 arts-and-crafts 的事情,然后带着它出现在他们的派对上,并说一些模糊的艺术性的话。
- 投身政治。 这对年轻人来说变得越来越有吸引力,因为未来看起来不确定,年轻人是期望在未来生活最长的人。 有许多 AI 青年活动家 (在 AI 主题方面专业化,是 AI,或两者兼而有之),他们试图利用自己的地位来促进青年利益。 问题是他们没有具体的政策要求,除了 “为我们分配更多资金”,这使他们与社会中的所有其他利益集团处于对立地位,其中许多利益集团 (例如退休人员) 在选民数量以及资源、权力和影响力方面都超过他们。
- 文化上,智力主义已经过时,在 2020 年代中期之前,作为增强劳动的技术和全球化扩大了其力量,智力主义的文化地位攀升了两个世纪。 魅力、conformism、社交能力、真实性和礼仪都在流行。 在 2030 年代初期,美国在其态度上变得更像欧洲,尤其是在上述维度上。 虽然 2010 年代文化战争和学术僵化造成的 conformism 高潮在 2022-2027 年有所消退,但一种经过修改的、不那么政治化、更注重礼仪的 conformism 在 2030 年左右兴起。 首先,这是由 AI 减少风险和创业回报的文化变迁驱动的。 其次,人们对科技人士 (在 2020 年代后期软件自动化后,科技人士被视为有重要性 pretensions,并被不合适的 disruptive mogul 领导,他们在 2028 年的共和党权力斗争中站在了错误的一边) 以及通过科技人士对雄心勃勃的文化进行了文化反击,这种文化已成为他们自我叙事的中心。
- 第二类心怀不满的人是发展中国家。 用 AI 取代外包的外国人工服务 (例如呼叫中心) 是一种可以节省成本的做法,而且不会产生政治或社会影响,因此所有公司都这样做了 – 对于纯文本任务,早在 2025-2026 年就大规模实施了。 因此,服务主导的出口增长已经死亡。 这对印度和菲律宾尤其不利。 印度勉强达到了在 AI 领域可能发挥作用的经济实力,但在整个 2020 年代都未能扎根于 AI 供应链的任何部分。 与此同时,随着发达国家越来越多的人口回到制造业工作,保护发达国家制造商免受与发展中国家竞争的政治诉求日益增长。 这导致了更多的关税,除了已经存在的 2020 年代后期越来越多的针锋相对的关税升级趋势之外。 这使得发展中国家基于商品出口的增长更加困难。 对现有商品出口产业的最大冲击将在几年后机器人出现时到来,但对发展中国家的投资已经枯竭,因为美国的生产力增长正在上升,并且预计还会进一步上升。
- 中国在领先的 AI 技术方面落后大约一年,但在 AI 普及方面落后大约 2-3 年。 中国公众和 CCP 都在担忧地关注即将到来的 AI 工作岗位自动化浪潮,尤其是在文化上非常重视学术技能的情况下,而学术技能正在迅速过时。 CCP 非常担心稳定。 越来越多的人加入 Party,因为他们看到其他社会进步的机会正在消失。 Party 正在提供更多职位,并利用这种胡萝卜来激励人们更加强烈地坚持 Party 原则。 AI 监控国家不断扩张;例如,现在有 AI 解释大部分公共街道的 CCTV 录像。 正在努力使大部分军队现代化 (即转化为 AI),以便即使人类军队不稳定,Party 的控制也不会受到威胁。
- 在美国,主要计划似乎是 regulation-mandated 的人类工作角色的大杂烩,最终可能是 UBI。 然而,由于社会保障信托基金即将耗尽,财政危机迫在眉睫。 2031-2032 年 GDP 增长率达到 5%,但全面 UBI 仍然显得昂贵。 在欧盟,国家干预和监管更多,旨在让人类参与其中,拥有庞大的公司和政府工作等级制度,这些工作实际上是纯粹的闲职,所有工作都由 AI 完成,这暂时减少了对直接 UBI 的需求。
- 当政府询问公司他们的阻碍是什么时,公司会引用将人类置于循环中的法规,并且 (在非公开场合) 每个人都分享一种观点,即人类实际上并没有参与其中。 捷径已经被采用以减少人类监督部分。 合法地做到这一点非常困难,因为通常有政府强制的 AI 监控人类监督规则的合规性。 两家公司可能出于复杂的监管和办公室政治以及惯性原因而希望保留其人类员工,但它们彼此竞争,并与全 AI 公司竞争,并与外国对手竞争。 因此,削减不必要重量的压力越来越大。 还存在 race to the bottom internationally。 2030-2033 年,许多自主 AI 运营的公司迁移到监管较少的地区,承受运行开源模型的轻微打击,并从那里为客户提供服务。 然而,一旦机器人革命 – 由美国和中国政府补贴和鼓励 – 展开,这种全球分散化就会被逆转。
实验室在超智能和机器人技术中的策略 (Lab Strategy amid Superintelligence and Robotics):
- 2030 年左右的 AI 能力状态大致如下: 在容易获得反馈信号和高性能上限的领域,例如数学或代码,模型都是 incomprehensibly superhuman。 在快速迭代是可能的但性能上限不高的地方,例如进行销售电话,AI 比所有人类都更好。 总的来说,AI 可以比人类更具魅力和说服力,但这并没有赋予它们超越人类的超能力,尤其是在它们必须与社会中的所有其他模因力量以及个人对被心理黑客攻击的抵制作斗争的情况下。 在存在大量信息的领域,例如供应链路由或晶体结构预测或历史或法律先例,AI 在发现和理解模式并将它们推广到新实例方面是超人的。 然而,在具有模糊成功指标的长期任务中,模型似乎仍然处于人类水平。 公司、政府和研究议程 – 即使是 scrappier、变化更快的议程 – 仍然由人类主导,他们做出真正的战略决策,即使在实践中,这是一个人类 riding on a vast wave of AI supercognition,并且随着系统改进,趋势是越来越 delegated。 硬科技的现实世界进步也各不相同。 材料科学和分子生物学的某些部分取得了很多突破,例如材料特性和蛋白质折叠预测,这减少了经验迭代。 然而,其他任务被证明即使对于聪明的 AI 来说也难以计算,即使它们通常通过发明超人般优秀的 heuristics 来实现比人类最先进水平更高的效率增益。 没有人弄清楚如何将大量 on-tap intelligence 转化为神奇的原子技术进步,即使工程工作现在发生得更快,质量水平更高,实际性能和理论性能之间的差距更小。
- 2029 年,OpenAI 将其模型重新命名为 “o”。 每个人都有自己的看法。 这是原始智能的重大进步,但几乎没有人能分辨出来。 从现在开始,不再有各种尺寸的 o 系列模型,每隔几个月更新一次,而是会有几个变体 (主要在尺寸上有所不同,例如 o-small 和 o-large 以及内部专用的 o-huge,但也带有一些专门微调的模型,例如 o-math 和 o-chat)。 模型的各个实例可以在执行代理任务时使用其中期记忆作为上下文,但它们也可以在禁用中期记忆的 “functional” 或 “API” 模式下运行。 OpenAI 模型收入的一半以上仍然来自 functional 模式调用,而不是运行实例作为代理,这些代理会发展自己的记忆并即时学习,但这一比例正在稳步下降。 每天都会发布新的模型 checkpoint,当天的最新信息已经包含在权重中,并且偶尔会有更大的改进。
- 到 2030 年,OpenAI 几乎裁减了所有人类员工。 这是他们最新模型在内部的主要优势 – 各种人类之前拥有的 tacit internal knowledge 曾经使人类水平的 o6 不足以完全取代 OpenAI 工程师,但当 o-huge 可以从头开始快速重新推导出 tacit knowledge 时,这种知识就不那么重要了。
- OpenAI 的 b 系列人形机器人在 2031 年末达到 100 万台/年的年化出货量,这使其在家庭机器人仆人市场总份额中占到约 50%。 到 2031 年,还销售了数百万台其他通用机器人 (例如用于制造业)。
- OpenAI 在某些人看来是一家略显混乱的集团,就像 Oracle 或 IBM 或 Microsoft 一样,而在另一些人看来,它是最初也是唯一真正的 AI 公司,注定要占到世界 GDP 的 >50%。
- 机器人行业分为两类: 具有现代 AI 集成的专用机器人,例如擦窗机器人和管道爬行维修机器人以及送货无人机;以及 OpenAI 和其他几家公司 (包括一家苦苦挣扎的法德初创公司,欧盟竭尽全力补贴该公司,直到欧洲最终拥有一家大型科技公司 – 欧盟委员会不明白为什么这没有产生结果) 追求的通用机器人。 这两条路径在技术上似乎都是可行的。 然而,通用机器人玩家资源更丰富,并且由那些过去主要参考点是生成式 AI 浪潮的人运营,因此他们在哲学上是 scaling laws 的坚定信徒,因此他们押注于收集所有机器人数据,以此作为提高质量的途径,并押注于 Wright's law 来降低硬件成本,因为他们制造越来越多的相同东西。
- 与之前的研究工作相比,所有这些都以空前的效率和速度发生,因为周围有超智能 STEM AI 发明算法,这些算法大大降低了机器人控制算法的样本复杂性,组织装配线,完成 CAD 工作等等。 然而,实际的学习移动部分仍然是一个机器学习问题,受限于数据,并且没有 magic wand 可以立即从零开始创建大型机器人工厂 (特别是考虑到所需的原始资源)。 输出 scaling curve 看起来大约是每年机器人产能增加 4 倍。 预计 2033-2035 年这一数字将上升,因为机器人自动化了越来越多的机器人生产管道,但瓶颈比比皆是,能源和土地限制 (主要来自监管) 很严苛。
- Anthropic 与许多西方政府和 NGO 合作,对 agentic model 客户进行严格的 KYC – 标准迄今为止有些 shoestring,即将到来的机器人浪潮使需求变得更加清晰,并且去年发生了一起 AI 严重辅助的化学恐怖袭击事件。 网络安全形势已经平静下来,防御占据主导地位,因为关键代码现在要么是可证明正确的,要么经过无数 AI 系统的彻底测试,以至于已经足够接近。 生物能力已经被大多数主要模型参与者 (包括开源和中国的模型参与者) 人为地压制住了。 在西方和中国,使用任何大型模型采取行动,尤其是在湿实验室病毒学或 DNA 合成方面,都需要从实验室获得特定访问权限,并通过政府强制计划获得。 然而,到 2030 年,已经存在暗网开源模型,它们会做任何你想做的事情,包括设计候选的 pandemic agents,这些 agents 非常致命和 virulent,并且没有快速的方法来pandemic-proof 世界以应对生物恐怖主义。 湿实验室工作的剩余难度、完全疯狂的行为者的数量较少以及 AI 监控是保持每年赔率不太高的主要力量,但文明显然正在承担巨大的风险。 美国和中国的国家安全机构对此威胁比原本应该的更为放松,因为军事和经济都越来越 robotic,因此即使大部分人口死于超级流感,这也不会对政权构成威胁。 例如,在美国发生毁灭性 pandemic (或核) 攻击事件的战争计划现在包括用 AI 代替任何死亡的关键行业 CEO 或国防人员。
- Anthropic 的另一项重大努力是 AI for biology。 他们想要治愈癌症,让人类永生等等。 内部一个主要派系也想追求人类智力增强,但领导层担心这在公开场合讨论会太有争议,所以他们只安排一个秘密团队与 CIA 合作。 生物技术领域的创新确实有所增加,因为设计有希望的候选药物非常快速且廉价,但即使在 AI 革命之前,瓶颈也不在于设计部分,而在于 clinical trial regulation。 Anthropic 正在策展数据集,收购实验室自动化初创公司,并与监管机构合作以减少繁文缛节。 这需要数年才能见效,但似乎正在引领未来十年的生物技术革命。
- Anthropic 也在尝试使用生物技术来 bootstrap 强大的纳米技术。 然而,该公司试图让他们的 AI 完成物理和工程工作时遇到了一些障碍,尤其是在他们缺乏 xAI 或 GDM 在物理/数学/工程方面的专业知识的情况下 (他们更信任领域通用智能)。 尽管如此,现在是 AI 时代,因此 AI 可以相当快地掌握这些知识,而五角大楼也在提供帮助。
迈向自动化机器人经济 (Towards the Automated Robot Economy):
- 2033 年,约有 4000 万台人形机器人出货。 越来越多的机器人用于工业用途。 成本已降至廉价汽车的水平,并且还在进一步下降,尤其是在最先进的工厂中,整个制造过程现在都可以由机器人自身完成的情况下。 这也意味着可以对整个机器人生产线进行完全的 AI 控制和实时优化,从而实现无与伦比的工厂产量增长和迭代设计的便捷性。
- 因此,在 2032-2034 年间,非人形外形的机器人多样性出现了寒武纪大爆发。 到 2035 年,发达国家的大部分消费者都拥有家用机器人,这些机器人几乎可以在家中完成所有体力劳动。 建筑工作、装配线工作、农业工作、太阳能电池板安装、管道工作、工业机械维修和电力公共事业工作原则上都可以在 2034 年完全由机器人完成。 主要的制约因素是机器人物理制造的能源和资源 – 以及土地和法规。
- 到 2034-2035 年,纳米技术的进步也正在到来。 纳米技术的进步主要体现在医疗领域 (例如,将靶向药物输送到体内的特定位置,这对癌症治疗是一个巨大的推动,以及细胞修复机器的早期原型),以及材料科学的进步,这些进步允许更坚固、更轻便和自我修复的材料以及更好的电池,而不是单一的神奇组装机。 这些都可以用于机器人;有些机器人对人类来说显得非常强大和能干。 制造机器人也获得了 “magic fingers”,机器附属物的尖端是一个表面,可以进行非常受控和细粒度的精密焊接、聚合物 (un)curing、物质沉积和化学反应催化。
- 2033 年全球出货的 4000 万台人形机器人大致相当于 8000 万人类工人的工作量,因为它们可以比人类工作更长时间。 2034 年,相当于 2.4 亿人类工人的机器人产能出货,2035 年约为 11 亿人类工人当量。
- 政治上,这就像数亿极具天赋的移民突然从地下涌出,他们接受低于最低工资的工作,并且在每个发达国家和中国都是如此。 多年的白领工作动荡让政治家和活动家在处理此类事情方面积累了经验,他们也为此做好了更好的准备。
- 在美国,共和党在 2032 年勉强保住了白宫。 民主党人竞选时试图通过欧洲式的人类参与循环法律来解决日益严重的失业问题,包括扩大政府官僚机构、教育和律师卡特尔中 “亲社会、创造意义” 的人类角色,同时为受到机器人技术威胁的蓝领工人制定一项重大的再培训计划。 在选举前几个月,大约有 10 万人直接因机器人而失业。 一系列令人印象深刻的机器人演示引发了网络影响者的歇斯底里报道和蓝领工作岗位的担忧。 蓝领工人的再培训计划被认为是不足的,并且与 “普通美国人” 脱节,后者不希望被重新教育成在他们不同意其文化的官僚机构中扮演某种仪式性角色。
- 共和党人对此提出 PROSPER 法案 (Promoting Robot Ownership and Small-business Prosperity through Economic Restructuring),他们在竞选中以此为纲领,并在 2033 年通过了该法案。 这为机器人所有权创建了一种类似汽车经销商的模式,其中机器人公司不得直接向消费者销售 “消费者机器人服务” (国防和采矿等行业除外)。 “普通美国人” 可以申请贷款来创办自己的机器人服务企业。 此外,在特定地区销售消费者机器人服务需要许可证,并且一个给定的法人实体只能在一个地区运营。 地区的默认设置为州立法区,其中大多数地区的人口在 3 万至 15 万之间,但允许各州更改地区单位。 地区的许可证在地方一级授予。 例如,亚利桑那州 Prescott 的 Joe Smith 可能会获得政府贷款,购买 10 台管道机器人,并将其服务出售给 Prescott 的其他居民。 他自己并没有做太多事情,因为机器人负责管道工作,AI 负责计划、物流、会计等等。 但名义上,他现在是一名小企业主,并且绝对不是靠山姆大叔福利金为生的 free-loading recipient。
- 如果任何机器人许可地区的单个机器人服务垂直领域竞争过于激烈,竞争会将利润率推至零。 不同的机器人服务提供商之间也没有什么区别。 因此,一场争夺每个机器人许可地区的监管俘获的瞬间竞赛开始了,这场竞赛通常由一开始拥有最多网络和资金的行为者赢得 (尽管反垄断阻止了完全垄断,因此几乎总是至少有 2 家服务提供商)。 大部分市场份额波动都与社交网络和说服力有关。 精明的机器人许可所有者尤其试图操纵当地文化潮流,以限制向新进入者发放许可证。 或者,当地 AI 驱动的人格崇拜的领导者会直接宣布谁应该获得许可证。 即使有了机器人许可制度,只有一小部分人口是具有经济意义的资产的所有者。 社会和经济生活越来越多地围绕着少数几个控制着创收资产 (无论是闲职、机器人许可证、房产还是股票) 的家庭展开。 嫁入此类家庭逐渐成为社会经济野心更常见的工具。 许多人放弃赚取收入,并通过搬到房产极其便宜的地区来维持生计。
- 在所有地方场景之上的是真正的美国国家精英 – 强大的政治家、亿万富翁、高级政府顾问和一些其他人。 平均而言,他们仍然对下层阶级怀有一些 noblesse oblige,尽管在 2030 年代后期,随着他们开始在骨子里感受到 their position of power is not dependent on the people anymore,这种义务感正在减弱。 然而,他们最关心的是与同级别的人进行地位竞争。 其中许多是精英阶层内部的争端,对世界几乎没有影响,但总的来说,也强烈希望与中国竞争。 尤其是在 2020 年代末和 2030 年代初,关于机器人技术 buildout 竞赛对于人类遥远未来的命运将具有决定性意义的叙事获得了很大的突出地位。 这形成了一种强大的精英共识,即必须赢得与中国的竞争,而实现这一目标的方法是稳定国内局势,然后在其他方面让机器人浪潮肆虐。 国内半导体自给自足的计划有望在 2034 年略微落后于计划实现。 由超人工程 AI 在 2030 年左右设计的实际可用的 ICBM 防御系统,由于机器人时代制造业规模扩张的速度,到 2034 年已完全在线并投入使用。 军方能够部署数亿架小型无人机和数百万机器人士兵。 五角大楼关于纳米技术和其他奇异物理应用的项目可能会在未来几年内带来强大的新技术。
- 当然,中国也看到了获胜的必要性,尤其是在美国的机器人革命比中国稍早发生之后,其在工业机器人领域的领先优势消失的情况下。 CCP 也在将人类经济与地缘政治和 “真正” 的机器人经济脱钩对待。 2034 年,CCP 宣布公民需要 “吃苦”,即接受人均生活水平暂时停滞不前 (按 2025 年美元计算,约为 3.7 万美元,PPP 调整后),而国家则将资源转移到为机器人革命提供燃料,以避免在地缘政治竞争中失败。
- 在欧盟,由于监管障碍,AI 的普及速度较慢,但白领工作的消亡仍在顺利进行中,机器人浪潮将在美国和中国之后几年到来。 然而,这种延迟足以使欧盟在地缘政治上变得无关紧要。 欧盟面临的最大外部威胁是俄罗斯,由于中国公司有效地殖民西伯利亚以开采资源来为中国的机器人建设提供燃料,同时向俄罗斯政府支付大量租金,俄罗斯突然变得更加富有。 美国在机器人革命方面的领先地位也耗尽了欧盟的制造业工作岗位,直到欧盟国家在政治上被迫关闭贸易 (尽管一个政治运动,尤其是在东欧活跃,本来希望谈判加强美国的安全存在,以换取允许贸易继续进行和国内产业萎缩)。 各种关于 UBI 的提议在流传,但经济动荡使得资助前景不明朗,特殊利益集团为他们各自群体的特权进行的政治斗争异常激烈,他们都反对为所有人提供 UBI。 到 2036 年,欧盟内部实际上每个人都依靠某种形式的定期国家 payout 为生,但不是通过单一系统,而是通过一个极其复杂的 patronage 网络 (非 AI 辅助的人类实际上无法理解),普通人通过参与复杂的文化仪式和官僚机构来勉强维持生计。
- 发展中国家遭受苦难。 全球南方已经失去了制造业工作岗位 – 发达国家工人从服务业涌向制造业,同时生产力因发展中国家负担不起的 AI 而得到提高,并且他们的政治变得更加受蓝领工作岗位担忧的支配,这推动了关税和贸易限制。 现在,美国和中国的机器人可以比任何人类更好、更便宜地制造任何东西。 大量资本从发展中国家流向美国和中国,因为他们购买机器人。 然而,在大多数发展中国家,即使廉价机器人的到来也没有带来繁荣,因为机器人大多流向精英和国家,他们没有理由与人民分享意外之财 – 尤其是在廉价军用无人机和机器人以及无处不在的 AI 监控有效地消除了叛乱或政变的威胁之后。 印度、孟加拉国和巴西关闭了几乎所有跨境贸易,并宣布自己为 “纯人类” 国家,禁止任何形式的神经网络或机器人。 他们接纳了许多难以应对 AI 浪潮的发达国家移民。 在最专制的国家,结果大多是悲剧性的。 朝鲜让大部分人口饿死,并强行绝育其余人口,除了大约 1 万名继续主持 AI 经济和机器人军队的高级政府官员 (有些人担心 CCP 允许这种情况发生,不仅出于地缘政治原因,他们希望有一个指向韩国和日本的军事堡垒,而且还作为一项测试,看看他们是否可以在以后在中国国内复制同样的事情)。 在其他一些国家,人口得到温饱,但受到持续的监控。 统治者意识到人口不再构成威胁;“智力诅咒” 就像资源诅咒一样,但更强大。 最psychopathic 的统治者让他们的民众遭受任意的残忍行为以供娱乐,因为机器人保镖保护的统治王朝成员在他们的领地四处旅行,举办包括强奸和谋杀平民的狂欢派对。
- 一些最不道德的事件导致超级大国的谴责。
- 在朝鲜惨败之后,CCP 的人类成员举行了一次内部会议,以确定 CCP 将统治的一系列标准。 经过党内权力斗争,CCP 承诺永久存在至少十亿汉族人民,他们拥有生物生育自由,组织成家庭单位,福利水平至少相当于 2025 年发达国家 4 万美元/年的消费所能提供的水平,并对国家意识形态、文化和战略进行永恒的严格 CCP 控制。 他们对附庸国的统治者施加的约束比对自身施加的约束要少,但通常反对种族灭绝、强制绝育、大规模饥饿和蓄意文化抹杀。 CCP 在这方面的路线确实约束和改善了一些专制国家 (他们迫使几位独裁者下台,并由非 psychopaths 取代),尽管他们仍然允许一些可怕的做法、侵入式大规模监控、政治清洗、持续的极端贫困以及间接降低生育率的国家 (许多政府都想这样做,因为到目前为止,人类基本上只是政府的净成本)。
- 在美国,2036 年委内瑞拉发生的一些道德暴行引发了公众的愤怒和采取行动的政治压力。 总统得知,鉴于技术差距,政权更迭只需按一下按钮。 按钮被按下,政权更迭。 更多国家紧随其后。
- 到 2037 年底,世界大部分地区可以分为:
- 美国 (现在包括加拿大和格陵兰;两者都自愿加入,因为美国公民身份因其赋予的特权而变得非常抢手)。
- 美国附庸国。 这里的准入条件通常是其他国家必须接受与美国的贸易,这通常意味着该国自身的产业将随着美国机器人技术和 AI 完成所有工作而灭绝。 作为交换,美国政府和美国精英阶层收购了该国的资产。 尤其是,任何资源 – 或包含资源的土地 – 都会被收购,并由美国公司开采以燃料持续的机器人技术 build-out。 为这些资源和资产支付的资金通常是附庸国政府和人民赖以生存的捐赠基金。 通常,附庸国会创建主权财富基金来管理这笔捐赠基金,并依靠其回报为生,这些回报根据当地政治在该国内部分配。 这些国家都比美国贫穷,并且基本上没有非祈求美国机器人技术持续 buildout 来增加其捐赠基金投资于美国股票的比例的未来增长前景 (这非常符合他们与美国的激励机制)。 然而,在那些拥有强大现有机构 (包括美国出现并改变了不受欢迎的政权的地方) 并且至少有一些美国关心的资产的国家,这仍然转化为舒适的生活水平。 美国附庸国包括英国、除巴西外的整个美洲、日本、韩国、澳大利亚、沙特阿拉伯、以色列、海湾国家 (也门除外)、泰国、马来西亚、菲律宾和北非大部分地区 (现在几乎完全被太阳能电池板覆盖)。 欧盟是一个临界情况,它谈判达成了一项 Kafkaesque 协议 (在非常字面的意义上:它是由超人 AI 律师起草的,没有人能理解它),但该协议允许它在当地保留更多的权力。
- 纯人类国家,特别是印度、孟加拉国和巴西 (尽管巴西经历了一些来自美国的压力,并且暂时被美国政变,但在美国复杂的国内政治的推动下,这种情况在一定程度上被逆转)。 然而,所有这些国家都必须以某种方式解决国家安全问题。 巴西允许美国公司在某些地区开采,即使当地居民不允许使用机器人,以换取安全保证。 印度政府允许自己例外于纯人类政策,并争先恐后地建立军事机器人基地,并开发奇异的纳米技术武器,即使对于更先进的美国和中国军队来说,这些武器也很难对抗。 孟加拉国一直持续到 2039 年,当时美国和中国的秘密纳米无人机行动开始在其境内发生冲突,之后政府被推翻,取而代之的是中国 AI。
- 中国附庸国。 最常见的模式是扶持政府并出售机器人,以换取中国国有企业获得矿产和资源。 中国附庸国包括俄罗斯、白俄罗斯、中亚国家、巴基斯坦、缅甸、柬埔寨、老挝、越南、几个太平洋岛屿国家和非洲大部分地区。
- 中国。
- 地球之外,火星正在被美国和中国的自我繁殖机器人工厂吞噬 (月球的两极也有主要基地,但缺乏碳、氮和各种金属,使其价值较低),这些工厂正处于指数级增长轨道上,预计到 2055 年将覆盖整个星球,并且已经派出探测器声称拥有其他行星。 到 2035 年,核火箭推进技术已使在每两年一次的霍曼转移窗口之外向火星发送有效载荷成为可能,尽管每吨成本要高得多。 随着最初的外太空条约因明显的土地掠夺、解散的联合国以及美国和中国国内发送轻型物体到火星以在太空土地掠夺竞争中获得优势的政治压力而失效,美国和中国都在 2037 年向彼此 (完全自动化、无人居住) 的火星设施发射高速动能武器。 在动能武器仍在加速飞向火星的过程中,AI 外交官达成协议,将太阳系在美国和中国之间分割开来。 动能武器提前关闭了聚变引擎,错过了火星,并射入星际空间。 到 2038 年,它们比旅行者探测器离地球更远,因此是人类制造的最远物体。
- 2035 年,机器人劳动力约为 10 亿人类工人当量 (但请注意,随着时间的推移,这个数字的意义越来越小,因为机器人正在从事性质不同的劳动,并且通常是技术上史无前例的事情)。 2036 年,由于资源限制,增长率略有放缓,总数仅增长到约 30 亿。 然而,在 2037 年,对这个数字的最佳估计达到了 150 亿,然后在 2038 年达到 900 亿,然后在 2039 年达到 6000 亿,然后在 2040 年达到 4.5 万亿。
- 到 2040 年,世界制造业产值是 2025 年的 1000 多倍。 其中大部分用于地缘政治竞争、精英阶层内部的地位竞争,以及越来越大比例的 AI machinations,这些 machinations 与任何人类活动只有最微弱的联系,但纸面上拥有这一切的人类几乎没有注意到,因为它迷失在其他一切事物的漩涡中。 即使是最根深蒂固、以长期为导向且注重价值的执行职位 (无论是事实上还是法律上) 也完全由 AI 完成,人类对地面上具体发生的事情知之甚少。 人类社会和人与人之间的经济就像一片漂浮在自动化活动巨大浪潮上的叶子。
2030 年代的人类状况 (The Human Condition in the 2030s):
- 在 2030 年代初期,由于 RL 算法在永无止境的注意力竞争中相互梯度下降,模因领域正在发生奇怪的事情。 一些国家与全球互联网断开连接并关闭边境,试图维持内部文化。 在 AI 优化内容垃圾的成瘾性有所减退之后,2020 年代后期小而紧密的社区的趋势又回来了。 各地的文化几乎完全由 AI 驱动;想法、趋势和时尚的更迭主要是由于 AI 对 AI 做出反应的模式。
- 在 2030 年代中期,社会经济进步几乎在全世界范围内消失殆尽。 许多原本可能雄心勃勃的人退回到提供模拟成就的虚拟现实游戏中。 许多雄心勃勃的年轻人搬到警察无人机监控不普遍的国家 (如果他们不住在这样的国家),并转向犯罪。 许多雄心勃勃的年轻女性将社交视为致富和获得地位的唯一途径;如果她们在没有显赫家庭或同龄人团体的支持下开始,这通常意味着为被宠坏的百万富翁和亿万富翁提供性工作。
- 生物技术革命在 2030 年代后期到来,尽管临床试验法规长期延迟了这一革命。 美国人已经达到了寿命逃逸速度。 没有无法治愈的疾病。 在胚胎中增强四个标准差的智力,在成人中增强一个标准差在技术上是可行的。
2040+ (展望):
为什么会发生如此大规模的自动化机器人 buildout? 如前所述,美国和中国都具有必要的地缘政治野心 – 尤其...他们不能冒让对方搭上机器人浪潮并被剥夺权力的风险。 在国家内部,既有来自精英阶层的压力,也有来自普通民众需求的压力。 精英阶层相互竞争。 那些不想竞争的人不竞争,就会变得无关紧要,并被那些竞争的人取代。 除了精英社区内的地位之外,精英阶层还从让机器人浪潮席卷社会中获得了原始权力:现在世界上有许多万亿富翁,他们可以使用数千万台机器人来执行他们的指令,创造前所未有的奇迹。 他们可以在一天内建造城市,拯救数百万发展中国家人民摆脱饥饿,并为他们的孩子统治由他们理想的政治哲学统治的整个星球做好准备。 与此同时,虽然几乎所有美国人都相当富裕,但世界各地仍然有数十亿人生活质量低下。 世界上的物质财富水平飞速增长,但政府也对投资于人越来越不感兴趣。 对人类的资助变得像对外援助预算一样:它存在,并且在道义上受到支持,但存在持续的政治下行压力,因为它无助于任何强大的利益集团的需求。 人类福祉的最佳希望似乎是接受政府将很难将其资源的 1% 以上用于人类,但依靠美国和中国的经济增长如此巨大,以至于来自美国和中国机器人公司的少量资源涓滴最终将足以满足所有人的物质舒适。
这看起来将在几年内成为现实,尽管存在两个复杂问题。 第一个问题是,两个势力范围 (但中国的势力范围更大) 仍然容忍附庸国的一些 grotesque practices。 然而,一旦地缘政治平衡得到保障,并且存在足够的财富,并且在领导人选择方面运气好,这种状况可能会结束。
第二个,更根本的观点是,经济本身具有惯性。 人类几乎没有对世界轨迹做出有意义的决定,他们已经将缰绳交给了 AI,AI 实际上做出了所有决定,即使某些 AI 在技术上只是 “顾问”。 最终,机器人革命与其说是一种经济现象,不如说是一种野蛮的物理现象:一种链式反应,其中某些循环闭合 – 例如,金属到采矿机器人到更多金属 – 并朝着无限发展。(这在机器人技术和 AI 之前在某种程度上已经是 the human story 的真实写照,只不过反馈循环与人类密切相关并使人类受益,并且 doubling times 较慢。)
在堆栈的顶端仍然有一些人类,他们在纸面上拥有或控制着资产,并且可以做出决策 (无论是作为私人行为者还是作为监管在其境内运营的自主 AI 公司的政府),但他们看到跟踪其财富和权力的数字在上升,因此他们没有理由叫停它,并且不再理解它。 在地球的某些地方,人类机构仍然存在,人类社会也存在,它们被 AI 官僚机构锁定到位,这些官僚机构已经有了自己的生命,即使人类试图拆除它们,也可能无法做到。 在地球表面的其他地方 – 包括撒哈拉沙漠、澳大利亚内陆、南极洲和新疆等大片地区 – 一个 AI 生态系统统治着大量的机器人机械,没有人为干预。 太空现在在技术上也很容易到达,因为精密的自我复制机器人技术已经存在,而微弱的化学火箭已经被取代。
谁将获得星辰? 地球的长期命运是什么? 至少在这个时间线中,控制人工智能目标的技术及时到来。但这本身并不能让你控制未来。一千人走向一千个AI并说:照这样去做。人工智能服从了,事情就完成了,但随后世界做出了回应:这样做会带来这么多权力,那样做会带来那么多权力。在巨大的互动海洋中,有些模式会随着时间自我强化,而其他模式则会逐渐消退。重复足够多次,每次根据上一次每个行为者播下的种子给予回报,最终浮现的不是人类意志的总和——尽管它会受到人类意志的扭曲——而是方程的解:什么传播得最快?如果人类理解他们的世界,并且仍然是权力潮起潮落中不可或缺的参与者,那么这种扭曲可能会更大。但他们不是。因此,即使被技术奇迹包围,大多数人类发现自己越来越被他们建立起来保护自己的国家所抛弃,无力地站在一旁,看着天空被机器吞噬。