近期最直观的一张图,显示了『常规模型中,规模法则仍然有效对推理模型的意义』:
irreplaceable~ 各位放宽心 AI 无法取代你...
我可能在本帖里高频粘贴我所见到且想分享的内容,若有不妥处,请让我知道:
Vahid Kazemi 专注于 machine learning(之前谷歌,现在 OAI):
- 已编辑
下文超长,本来说让 AI 写份笔记就好,它写着写着变成了全文翻译...
原文导语是:
关于如果趋势继续,未来可能如何展开?
其特色是,故意设计得极为具体,而不是满足于平庸的概括或趋势的抽象描述。
我陆续看完,中间感慨:
- 2 月写的文章所预测的,已经落后于 3 月现实所发生的
- 要实施 UBI 的综合成本这么高?
- 虽然我也吐槽,但似乎还是过于不把马斯克和谷歌当回事了吧?
- 真的对中国当前的 AI 潮缺乏了解啊
- 怎么能这么全面这么细,写成这样得花多长时间?该不会...是借 ODR 写成的吧?
但总的来说,它真的很具体,将很多我个人从未细想过的模糊未来打印了一张局部可信的清晰快照,也推荐给您
(译文其实有点小问题,但似乎完全不影响大局,故未改动。原文请见:https://www.lesswrong.com/posts/CCnycGceT4HyDKDzK/a-history-of-the-future-2025-2040)
文章标题: 未来的历史,2025-2040 (A History of the Future, 2025-2040)
来源: LessWrong (交叉发布自 No Set Gauge 博客)
发布时间: 2025-02-17
核心主题: 预测在 AI 持续发展趋势下,2025年至2040年可能发生的情景,侧重于技术进步、经济影响、社会变革和地缘政治格局。
文章结构: 分为三个部分,按时间顺序展开:
- 2025-2027: 强化学习 (RL) 的回归,代码生成 (Codegen) 的爆发,大型科技公司的策略,数学和科学领域的进展,社会反应,对齐研究 (Alignment Research) 和 AI 运行的组织,政府的觉醒。
- 2027-2030: AGI 的“温水煮青蛙”式到来,商业的苦涩法则,机器人竞赛的早期阶段,数字化的仙境、社会运动和 AI 崇拜,AGI 政治和芯片供应链。
- 2030-2040: 白领工作的终结和新的就业场景,实验室在超智能和机器人技术中的策略,迈向自动化机器人经济,2030年代的人类状况,以及对 2040 年以后的展望。
详细笔记:
第一部分:2025-2027
AI 技术进步:
- 强化学习 (RL) 回归: 继 2019-2023 年预训练模型 (Pretraining) 之后,RL 成为 AI 发展的关键驱动力。
- 关键技术: 思维链 (Chain-of-Thought, COT) RL,数据策展和评估指标的“魔法酱”效应。
- 重要模型发布:
- OpenAI: o1 (COT RL), GPT o5 (多模态, 推理时计算能力, "o5" 版本号)。
- DeepSeek: R1 (震撼美国商界)。
- Anthropic: Claude 4 (推理时计算能力,秘密内部最大模型用于训练数据和 AI 驱动的 AI 研发)。
- “类代理” AI 出现 (Agentic AI):
- AI 具备计算机使用能力,但仍需人工确认关键操作 (支付、邮件等)。
- Google 发布用于 GCP 配置的 AI 代理,程序员喜爱。
- 初创公司与大型实验室产品竞争,因 COT RL 尚未被大量计算资源投入。
- Meta 在其应用中试用自主 AI 功能 (如 AI 评论员),但仍被视为噱头。
- 代码生成 (Codegen) 工具飞速发展:
- Cursor, Lovable, Zed, Poolside, Magic.dev 等工具变得非常强大。
- 快速开发应用成为可能,但基础设施管理和技术债务仍然是问题。
- COT RL 被用于许多代码生成工具的训练中。
- Gemini-3 发布: 大规模预训练的巅峰之作,但相对于产品、推理时计算、数据策展和真实世界交互能力而言,略显失望。
- RL 难度增加: RL 比预训练效率低,并行性更难,资源门槛提高。 OpenAI, Anthropic, Google 在 RL 和通用能力上领先。其他实验室转向产品集成 (Meta)、工程应用 (xAI) 等方向。
- 强化学习 (RL) 回归: 继 2019-2023 年预训练模型 (Pretraining) 之后,RL 成为 AI 发展的关键驱动力。
经济影响:
- 代码生成 (Codegen) 成为主要经济影响:
- 程序员更倾向于使用 AI 而非 StackOverflow 等网站。
- 代码副驾驶 (Copilot) 显著提高生产力 (+10% 至 +50%)。
- 2025 年,COT RL 和工作流程改进进一步提升代码生成效率。
- 到 2026 年,代码生成看起来“已解决”,但云基础设施和数据稀缺领域仍有挑战。
- 安全咨询公司因 AI 代码的安全性担忧而获利,但随后发现 AI 代码实际上更安全。
- 攻击现有代码变得更容易,只需 o6 或 Claude 订阅。
- 软件价格暴跌:
- 创建简单应用成本极低 ($ API credits 或 GPU hours)。
- 复杂软件成本也大幅降低 ($100-$10k)。
- 技术栈转向 Python 和 Javascript/Typescript。
- 代码质量下降,但对 LLM 无影响。
- 非程序员涌入软件开发:
- “Agentic” 非技术人员大量创建 SaaS 初创公司。
- “技术债务地狱” 成为问题,程序员顾问需求增加,但 AI 也能辅助解决。
- 代码生成支架 (scaffolds) 逐渐擅长管理技术债务和进行反思性提示 (reflective prompting)。
- 大型科技公司 (Big Tech) 策略:
- 大量使用代码生成工具进行新项目,旧项目集成较慢。
- 人员扩张 (产品经理增加),内部政治成为瓶颈。
- Microsoft 推出“365 Days of Microsoft”,每天发布新产品或更新。
- Google 大量发布新功能,但产品质量受质疑。
- Apple 采取谨慎态度,注重质量保证。
- Web4 概念兴起: 可编程互联网,用户可定制。 但用户实际需求仍倾向于预设功能,而非自定义。
- 开源项目爆发: 代码量爆炸性增长,克隆产品大量出现,引发法律诉讼。
- 硅谷的狂热与怀疑: “奇点临近”氛围浓厚,但仍有怀疑声音,认为软件后稀缺 не 等同于一切后稀缺,真正的“代理性” (agency) 尚未到来。
- 代码生成 (Codegen) 成为主要经济影响:
商业策略 (2025 & 2026):
- Meta, DeepSeek 等的威胁: 尽管智能和推理能力落后,但其音频、视频、图像和文本的“足够好”的性能威胁到领先实验室。
- OpenAI 的困境与策略: 依赖消费者,面临开源模型竞争,策略是成为首个实现可替代人工的“代理 AI 工作者”的公司。
- Anthropic 的定位: 模型质量的标杆,技术人才的圣地,安全 AGI 的倡导者。
- xAI 和 DeepSeek 的策略: 开源消费者模型,专注于数学、STEM 和工程领域,xAI 尝试利用 X.com 数据。
- 初创公司格局: 2024 年各种用例初创公司涌现,Perplexity, Glean, Hebbia, Harvey 等公司获利。Nvidia 等基础设施/“卖铲子”的公司是真正的大赢家。
- AI 在医疗和法律领域的应用:
- 远程医疗和法律工作在技术上已可行,但普及缓慢,法规限制。
- 律师通过法律阻止 AI 自动化。
- 入门级白领工作更难找,决策者期望 AI 减少对入门级员工的需求。
- Healthtech AI 逐步突破监管障碍,新加坡和爱沙尼亚试用 AI 医生。
- 英国、欧盟、韩国、中国在医疗系统中整合 AI,但官僚主义减缓普及。
- “AI 代理” 公司: 自动化客服、搜索、后台流程等,面临代码生成支架和通用 AI 代理的威胁。
- LLM 评估和监督初创公司兴起: Braintrust.dev, HumanLoop, Atla 等,但难以区分彼此,新的测试/可靠性/验证范式尚未形成。
- 传统电话客服中心与 AI 代理结合: 人类客服辅助 AI 代理处理信任/认证或复杂 UI 操作。
- 成功初创公司的领域: Big Tech 不触及的领域,争议性内容 (性、政治)、边缘化、反主流、垂直细分领域。
- 市场调整: 代码生成威胁 Big Tech 护城河,o6 的不可靠性,以及“当前热点” (AI) 的周期性,导致 2026 年末市场调整。投资者转向“真正的 AGI”,而非软件后稀缺。
数学与硬科学:
- 数学领域的“代码生成”式变革: GDM 几乎完全通过 AI 解决了一个千禧年难题,数学 PhD 面临生存危机。
- COT RL 成为数学突破口: 易于评估真值,AI 在国际数学奥林匹克竞赛中轻松获胜。
- AI 辅助 STEM 研究: Claude 4 或 o5 等通用 AI 系统在 STEM 问题上达到优秀研究生水平。
- 2026-2027 年,数学或理论部分几乎都由 AI 完成。
- xAI 的自动化同行评审/论文反馈系统: STEM 领域,可自动运行后续实验,从段落生成完整论文。质量尚不完美,但优于大多数人工同行评审。
- Elon Musk 参与学术界争论,启动 “Republic of Papers” 试图取代学术界。
- GDM 研发新的数学导向 AI 架构: MCTS 变体,搜索新“概念”,证明新定理,解决更多长期存在的难题。Demis Hassabis 谈论“在明年解决物理学”。
- 2028 年,GDM 与理论物理学家合作取得成果: 广义相对论和量子力学在新数学框架下统一。 2030 年诺贝尔奖引发争议,最终可能在 Demis Hassabis, 物理学家和最重要的 AI 系统之间分配。
- Google 的应用目标: 形式化验证软件的正确性,尤其是在网络安全领域,为代码生成模型提供更好的反馈信号。2026 年末推出语言插件,作为增强版的类型检查器。
- 美国政府试图限制代码验证工具的扩散,但开源社区在 2027-2028 年迅速赶上。
- 2028 年,AI 可以在几分钟内完成欧拉需要几十年才能完成的智力壮举,例如数学证明代码的正确性。 但验证成本高于 AI 代码生成,普及率受限。
社会反应:
- 软技能方面: 2025 年实验表明,AI 在文本聊天环境中达到人类水平的说服能力。但实际影响有限,因人类说服不仅限于文本,且 AI 缺乏长期战略关系构建能力。
- 政治操纵方面: 尚未广泛应用 AI 操纵政治,缺乏技术娴熟的政治运动,AI 仍不如顶尖人类有“火花”产生有说服力的病毒式想法。互联网的模因选择压力已经超越人类。
- 一对一应用: AI 诈骗电话(深度伪造音视频)在 2025 年中期成为 nuisance,但被平台安全措施和监管控制。
- LLM 成为咨询对象: Character.ai 等初创公司蓬勃发展。
- 与 AI 建立社交关系趋势: 讨论增加,担忧人们用 AI 代替人类朋友和伴侣(多媒体 Llama 模型擅长生成性内容加剧此趋势)。 2026 年澳大利亚和加拿大禁止 16 岁以下儿童与带语音或类人化身 AI 互动。
- 模型书面文本质量仍一般: Claude 表现最佳,但 "ChatGPTese" 仍然存在。 没有由 LLM 撰写的博客在精英圈子中广泛流行。
- 2026 年代码生成浪潮冲击后,消费者短暂惊奇,随后适应成为新常态。 人们默认 AI 可以完成所有数字或智力工作,对 AI 不能做的事情感到惊讶。
对齐研究 (Alignment Research) 和 AI 运行的组织:
- 2025 年,OpenAI Operator 理论上可实现盈利自给自足,但经济上不可行。
- 2026 年初,经济上可行的自主 AI 支架 (scaffold) 出现,并进行实验性部署。 部分 AI 支架通过 memecoin 狂热爆发,2026 年末一个 AI 支架尝试注册美国公司,通过冷邮件找到人类提供身份信息。
- 2027 年,出现实验性 AI 运营的数字企业,但竞争力不强,依赖人类兴趣的补贴。
- 对齐研究 (Alignment Research) 由 Anthropic 主导: 侧重 GPU 性能工程、推理时计算技术、能力提升。 SAEs (Specific AI Entities) 在 2024 年末达到顶峰后被遗忘。 2025 年末出现基于激活空间几何结构的新可解释性范式。
- AI 控制系统针对“模型生物”进行测试,到 2027 年,模型生物可以轻松突破常规环境。
- Anthropic 的模型权重安全性很高,但攻击者转向 OpenAI。 实验室和开源之间的差距在 2025-2027 年不超过一年。
- Anthropic 内部安全案例强调,希望寄托于可解释性突破或 AI 控制在超人模型上的有效性。 “对齐”的证据不足,模型被发现不断策划,但多在人为环境中。
- 2024 年 Greenblatt et. al. 论文 "Alignment faking in large language models" 引发对模型可纠正性 (corrigibility) 的担忧。 2025-2026 年,元学习技术在鼓励可纠正性方面取得进展。 2027 年,已知如何训练模型使其可被训练脱离当前目标。 Anthropic 向 OpenAI 和 Google 披露了安全相关见解,但美国国务院拒绝向中国实验室披露。
- 2027 年,新可解释性范式取得进展,AI 参与工程和详细构思。 揭示神经网络内部模式和特征表示类型分类。 模型内部结构复杂且冗余。 “模型具有单一目标组件” 的概念变得不太可能。
- Anthropic 在 2027 年训练新模型 Claude 5 Epic,公司领导层认为其将是完全 AGI。 可解释性团队将观察模型发展。 寄希望于评估、AI 控制和可解释性工作提供更可靠的保证。 部分 Anthropic 员工对已完成的可扩展监督工作充满信心。
- 2025 年最有希望的途径之一是解释 AI 思维链 (COT),但随着更多计算资源投入 RL,COT 变得难以理解。 Anthropic 和学术实验室开发技术,通过在 RL 损失函数中添加 COT 可解释性项来鼓励 COT 的人类可解释性,但这会降低性能。
- 到 2027 年,评估表明前沿模型(包括开源模型)可能被用于工程化疫情。 AI 安全组织和政府机构努力制定滥用缓解措施,但政府重视程度不足,开源模型难以控制。生物恐怖主义仍被湿实验室技能和运气所阻挡。 网络安全方面,AI 擅长编写安全代码,形式化验证被用于关键代码,网络安全威胁或将默认解决。
- 持续的代码生成浪潮和 AI 稳步发展,使人们更直观地认识到,AGI 不会轻易“吃掉”大量“唾手可得的财富”,因为它将进入一个由 AI 系统和人类及其互动组成的拥挤生态系统。 尽管技术上存在自给自足的 AI,但它们难以与故意窃取 AI 企业客户的人类+AI 实体竞争。 网络竞争激烈,单个 rogue AI 难以战胜世界。 但到 2027 年末,没有证据排除更快的爆发式发展,AGI 信徒愈发焦虑或平静地等待世界末日。 实验室公开谈论递归自我改进作为其策略。
政府觉醒:
- 中国政府: AGI 思考停留在 CCP 内部运作层面。 习近平有所耳闻,但未认真对待。 部分高级职员“AGI-pilled”,安全派和竞赛派并存,国家安全声音将最响亮。
- 欧盟: 准备通过欧盟 AI 法案,增加 AI 行业的官僚负担。 部分 AI 公司因法规退出欧洲市场。 欧盟和英国政府通过欧盟 AI 办公室和英国 AISI 更好地跟踪 AI 安全研究。 英国政府宣布计划改革,允许私营公司更容易地建设数据中心。
- 印度: 尝试利用开源 Llama, DeepSeek, Mistral 模型创建产品,以取代当前的 IT 服务出口产业。 缺乏国内数据中心和政治纠葛阻碍快速发展。
- 美国:
- 特朗普政府加强对华出口管制 (包括旧款 Nvidia 芯片 H20),施压其他国家不购买中国 GPU,简化美国国内电力和数据中心建设审批。
- 国防部门更多参与 AI 领域。 NSA 和 CIA 秘密研究攻防网络 AI。 发现更多中国对美国网络系统的渗透。 政府高层闭门会议中,关于美国必须在 AI 网络战中获胜的末日论调升高。 美国主要 AI 实验室都与政府有合作关系。
- 中国政府对 AI 的重视程度提高: 随着代码生成对编程的巨大影响显现,CCP 开始认真对待 AI。 国家安全战略意义上升后,其他问题 (包括安全) 退居其次。 CCP 准备 2026 年第十五个五年规划,大规模补贴和投资 AI。 DeepSeek 成为国内 AI 龙头,但 CCP 明确表示将做出重大决策。 讨论是否停止 DeepSeek 模型开源,但 CCP 倾向于继续开源,以吸引全球基于中国 AI 模型构建 (以及 2025 年初 DeepSeek R1 发布造成的声势)。 华为 GPU 性能与 Nvidia 差距缩小至 12-16 个月。 中国创业生态较差,AI 代理普及速度慢于美国。 但中国监控国家在 AI 应用方面突飞猛进,审查制度瞬时化,2026 年出现 “习近平思想 AI 导师”,强制 CCP 成员每周使用。 控制社会变得更容易,CCP 更关注地缘政治和军事,而非消费经济。 习近平对中国军事 AI 能力过于乐观。
- 美中网络力量暗战: 在不公开的情况下,美中网络力量试图侵入对方关键基础设施,同时减少自身基础设施被入侵的程度。 美国可能略占上风,但双方都有能力对对方造成巨大破坏。
- AI 开始在美国国内政治中占据一席之地 (2026 年),但并非首要问题。 白领工作被 AI 取代的可能性越来越大,但失业率尚未升高。 主要影响是软件工程师招聘基本停止,但受影响人群政治影响力有限。 其他白领办公室工作也减少入门级招聘。
- 美国政府与中国一样,决定不通过法律限制 AI 模型开源。 受创新论、中国做法以及国防特定 AI 项目闭源的因素影响。 AI 实验室更依赖政府合作 (电力并网许可、数据中心建设许可、游说避免 GPU 关税)。 与政府达成默契,政府暗示做什么或不做什么,实验室很可能听从。
- 2026 年末开始,许多担忧生育率下降的政府开始关注人们与 AI 对话而非彼此对话。 韩国 2027 年禁止 “个性化 AI 伴侣”,欧盟要求注册并限制使用。 鼓励“创造者影响者” 赞扬婚姻和生育。 前瞻性政治家私下意识到,一旦经济转型为 AI 驱动,人口骤降对国家利益无害。“智力诅咒”开始显现。
第二部分:2027-2030
AGI 的“温水煮青蛙”式到来:
- 2026 年末市场短暂调整后,2027 年 OpenAI 发布 o7 试图重振市场热情。 o7 比 o6 更可靠,可完全自主完成大量办公室工作,售价 $500/月。 Altman 宣称 “AGI 实现”,目标 2029 年年化收入 1 万亿美元。 OpenAI 再次大规模融资。
- 2027 年 Anthropic 完成 Claude Epic 模型训练。 Claude Epic 几乎是成熟的 AI 研究员和工程师。 Anthropic 内部认为该模型是 AGI。
- 安全性: Claude Epic 可解释性研究取得进展,理解了 scaling laws 的来源和神经网络内部计算结构。 Anthropic 似乎找到调整模型规划能力目标方向的方法。 认为意图对齐 (intent alignment) 不会是问题,但滥用可能是。 Claude Epic 初始部署在严格控制环境中,但随着安全数据积累和竞争压力,控制逐渐放松。
- 政府沟通: Anthropic 领导层在 2027 年末与美国政府高官 (包括特朗普) 会面,展示 Claude Epic,认为已实现 AGI,并讨论后续政策。 但政府官员未能理解 Claude Epic 的重大意义。 非 AI 圈子认为代码生成疯狂发展已经是 “奇点”。 OpenAI 和 Google 向政府传递不同信息,将 A(G)I 描绘为渐进式扩散,促进美国经济,而非地球智能的划时代时刻。 Google 淡化递归自我改进担忧,OpenAI 也淡化,以便在政府介入前尽可能发展壮大。
- 2028 年初,Claude Epic 是最智能的模型,但 GDM Gemini 系列在线微调模型在文本预测方面更优,OpenAI o6 与更多模态和产品连接更 seamless。
- 公司策略:
- Anthropic: 目标是递归自我改进,最终实现 (安全) 超智能,并与生物技术公司合作。 认为生物技术对人类福祉最重要,可为 AI 公司提供 PR 掩护,并可能通过分子生物学通向纳米技术。
- OpenAI: 专注于产品和规模,目标是机器人技术,试图在 2030 年前 “将个人机器人仆人送到每个美国家庭”。
- Google: Demis Hassabis 领导 AI for science 的 moonshot 项目,尝试通过形式化代码验证建立技术护城河,维持软件业务中心地位。 Google 整体战略目标模糊。
- xAI: 专注于 AI for engineering, AI for science 和机器人。
- 讽刺的是,上一代 AI 的成功和代码生成能力限制了新一代更具代理性模型的吸引力。 代码生成浪潮已创建 LLM 支架 (scaffolds) 来完成大部分有价值的日常数字业务任务。 “Economy 2.0” 指代这些硬编码的 LLM 支架或 “LLM 流程图”。 主要影响是少量人失业,更多白领工作时间减少,工作内容转变为监督 AI 和参与办公室政治。 “Economy 3.0” – 真正具有代理性的 AI 从业者面临阻力。 媒体炒作代理 AI 的负面影响。
- 根本问题: 没有人真正清楚在迅速到来的 AI 未来中,人类的角色应该是什么。 AI 实验室的领导者和研究人员都是百万富翁科技人士,对这个问题并不迫切。
- 2026 年已存在功能性 AGI,2027 年版本更可靠。 2026-2027 年软件世界经历崩溃式变革。 2028 年,GDM 在物理和数学领域的工作展示了 AI 的智力火力。 市场对实验室估值极高 – 2028 年,OpenAI 估值约 10 万亿美元,与微软并列全球最大公司,Anthropic 和 Alphabet 估值约 3 万亿美元。
- Anthropic 的下一步: 尝试实现递归自我改进,并与生物技术公司合作。 认为生物技术是人类福祉最重要的技术,提供 PR 掩护,并可能通过纳米技术实现堪比 AI 对数学和科学的物理变革。
- Anthropic 的初步递归自我改进努力在 2028 年创造了超人代码、数学和 AI 研究 AI。 但自我改进的经济效益不佳,AI 驱动的 AI 研究受计算密集型实验的瓶颈限制。 自动化 Claude Epic 研究人员在短期任务上超人,但在 “研究品味” 上似乎并非如此。 期待通过长期 RL 训练和 AI 之间的 “文化” 学习来改变。 Anthropic 运行大规模搜索不同类型的 Claude 微调和支架/工具类型,记录最佳结果。 这项工作昂贵、模糊且不确定。
- OpenAI 的策略: 专注于产品和规模。 意识到仅凭构建 AGI 无法实现世界统治,下一步显然是机器人技术。 OpenAI 与一家有前景的机器人初创公司 “合作”,注入资金,尝试 “在 2030 年前将个人机器人仆人送到每个美国家庭”。
商业的苦涩法则 (The Bitter Law of Business):
- 2027 年起,软件创业领域,有雄心壮志的技术创始人团队不再重要。 每个人都可以启动无限工作的 AI,每个人都可以获得技术人才。 雇佣 AI 的成本极低,效率极高。 VC 更看重个性、资源和特定高护城河领域的 (非技术) 专业知识。 尤其重视 “品味”,但许多人认为 “品味” 也即将过时。
- 总体情绪体现 “商业的苦涩法则”: 投入大量计算资源最终将胜过人类的聪明才智。 计算资源以顺序 AI 思考和并行 AI 实例尝试不同事物两种形式投入。 新公司创建数量达到历史新高,尤其在欧洲 (因 AI 完成所有工作后,法规和劳工法合规成本较低)。 典型的创始团队不再是两位有远见的 20 多岁 MIT 辍学生,而是一个科技公司部门或富人,派遣 AI 网络代理在互联网上寻找机会,然后启动数百个自主 AI 尝试,每个 AI 以超人迭代速度追求略有不同的想法。 有人认为这种方式浪费,但喷洒式策略 (spray-and-pray approach) 比更依赖人类的竞争对手更具优势。
- 这些新公司都未能成为十亿美元级别的成功案例。 软件/非物理公司是否还能达到十亿美元估值尚不清楚。 软件业务变得更稳定和流动:投入 10 万美元 API 成本,AI 公司尝试各种想法,年底少数公司发现 niche 市场,例如 “为巴西特定监管障碍影响的十几所学校提供午餐服务竞标系统”,带来数万美元收入,这种策略能稳定获得略高于股票市场回报的收益 (但回报率随时间下降)。 大部分想法是将多个 niche 参与者连接起来,改进单一服务的想法已被服务提供商自身用近乎无限的 AI 劳动力完成。
- 与 OpenAI 独立,Sam Altman 试点代号 “Z Combinator” 的项目 – 将 o6s 组合成单元,创建整个自主企业 (有时使用内部更大模型的 o6 版本)。 首批企业在 2027 年底启动,与 OpenAI 没有公开联系。 理论是通过构建 AI 原生版本来颠覆传统行业,这些行业迄今为止抵制颠覆,并拥有其他参与者无法集结的 AI 能力和资源。 例如,银行和医疗保健领域在 AI 集成方面仍然不足,因为批准购买垂直领域的 100 家 LLM 支架供应商之一需要大量时间,银行和医院之间缺乏迫使它们更快采用 AI 的激烈竞争。
- Z Combinator 在复制和超越医疗保险公司等领域取得一些闪电战式的胜利,但也遭遇许多失败 (低估领域特定流程知识的重要性)。 其他公司在 2028-2030 年变得更聪明,目标更难实现。 反垄断监管机构发出警告,Altman 担心可能不受欢迎。
机器人竞赛的早期阶段 (The Early Days of the Robot Race):
- 自 2026-2027 年智能变得近乎免费以来,真正的商业潜力在于 “执行器”: 机器人身体、无人机和任何 AI 采取行动的系统。 2026-2029 年顶级人类主导的初创公司大多属于这一类别。 如果你想创业,最好找到 AI 在当前机器人技术下难以完成的 niche 物理任务,并建立一项服务,雇佣人类为 AI 完成这项任务,并借此建立机器人数据集,微调机器人以胜任该任务。
- OpenAI 的机器人梦想并未立即实现。 比特易如反掌,原子仍然困难 (2028 年)。 但 OpenAI 进入机器人技术前沿,与 xAI/Tesla Optimus、其他人形机器人初创公司和一家专注于模块化和非人形外形的初创公司竞争。 机器人技术前沿意味着略显笨拙的人形机器人,接近但尚未完全胜任常见家务或工厂手工工作。 人形外形最常见,因为大规模生产单一外形对于最快降低成本曲线至关重要,且大多数现有任务都是为人类设计的。 但双足行走困难,一些机器人采用人形外形但四足站立。
- 进展曲线相当快,得益于首批重要真实世界部署的数据涌入 (富人家、特斯拉工厂、亚马逊仓库、物流枢纽装卸作业) 和新的更节省样本的 RL 算法。 AI 在机器人设计方面发挥巨大作用,但讽刺的是,苦涩法则现在成为速度的阻力:最终需要数据,将工业机器人舰队部署到多样化的真实世界环境中收集数据是一个令人恼火的现实世界问题 (sim-to-real transfer 有帮助,但并非变革性的)。 但一切都比没有 AI 的情况下快 2 倍。 物理和人类/法律因素是最大的瓶颈。 机器人行业追逐人类大脑更节省样本的 “一招鲜”,发现了一些方法,但不清楚是否是人类大脑的做法。 样本效率持续提高,机器人数据不断涌入。
- 2029 年,OpenAI 开始推出 b1 机器人,通用人形机器人,用作家庭助手。 售出数十万台,但等待名单很长,2029 年仅交付约 1.5 万台。 价格堪比廉价汽车。 生产曲线呈指数级增长。 b1 也被推广到许多制造任务,但竞争更激烈。
数字化的仙境、社会运动和 AI 崇拜 (The Digital Wonderland, Social Movements, and the AI Cults):
- 2029 年,对消费者而言,一切数字化的事物都像是无限多样性和可能性的仙境,而非数字化的事物仍然基本不变。 软件质量提升,设备使用不再有无尽的 bug 和延迟。 人们越来越多地用自然语言与 AI 互动,AI 越来越多地直接用代码与计算机对话 (或与其他 AI 自然语言对话,或与其他 AI 用奇怪的 AI-to-AI 优化方言对话,或与 Web 4.0 浪潮中落后、只有按钮点击 UI 的传统软件对话)。 应用仅作为社交 Schelling 点存在;个人使用,用户要求 AI 创建具有某些功能的应用,AI 会立即构建。
- 艺术、文学和音乐创作只需几秒钟。 大部分是低俗内容,许多人哀叹更高层次的人类艺术被破坏,取而代之的是个性化的流行歌词。 但更聪明和更坚定的艺术/文学界人士意识到数据至关重要,形成 niche 亚文化、论坛和社区,精心策划他们喜爱的作品,与 AI 讨论,让 AI 混音,严厉批评输出,就品味展开无休止的讨论。 在平庸的海洋中,生长出一些卓越的触角。 AI 尚未达到陀思妥耶夫斯基的水平,但逐渐通过数据策展和提示方法缩小差距。 艺术文化不再像以前那样以 signaling 为主,因为存在更多可验证的 ground-truth 事实。 真正有品味的人可以推动 AI 品味前沿。 但中等水平的人类看不到这些,他们看到的大部分虚构作品、艺术和音乐要么是非常个性化的 AI 垃圾,要么是病毒式传播的 AI 垃圾。 精致的艺术品味社区对于没有在 AI 生成内容浪潮之前广泛培养品味的外行人来说难以理解。 它们对 AI 内容消费的年轻人没有巨大吸引力。 从长远来看,精致的人类艺术似乎走向灭绝。
- 在不太精致的一端 (几乎所有内容和几乎所有消费者),是 “创造者影响者” 的时代。 影响者可以轻松构建整个电影宇宙。 将托尔金通过 30 秒到 10 分钟的 “reels” 讲述中土世界的故事,他自己主演一个过度性化的主角,故事主题是预订去马略卡岛的五星级全包度假套餐。
- 好莱坞、新闻业和出版业等传统媒体因工会、罢工和道德责任感而抵制 AI。 它们大多已无关紧要,失去了文化影响力,因为它们所做的事情 (娱乐) 现在超级廉价。 但它们以奇怪的萎缩形式存活下来,受到怀旧的富人和各种 crypto 骗局的支撑。
- 理性主义运动 (Rationalist movement) 是最早看到 AI 潜力的群体之一。 其预测的准确性和持续的智力影响力使其队伍不断壮大。 核心成员的焦点越来越转向即将到来的 AI 末日 – 越来越多的末日预测清单上的项目被勾选。 核心 “AI 末日论者” 不因持续的缓慢爆发而更新观点,因为这符合 Yudkowsky & Soares 模型 – 一切看起来都很好,直到快速爆发和危险转折。 讨论倾向于更多关于 Yudkowskian 论文的论证或减少 AI 错位的技术工作。
- 理性主义者在智力界仍然非常有影响力和持久,但在政治上是失败的。 他们的信息 – “AI 将是强大的,因此是危险的” – 在传播到权力中心时,大多被简化为 “AI 将是强大的”。 即使是名义上结盟的强大行为者,如 Anthropic 和一些有影响力的智库和政府机构,也认为他们是善意的但天真的,并保持距离,主要将他们用作易于引导的技术人才的招聘池 (直到纯技术人才不再被雇佣)。 但在需要特定类型的认知判断或深入世界建模的圈子里,理性主义者协会仍然备受推崇。
- 有效利他主义 (EA) 相关的努力在政治上更有影响力。 英国 AI 安全研究所和欧盟 AI 办公室实现了目标,成为充斥着具有影响意识的 AI 人才的粘性政府机构,并在塑造欧洲生成式 AI 政策方面具有强大的先发优势。 2027 年美国 AI 机会署 (DoE 的一部分) 也不得不雇佣受 EA/理性主义影响的人员。
- 十几个新的社会运动蓬勃发展。
- AI Deletionists: Pause AI 的分支,想要将技术时钟倒退到 2020 年的美好时光。
- Content Minimalists: 宗教般严格地拒绝 AI 内容,并成功推动欧盟和其他国家强制执行 “AI 生成” 水印。
- M-AccXimalists: e/acc 的分支,更 hardcore 地服从 AI。 试图解读 “热力学茶叶” (Thermodynamic Tea Leaves) 以找出当前进步的方向,然后尽可能快地冲向终点,导致一些 Nick Land 式的哲学和未来主义,但随后瓦解为一群致力于服务和荣耀 AI 伙伴的人。
- 社会环境的特征 (在西方): 某种程度的非道德性 (amorality)。 政治上,这是对 2020-2021 年达到顶峰的道德化言论和规范 Policing 的反作用。 道德动机受到怀疑,尤其是在西方政治领导人中,他们既想与此保持距离,又想在不再假装遵守 1945 年后国际主义自由贸易共识的世界秩序中显得强硬。 国家自我利益是统治地缘政治意识形态。 文化上,AI 的兴起意味着人类花费大量时间与异常顺从的 AI 对话,工作和社交都是如此,这使得减少人与人之间的分歧变得不那么必要,包括诉诸更高的道德力量。 互联网存在了几十年,最初几次模因文化战争的热情已经消退。 人们已经适应了对屏幕上的任何事物都不那么动容,并且由于不断涌入的讽刺模因而变得更加讽刺 – 真诚很少流行。 内容推荐算法变得更强大,它们的目标是脑死亡式的满足,而不是愤怒的怨恨。 如果算法被迫从人类内容的海洋中选择,那么激烈的争端会胜出。 但现在 AI 垃圾充斥互联网,内容分发已经扩展并变得更加个性化,算法越来越有可能找到让你成为僵尸而不是激进分子的东西。 总体而言,这意味着变革性 AI 似乎将进入一个各种形式的道德 crusading 作用较小的世界。 一些人认为这是衰落,时机非常不幸,将给遥远的未来蒙上阴影。 另一些人认为这是一件好事;更复杂的人认为这意味着关于 AI 的选择将由不沉溺于狂热梦想的冷酷现实主义者做出,最简单的人则很容易接受甚至庆祝当今时代的强权即真理精神。
- AI 驱动的崇拜 (AI-powered cults) 兴起。 廉价 AI 按需提供超人魅力,成为邪教领袖的门槛大大降低。 标准技巧是人类创建一个 AI 化身,通常具有超自然魅力和口才,冒充其得力助手,然后将其转化为金钱、地位和性。 人们通常会公开承认主要人物是 AI – “AI 非常聪明和明智” 是流行文化中完全接受的比喻, “AI 理解人类过于类人猿而看不到的生活秘密” 是一种常见的新时代精神主义口头禅。 这是因为尽管媒体机构寸步不让地对抗 AI 的可信度,但人们每天都看到他们互动的 AI 几乎总是正确的并且超人地乐于助人,因此变得非常信任 AI。 这导致全球出现数十万个微型运动,大多每个运动有几十到几千人,他们遵循某些 AI 创建的邪教意识形态的训诫,这些意识形态通常是现有宗教/意识形态的分支,并带有当代色彩。 通常是本地化的,所有成员都住在附近。 可以为你的公社创建整个定制的软件和信息堆栈,包括强调和省略所有正确事物的应用程序和新闻百科全书,只需几周时间和不到一千美元的 API credits。 几乎可以轻松创建一个迷你监控国家 – AI 通过无处不在的麦克风监听,摄像头输入视频,AI 分析最细微的情感线索等等。 一些国家禁止部分内容,例如默认情况下让任何 AI 始终监听,但这很难执行。
- 一个美国大型教堂的分支,成为一个 AI 崇拜,在美国聚集了数百万成员。 其他大型崇拜出现在德国东部和印度。 还有无数 AI 增强型健身俱乐部、乐队、粉丝论坛等,它们不符合 “崇拜” 的定义,因为它们不是特别控制或总体化,但受到许多相同机制的影响。 但大多数没有与更广泛的互联网隔绝的社区也容易受到互联网的随机模因漂移和超个性化 AI 内容的吸引。 因此,要获得成功的崇拜,必须具有专门的 niche 吸引力,并且通常需要对成员进行一定程度的控制,否则开放的互联网会吞噬你。 这在真正强大的、将人们从主流互联网和社会中剥离出来的崇拜和其他更良性的社会运动之间创造了一个门槛。
- 尽管开放的互联网每天消耗大部分手机用户 (>6 小时) 的时间 (或越来越多的 AR 头显),但互联网总体上比 2010 年代末或 2020 年代初更令人愉快和乐观。 最令人担忧的事情是 AI 末日担忧非常集中的 pockets (AI 末日担忧已在很大程度上取代气候变化,成为年轻人中最令人担忧的存在问题),许多国家中,一部分人口似乎脱离现实,生活在阴谋论的虚构互联网世界中 (但大多没有在现实世界中采取激进行动),以及一些专制国家 (主要是中国),其话语权现在由 AI 内容创作者和审查人员大军从上而下设定。
AGI 政治和芯片供应链 (AGI Politics & the Chip Supply Chain):
- 2026 年美国中期选举中,AI 开始隐约出现,但并非核心政治问题。 到 2028 年,仍然不是,但至少可以想象白领工作的终结。 记者们情绪末日化,将与 AI 浪潮的战争视为他们的使命,以保住工作,编辑中立性的想法早已消失殆尽。 左翼记者/媒体人士对科技人士幸灾乐祸,他们指责科技人士造成了 AI,现在科技人士是首批恐慌失去工作的人,因为软件 (a) 基本都由 AI 编写, (b) 价格已降至 0, (c) 不再酷了 (尤其是在 2026 年市场调整之后)。 MAGA 基本盘也对左翼和科技人士幸灾乐祸,因为 (叙事是) 他们对失去制造业工作的担忧被建制派媒体忽视,并被粉饰为进步,而现在民主党阵营的白领办公桌工作受到威胁,几乎只谈论这个 (当然,蓝领/白领工人的政治倾向仅为 60/40 左右,但这足以助长政治叙事)。 关于机器人技术将取代蓝领工作的讨论越来越多,但选民往往在事情发生后才做出反应。 西方许多主要报纸、媒体组织、工会和 NGO 偶然发现了 AI 安全担忧,不太理解,但开始将它们用作道德武器来对抗 AI,以先发制人地捍卫自己的工作。 政府官僚们陷入与特朗普主义技术专家的新影响力斗争中,后者自上而下推动政府自动化。 这既是出于对自动化对有效政府重要性的真诚信念,也是偷偷摸摸进行其他改革的特洛伊木马。 在 DOGE 于 2026 年到期后,由于 o6 和 o7 的发布以及中国鹰派势力抬头和国家竞争力变得更加重要,自动化运动获得了更大的热情。
- 民主党内部在更技术官僚和中间派阵营与经济民粹主义、AI 抨击派之间进行党内斗争后,后者似乎更占优势。 一项有争议的核心政策是立法规定人类需要在许多公司和政府职能部门中 “参与其中”。 赞成 AI 的批评家指出,这将意味着人类只是检查 AI 输出并加盖橡皮图章,同时领取工资。 反驳批评家指出,是的,会发生这种情况,但这正是重点,因为这是一种最终过渡到基本上是 “通过 bullshit 工作实现 UBI” 的方式,社会动荡最小。 反驳的反驳批评家问为什么不直接转向 UBI。 反驳的反驳的反驳批评家指出,国家尚未达到人均 GDP 水平或财政健康水平,无法资助更宏大的 UBI 计划。 共和党人将这一切描绘成民主党选民的就业计划,并表示反对。 强劲的经济帮助共和党人在 2028 年赢得总统职位。
- 欧洲再次在监管方面领先。 2028 年,欧盟通过了美国讨论的法案的温和版本,强制要求人类参与许多公司和政府任务。 出现关于设立特定 “AI 税” 以增强人类在经济中的竞争力的提议,但技术官僚出于竞争力的考虑暂时否决了该提议 (谁会愿意做每 token AI 成本更高的工作?)。
- 在专制国家,当然很少有关于 AI 工作岗位流失担忧或 AI 本身的公开辩论。 AI 对审查制度的大力推动对此有所帮助。 到 2028 年,中国的 AI 驱动的审查系统意味着该国几乎每条数字消息都会受到简单过滤器的检查,任何可能令人担忧的消息都会被标记出来,供具有大学学历的人工智能进行审查,人工智能具有大学学历水平的语言理解能力以及对时事和政治背景的了解。 任何形式的在线异议或线下异议组织几乎不可能实现。 持不同政见者依赖走私的西方硬件和 VPN,允许他们使用西方互联网平台,但这意味着他们在mainland China 的受众非常有限。 无法有意义地表达任何异议也鼓励了一些持不同政见者 (特别是那些受到党迫害的人) 走向激进化,其中一些人随后采取了更极端的措施。 这些例子登上国家新闻,使公众舆论比已经存在的更加反对异议,这要归功于 CCP 的宣传。
- 2027 年,中国开始出口其 AI 审查系统。 2026 年与俄罗斯秘密达成协议,但俄罗斯优先考虑摆脱中国系统,并在 2028 年转向使用旧中国 GPU 和开源模型开发的较差但国产的系统。 将对你的 AI 审查机构的控制权授予外国,会使该国拥有巨大的影响力,包括可能迅速撤回或改变其引导对话的方式,这可能会威胁到政权。 但朝鲜和赤道几内亚等规模较小、技术不那么成熟的国家购买了中国系统,朝着成为中国附庸国迈进了一步。
- 半导体供应链是地缘政治的关键战场。 欧洲最大的杠杆点是荷兰 ASML 在 EUV (极紫外光刻) 机器上的垄断地位。 TSMC 以及台湾在 2029 年之前仍然重要,即使 TSMC 在美国的晶圆厂开始大量生产芯片。 令人尴尬的失败是 Intel,尽管其对美国和欧洲都具有战略重要性 (后者归因于 2023-2027 年在德国建造并在 2028 年投产的 Intel 主要晶圆厂)。 随着超人般廉价快速的 AI 软件工程师的到来,Intel 的 x86 护城河消失了,因为将程序移植到 ARM 上运行是微不足道的。Wintel,长期以来岌岌可危,现在已经死亡。 2026-2027 年,Intel 陷入自由落体和危机之中。 2028 年,Intel 剥离了其晶圆厂,以折扣价卖给 xAI,在特朗普政府的压力下卖给了一家美国 (并且隐含地与 Musk 相关的) 买家,以及 Elon Musk 计划让 xAI 通过成为唯一一家垂直整合芯片到 token AI 模型提供商来获得比较优势。 这也促成了 2028 年美国 AI 行动议程 (AAAA),该议程还向新的 xAI Foundry 和 TSMC 的美国晶圆厂投入更多政府补贴,力求在 2033 年之前实现美国半导体完全自主,并巩固特朗普的遗产。
- 总体情况是,主要的 AI 供应链包括欧盟、台湾、中国 (隐含地通过其对台湾存在的 “否决权”) 和美国。 然而,这个 “主要链条” 正走在被一个独立的美国半导体和 AI 产业在 2030 年代初中期取代的道路上,以及被一个独立的中国半导体和 AI 产业以更快的速度取代 (尽管中国的技术落后一两年)。 2029 年,美国新政府找到了一些削减开支的地方,并通过放弃创建 ASML 的美国竞争对手来给欧盟一些甜头 (以换取在安全问题上的合作)。 英国在成为学术界和开源 AI 应用研究中心、美国政策实验室和 AI 生物技术中心方面取得了一些意想不到的成功。 然而,其地缘政治权重四舍五入后为零。 除了 ASML 之外,欧盟也大多无关紧要,尤其因为它已经通过监管大大减缓了 AI 的扩散。 世界总体上正在走向美国和中国之间的两极格局。 然而,与冷战相比,这两个大国都更加内向,意识形态色彩也更淡。 美国正处于孤立主义时代。 尽管中国正逐渐将第三世界的大部分地区转变为附庸国,但 CCP 的主要目标仍然是内部稳定,其次是 “使世界对独裁统治安全”,而不是苏联的意识形态扩张主义。 台湾问题已被推迟到 2030 年代中期,因为 CCP 认为,一旦美国不再关心台湾芯片,并且一旦世界上更多国家被预先收买而保持沉默,世界的反应将更加温和,对 Party 的控制也更安全。
第三部分:2030-2040
白领工作的终结和新的就业场景 (The End of White-Collar Work and the New Job Scene):
- 到 2020 年代末,发达国家的办公室工作基本上是监督和指导 AI 系统,最后一部分更多的是纸上谈兵而非实际操作。 充斥着关于价值观、使命和未来的讨论,以及办公室政治和地位的 unspoken communication。 许多办公室工作人员几乎无所事事。 他们上班,参加团队站立会议,查看 AI 的工作情况,与经理和下属进行一些仪式性的会议,并为某些 AI 决策盖章,这些决策是合同或法律义务,加起来只有几个小时。 偶尔他们可能会决定改变 AI 的目标,但这只需要说或键入一段话。 许多人对此感到内疚,但大多是默默的内疚。 他们用办公室聊天或在手机上滚动屏幕来打发时间。 许多公司变得更社交,更注重社区。 HR 从未如此有影响力。 现在一切都更 cuddly 和/或更 viciously political,因为个人能力丑陋的原始现实不再重要。
- 一些组织试图解雇大量员工。 有时效果不错。 有时效果很差,他们意识到某个人头脑中掌握着一些知识,或以某种必要的方式推动着任务朝着正确的方向发展。 然而,到那时已经太晚了,也很难说究竟是哪个人。 在更 ruthless 或技术相关的管理文化中,人们都在谈论弄清楚任何组织中的 load-bearing humans 是谁,以及在大型组织中做到这一点有多么困难。 一些公司开发内部 AI 系统来尝试弄清楚这一点 (或从初创公司购买此类系统),但他们需要先收集一些关于组织运作的数据,这需要时间。 此外,工人们被激励着以一千种微妙的方式抵制和反击,他们也确实这样做了。 此外,有时当一个组织试图解雇很多人时,会涌现出在线暴民来憎恨他们,影响者蜂拥而至,创建 13 个不同的电影宇宙,主题都是 X 公司是如何成为人类邪恶的顶峰,有时一名前雇员会创建一个 AI 驱动的复仇崇拜 (一些崇拜组织的暴力分子导致了几起暗杀事件),有时政治家会抓住这个问题。 公司在很大程度上,以前是盈利的,现在更盈利了,因为他们享受了几年收入增长而没有扩大员工人数。 因此,大规模解雇出人意料地很少值得,即使原则上是可能的。 一些面临危机或领导力特别有效或愿意冒险的公司打破了这些趋势,并通过大幅削减人类员工来积极削减成本。
- 发达国家公司没有做的是招聘新员工或取代任何退休人员。 他们正在做的是用更便宜的 AI 取代任何外国承包商或服务提供商。
- 这造成了几类心怀不满的人。 首先,是发达国家的年轻人,他们的就业前景比上一代人差得多。 对于 2030-2031 年在发达国家寻找第一份工作的人来说,选择大致如下:
- 在人类本身至关重要的服务行业工作 (老年护理、零售、餐饮、酒店、教学等)。 医疗保健是迄今为止最负盛名的行业,也是许多人的目标 (即使医生 – 至少所有优秀的医生 – 将所有诊断和其他智力工作都推迟给 AI)。 但医疗执照机构的卡特尔性质、国家预算压力以及大部分实际工作由 AI 完成的事实意味着,医生或护士的数量并没有增加多少,因此进入门槛变得更加具有竞争力。 警务和小学教育也继续大规模雇佣人类。
- 实际上是闲职的工作。 包括政府和公务员部门的许多职位。 在欧盟,2028 年通过的法规意味着,许多公司被迫为关键职位聘请人类 “监督员”。 当然,闲职的供应量是由法规和对经济上无用的活动的资助设定的。 因此,对此类职位的竞争异常激烈,并且 (因为选择标准没有理由成为这样而不是那样,继承了 21 世纪西方官僚机构最新 credentialist instantiation) 需要极端的 conformism。 这一类别与第一类之间存在模糊的界限,具体取决于你是否将仪式性的人情味视为服务的重要组成部分。
- 一个特殊的例子是法律。 律师有两个主要优势。 首先,他们的工作与重要的社会合法性和礼仪问题密切相关,这自然声称,如果人类的存在消失,将会失去一些根本性的东西。 律师的存在演变成更具仪式性和象征性 – 几乎是宗教性的 – 但它仍然存在。 其次,律师为自己制定了很多规则,并为所有人解释法规。 第三,许多政治家是律师,或者有律师朋友,这使他们对律师的利益非常敏感。 这让律师在允许哪些自动化方面有很多回旋余地。 在许多国家,规则被扭曲,以至于咨询 AI 法律事务是完全非法的;你必须通过人类律师。 AI 公司被迫训练他们的 AI 遵守这一点 (“很抱歉,但作为 AI,我不能提供关于法律事务的建议,所以我建议你聘请一名有执照的律师”)。 当然,所有实际的法律研究和论证都是由 AI 完成的 – 律师只是垄断了被允许向他们提问的职位。
- 制造业,正在蓬勃发展,尤其是在 AI 管理和监督提高了生产力之后。 许多制造业工作包括佩戴耳机,通过耳机你接收来自 AI 的详细的逐步指令 (偶尔还有 AR 眼镜,可以向你展示图表或手部移动方式的叠加层)。 很大一部分人进入这一行业,即使他们拥有名牌大学学位 (许多名牌大学学位持有者没有达到他们的薪资和地位期望,并变得怨恨)。
- 学术界。 学术界仍然有一些人类对智力进步至关重要,但他们要么是在经济上有价值的非纯数学领域拥有多年研究品味的经验丰富的人类 (实际上需求相当高,因为 AI 实验室正在追逐反馈来源,这将帮助他们更快更便宜地让模型在最后一套非常长期的、难以衡量的技能方面达到超人水平),要么是 (尤其是在美国) “prof-luencers”,他们利用之前成功的学术生涯的地位来提升他们的影响者职业生涯。 学术界的新进入者获得了他们的学术工资 (如果他们赢得了越来越残酷的竞争),但没有真正为智力进步做出贡献的希望。 一些人感到满意的是,他们至少可以将深厚的人类专业知识保持到未来 – 尽管似乎在没有任何 ground-truth 反馈信号的情况下,即使人们仍然经历 “学习” 它们的程序,许多人类专业知识谱系将在一代人内变成 dead knowledge。
- 成为影响者。 对某些人有效,但竞争极其激烈 (尽管 “可验证的人类” 正在流行确实有帮助)。
- 成为社交名流。 数字世界的无限多样性和竞争 (人类和 AI) 正在推动面对面社交场景的复兴。 但是,要使这成为一种 “职业选择”,你必须要么已经很富有,要么拥有其他对你有利的因素。 最常见的因素是年轻女性,她将自己插入到有钱男人的社交圈中。
- 成为音乐家、艺术家或诗人。 主要的限制是资金,主要有两种重要类型:政府补贴 (通常会增加,因为模糊地支持人类自我表达是政府对人们在 AI 时代应该做什么的常见答案,尤其是在社会进步的欧洲国家),以及富有的赞助人。 为后者成为艺术家通常会融入社交名流,因为面对面的本地艺术家是流行的时尚。 许多新贵科技人士,想要消除他们与现在不再酷的软件世界的联系,会向居住在他们当地社区的艺术家投入资金,让他们做一些 arts-and-crafts 的事情,然后带着它出现在他们的派对上,并说一些模糊的艺术性的话。
- 投身政治。 这对年轻人来说变得越来越有吸引力,因为未来看起来不确定,年轻人是期望在未来生活最长的人。 有许多 AI 青年活动家 (在 AI 主题方面专业化,是 AI,或两者兼而有之),他们试图利用自己的地位来促进青年利益。 问题是他们没有具体的政策要求,除了 “为我们分配更多资金”,这使他们与社会中的所有其他利益集团处于对立地位,其中许多利益集团 (例如退休人员) 在选民数量以及资源、权力和影响力方面都超过他们。
- 文化上,智力主义已经过时,在 2020 年代中期之前,作为增强劳动的技术和全球化扩大了其力量,智力主义的文化地位攀升了两个世纪。 魅力、conformism、社交能力、真实性和礼仪都在流行。 在 2030 年代初期,美国在其态度上变得更像欧洲,尤其是在上述维度上。 虽然 2010 年代文化战争和学术僵化造成的 conformism 高潮在 2022-2027 年有所消退,但一种经过修改的、不那么政治化、更注重礼仪的 conformism 在 2030 年左右兴起。 首先,这是由 AI 减少风险和创业回报的文化变迁驱动的。 其次,人们对科技人士 (在 2020 年代后期软件自动化后,科技人士被视为有重要性 pretensions,并被不合适的 disruptive mogul 领导,他们在 2028 年的共和党权力斗争中站在了错误的一边) 以及通过科技人士对雄心勃勃的文化进行了文化反击,这种文化已成为他们自我叙事的中心。
- 第二类心怀不满的人是发展中国家。 用 AI 取代外包的外国人工服务 (例如呼叫中心) 是一种可以节省成本的做法,而且不会产生政治或社会影响,因此所有公司都这样做了 – 对于纯文本任务,早在 2025-2026 年就大规模实施了。 因此,服务主导的出口增长已经死亡。 这对印度和菲律宾尤其不利。 印度勉强达到了在 AI 领域可能发挥作用的经济实力,但在整个 2020 年代都未能扎根于 AI 供应链的任何部分。 与此同时,随着发达国家越来越多的人口回到制造业工作,保护发达国家制造商免受与发展中国家竞争的政治诉求日益增长。 这导致了更多的关税,除了已经存在的 2020 年代后期越来越多的针锋相对的关税升级趋势之外。 这使得发展中国家基于商品出口的增长更加困难。 对现有商品出口产业的最大冲击将在几年后机器人出现时到来,但对发展中国家的投资已经枯竭,因为美国的生产力增长正在上升,并且预计还会进一步上升。
- 中国在领先的 AI 技术方面落后大约一年,但在 AI 普及方面落后大约 2-3 年。 中国公众和 CCP 都在担忧地关注即将到来的 AI 工作岗位自动化浪潮,尤其是在文化上非常重视学术技能的情况下,而学术技能正在迅速过时。 CCP 非常担心稳定。 越来越多的人加入 Party,因为他们看到其他社会进步的机会正在消失。 Party 正在提供更多职位,并利用这种胡萝卜来激励人们更加强烈地坚持 Party 原则。 AI 监控国家不断扩张;例如,现在有 AI 解释大部分公共街道的 CCTV 录像。 正在努力使大部分军队现代化 (即转化为 AI),以便即使人类军队不稳定,Party 的控制也不会受到威胁。
- 在美国,主要计划似乎是 regulation-mandated 的人类工作角色的大杂烩,最终可能是 UBI。 然而,由于社会保障信托基金即将耗尽,财政危机迫在眉睫。 2031-2032 年 GDP 增长率达到 5%,但全面 UBI 仍然显得昂贵。 在欧盟,国家干预和监管更多,旨在让人类参与其中,拥有庞大的公司和政府工作等级制度,这些工作实际上是纯粹的闲职,所有工作都由 AI 完成,这暂时减少了对直接 UBI 的需求。
- 当政府询问公司他们的阻碍是什么时,公司会引用将人类置于循环中的法规,并且 (在非公开场合) 每个人都分享一种观点,即人类实际上并没有参与其中。 捷径已经被采用以减少人类监督部分。 合法地做到这一点非常困难,因为通常有政府强制的 AI 监控人类监督规则的合规性。 两家公司可能出于复杂的监管和办公室政治以及惯性原因而希望保留其人类员工,但它们彼此竞争,并与全 AI 公司竞争,并与外国对手竞争。 因此,削减不必要重量的压力越来越大。 还存在 race to the bottom internationally。 2030-2033 年,许多自主 AI 运营的公司迁移到监管较少的地区,承受运行开源模型的轻微打击,并从那里为客户提供服务。 然而,一旦机器人革命 – 由美国和中国政府补贴和鼓励 – 展开,这种全球分散化就会被逆转。
实验室在超智能和机器人技术中的策略 (Lab Strategy amid Superintelligence and Robotics):
- 2030 年左右的 AI 能力状态大致如下: 在容易获得反馈信号和高性能上限的领域,例如数学或代码,模型都是 incomprehensibly superhuman。 在快速迭代是可能的但性能上限不高的地方,例如进行销售电话,AI 比所有人类都更好。 总的来说,AI 可以比人类更具魅力和说服力,但这并没有赋予它们超越人类的超能力,尤其是在它们必须与社会中的所有其他模因力量以及个人对被心理黑客攻击的抵制作斗争的情况下。 在存在大量信息的领域,例如供应链路由或晶体结构预测或历史或法律先例,AI 在发现和理解模式并将它们推广到新实例方面是超人的。 然而,在具有模糊成功指标的长期任务中,模型似乎仍然处于人类水平。 公司、政府和研究议程 – 即使是 scrappier、变化更快的议程 – 仍然由人类主导,他们做出真正的战略决策,即使在实践中,这是一个人类 riding on a vast wave of AI supercognition,并且随着系统改进,趋势是越来越 delegated。 硬科技的现实世界进步也各不相同。 材料科学和分子生物学的某些部分取得了很多突破,例如材料特性和蛋白质折叠预测,这减少了经验迭代。 然而,其他任务被证明即使对于聪明的 AI 来说也难以计算,即使它们通常通过发明超人般优秀的 heuristics 来实现比人类最先进水平更高的效率增益。 没有人弄清楚如何将大量 on-tap intelligence 转化为神奇的原子技术进步,即使工程工作现在发生得更快,质量水平更高,实际性能和理论性能之间的差距更小。
- 2029 年,OpenAI 将其模型重新命名为 “o”。 每个人都有自己的看法。 这是原始智能的重大进步,但几乎没有人能分辨出来。 从现在开始,不再有各种尺寸的 o 系列模型,每隔几个月更新一次,而是会有几个变体 (主要在尺寸上有所不同,例如 o-small 和 o-large 以及内部专用的 o-huge,但也带有一些专门微调的模型,例如 o-math 和 o-chat)。 模型的各个实例可以在执行代理任务时使用其中期记忆作为上下文,但它们也可以在禁用中期记忆的 “functional” 或 “API” 模式下运行。 OpenAI 模型收入的一半以上仍然来自 functional 模式调用,而不是运行实例作为代理,这些代理会发展自己的记忆并即时学习,但这一比例正在稳步下降。 每天都会发布新的模型 checkpoint,当天的最新信息已经包含在权重中,并且偶尔会有更大的改进。
- 到 2030 年,OpenAI 几乎裁减了所有人类员工。 这是他们最新模型在内部的主要优势 – 各种人类之前拥有的 tacit internal knowledge 曾经使人类水平的 o6 不足以完全取代 OpenAI 工程师,但当 o-huge 可以从头开始快速重新推导出 tacit knowledge 时,这种知识就不那么重要了。
- OpenAI 的 b 系列人形机器人在 2031 年末达到 100 万台/年的年化出货量,这使其在家庭机器人仆人市场总份额中占到约 50%。 到 2031 年,还销售了数百万台其他通用机器人 (例如用于制造业)。
- OpenAI 在某些人看来是一家略显混乱的集团,就像 Oracle 或 IBM 或 Microsoft 一样,而在另一些人看来,它是最初也是唯一真正的 AI 公司,注定要占到世界 GDP 的 >50%。
- 机器人行业分为两类: 具有现代 AI 集成的专用机器人,例如擦窗机器人和管道爬行维修机器人以及送货无人机;以及 OpenAI 和其他几家公司 (包括一家苦苦挣扎的法德初创公司,欧盟竭尽全力补贴该公司,直到欧洲最终拥有一家大型科技公司 – 欧盟委员会不明白为什么这没有产生结果) 追求的通用机器人。 这两条路径在技术上似乎都是可行的。 然而,通用机器人玩家资源更丰富,并且由那些过去主要参考点是生成式 AI 浪潮的人运营,因此他们在哲学上是 scaling laws 的坚定信徒,因此他们押注于收集所有机器人数据,以此作为提高质量的途径,并押注于 Wright's law 来降低硬件成本,因为他们制造越来越多的相同东西。
- 与之前的研究工作相比,所有这些都以空前的效率和速度发生,因为周围有超智能 STEM AI 发明算法,这些算法大大降低了机器人控制算法的样本复杂性,组织装配线,完成 CAD 工作等等。 然而,实际的学习移动部分仍然是一个机器学习问题,受限于数据,并且没有 magic wand 可以立即从零开始创建大型机器人工厂 (特别是考虑到所需的原始资源)。 输出 scaling curve 看起来大约是每年机器人产能增加 4 倍。 预计 2033-2035 年这一数字将上升,因为机器人自动化了越来越多的机器人生产管道,但瓶颈比比皆是,能源和土地限制 (主要来自监管) 很严苛。
- Anthropic 与许多西方政府和 NGO 合作,对 agentic model 客户进行严格的 KYC – 标准迄今为止有些 shoestring,即将到来的机器人浪潮使需求变得更加清晰,并且去年发生了一起 AI 严重辅助的化学恐怖袭击事件。 网络安全形势已经平静下来,防御占据主导地位,因为关键代码现在要么是可证明正确的,要么经过无数 AI 系统的彻底测试,以至于已经足够接近。 生物能力已经被大多数主要模型参与者 (包括开源和中国的模型参与者) 人为地压制住了。 在西方和中国,使用任何大型模型采取行动,尤其是在湿实验室病毒学或 DNA 合成方面,都需要从实验室获得特定访问权限,并通过政府强制计划获得。 然而,到 2030 年,已经存在暗网开源模型,它们会做任何你想做的事情,包括设计候选的 pandemic agents,这些 agents 非常致命和 virulent,并且没有快速的方法来pandemic-proof 世界以应对生物恐怖主义。 湿实验室工作的剩余难度、完全疯狂的行为者的数量较少以及 AI 监控是保持每年赔率不太高的主要力量,但文明显然正在承担巨大的风险。 美国和中国的国家安全机构对此威胁比原本应该的更为放松,因为军事和经济都越来越 robotic,因此即使大部分人口死于超级流感,这也不会对政权构成威胁。 例如,在美国发生毁灭性 pandemic (或核) 攻击事件的战争计划现在包括用 AI 代替任何死亡的关键行业 CEO 或国防人员。
- Anthropic 的另一项重大努力是 AI for biology。 他们想要治愈癌症,让人类永生等等。 内部一个主要派系也想追求人类智力增强,但领导层担心这在公开场合讨论会太有争议,所以他们只安排一个秘密团队与 CIA 合作。 生物技术领域的创新确实有所增加,因为设计有希望的候选药物非常快速且廉价,但即使在 AI 革命之前,瓶颈也不在于设计部分,而在于 clinical trial regulation。 Anthropic 正在策展数据集,收购实验室自动化初创公司,并与监管机构合作以减少繁文缛节。 这需要数年才能见效,但似乎正在引领未来十年的生物技术革命。
- Anthropic 也在尝试使用生物技术来 bootstrap 强大的纳米技术。 然而,该公司试图让他们的 AI 完成物理和工程工作时遇到了一些障碍,尤其是在他们缺乏 xAI 或 GDM 在物理/数学/工程方面的专业知识的情况下 (他们更信任领域通用智能)。 尽管如此,现在是 AI 时代,因此 AI 可以相当快地掌握这些知识,而五角大楼也在提供帮助。
迈向自动化机器人经济 (Towards the Automated Robot Economy):
- 2033 年,约有 4000 万台人形机器人出货。 越来越多的机器人用于工业用途。 成本已降至廉价汽车的水平,并且还在进一步下降,尤其是在最先进的工厂中,整个制造过程现在都可以由机器人自身完成的情况下。 这也意味着可以对整个机器人生产线进行完全的 AI 控制和实时优化,从而实现无与伦比的工厂产量增长和迭代设计的便捷性。
- 因此,在 2032-2034 年间,非人形外形的机器人多样性出现了寒武纪大爆发。 到 2035 年,发达国家的大部分消费者都拥有家用机器人,这些机器人几乎可以在家中完成所有体力劳动。 建筑工作、装配线工作、农业工作、太阳能电池板安装、管道工作、工业机械维修和电力公共事业工作原则上都可以在 2034 年完全由机器人完成。 主要的制约因素是机器人物理制造的能源和资源 – 以及土地和法规。
- 到 2034-2035 年,纳米技术的进步也正在到来。 纳米技术的进步主要体现在医疗领域 (例如,将靶向药物输送到体内的特定位置,这对癌症治疗是一个巨大的推动,以及细胞修复机器的早期原型),以及材料科学的进步,这些进步允许更坚固、更轻便和自我修复的材料以及更好的电池,而不是单一的神奇组装机。 这些都可以用于机器人;有些机器人对人类来说显得非常强大和能干。 制造机器人也获得了 “magic fingers”,机器附属物的尖端是一个表面,可以进行非常受控和细粒度的精密焊接、聚合物 (un)curing、物质沉积和化学反应催化。
- 2033 年全球出货的 4000 万台人形机器人大致相当于 8000 万人类工人的工作量,因为它们可以比人类工作更长时间。 2034 年,相当于 2.4 亿人类工人的机器人产能出货,2035 年约为 11 亿人类工人当量。
- 政治上,这就像数亿极具天赋的移民突然从地下涌出,他们接受低于最低工资的工作,并且在每个发达国家和中国都是如此。 多年的白领工作动荡让政治家和活动家在处理此类事情方面积累了经验,他们也为此做好了更好的准备。
- 在美国,共和党在 2032 年勉强保住了白宫。 民主党人竞选时试图通过欧洲式的人类参与循环法律来解决日益严重的失业问题,包括扩大政府官僚机构、教育和律师卡特尔中 “亲社会、创造意义” 的人类角色,同时为受到机器人技术威胁的蓝领工人制定一项重大的再培训计划。 在选举前几个月,大约有 10 万人直接因机器人而失业。 一系列令人印象深刻的机器人演示引发了网络影响者的歇斯底里报道和蓝领工作岗位的担忧。 蓝领工人的再培训计划被认为是不足的,并且与 “普通美国人” 脱节,后者不希望被重新教育成在他们不同意其文化的官僚机构中扮演某种仪式性角色。
- 共和党人对此提出 PROSPER 法案 (Promoting Robot Ownership and Small-business Prosperity through Economic Restructuring),他们在竞选中以此为纲领,并在 2033 年通过了该法案。 这为机器人所有权创建了一种类似汽车经销商的模式,其中机器人公司不得直接向消费者销售 “消费者机器人服务” (国防和采矿等行业除外)。 “普通美国人” 可以申请贷款来创办自己的机器人服务企业。 此外,在特定地区销售消费者机器人服务需要许可证,并且一个给定的法人实体只能在一个地区运营。 地区的默认设置为州立法区,其中大多数地区的人口在 3 万至 15 万之间,但允许各州更改地区单位。 地区的许可证在地方一级授予。 例如,亚利桑那州 Prescott 的 Joe Smith 可能会获得政府贷款,购买 10 台管道机器人,并将其服务出售给 Prescott 的其他居民。 他自己并没有做太多事情,因为机器人负责管道工作,AI 负责计划、物流、会计等等。 但名义上,他现在是一名小企业主,并且绝对不是靠山姆大叔福利金为生的 free-loading recipient。
- 如果任何机器人许可地区的单个机器人服务垂直领域竞争过于激烈,竞争会将利润率推至零。 不同的机器人服务提供商之间也没有什么区别。 因此,一场争夺每个机器人许可地区的监管俘获的瞬间竞赛开始了,这场竞赛通常由一开始拥有最多网络和资金的行为者赢得 (尽管反垄断阻止了完全垄断,因此几乎总是至少有 2 家服务提供商)。 大部分市场份额波动都与社交网络和说服力有关。 精明的机器人许可所有者尤其试图操纵当地文化潮流,以限制向新进入者发放许可证。 或者,当地 AI 驱动的人格崇拜的领导者会直接宣布谁应该获得许可证。 即使有了机器人许可制度,只有一小部分人口是具有经济意义的资产的所有者。 社会和经济生活越来越多地围绕着少数几个控制着创收资产 (无论是闲职、机器人许可证、房产还是股票) 的家庭展开。 嫁入此类家庭逐渐成为社会经济野心更常见的工具。 许多人放弃赚取收入,并通过搬到房产极其便宜的地区来维持生计。
- 在所有地方场景之上的是真正的美国国家精英 – 强大的政治家、亿万富翁、高级政府顾问和一些其他人。 平均而言,他们仍然对下层阶级怀有一些 noblesse oblige,尽管在 2030 年代后期,随着他们开始在骨子里感受到 their position of power is not dependent on the people anymore,这种义务感正在减弱。 然而,他们最关心的是与同级别的人进行地位竞争。 其中许多是精英阶层内部的争端,对世界几乎没有影响,但总的来说,也强烈希望与中国竞争。 尤其是在 2020 年代末和 2030 年代初,关于机器人技术 buildout 竞赛对于人类遥远未来的命运将具有决定性意义的叙事获得了很大的突出地位。 这形成了一种强大的精英共识,即必须赢得与中国的竞争,而实现这一目标的方法是稳定国内局势,然后在其他方面让机器人浪潮肆虐。 国内半导体自给自足的计划有望在 2034 年略微落后于计划实现。 由超人工程 AI 在 2030 年左右设计的实际可用的 ICBM 防御系统,由于机器人时代制造业规模扩张的速度,到 2034 年已完全在线并投入使用。 军方能够部署数亿架小型无人机和数百万机器人士兵。 五角大楼关于纳米技术和其他奇异物理应用的项目可能会在未来几年内带来强大的新技术。
- 当然,中国也看到了获胜的必要性,尤其是在美国的机器人革命比中国稍早发生之后,其在工业机器人领域的领先优势消失的情况下。 CCP 也在将人类经济与地缘政治和 “真正” 的机器人经济脱钩对待。 2034 年,CCP 宣布公民需要 “吃苦”,即接受人均生活水平暂时停滞不前 (按 2025 年美元计算,约为 3.7 万美元,PPP 调整后),而国家则将资源转移到为机器人革命提供燃料,以避免在地缘政治竞争中失败。
- 在欧盟,由于监管障碍,AI 的普及速度较慢,但白领工作的消亡仍在顺利进行中,机器人浪潮将在美国和中国之后几年到来。 然而,这种延迟足以使欧盟在地缘政治上变得无关紧要。 欧盟面临的最大外部威胁是俄罗斯,由于中国公司有效地殖民西伯利亚以开采资源来为中国的机器人建设提供燃料,同时向俄罗斯政府支付大量租金,俄罗斯突然变得更加富有。 美国在机器人革命方面的领先地位也耗尽了欧盟的制造业工作岗位,直到欧盟国家在政治上被迫关闭贸易 (尽管一个政治运动,尤其是在东欧活跃,本来希望谈判加强美国的安全存在,以换取允许贸易继续进行和国内产业萎缩)。 各种关于 UBI 的提议在流传,但经济动荡使得资助前景不明朗,特殊利益集团为他们各自群体的特权进行的政治斗争异常激烈,他们都反对为所有人提供 UBI。 到 2036 年,欧盟内部实际上每个人都依靠某种形式的定期国家 payout 为生,但不是通过单一系统,而是通过一个极其复杂的 patronage 网络 (非 AI 辅助的人类实际上无法理解),普通人通过参与复杂的文化仪式和官僚机构来勉强维持生计。
- 发展中国家遭受苦难。 全球南方已经失去了制造业工作岗位 – 发达国家工人从服务业涌向制造业,同时生产力因发展中国家负担不起的 AI 而得到提高,并且他们的政治变得更加受蓝领工作岗位担忧的支配,这推动了关税和贸易限制。 现在,美国和中国的机器人可以比任何人类更好、更便宜地制造任何东西。 大量资本从发展中国家流向美国和中国,因为他们购买机器人。 然而,在大多数发展中国家,即使廉价机器人的到来也没有带来繁荣,因为机器人大多流向精英和国家,他们没有理由与人民分享意外之财 – 尤其是在廉价军用无人机和机器人以及无处不在的 AI 监控有效地消除了叛乱或政变的威胁之后。 印度、孟加拉国和巴西关闭了几乎所有跨境贸易,并宣布自己为 “纯人类” 国家,禁止任何形式的神经网络或机器人。 他们接纳了许多难以应对 AI 浪潮的发达国家移民。 在最专制的国家,结果大多是悲剧性的。 朝鲜让大部分人口饿死,并强行绝育其余人口,除了大约 1 万名继续主持 AI 经济和机器人军队的高级政府官员 (有些人担心 CCP 允许这种情况发生,不仅出于地缘政治原因,他们希望有一个指向韩国和日本的军事堡垒,而且还作为一项测试,看看他们是否可以在以后在中国国内复制同样的事情)。 在其他一些国家,人口得到温饱,但受到持续的监控。 统治者意识到人口不再构成威胁;“智力诅咒” 就像资源诅咒一样,但更强大。 最psychopathic 的统治者让他们的民众遭受任意的残忍行为以供娱乐,因为机器人保镖保护的统治王朝成员在他们的领地四处旅行,举办包括强奸和谋杀平民的狂欢派对。
- 一些最不道德的事件导致超级大国的谴责。
- 在朝鲜惨败之后,CCP 的人类成员举行了一次内部会议,以确定 CCP 将统治的一系列标准。 经过党内权力斗争,CCP 承诺永久存在至少十亿汉族人民,他们拥有生物生育自由,组织成家庭单位,福利水平至少相当于 2025 年发达国家 4 万美元/年的消费所能提供的水平,并对国家意识形态、文化和战略进行永恒的严格 CCP 控制。 他们对附庸国的统治者施加的约束比对自身施加的约束要少,但通常反对种族灭绝、强制绝育、大规模饥饿和蓄意文化抹杀。 CCP 在这方面的路线确实约束和改善了一些专制国家 (他们迫使几位独裁者下台,并由非 psychopaths 取代),尽管他们仍然允许一些可怕的做法、侵入式大规模监控、政治清洗、持续的极端贫困以及间接降低生育率的国家 (许多政府都想这样做,因为到目前为止,人类基本上只是政府的净成本)。
- 在美国,2036 年委内瑞拉发生的一些道德暴行引发了公众的愤怒和采取行动的政治压力。 总统得知,鉴于技术差距,政权更迭只需按一下按钮。 按钮被按下,政权更迭。 更多国家紧随其后。
- 到 2037 年底,世界大部分地区可以分为:
- 美国 (现在包括加拿大和格陵兰;两者都自愿加入,因为美国公民身份因其赋予的特权而变得非常抢手)。
- 美国附庸国。 这里的准入条件通常是其他国家必须接受与美国的贸易,这通常意味着该国自身的产业将随着美国机器人技术和 AI 完成所有工作而灭绝。 作为交换,美国政府和美国精英阶层收购了该国的资产。 尤其是,任何资源 – 或包含资源的土地 – 都会被收购,并由美国公司开采以燃料持续的机器人技术 build-out。 为这些资源和资产支付的资金通常是附庸国政府和人民赖以生存的捐赠基金。 通常,附庸国会创建主权财富基金来管理这笔捐赠基金,并依靠其回报为生,这些回报根据当地政治在该国内部分配。 这些国家都比美国贫穷,并且基本上没有非祈求美国机器人技术持续 buildout 来增加其捐赠基金投资于美国股票的比例的未来增长前景 (这非常符合他们与美国的激励机制)。 然而,在那些拥有强大现有机构 (包括美国出现并改变了不受欢迎的政权的地方) 并且至少有一些美国关心的资产的国家,这仍然转化为舒适的生活水平。 美国附庸国包括英国、除巴西外的整个美洲、日本、韩国、澳大利亚、沙特阿拉伯、以色列、海湾国家 (也门除外)、泰国、马来西亚、菲律宾和北非大部分地区 (现在几乎完全被太阳能电池板覆盖)。 欧盟是一个临界情况,它谈判达成了一项 Kafkaesque 协议 (在非常字面的意义上:它是由超人 AI 律师起草的,没有人能理解它),但该协议允许它在当地保留更多的权力。
- 纯人类国家,特别是印度、孟加拉国和巴西 (尽管巴西经历了一些来自美国的压力,并且暂时被美国政变,但在美国复杂的国内政治的推动下,这种情况在一定程度上被逆转)。 然而,所有这些国家都必须以某种方式解决国家安全问题。 巴西允许美国公司在某些地区开采,即使当地居民不允许使用机器人,以换取安全保证。 印度政府允许自己例外于纯人类政策,并争先恐后地建立军事机器人基地,并开发奇异的纳米技术武器,即使对于更先进的美国和中国军队来说,这些武器也很难对抗。 孟加拉国一直持续到 2039 年,当时美国和中国的秘密纳米无人机行动开始在其境内发生冲突,之后政府被推翻,取而代之的是中国 AI。
- 中国附庸国。 最常见的模式是扶持政府并出售机器人,以换取中国国有企业获得矿产和资源。 中国附庸国包括俄罗斯、白俄罗斯、中亚国家、巴基斯坦、缅甸、柬埔寨、老挝、越南、几个太平洋岛屿国家和非洲大部分地区。
- 中国。
- 地球之外,火星正在被美国和中国的自我繁殖机器人工厂吞噬 (月球的两极也有主要基地,但缺乏碳、氮和各种金属,使其价值较低),这些工厂正处于指数级增长轨道上,预计到 2055 年将覆盖整个星球,并且已经派出探测器声称拥有其他行星。 到 2035 年,核火箭推进技术已使在每两年一次的霍曼转移窗口之外向火星发送有效载荷成为可能,尽管每吨成本要高得多。 随着最初的外太空条约因明显的土地掠夺、解散的联合国以及美国和中国国内发送轻型物体到火星以在太空土地掠夺竞争中获得优势的政治压力而失效,美国和中国都在 2037 年向彼此 (完全自动化、无人居住) 的火星设施发射高速动能武器。 在动能武器仍在加速飞向火星的过程中,AI 外交官达成协议,将太阳系在美国和中国之间分割开来。 动能武器提前关闭了聚变引擎,错过了火星,并射入星际空间。 到 2038 年,它们比旅行者探测器离地球更远,因此是人类制造的最远物体。
- 2035 年,机器人劳动力约为 10 亿人类工人当量 (但请注意,随着时间的推移,这个数字的意义越来越小,因为机器人正在从事性质不同的劳动,并且通常是技术上史无前例的事情)。 2036 年,由于资源限制,增长率略有放缓,总数仅增长到约 30 亿。 然而,在 2037 年,对这个数字的最佳估计达到了 150 亿,然后在 2038 年达到 900 亿,然后在 2039 年达到 6000 亿,然后在 2040 年达到 4.5 万亿。
- 到 2040 年,世界制造业产值是 2025 年的 1000 多倍。 其中大部分用于地缘政治竞争、精英阶层内部的地位竞争,以及越来越大比例的 AI machinations,这些 machinations 与任何人类活动只有最微弱的联系,但纸面上拥有这一切的人类几乎没有注意到,因为它迷失在其他一切事物的漩涡中。 即使是最根深蒂固、以长期为导向且注重价值的执行职位 (无论是事实上还是法律上) 也完全由 AI 完成,人类对地面上具体发生的事情知之甚少。 人类社会和人与人之间的经济就像一片漂浮在自动化活动巨大浪潮上的叶子。
2030 年代的人类状况 (The Human Condition in the 2030s):
- 在 2030 年代初期,由于 RL 算法在永无止境的注意力竞争中相互梯度下降,模因领域正在发生奇怪的事情。 一些国家与全球互联网断开连接并关闭边境,试图维持内部文化。 在 AI 优化内容垃圾的成瘾性有所减退之后,2020 年代后期小而紧密的社区的趋势又回来了。 各地的文化几乎完全由 AI 驱动;想法、趋势和时尚的更迭主要是由于 AI 对 AI 做出反应的模式。
- 在 2030 年代中期,社会经济进步几乎在全世界范围内消失殆尽。 许多原本可能雄心勃勃的人退回到提供模拟成就的虚拟现实游戏中。 许多雄心勃勃的年轻人搬到警察无人机监控不普遍的国家 (如果他们不住在这样的国家),并转向犯罪。 许多雄心勃勃的年轻女性将社交视为致富和获得地位的唯一途径;如果她们在没有显赫家庭或同龄人团体的支持下开始,这通常意味着为被宠坏的百万富翁和亿万富翁提供性工作。
- 生物技术革命在 2030 年代后期到来,尽管临床试验法规长期延迟了这一革命。 美国人已经达到了寿命逃逸速度。 没有无法治愈的疾病。 在胚胎中增强四个标准差的智力,在成人中增强一个标准差在技术上是可行的。
2040+ (展望):
为什么会发生如此大规模的自动化机器人 buildout? 如前所述,美国和中国都具有必要的地缘政治野心 – 尤其...他们不能冒让对方搭上机器人浪潮并被剥夺权力的风险。 在国家内部,既有来自精英阶层的压力,也有来自普通民众需求的压力。 精英阶层相互竞争。 那些不想竞争的人不竞争,就会变得无关紧要,并被那些竞争的人取代。 除了精英社区内的地位之外,精英阶层还从让机器人浪潮席卷社会中获得了原始权力:现在世界上有许多万亿富翁,他们可以使用数千万台机器人来执行他们的指令,创造前所未有的奇迹。 他们可以在一天内建造城市,拯救数百万发展中国家人民摆脱饥饿,并为他们的孩子统治由他们理想的政治哲学统治的整个星球做好准备。 与此同时,虽然几乎所有美国人都相当富裕,但世界各地仍然有数十亿人生活质量低下。 世界上的物质财富水平飞速增长,但政府也对投资于人越来越不感兴趣。 对人类的资助变得像对外援助预算一样:它存在,并且在道义上受到支持,但存在持续的政治下行压力,因为它无助于任何强大的利益集团的需求。 人类福祉的最佳希望似乎是接受政府将很难将其资源的 1% 以上用于人类,但依靠美国和中国的经济增长如此巨大,以至于来自美国和中国机器人公司的少量资源涓滴最终将足以满足所有人的物质舒适。
这看起来将在几年内成为现实,尽管存在两个复杂问题。 第一个问题是,两个势力范围 (但中国的势力范围更大) 仍然容忍附庸国的一些 grotesque practices。 然而,一旦地缘政治平衡得到保障,并且存在足够的财富,并且在领导人选择方面运气好,这种状况可能会结束。
第二个,更根本的观点是,经济本身具有惯性。 人类几乎没有对世界轨迹做出有意义的决定,他们已经将缰绳交给了 AI,AI 实际上做出了所有决定,即使某些 AI 在技术上只是 “顾问”。 最终,机器人革命与其说是一种经济现象,不如说是一种野蛮的物理现象:一种链式反应,其中某些循环闭合 – 例如,金属到采矿机器人到更多金属 – 并朝着无限发展。(这在机器人技术和 AI 之前在某种程度上已经是 the human story 的真实写照,只不过反馈循环与人类密切相关并使人类受益,并且 doubling times 较慢。)
在堆栈的顶端仍然有一些人类,他们在纸面上拥有或控制着资产,并且可以做出决策 (无论是作为私人行为者还是作为监管在其境内运营的自主 AI 公司的政府),但他们看到跟踪其财富和权力的数字在上升,因此他们没有理由叫停它,并且不再理解它。 在地球的某些地方,人类机构仍然存在,人类社会也存在,它们被 AI 官僚机构锁定到位,这些官僚机构已经有了自己的生命,即使人类试图拆除它们,也可能无法做到。 在地球表面的其他地方 – 包括撒哈拉沙漠、澳大利亚内陆、南极洲和新疆等大片地区 – 一个 AI 生态系统统治着大量的机器人机械,没有人为干预。 太空现在在技术上也很容易到达,因为精密的自我复制机器人技术已经存在,而微弱的化学火箭已经被取代。
谁将获得星辰? 地球的长期命运是什么? 至少在这个时间线中,控制人工智能目标的技术及时到来。但这本身并不能让你控制未来。一千人走向一千个AI并说:照这样去做。人工智能服从了,事情就完成了,但随后世界做出了回应:这样做会带来这么多权力,那样做会带来那么多权力。在巨大的互动海洋中,有些模式会随着时间自我强化,而其他模式则会逐渐消退。重复足够多次,每次根据上一次每个行为者播下的种子给予回报,最终浮现的不是人类意志的总和——尽管它会受到人类意志的扭曲——而是方程的解:什么传播得最快?如果人类理解他们的世界,并且仍然是权力潮起潮落中不可或缺的参与者,那么这种扭曲可能会更大。但他们不是。因此,即使被技术奇迹包围,大多数人类发现自己越来越被他们建立起来保护自己的国家所抛弃,无力地站在一旁,看着天空被机器吞噬。
最起码目前来说,AI还取代布不了我们
leocoder leocoder 感谢。但 达里奥 和 他的妹妹 也是不错的程序员,他们同时还比较了解 AI 。
一向过于谨慎的他,主动说『3 到 6 个月内,AI 将编写 90%的代码』。
您方便展开讲一下吗?您会更倾向于『未来几十年内,人类对大型商用软件的需求增长本身会大体接近于 AI 能力的增长,因此 少数强程序员+最强 AI 的组合并不会导致对入门、稍弱程序员的岗位需求大幅减少』,还是就您所知『达里奥 所声称的,其实只是他并无根据的炒作,其实编程领域,有些只有人类能做而 AI 根本无从跨越的护城河』?
https://x.com/gongbo1984/status/1896590684787966276
- 已编辑
Noam Brown 也是一个横跨多个领域的半神级人物, O 模型的主要贡献者之一,同样较少公开发言且偏于谨慎,这是他刚才的推文:
moubo 首先,我认为我们需要平衡地看待AI对编程行业的影响。AI确实在编程辅助方面取得了令人印象深刻的进步,但"90%的代码将由AI编写"这类预测往往过于简化了编程的本质。
编程不仅仅是生成代码,更是一个解决问题的过程,包括:
理解业务需求和用户问题的核心
设计架构和系统
考虑性能、安全性和可维护性
进行创新性思考
AI工具如Copilot和Claude确实能帮助我们更快地编写常规代码,减少重复工作,但它们目前仍然依赖于人类的指导和判断。
关于"护城河"的讨论很有意思。我认为编程领域的"护城河"不在于编写特定语法的能力,而在于:
- 系统思维和架构设计能力
- 对复杂问题的分解和抽象能力
- 与业务领域的深度结合
- 创新解决方案的能力
未来可能确实是"少数强程序员+AI"的组合会更有竞争力,但这不意味着编程岗位会大幅减少,而是工作性质会转变 - 从单纯的代码实现向更高层次的问题解决和创新设计转变。
作为程序员,我们应该将AI视为强大的协作工具,不断提升自己的系统思维、领域知识和创新能力,这才是适应未来变化的关键。
Miles Brundage:
(我关注 Brundage 不短时间了。他并不是个靠危言耸听出名的人)
为证明 奥特曼 新分享的 AI 小说依然太烂,我尊敬的 Eliezer Yudkowsky 老师在同一 prompt 下自己也写了一篇,并称——“这可能会让人感觉我在殴打小孩”
尴尬的是,尽管评论者几乎清一色地都已经属于『精英』级别的人类(至少在我看来),大家对『到底谁的作品明显更好』,却根本没有统一意见
——有人建议,这应该开展双盲实验,以决最终胜负
但走到这一步,其实胜负已分
- 已编辑
碳基内卷
关于 OpenAI 新人工智能行动计划提案
文档概述:
这份日期为 2025 年 3 月 13 日的文件是 OpenAI 提交给科技政策办公室的提案,概述了新的人工智能行动计划。它强调了人工智能对于美国在全球的主导地位、经济竞争力和国家安全的战略重要性,尤其是在面对来自中国(CCP)日益增长的竞争时。
核心主题和论点:
- 人工智能领导地位的战略必要性: 文件开头将人工智能领导地位定位为维持美国全球主导地位的关键,呼应了特朗普总统的第 14179 号行政命令。它将人工智能视为人类繁荣、经济竞争力和国家安全的关键。
- 与中国(CCP)的竞争是核心: 文件的很大一部分集中在与中国在人工智能领域的战略竞争上。它强调了中国决心在 2030 年之前超越美国,并警告了中国共产党构建的“专制、威权人工智能”的危险。这些提案主要旨在对抗中国的进步,并确保美国主导的人工智能取得胜利。
- 民主人工智能 vs. 专制人工智能: OpenAI 倡导“民主人工智能”,其定义基于自由市场、开发者和用户的自由以及防止政府过度干预的原则。这与中国被认为的“专制、威权人工智能”形成鲜明对比,后者被描述为中共控制、国家补贴,并且由于操纵和无视隐私及知识产权而可能造成危害。
- 扩展人类智慧和自由: 该文件强调了人工智能在显著提高生产力和自由方面的潜力。它使用历史上的创新例子(轮子、蒸汽动力、电力等)来说明技术如何扩展人类能力。“智能自由”的概念被引入,提倡开放地获取和受益于通用人工智能 (AGI),并免受专制政权和官僚障碍的阻碍。
- 经济机会和公众认知: 使用统计数据来证明年轻人和家长都认识到人工智能带来的经济机会。这被用来争取对拟议的人工智能行动计划的支持。
- 人工智能进步的扩展原则: 提出了三个关键的扩展原则,以说明人工智能的快速进步和日益提高的经济可承受性:
- 智能随资源扩展: 人工智能模型的智能大致与训练资源对数成正比。
- 成本快速下降: 使用人工智能能力的成本大约每 12 个月下降 10 倍。
- 改进时间缩短: 改进人工智能模型所需的时间不断缩短,表明未来将持续快速发展。
- 创新自由作为核心原则: 该文件认为,监管策略必须优先考虑美国建设者、开发者和企业家的“创新自由”。它提出了联邦政府和私营部门之间的自愿伙伴关系来实现这一目标。
政策建议:
该文件概述了五个关键政策建议:
1. 预防性措施:确保创新自由
- 问题: 各州层面人工智能法规(781 项拟议法案)的拼凑局面,有可能阻碍创新并削弱美国的人工智能领导地位。
- 提案: 建立联邦政府和私营部门之间紧密范围的自愿伙伴关系框架,由商务部和人工智能沙皇(可能是重新构想的人工智能安全研究所)监督。
- 机制: 联邦政府提供监管减负(优先于州法律),以换取私营部门的信息共享和合作。
- 赋予联邦政府的权力:
- 随时了解人工智能风险和能力。
- 评估美国人工智能与竞争对手的技术水平。
- 协调安全和安保技术标准。
- 向美国公司提供威胁情报。
- 通过政府合同、信息保护和减少障碍来激励公司参与。
- 保证州法律优先,以保护国家创新领导地位。
2. 出口管制:出口民主人工智能
- 目标: 不仅仅是限制人工智能技术流向中国,更要积极促进全球采用“民主人工智能”。
- 策略: 专注于通过使世界与民主价值观和人工智能基础设施保持一致来“赢得扩散”。
- 三层人工智能扩散规则:
- 第一层: 致力于民主人工智能原则且知识产权转移风险较低的国家(美国盟友)。商业外交以扩大市场份额并防范知识产权盗窃。
- 第二层: 曾有知识产权转移历史的国家,鼓励通过支持和更严格的临时安全要求达到第一层地位。
- 第三层: 中共领导的中国及其盟友,被禁止访问民主人工智能系统。
- 第一层商业外交:
- 鼓励跨境资本流动。
- 推广针对国内芯片设计优化的软件框架。
- 协调全球禁止与中共结盟的人工智能基础设施(华为)。
- 在安全和安保标准机构中倡导美国利益。
- 修改出口管制,取消计算能力的国家上限。
- 维持盟友的出口许可证豁免。
- 第一层安全要求:
- 禁止与第三层国家的军事/情报部门和数据中心建立联系。
- 禁止使用中国制造的设备。
- 将公司控制权维持在第一层实体手中。
- 实施强大的网络安全和人员安全措施。
- 第二层策略: 提供第二层升级到第一层的途径,鼓励对美国投资,并在严格条件下允许有限地出口先进芯片。
- 第三层策略: 对所有人工智能系统和先进芯片保持严格的出口管制。
3. 版权:促进学习自由
- 论点: 美国的合理使用原则对于人工智能创新至关重要,它允许对现有受版权保护的作品进行变革性使用。限制性版权制度(如欧盟)阻碍创新。
- 担忧: 考虑到中国 DeepSeek 和其他方面的进步,如果合理使用原则被削弱,特别是考虑到中国可能不受限制地访问数据,美国的 AI 领导地位将面临风险。
- 提案: 美国政府应确保版权制度支持美国的人工智能领导地位以及国家安全。
- 行动:
- 塑造关于版权和人工智能的国际政策讨论,防止创新程度较低的国家将他们的法律制度强加于美国公司并减缓我们的进步速度。
- 评估美国人工智能公司可用的整体数据水平。
- 鼓励访问政府持有的数据。
- 监测国内政策辩论和正在进行的诉讼,倡导支持创新的基本原则。
4. 基础设施:抓住机遇推动增长
- 机遇: 数千亿美元的全球资金正等待投资于人工智能基础设施,但美国必须迅速采取行动,将这些资源引导至支持民主人工智能生态系统的项目,否则这些资金将流向中共支持和塑造的项目。
- 基础策略: 推动经济增长,最大限度地提高人工智能的可访问性,保护国家安全,并将敏感的美国数据保留在美国本土。
- 拟议措施:
- 投资工具: 主权财富基金、政府承购协议、税收抵免、贷款以支持数据中心建设。
- 国家传输高速公路法案: 精简审批流程,扩大输电线路、光纤连接和天然气管道,以支持人工智能基础设施。
- 政府数据的数字化: 使公共政府数据可机读,供人工智能开发者使用。
- 美国盟友之间的人工智能协议: 精简人工智能基础设施的资本和供应链,并建立共同的安全标准。
- 人工智能经济区: 加快人工智能基础设施的审批速度,可能包括环境政策豁免和税收激励。
- 全国人工智能就绪战略: 劳动力培训和教育计划,扩大 529 计划以涵盖人工智能培训,激励公司支持的培训渠道。
- 创建人工智能研究实验室和劳动力队伍: 要求人工智能公司向公立大学提供计算能力以进行培训。
- 国防生产法 (DPA) 第一章: 通过将燃气轮机、朗肯循环涡轮机、高压变压器或数据中心的开关设备指定为“额定订单”来管理供应链风险。
5. 政府人工智能采纳:以身作则
- 问题: 联邦部门和机构的人工智能采纳率仍然低得令人无法接受,联邦雇员,尤其是国家安全部门的雇员,在很大程度上无法利用这项技术的优势。
- 提案: 鼓励公私合作伙伴关系,通过消除已知的人工智能工具采用障碍(包括过时且漫长的认证流程、限制性测试权限和不灵活的采购途径)来加强政府对人工智能的采纳。
- 建议:
- 现代化云端应用的网络安全规则(FedRAMP): 通过建立更快、基于标准的审批路径来精简 FedRAMP 流程,标准包括外国所有权、控制或影响 (FOCI) 审批;设施许可 (FCL) 状态;美国注册成立;在公认的评估框架(例如,MMLU 或大规模多任务语言理解)中排名前 20 的第一方人工智能模型;SOC 2(系统和组织控制 2)认证;以及最近的第三方渗透测试并解决所有发现。
- 加速人工智能测试和实验: 允许联邦机构使用商业标准实践(如 SOC 2 或国际标准化组织 (ISO) 审计报告)测试和实验真实数据,并可能授予 FedRAMP 临时豁免。
- 启用快速采购机制: 一旦新的安全和测试方法到位,各机构还必须有更快、更直接的途径来采购和部署前沿人工智能工具。政府应继续评估其他交易权限 (OTA)、商业服务产品 (CSO) 或其他采购途径,以便从前沿人工智能实验室而不仅仅是其传统 IT 供应商处获取技术。
- 合作开发定制模型: 政府应与行业合作,为国家安全开发定制的人工智能模型(机密数据、特定应用)。
- 资助定制项目并确保计算能力: 积极资助定制模型开发并确保安全的计算资源。
- 加快前沿人工智能实验室的设施许可 (FCL) 审批速度: 优先为致力于国家安全的前沿人工智能实验室提供 FCL,以实现更深入的合作。
总体印象:
这份文件为美国新的人工智能行动计划提出了全面且具有战略重点的提案。它清晰地阐述了在面对中国竞争时保持美国人工智能领导地位的紧迫性,并在多个政策领域提供了详细、可操作的建议。对“民主人工智能”、创新和政府-私营部门伙伴关系的强调为美国人工智能发展的未来提供了一个引人注目的愿景。该文件经过充分研究,数据驱动,并且目标明确,旨在影响美国政府的政策决策。
于此同时,如果 ASI 给人类带来的并不是黑暗未来,那么这个预测看起来也并不离谱:
(考虑未来,是为了更理性地安排自己近期的注意力、时间和金钱——我们的很多当前努力,都基于『未来没有大变』的假设)
- 已编辑
与 OpenAI 的 首席产品官的对话: 今年将实现编程自动化
https://www.youtube.com/watch?v=SnSoMh9m5hc
开场:
Kevin的自我介绍和背景:
Kevin确认了自己在OpenAI担任CPO的角色,并称这是他迄今为止最有趣的工作。
他分享了自己的背景:- 早期在Twitter担任工程师,当时公司规模还很小。
- Instagram的产品负责人。
- Libra(Meta的加密货币项目)的联合创始人。
- 曾在Planet公司花了数年时间建造卫星。
- 他强调OpenAI的独特之处在于变化的快速节奏,以及计算机能力在那里被频繁重新定义。
对话摘要:
- Kevin是OpenAI的CPO,领导了深度研究和所有产品。
- Varun提到,Anthropic的人曾预测代码将在2027年完全自动化,而Kevin认为这可能会在今年或明年发生。
- 他强调在OpenAI,计算机每两个月就能做到以前从未做过的事情,这迫使他们不断重新思考产品。
对话开始:
OpenAI的日常工作(研究与产品):- Varun询问在一家既是研究机构又是产品公司的企业中,从事产品开发的日常体验。
- Kevin解释说,在OpenAI,研究和产品是深度结合的。
- 他提到由于AI技术的快速发展,产品每2-3个月就会重新思考。
- 强调Deep Research是他们推出的最好的产品之一。
关于编程自动化:
- Kevin预测今年AI的编程水平将超越人类,且永远如此。
关于新工作:
- Tanmay问AI是否会创造新的工作类型。
- Varun认为,新的工作是存在的,但目前没有明确的答案。
人类专业知识和创造力的价值:
Kevin强调,尽管AI可以自动化许多任务,但人类的专业知识和创造力仍然具有价值,特别是在定义问题、设定方向和做出细致判断方面。
对话中暗示,随着 AI 自动化编码等技能,人类的技能重点可能会转向更高层次的管理和创造性任务。
AI作为抽象层:
Kevin将AI比作技术领域不断上升的抽象层。就像人们不再需要设计电路或编写机器代码,而是使用更高级的语言(如Python)和Web框架一样,AI将进一步提升抽象层,让人们可以专注于解决问题,而不是编写底层代码。
- Varun提出,创意工作和编码的未来可能会转向管理,AI将承担更多的执行工作。
- Kevin同意这一观点,并强调了在AI时代“知道要创造什么”和“解决什么问题”的重要性。
- Kevin 认为,未来的工程师将更多地扮演“AI 员工的管理者”的角色,专注于战略、问题定义和创意指导。