Skip to content

AGI 是一个工程问题

Published: at 11:00 AM

我们在 AI 发展上达到了一个转折点。曾经承诺越来越强大模型的扩展法则正显示出递减回报。GPT-5、Claude 和 Gemini 代表了非凡的成就,但它们正在达到暴力扩展无法解决的渐近线。通往人工通用智能的道路不是通过训练越来越大的语言模型——而是通过构建工程系统,将模型、记忆、上下文和确定性工作流组合成大于其部分的总和。

让我直言:AGI 是一个工程问题,而不是模型训练问题。

平台期的现实

当前一代大型语言模型已经撞上了一道墙,这对任何每天使用它们的人来说都变得越来越明显。它们是令人印象深刻的模式匹配器和文本生成器,但它们在根本上受到以下限制:无法维持跨会话的连贯上下文、缺乏持久记忆、以及使它们对复杂多步推理不可靠的随机性。

我们以前看过这部电影。每个技术浪潮都遵循相同的轨迹:初始突破、快速扩展,然后是递减边际收益的递增成本。半导体行业在 2000 年代早期撞上了这道墙,当时时钟速度扩展变得不可能。当时的解决方案不是通过暴力强制更快的处理器——而是通过多核设计从根本上重新思考架构。

AI 正处于同样的转折点。 我们需要停止问”如何让模型更大?“并开始问”如何让系统更智能?“

AGI 的系统方法

人脑不是单一的神经网络——它是专门化系统协同工作的集合:记忆形成、上下文管理、逻辑推理、空间导航、语言处理。每个系统都 evolved specific purposes,并以复杂的反馈循环异步运行。

真正的 AGI 需要我们工程化类似的系统。这就是我们实际需要构建的:

1. 作为基础设施的上下文管理

当前模型的注意力跨度以千 tokens 计。人类的上下文跨度跨越多年的生活经验。差距不仅是量化的——它是质的。我们需要上下文管理系统,能够:

  • 按需检索和过滤相关信息 使用复杂的检索系统
  • 维护连贯的世界模型 这些模型跨会话持久存在,并随新信息演变
  • 桥接不同专业知识领域之间的上下文 gap
  • 处理冲突信息 使用概率加权和不确定性量化

这需要超越简单的向量相似性搜索,去构建可实时更新、查询和推理的操作知识图谱。我们在 Context Engineering 的工作为这些系统提供了基础。

2. 作为服务的记忆

LLM 没有记忆——它们通过 elaborate methods 来伪造记忆,如提示工程和 context stuffing。真正的 AGI 需要记忆系统,能够:

  • 当被新证据反驳时更新信念
  • 将信息整合 跨多个体验到一般原则中
  • 忘记不相关的细节 而不会灾难性遗忘
  • 生成关于存储信息可靠性和来源的元知识

这不仅仅是数据库持久性——这是构建像人类记忆一样演变的记忆系统:随使用而强化,随不使用而衰减,并基于新理解重新组织。来自软件系统的架构模式向我们展示了如何设计此类演进结构。

3. 具有概率组件的确定性工作流

AGI 的真正突破将来自构建确定性框架,可以在适当时纳入概率组件。把它想象成像构建编译器:总体流程是刚性且可预测的,但各个步骤可以使用启发式和概率优化。

我们需要能够:

  • 将问题路由 到基于问题特征的专业求解器
  • 执行多步工作流 具有回滚和恢复能力
  • 通过确定性检查验证输出 在接收概率结果之前
  • 以可预测的方式组合能力 同时保持随机生成的好处

我们在关于确定性 vs. 概率系统的研究演示了如何有效地构建这些混合架构。关键见解是不确定性应该是系统设计中的头等概念,而不是我们试图消除的东西。

4. 作为模块化组件的专业模型

未来不是一个模型统治所有——而是成百上千个专业模型在编排的工作流中协同工作。语言模型在语言任务中仍然出色,但它们在以下方面表现糟糕:

  • 符号操作 和精确计算
  • 视觉-空间推理 超越基本模式匹配
  • 时间推理 和规划复杂序列
  • 有意图的代理行为 具有持久目标

与其等待一个突破使语言模型擅长所有事情,我们应该构建能够:

  • 将问题路由 到针对特定领域优化的模型(thinking in agents演示了这种方法)
  • 组合不同模型类型的输出 成连贯的解决方案
  • 维护兼容性 同时允许各个组件独立演变
  • 优雅地处理失败 当个别模型表现不佳时

工程挑战

这让我们得出核心见解:构建 AGI 是一个分布式系统问题,而不是机器学习问题。 我们被欺骗认为因为数据中心规模的训练集群是分布式系统,我们已经在进行系统工程。没有什么比这更远离真相了。

真正的工程挑战是构建:

  • 容错管道 其中组件失败不会级联成系统失败
  • 监控和可观测性 系统,能够检测模型输出何时漂移或变得不可靠
  • 部署系统 允许滚动更新而不破坏现有集成
  • 测试框架 能够跨数千个模型和参数组合验证系统行为

这是需要几十年分布式系统经验的工程挑战类型,而不仅仅是机器学习专业知识。解决方案将来自理解如何在硬件、软件和 AI 模型的交叉点构建可靠、可扩展系统的基础设施工程师。

我们应该构建什么

当其他所有人都专注于扩展下一个模型时,我们应该构建使通用智能成为可能的基础设施。这是我的路线图:

第一阶段:基础层

  • 上下文管理服务:持久的、可查询的、版本化的知识图谱,具有实时更新
  • 记忆服务 具有学习巩固模式的具象和语义记忆系统
  • 工作流引擎 具有回滚能力的概率组件确定性编排
  • 代理协调层 具有协商共识和冲突解决的多代理系统

第二阶段:能力层

  • 专业模型控制 针对特定推理域微调的模型,具有标准化接口
  • 符号推理引擎 可与概率组件配合的精确计算和符号操作能力
  • 规划和目标管理 能够将复杂目标分解为可执行子计划的系统
  • 跨模态集成 将感官输入(文本、视觉、音频)组合成统一表示的系统

第三阶段:涌现层

这是真正的 AGI 涌现的地方——来自所有这些组件精心架构设计下的协同工作,而不是来自任何单一的突破性模型。系统的能力将通过从细致架构设计中涌现的特性超过其各个部分。

前进的道路

通往 AGI 的道路不是通过训练更大的 transformer——而是通过构建分布式系统,能够编排数百个专业模型,跨会话维护连贯上下文,围绕概率组件执行确定性工作流,并提供生产规模下的容错操作。

这本质上是工程工作,需要数十年的构建可靠分布式系统的经验,而不仅仅是机器学习专业知识。突破将来自理解如何在 AI 模型交叉点构建上下文路径、记忆系统、工作流编排和模型规模化协调的基础设施工程师。

通向 AGI 的竞赛不是由拥有最大 GPU 集群的团队赢得的——而是由懂得如何构建可靠、工程化的 AI 系统、能够实际跨领域推理同时保持一致行为的团队赢得的。

我们现有的模型已经足够。缺失的部分是将它们变成通用智能的系统工程。

我们一直问错了问题。不是”我们如何达到下一个模型突破?“而是”我们如何构建使通用智能与现有模型不可避免的架构?”

答案是系统工程。AGI 的未来是架构的,而不是算法的。


Previous Post
基于记忆的智能体学习——迈向真正自主AI的道路
Next Post
情境工程:超越提示工程的演进