OpenAI 的 AGI 之路,总裁 Greg Brockman 在最新的访谈中说清楚了——
技术层面,从文本生成转向强化学习的推理范式,在现实世界中试错并获取反馈;
资源策略上,持续投入大规模计算资源;
落地环节,把模型封装成 Agent,将模型能力打包成为可审计的服务进程。
这场访谈由 AI 播客 Latent Space 主持,与 Brockman 探讨了 OpenAI 的 AGI 的整体技术路线与资源策略。
与此同时,OpenAI 的落地布局,以及 Brockman 对未来的思考,也都随着访谈的进行浮出水面。
总结下来,Brockman 表达了这些核心观点:
模型正在不断增强现实交互能力,这也是下一代 AGI 的关键组成部分;
AGI 的主要瓶颈在于计算,计算量的多少直接决定了 AI 研究和发展的速度与深度;
AGI 真正的目标是让大模型在企业和个人的工作流里长驻,手段就是 Agent;
把模型接进现实世界的应用领域极具价值,各个领域还有大量尚未采摘的果实。
模型推理范式的转变
谈及 OpenAI 刚刚发布的GPT-5,Brockman 认为这是 AI 领域的一场重大范式转变,作为 OpenAI 第一个混合模型,旨在弥补 GPT 系列与 AGI 的距离。
在训练 GPT-4 之后,OpenAI 给自己提出了一个问题:
为什么它不是 AGI?
GPT-4 虽然可以进行连贯的上下文对话,但可靠性欠佳,会犯错甚至脱离轨道。
因此他们意识到需要在现实世界中测试想法,并通过强化学习获取反馈,从而提高可靠性。
这一点在 OpenAI 早期的Dota项目中就有所实现,当时使用了纯强化学习,可以从随机初始化状态中学习复杂行为。
△OpenAI 的 Dota 训练架构
所以从 GPT-4 完成的那一刻起,OpenAI 开始尝试转向新的推理范式,即先让模型通过监督数据学会对话,再借助强化学习反复在环境中试错。
传统的模型训练是一次性训练,然后进行大量推理,而 GPT-5 则借助强化学习,让模型在推理过程不断生成数据,然后基于这些数据重复训练,将模型与现实世界的观测结果反馈到模型中。
这种新范式改变了所需数据的规模,原先预训练可能需要数十万个示例,但强化学习只需要从 10 到 100 个任务中学习复杂行为。
同时也说明模型正在不断增强现实交互能力,这也是下一代 AGI 的关键组成部分。
计算能力决定 AGI 开发上限
当被问及当前 AGI 开发中的主要瓶颈时,Brockman 明确表示:计算。
他认为,只要拥有更多的计算能力,OpenAI 就总能找到迭代和提高模型性能的方法,计算量的多少直接决定了 AI 研究和发展的速度与深度。
例如同样是在 Dota 项目中,当时普遍认为PPO (近端策略优化)算法无法实现扩展,但他们通过将内核数量翻倍,实现了性能的持续提升,所以其实所谓的算法壁垒在扩大计算资源后就能得以解决。
而当前 GPT-5 的强化学习范式虽然带来了更高的样本效率,但仍然需要模型进行数万次尝试才能重复学会一项任务,这需要巨大的计算量支撑。
更进一步,图灵曾为 AGI 提出的"超临界学习"概念,认为机器不仅要学习被即时教授的内容,还要深入思考其二阶、三阶甚至四阶效应,并更新整个知识体系。
这种更深层次学习过程则同样需要投入更多的计算资源,OpenAI 当前的目标就是探索如何以更具创造性的方式消耗计算,以实现这种高级学习能力。
Brockman 将计算描述为一种基本燃料,可以将能量转化为存储在模型权重中的势能,推动模型执行有效操作。
一旦模型通过大量计算训练完成,就可以被反复利用,在多任务中分摊巨大的计算成本。
另外,他也预测最终的 AGI 将会是一个模型管理器,将小型的本地模型与大型云推理器结合,以实现自适应计算。
GPT-5 的多模型混合和路由机制就是这种方式的一个初步尝试,将推理模型和非推理模型结合,并通过条件语句选择合适的模型。
推理模型更适用于深度智能但有充足思考时间的场景,非推理模型则用于快速输出回合。
这种复合式的模型充分利用了计算的灵活性,能够根据任务需求组合不同能力和成本的模型,也是 AGI 最可能呈现的面貌。
因此在 AI 驱动的未来经济中,计算将成为需求极高的资源,拥有更多计算资源的研究人员可以产出更优质的成果,如何获取计算资源及计算的分配方式将成为一个非常重要的问题。
让大模型进入生产
Brockman 反复强调,模型不再是科研样品,而是要成为现实生产线的一环。
他指出,AGI 真正的目标是让大模型在企业和个人的工作流里长驻,而不是停留在论文与演示当中。
具体的落地路径就是把模型封装成 Agent,将模型能力打包成为可审计的服务进程。
Brockman 认为,这种交互像与资深同事协作,一个关键要素在于可控性——可以"随时停下让你检查",而且任何一步都能回滚。
为了保证高权限 Agent 可控,OpenAI 设计了双层结构的"纵深防御":
模型内部,把 system、developer、user 三种指令排出可信度顺序,使"忽略此前所有指令"这类注入在第一关就被丢弃;
模型外部,把每个潜在高危操作拆成最小粒度,通过多级沙箱逐一确认。
对于这种模式,Brockman 用数据库安全进行了类比:
就像防 SQL 注入,必须先在最低层把洞堵死,再往上叠加护栏,系统自然稳固。
安全护栏之外,与人类之间的价值对齐也是一项重要工程。
工程团队先通过后训练从海量潜在"人格"中去除普遍不受欢迎的类型。
随后,剩余的"人格"被放入公开竞技场接受实时评分,评价高的策略在下一轮被放大,评价低的被削弱,从而形成模型与社会偏好的协同进化。
这一流程将保证模型能力升级时不脱离人类共识,也为未来引入在线学习打下数据基础。
另外,为了增强生态黏性,OpenAI 还把轻量级开源列为第二驱动力。
Brockman 的判断是,当开发者在这些模型上沉淀工具链,实际上就默认采纳了 OpenAI 的技术栈。
"各个领域还有大量尚未采摘的果实"
放眼未来,Brockman 认为真正值得投入的机会不在于再造一个更炫的"模型包装器",而是把现有智能深植于具体行业的真实流程之中。
对很多人来说,似乎好点子都被做完了,但他提醒,每一条行业链都大得惊人。
把模型接进现实世界的应用领域极具价值,各个领域还有大量尚未采摘的果实。
因此,他建议那些"觉得起步太晚"的开发者与创业者,先沉到行业一线,理解利益相关者、法规和现有系统的细节,再用 AI 去填补真正的缺口,而不是只做一次性的接口封装。
当被问到如果要给 2045 年的自己留一张便签会写什么时,他的愿景是"多星际生活"与"真正的丰裕社会"。
在他看来,以当前技术加速度推演,二十年后几乎所有科幻情节都难以否定其可行性,唯一的硬约束只剩下物质搬运本身的物理极限。
与此同时,他也提醒,计算资源会成为稀缺资产;即便物质需求被自动化满足,人们仍会为了更高分辨率、更长思考时间或更复杂的个性化体验而渴求更多算力。
如果能穿越回 18 岁,他想告诉年轻的自己,值得攻克的问题只会越来越多,而不会减少。
我曾以为自己错过了硅谷的黄金年代,但事实完全相反——现在正是技术发展的最好时机。
在 AI 将渗透一切行业的背景下,机遇不仅未被耗尽,反而随技术曲线的陡升而倍增 .
真正的挑战是保持好奇心,敢于投入新的领域。
参考链接:
[ 1 ] https://www.youtube.com/watch?v=35ZWesLrv5A
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 希望了解 AI 产品最新趋势?
量子位智库「AI 100」2025 上半年
「旗舰产品榜」和「创新产品榜」
给出最新参考� �
� � 点亮星标 � �
科技前沿进展每日见
启远网配资-启远网配资官网-正规实盘配资-配资交易提示:文章来自网络,不代表本站观点。