OpenAI联合创始人Greg Brockman在采访中回顾了AI编程能力的飞跃。他使用一个历史测试提示来衡量进步:让AI构建一个他曾花费数月完成的网站。到2025年12月,AI仅需一次提示即可高质量完成,而此前需要多轮提示和数小时。他认为,模型能力从“完成约20%任务”跃升至“约80%”,这迫使工作流程必须围绕AI重组。
对于巨额融资的用途,Brockman将算力比作“招聘销售人员”:只要产品有可规模化的销售渠道,更多销售人员就能带来更多收入。算力是收入中心,而非成本中心。他回忆在ChatGPT发布前,团队询问该购买多少算力时,他的回答是“全部”,因为无论怎样建设,都跟不上需求。算力采购通常需要提前18至24个月锁定。
在算力使用策略上,OpenAI已不再单纯追求最大规模的预训练,而是将预训练能力与推理成本作为联合优化目标。目标并非模型尽可能大,而需综合考虑下游推理场景,寻求智能与成本的最优解。Brockman同时强调,预训练依然至关重要,更聪明的基础模型能提升后续强化学习和推理的效率,大规模集中训练仍然“绝对需要”英伟达GPU的支持。