AI推理基础设施公司Fireworks AI正式发布Fireworks Training预览版,将其平台从纯推理扩展为训练与部署一体化平台。该公司由前Meta工程师、PyTorch构建者之一乔琳创立,目前估值达400亿美元,日处理token量高达15万亿。
平台核心层级
- Training Agent:面向无机器学习基础设施的产品团队。用户仅需描述任务并上传数据,即可完成从训练到部署的全流程(目前仅支持LoRA)。
- Managed Training:面向机器学习工程师。支持监督微调、DPO和强化学习微调,并包含全参数训练。
- Training API:面向研究团队。允许用户自定义损失函数和训练循环,支持GRPO、DAPO等算法。
训练规模与客户案例
平台支持从单节点Qwen3 8B模型,到在64块英伟达B200上训练万亿参数模型(如Kimi K2.5)的全参数训练。
已有多个生产推理客户使用该平台进行前沿训练:
- Vercel:为其代码生成产品v0训练了自动纠错模型,无错误代码生成率达93%,端到端延迟较此前使用的闭源模型改善40倍。
- Genspark:对万亿参数开源模型Kimi K2进行强化学习微调,工具调用量提升33%,成本降低50%。
- Cursor:分布式完成了Composer 2的强化学习训练,训练与生产推理共享同一GPU池。
核心技术优势
Fireworks AI强调其核心技术差异化在于训练与推理之间的数值一致性。平台为所有支持的模型公布训练与推理之间的KL散度值,均低于0.01,有效解决了MoE模型因微小状态变化导致专家路由翻转和误差放大的问题。