据监测,Anthropic Claude Code团队成员Lydia Hallie发布了关于近期用户额度快速耗尽问题的调查结论。核心结论是:高峰时段限额已收紧,使用100万token上下文会话会显著增加消耗。
官方给出的省量建议如下:
- 模型选择:Pro用户默认使用Sonnet 4.6,而非消耗速度约快一倍的Opus模型。
- 推理强度:不需要深度推理时,降低推理强度或关闭“extended thinking”功能。
- 会话管理:闲置超过一小时的长会话建议重新开启,而非恢复。
- 上下文窗口:可设置环境变量
CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000来限制上下文窗口大小。
此次回应未提及任何形式的额度重置或用户补偿。
AI播客主持人Alex Volkov批评该回应为“你拿的方式不对”,指出Anthropic此前将100万上下文和Opus模型作为核心卖点推广,现在却建议付费用户避免使用。
值得注意的是,回应中“没有多收费”的说法与产品更新记录存在矛盾。在回应发布前一天,v2.1.90版本修复了一个持续约20个版本的计费Bug:使用--resume恢复会话时,本应命中缓存的请求会按全价计费。此Bug在Lydia的回应中未被提及。
自3月23日起,大量Pro和Max订阅用户报告额度异常快速耗尽。Anthropic曾于3月30日在Reddit承认问题,并将其列为最高优先级处理。此次回应的核心争议在于,公司将问题主因归咎于用户使用方式,而非自身服务调整。