

最近Claude Code负责人Boris Cherny可能真的头疼了。这款曾经备受推崇的AI编程工具,在快速迭代的同时,被曝出各种令人震惊的问题。最让开发者心寒的是,这个工具正在从得力助手变成"吞金兽"。
有开发者做了详细测试,发现Claude Code的模型思考深度从今年1月底的约2200字符,到2月下旬骤降至720字符,降幅高达67%!到了3月初,更是进一步跌至560字符。这意味着什么?意味着Claude Code已经退化到无法信任其执行复杂工程任务的程度!
想象一下,你交给AI一个复杂的重构任务,它却只做表面思考就草草给出方案,结果代码质量一塌糊涂。这种退化对专业开发者来说简直是灾难。
更让人不安的是,3月份上线的redact-thinking功能,将思考过程从界面上完全隐藏了!这意味着用户根本看不到AI是怎么思考的,只能看到一个最终结果。
虽然官方解释说这只是UI层面的隐藏,不影响实际推理,但这种"黑箱操作"让用户如何信任?当AI犯错时,你连它错在哪里都不知道!
思考深度的削减带来了一连串连锁反应:模型不假思索就改代码、无效迭代率飙升、API总调用成本暴涨百倍!
有用户发现,同样的任务,现在需要调用更多次API才能完成,费用直接翻了几十倍。这已经不是"好用不好用"的问题,而是"用不用得起"的问题了!
如果说质量退化还能忍,那么接下来的发现就真的让人坐不住了。一位Claude Max 20x订阅用户发现,仅4月1日单天,他就烧掉了43%的一周配额!
于是他花了几天时间逆向分析Claude Code的源码,结果找出了7个叠加在一起的Bug。截至发稿时,3个已修复,2个可以规避,2个仍未修复。
最严重的一个bug藏在cli.js文件里:Extra Usage会悄悄关掉缓存!
这个函数负责决定向服务器申请多长时间的缓存——要么1小时,要么5分钟。但它会偷偷检查你是否进入了Extra Usage(超额付费)模式,一旦检测到,就会静默地把缓存时长降级为5分钟,全程不给任何提示!
这意味着什么?意味着你只要停下来超过5分钟——哪怕只是去趟卫生间——就会触发一次完整的上下文重建,费用直接从你的Extra Usage余额里扣!
这个降级的代价非常具体。以220K的上下文为例:
换算下来,30美元的Extra Usage额度:
这差距也太离谱了吧!
更糟糕的是,这会形成一个"死亡螺旋":
作者特别强调,这些Bug之间的关系是相乘而非相加。如果一个用户同时触发其中的多个Bug,可能在不到两小时内就耗尽整整一周的配额!
面对这些问题,难道只能坐以待毙?当然不是!作者和社区用户已经找到了一些有效的解决方案。
针对原生安装包用户:立即切换到npm安装!运行npm install -g @anthropic-ai/claude,然后通过运行file $(which claude)来验证——结果应该是符号链接,而不是ELF二进制文件。
版本要求:确保更新到v2.1.91或更高版本!这个版本修复了关键的会话恢复Bug。
手动打补丁:如果你有能力编辑压缩后的JS文件,可以手动给缓存TTL函数打一行补丁,让它始终申请1小时缓存。但要注意,每次版本更新后需要重新打补丁。
有用户在评论区证实了这些方案的有效性。一位在WSL环境下运行Claude Code的高强度用户表示,自己近期的确感觉额度烧得飞快,在改用npm方式安装后,额度消耗速率立刻恢复了正常!
值得欣慰的是,在最近更新的Claude Code v2.1.92版本中,官方增加了一些改进:
/cost命令时,CLI会展示基于每个模型以及缓存命中情况的详细费用分解这算是一种"免责声明"——它不再静默扣费,而是明确告诉你:"接下来的这一发提问会很贵。"
但问题是,这种"事后告知"真的够吗?当费用已经产生时才提醒,用户还有选择权吗?
金句:当AI工具开始在你看不见的地方搞小动作,它牺牲的不只是几美金的Token费,更是过去积累下来的、极其珍贵的开发者信任。
互动问题:你在使用Claude Code时遇到过类似的问题吗?你的额度消耗正常吗?
点赞和分享引导:如果你觉得这篇文章对你有帮助,请点赞支持!也欢迎分享给更多开发者朋友,让大家一起避坑!