2026年3月25日,Anthropic悄悄给Claude Code推了一个重磅更新:Auto Mode(自动模式)。这个更新没有大张旗鼓地宣传,但对于每天用Claude Code写代码的人来说,这是一个实实在在的体验升级。
我第一时间上手测试了,把自己的使用体验记录下来,给大家一个真实的参考。
Claude Code Auto Mode是什么?
先简单解释一下背景。Claude Code是Anthropic推出的命令行AI编程工具,你可以在终端里直接用自然语言让AI帮你写代码、修bug、重构项目。它的核心能力是”代理式操作”——AI不只是给你写代码,还能直接在你的文件系统里执行操作:创建文件、运行命令、读取日志等。
但问题也在这里:AI自动执行操作,安全边界在哪里?以前的版本遇到每一步有风险的操作,都要人工确认,频繁打断工作流。
Auto Mode的核心改变是:内置了一个专属的风险分类器。这个分类器会自动判断每个操作的风险等级,低风险的操作直接执行,高风险的操作才暂停等待确认。这样一来,大部分日常编程任务可以真正”自动跑”,不用你一直盯着确认。
具体怎么用?
启用方式非常简单。在Claude Code的终端界面里,输入 /auto 指令,或者在启动时加上 --auto 参数,就进入自动模式了。
进入Auto Mode后,界面上会有明显的提示,告诉你当前处于自动执行模式。执行过程中,你可以看到AI正在做什么,风险分类器的判断结果会实时显示——哪些操作被自动执行,哪些操作被标记为需要确认。
老达的实测体验
我用Auto Mode做了几个实际任务,说说真实感受。
任务一:给一个Python脚本加错误处理和日志
这类任务风险很低——只需要修改代码文件,不涉及危险操作。Auto Mode一口气完成了所有修改,中间没有任何打断。效率提升非常明显,以前同样的任务要确认四五次。
任务二:重构一个模块,涉及删除旧文件
这里风险分类器表现出了它的价值。创建新文件、修改代码这些操作被自动执行,但”删除旧文件”这个操作被标记为高风险,自动暂停等我确认。这个判断是正确的——删除操作是不可逆的,确实需要人工确认。
任务三:执行数据库迁移脚本
这个任务涉及对数据库的写操作,风险分类器直接把整个任务标记为需要确认,给出了详细的操作说明和风险提示,要求我明确授权后才执行。非常谨慎,我觉得这个判断是合理的。
风险分类器的准确性怎么样?
这是大家最关心的问题。根据我的测试,风险分类器的判断总体上比较准确,但并非完美。
有一次它把一个”向远程API发送测试请求”的操作判断为低风险自动执行了,但其实那个API是生产环境的,这让我有点紧张(幸好只是发了一个只读请求,没有影响)。这说明风险分类器目前还无法区分”测试环境”和”生产环境”,这类判断还是需要人工介入。
总体来说,分类器对本地文件操作的判断非常准确,对网络操作和数据库操作也相对保守(宁可多问也不乱执行),这个方向是对的。
Auto Mode适合哪些人?
我觉得Auto Mode最适合以下几类用户:
有一定编程基础的人:你能看懂AI在做什么,在需要确认时能做出正确判断。Auto Mode不是”无脑全自动”,而是”智能减少打断”,你仍然需要保持对任务的整体把控。
做重复性开发工作的人:如果你经常需要做”给N个文件加同样的处理逻辑”、”统一修改代码风格”这类批量任务,Auto Mode能让你真正解放双手。
对效率要求极高的独立开发者:一个人做多个项目,时间非常宝贵,Auto Mode能显著减少等待和确认的时间成本。
老达的总体评价
Claude Code Auto Mode是一个方向正确的更新。它没有走”完全自主、不需要人工干预”的激进路线,而是用风险分类器在自动化和安全之间找到了一个合理的平衡点。
对我个人来说,使用Auto Mode后,处理日常编程任务的效率提升了大约30-40%,主要体现在减少了频繁确认的打断。这已经是非常可观的提升了。
如果你已经在用Claude Code,强烈建议试试Auto Mode,找一个低风险的项目先练练手,感受一下”AI自动跑”的感觉。你会爱上它的。