当聪明变得不值钱

当聪明变得不值钱

我发现一件事。很多人谈论 AI 编程,谈来谈去都在说“效率”。好像 AI 就是一辆更快的自行车,你蹬得更快了,但路还是那条路,活还是那些活。这种理解让我觉得挺遗憾的。不是说它错,而是它太窄了,窄到有点可惜。

真正发生的事情,不是你骑车变快了,而是你突然发现路边站着一百个人,说老板我帮你搬。这时候你面临的问题就不再是“怎么搬得更快”了,而是“到底该往哪搬”。这两个问题看着像,其实差了十万八千里。

我认为我们真正进入的,不是什么“AI 辅助编程时代”。这个词太体面了,体面到让人忽略了本质。我们进入的是一个聪明变得不值钱的时代。原来极其昂贵、极其稀缺、一个人一天只能干那么点的认知劳动,突然变得便宜了,可复制了,可以同时跑一百份了。这不是效率变化。这是天变了。


一、聪明什么时候开始不值钱的

我是怎么注意到这个变化的呢?说起来很朴素。

有一天我发现,我手上几个平台的强模型额度怎么都用不完。以前我用 AI,像跟一个按小时收费的律师谈话,每一分钟都得精打细算。我会仔细组织 prompt,反复斟酌措辞,生怕浪费了一次宝贵的调用机会。那个心态,说白了就是穷怕了。

但突然有一天,这个律师不怎么收费了。或者说,他的费用低到我根本不需要想“值不值得问”这个问题。

这个变化看起来很小。但它改变了一切。

以前的心态是节约使用,像面对一个昂贵的顾问。现在的心态是默认大量使用,像拧自来水龙头。以前你会想半天,实在想不通再去问 AI。现在你反过来了:先让 AI 跑一轮,出三个方案,你从里面挑一个。你不再小心翼翼地节省每一次调用,而是想用就用,随手就调。

以前的问题是:“这事值不值得动用 AI?”

现在的问题变成了:“这事我为什么不先让 AI 看一眼?”

你可能觉得这只是效率提升。我觉得不是。这是整个游戏规则变了。就像蒸汽机的意义不是让马车跑更快,而是让能源便宜到一个程度,使得整套生产组织方式都得重新来过。以前太贵所以不做的事——质量检查、冗余设计、大规模试错——突然之间都做得起了。不是人变聪明了,是能源变便宜了。

AI 对脑力劳动做的,就是蒸汽机对体力劳动做的。

以前很多认知动作太贵了。让人反复审查一段代码,让人从十个角度分析一个设计,让人把每个边界条件都想一遍——不是不知道该做,而是做不起。一个人一天就那么多小时,注意力就那么一点,脑子会累,情绪会烦。我自己就经常在审查代码审到第三遍的时候开始走神,第五遍的时候开始骂人。这是人的正常反应,不丢人。

现在这些认知动作的边际成本正在急剧下降。你可以让模型跑十个方案,从三个角度审查同一段代码,把测试用例铺到以前你想都不敢想的密度。原来舍不得做的事,现在都做得起了。

所以核心问题已经变了。不是“AI 太贵能不能少用点”,而是“AI 已经这么便宜了,我们整个干活的方式是不是该重新想想”。


二、AI 到底是个什么东西

大多数人给 AI 的定位是“一个聪明的助手”。我觉得这个定位太客气了,也太窄了。

往抽象了看,AI 其实是一种新型的生产要素。它最本质的特征不是“聪明”——聪明人多了去了——而是便宜、可复制、可并发。

一个人一天只有二十四小时,注意力只有一份,做完 A 才能做 B。但 AI 可以同时跑十个任务、一百个任务。你不用排队。它天然就是并行的。

一个人做到第九遍会烦,会走神,会开始糊弄。这是人之常情,我自己就是这样,不信你让我连续审十遍同一段代码试试。但 AI 不会。它不知道什么叫厌倦。这让它特别适合那些高重复、需要铺量、需要长时间巡检的活。

一个人犯了错,可能职业生涯就拐弯了,可能在复盘会上被拎出来说三个月。AI 犯了错,你让它重来就行。它的试错成本几乎为零。所以它特别适合探索,适合把搜索空间摊开,适合同时给你五种方案让你挑。

把这些特征加在一起,你会发现 AI 最擅长的事情不是“替你写代码”,而是替你把世界摊开来看。它是认知世界里的廉价能源。不是单次的神来之笔,而是大规模、低成本地执行那些以前你舍不得做的脑力活。

我觉得这个认识挺重要的。很多人把 AI 当成一个更快的打字员,这就好比把蒸汽机理解成一匹更壮的马。技术上不算错,格局上差得远。


三、人不是更贵一点的机器

这里有一个很多人搞错的事情,而且搞得很离谱。

很多人把 AI 和人类看成同一把尺子上的刻度——AI 是低配版的人,人是高配版的 AI。AI 笨一点但便宜,人聪明一点但贵。于是问题就变成了“AI 什么时候聪明到能替代人”。

我认为这个理解是错的,而且错得很根本。AI 和人类根本不是一种东西。

关键区别不在于谁更聪明。关键区别在于谁有 stake。

什么叫 stake?就是谁得为结果买单。

AI 可以给你十个方案,每个看起来都挺像样。但它不需要为其中任何一个方案承担后果。它不会因为选错方案丢工作,不会因为上线出事故失眠三天,不会因为一个糟糕的架构决定在未来三年里天天给自己擦屁股。它给完建议就走了,潇洒得很,比任何甩手掌柜都甩手。

人不一样。人的每一个决定都绑着代价——名誉、时间、关系、职业路径、情绪消耗。你做的决定不是悬浮在空中的,它会落回你自己头上。你要解释,要承担,要复盘,要消化后果。有时候还要请同事吃饭赔罪。

这就是为什么 AI 天然适合扩张可能性,而人天然适合压缩可能性。AI 可以帮你看到十条路。但最终选哪一条,只能你来走。因为只有你会真正活在那个选择的后果里。

人的有限性不是缺陷。恰恰因为你不能无限复制自己,你的选择才有分量。恰恰因为你会死,你的时间才值钱。恰恰因为选错了要自己扛,选择才叫选择,否则它只是随机数生成。

这么说吧:有限性是承诺的前提。一个能同时活一万种人生的存在,它的任何“选择”都不值一提。


四、AI 负责摊开世界,人负责把世界压成一条路

如果让我用一句话概括人和 AI 的分工,我会这样说:

AI 负责扩张可能性,人负责把可能性压缩成命运。

这不是文艺腔。我说的是非常实在的事情。

AI 的活儿是发散。帮你看十种方案、二十种边界条件、三十种失败模式。它从多个角度读需求,从多个角色审设计,从大量组合里生成测试。它天生就适合把一个模糊问题的搜索空间铺开来看,让你看到很多你原本看不到的东西。这个它干得很好,又快又不嫌烦。

人的活儿是收敛。你要在这些可能性里决定什么进入现实,什么被过滤掉,什么虽然可行但不值得,什么虽然漂亮但代价太高,什么虽然技术上正确但时机不对。AI 给你一百条路,你得选一条,然后走下去。这个“走下去”三个字很重要,因为它意味着你要承受这条路上所有的坑和弯。

有人会说“这不就是 AI 做简单的、人做难的”吗?这种分法太粗糙了。今天看起来很难的事,明天 AI 可能做得比你好得多。但有一类事情始终更接近人:定义目标、排序价值、做出取舍、承担后果。这些事情不是因为计算复杂才留给人,而是因为它们和“谁来负责、谁来承受、谁要把这件事纳入自己的人生”有关。

想想看:你到底想成为什么样的人?你觉得什么值得,什么不值得?你愿意为什么承受痛苦?你在一堆路径里为什么选了这条?

这些问题没有“正确答案”。它们需要一个有限的、会死的、不能同时活一万种人生的存在来回答。这是人独有的特权,虽然说是特权,有时候也挺像诅咒。


五、该消灭的痛苦和不该消灭的痛苦

在 AI 时代有一个非常重要的区分,我管它叫“死摩擦”和“活摩擦”。很少有人把这事说清楚过,但它其实是个核心问题。

我们当然希望 AI 帮我们减少痛苦。但不是所有痛苦都应该被消除。有些痛苦只是在浪费你的生命,有些痛苦是在塑造你。把这两种痛苦一锅端了,就像把洗澡水和孩子一起泼掉——效率倒是有了,孩子没了。

死摩擦,就是那些不会让你成长、只会消耗你注意力的东西。写大量样板代码,机械性地整理格式,反复搜索同一类信息,批量改名,补充重复性的注释,搭测试骨架,翻十几个文件只为了确认一个简单的调用关系。这些事情当然需要被正确完成,但它们本身不会让你变得更好。它们只是在烧你的命。AI 越能把这些消灭掉,你就越应该高兴。

活摩擦就不一样了。比如你纠结“这个设计到底够不够好”的那种折磨,你权衡“长期架构和短期交付到底怎么平衡”的那种痛苦,你面对不完整信息必须拍板的那种焦虑,你检视自己是不是在偷懒或者好面子才做了某个决定时的那种不舒服。这些摩擦看起来效率很低,但它们是你变成你自己的过程。你的判断力、你的分寸感、你对风险的直觉,都是从这些痛苦里长出来的。

我年轻的时候不懂这个道理,觉得一切痛苦都是坏的,恨不得全部消灭。后来慢慢明白,有些痛苦消灭了,你就废了。就像健身房里的杠铃,扛着当然不舒服,但你把杠铃全扔了,肌肉也就没了。

所以 AI 最有价值的用法,不是帮你消灭一切不舒服,而是帮你拿走那些没有成长价值的痛苦,把真正塑造你的痛苦保留下来。

落到干活上,这个原则特别好用。批量生成 DTO、扫调用链、整理变更说明、补测试骨架——这些是死摩擦,痛快交出去。设计取舍、风险定义、抽象边界、上线标准、关键逻辑是否可信——这些是活摩擦,你得自己穿过去。穿过去的时候会不舒服,但穿完你就不一样了。


六、写代码正在变得不值钱

一旦你接受了“AI 是廉价可扩展的智能”这个前提,软件工程的重心就会发生一个根本性的转移。我知道这话说出来很多程序员会不高兴,但事实就是事实。

以前的瓶颈是写代码。程序员的自我想象基本上是:想清楚,写出来,调通,提交。“写”是核心动作。整个行业的尊严感很大程度上建立在“我能写出你写不出的东西”上面。

但当 AI 能大量写代码的时候,“写”就不再是瓶颈了。这就好比,当印刷术普及之后,“抄写”就不再是一种值得骄傲的技能了。你抄得再快再工整,也比不过印刷机。

真正开始变贵的,是另外几样东西:需求到底定义清楚了没有?设计有没有被比较和证伪?实现有没有被验证?测试有没有杀伤力?上线有没有可控性?事故经验有没有变成约束?

换句话说,“写出来”越来越不值钱,“证明它值得信”越来越值钱。

未来的好开发者不会长得像一个手艺精湛的木匠,敲敲打打全凭手感。他更像一个控制系统的设计师——设目标,放出候选方案,建测试网,做对抗审查,根据反馈修正,反复让系统收敛到一个足够可信的状态。

以前工程质量靠什么?靠一个经验丰富的老手“看一眼就知道哪里不对”。这种直觉当然珍贵,但它太依赖个人了,像一种口耳相传的巫术。未来更稳定的路线是建立系统化的验证结构:多方案竞争、独立实现、差分测试、红队 review、回归回放、文档和实现一致性检查。

当智能稀缺的时候,你舍不得做这些事。当智能丰裕的时候,你应该默认去做这些事。

软件工程的未来,不是让一个程序员变成超人,而是让每一行代码都被一群廉价但有力的智能体反复挑战、验证、解释、重放。这听起来可能让一些人感到失落,但我觉得这其实是好事。与其把赌注押在某个天才不犯错上面,不如建一个让普通人也不容易犯大错的系统。


七、便宜的和贵的各有各的用处

说到具体工具,我发现很多人陷在一个很无聊的争论里出不来:“到底哪个模型最好用?”

这个问题本身就问错了。就像问“锤子好用还是螺丝刀好用”一样,你问的时候就已经暴露了你不太理解这些工具。它们不是互相替代的,它们应该放在不同的环节。

便宜模型的价值在于铺量。它的单次判断未必最准,但它可以大量调用。适合拉全局地图、列风险清单、扫仓库、扫 diff、补文档、生成骨架、做第一轮分类。它的优势不是“最对”,而是“最广”。就像一支侦察部队,你派出去不是为了它打赢仗,而是为了它帮你看清战场。

贵的模型的价值在于压缩不确定性。它应该只在真正难、真正模糊、真正一旦出错代价很高的环节出手:架构方案仲裁、事务边界、一致性语义、幂等设计、权限风险、疑难 bug 根因分析、上线前红队审查。它的价值不是铺量,而是在关键时刻少犯错。

我特别反对两种浪费。

第一种,让强模型去干廉价活。你用最贵的智能去扫文件、补样板代码、写机械注释——这就像请一个顶级外科医生帮你贴创可贴。不是说他贴不了,是你脑子有问题。

第二种,让便宜模型直接终审。便宜模型适合大规模侦察,但你不能让侦察兵直接拍板战略决策。否则你会把大量“看起来挺有道理”的半成品直接带进主干,然后在某个周五晚上爆炸。

好的分工是:便宜模型负责多做,强模型负责少错。

这个原则推到极致,其实也适用于 AI 和人之间的关系。AI 负责多做,人负责少错。你别什么都自己干,也别什么都甩给 AI。找到那个分界线,就是本事。


八、工具这东西,各有各的脾气

既然说到了便宜模型和贵模型的分工,那就顺便聊聊具体的工具。我不打算把这部分写成产品评测——那种文章已经够多了,多到让人想吐。我只说说我自己的理解。

像 Cursor 的 Auto 模式这种东西,本质上是一个廉价认知劳动力池。你可以把大量低风险、高重复的工作甩给它:生成骨架、补文档、做格式整理、第一轮分类。它就像流水线上的工人,不需要特别聪明,但胜在量大管饱、不知疲倦。

像 Opus 这种强模型,它该扮演的角色更像首席架构师兼检察官。你不应该让它去搬砖,你应该在关键的架构决策、风险判断、方案仲裁的时候请它出场。它出场一次很贵,但出场一次的价值也很高。

像 Codex 这类工具,本质上是一个并行执行中心。它适合同时处理多个独立任务,把你的执行带宽横向扩展。

像 Kiro 这类工具,更像是规格化与约束中枢——帮你把需求变成规格,把规格变成约束,让后面的执行有章可循。

你会发现,这些工具加起来,构成了一个完整的“认知供应链”。便宜的干粗活,贵的干精活,并行的扩产能,规格化的定规矩。而你,站在这条供应链的顶端,负责一件最贵的事情:裁决。


九、每个阶段都得重新分工

把这个思路铺到整个开发流程上,每一个阶段都得重新想。这不是我故作惊人,而是确实如此。

需求阶段最怕什么?不是没想法。最怕的是大家以为自己理解一致,实际上理解完全不一致。我见过太多线上事故,根因不是代码写错了,而是需求本身就有一片灰色地带——成功到底怎么定义?失败怎么回滚?重试算不算新请求?部分成功部分失败怎么办?权限的边界在哪里?这些问题不解决,代码写得再漂亮也是在沙子上盖楼。

便宜模型在这个阶段最该干的事,不是急着给方案,而是帮你把雾拨开。读现有代码,拉调用链,列出所有你没想到的歧义点和失败场景。强模型则该扮演挑刺者——这个词定义清楚了吗?这个边界会不会炸?这个场景出了错解释成本有多高?

而你必须裁决的是:这次到底做不做?做到哪里?哪些明确不做?验收标准是什么?哪些风险我不能接受?这些问题只有你能回答,因为只有你知道这事在你的业务里到底意味着什么。

设计阶段最大的毛病是急着追求“一个看起来完整的方案”。我觉得这是一种强迫症。智能丰裕时代的正确做法是默认生成多个互相竞争的设计:最小改动版、最可测试版、最长期可维护版、最强调回滚版。让不同方案各自暴露代价,然后你再选。

设计阶段重要的不是“更漂亮”,而是“更可收敛”。一个漂亮但收敛不了的设计,还不如一个丑但能落地的设计。这个道理很多人嘴上承认,做起来就忘了。

实现阶段最容易犯的错是浪费强模型。绝大多数低风险、高重复的实现工作——DTO、VO、controller 骨架、参数校验、注释、文档——都应该下放给便宜模型。强模型只在少数关键点出手:金额计算、状态转换、权限校验、幂等逻辑、事务和锁。

你在实现阶段的角色不是生产者,是收敛者。你要防止系统发散——判断某个抽象是不是过头了,某个 diff 是不是需要逐行审,某次小重构会不会稀释主线。生产交给机器,收敛留给自己。

测试阶段,在智能丰裕时代,很可能是变化最大的环节。过去很多团队测试做得薄,不是因为不知道测试重要,而是因为做不起。就像你知道体检重要,但全套体检太贵,于是你只查个血常规就算了。现在大量便宜智能意味着你终于可以去做那些以前觉得太奢侈的验证动作了。边界矩阵、权限矩阵、状态转移矩阵、异常路径集合、回归测试、文档和实现一致性检查——这些以前是理想,现在可以是标配。

测试阶段的核心不是让灯都变绿。让灯变绿太容易了,写几个永远通过的测试就行了。核心是建立一种你真正愿意相信的确定性。

上线阶段是所有哲学都会显形的地方。因为到了这里,事情不再只是代码质量好不好,而是“出了事谁扛”。AI 可以帮你生成影响范围图、发布清单、回滚方案、监控建议。它可以做上线前的红队审查:最坏会出什么事故?最先看哪几个指标?哪种情况必须回滚?

但最后那个 go/no-go 的决定——谁来盯盘、出了问题是回滚还是热修、灰度策略怎么定——这些事情没有任何模型能替你承担。AI 是参谋,你是司令。参谋可以分析得头头是道,但下令的必须是你。因为出了事,参谋不用上军事法庭,你得上。


十、你得守住什么

说到这里,最底层的问题就浮上来了。

在聪明越来越不值钱的时代,一个人到底该保留什么?

我想过很久,越想越觉得,答案不是“我要坚持自己敲多少行代码”,也不是“我必须手写每一个文档”。如果把亲力亲为本身当成价值,你就会滑向一种很矫情的姿态——守着手推磨不让用电磨,然后管这叫“工匠精神”。

真正该保留的是主权。

什么叫主权?不是凡事都自己做。而是你有能力、也有意识地决定什么交出去、什么必须自己来——而且这个决定是清醒的,不是稀里糊涂顺着便利性滑过去的。

有四样东西必须留在自己手里。

第一,目标定义权。这件事为什么值得做?做到什么边界算完成?什么明确不做?这些问题 AI 可以帮你分析,但不能帮你决定。因为“值不值得”这个判断,本质上是关于你是什么人、你要什么的判断。

第二,价值排序权。速度和质量怎么平衡?短期收益和长期债务怎么权衡?哪类风险不能接受?这些问题的答案不在数据里,在你的价值观里。你得自己排序。

第三,关键判断拍板权。尤其在高爆炸半径的环节——权限模型、金额逻辑、状态机、不可逆迁移、上线回滚。可以让模型给你一百条建议,但“就这么办”必须由你亲口说出来,而且你知道为什么这么说。

第四,后果承担权。出了事谁解释?谁复盘?谁背锅?谁决定下次怎么防止?AI 可以分析原因,但不能替你承担后果。凡是最终回到责任结构上的事情,都必须有人在场。

这四样东西一旦也交出去了,你可能获得一个极其高效的流程,但你可能已经不再是自己工作和人生的主人了。你变成了自己生活的旁观者,而 AI 变成了你生活的操盘手。这种日子可能挺轻松的,但我不认为它值得过。


十一、在满汉全席面前保持清醒

过去很多年,我们训练自己的方式,本质上都是匮乏时代的训练。学记忆,学计算,学搜索,学组织材料——因为资源有限,外援很少,智能昂贵。你得自己扛。

但现在世界翻过来了。智能供给越来越多,建议越来越多,草稿越来越多,路径越来越多。以前你愁的是找不到答案,现在你愁的是答案太多不知道信哪个。以前你面对的是一片荒野,现在你面对的是一桌满汉全席,什么都有,什么都好,但你只有一个胃。

这个时候,真正稀缺的能力变成了另一种东西。

你能不能在很多建议里形成自己的标准?你能不能在很多草稿里做出真正属于你的终稿?你能不能在很多路径里选一条,然后长期走下去?你能不能在很多优化机会面前知道何时该停?你能不能在大量 AI 产出面前,不让自己的判断力萎缩?

这是一种全新的训练。不是匮乏时代那种“多做一点就赢了”的训练,而是丰裕时代的训练——靠少迷失一点、少发散一点、少把主权外包一点来取胜。

我越来越觉得,未来一个人最重要的能力,不是生产力,而是收束力。不是谁能调更多模型,不是谁能让系统吐出更多东西,而是谁能在海量可能性面前仍然保持方向感。

这个方向感不是 AI 给你的。它是你通过长期的价值排序、风险承担、实践复盘和自我诚实,一点一点长出来的。它是一种肌肉,用进废退。

这也解释了为什么“自己安静想一想”在 AI 时代反而更重要了。AI 太会给答案了,给得又快又漂亮又自信。你很容易在还没真正形成自己理解的时候,就满意于一个表达很漂亮的外部答案。你以为自己想通了,实际上只是借用了一个看起来完整的结论。就像抄了一份漂亮的作业,你以为自己会了,考试的时候才知道什么都不会。

所以你至少要给自己保留一些不靠 AI 的思考时间。自己写一版判断,自己做一版复盘,自己走完最后一公里的表达。不是反技术,不是行为艺术,是给自己的认知肌肉留训练场。你不练就会废,这个道理其实跟体育是一样的。


十二、几条原则

如果把以上这些乱七八糟的想法捋一捋,大概可以归纳出几条我自己认为站得住的原则:

一、AI 是廉价的可能性,人是昂贵的承诺。搞清楚这个区别,你就不会把两者搞混。

二、可逆的事让 AI 多试,不可逆的事由人来定。试错成本为零的事情,你自己干就是浪费生命。后果不可挽回的事情,你交给 AI 就是不负责任。

三、用便宜模型铺量,用强模型深判,用自己做裁决。三层结构,缺一不可。

四、不要让强模型干廉价活,不要让便宜模型做终审。前者是暴殄天物,后者是引火烧身。

五、真正该被 AI 消灭的是死摩擦,不该被轻易外包的是活摩擦。分不清这两种摩擦的人,要么活得太累,要么长不大。

六、软件工程的未来,不是更会写,而是更会让系统不容易写错。写得好是手艺,不容易错是工程。

七、在智能丰裕时代,人的核心任务是守住主权。守住了,你是驾驭智能的人。守不住,你就是被智能驾驭的人。


结语

如果还要把这篇文章再压缩一下,我想说的其实就一件事:

未来不属于最会调用智能的人,而属于最会治理智能的人。

不属于最会生成内容的人,而属于在海量可能性面前仍然能做出承诺、把事情带入现实的人。不属于拥有最多外部智能的人,而属于在巨大外部智能面前仍然没有丢掉自己中心的人。

AI 会越来越像一种基础资源,像水,像电。但人必须决定,这水和电拿来干什么。AI 越来越擅长把世界摊开。但人必须把世界压成自己愿意走的那一条路。

在智能丰裕的时代,真正的修炼不是怎样拥有更多外部智能,而是在拥有了巨大外部智能之后,仍然保有自己的主权、判断和承诺能力。

这大概是未来很多年里,最值得反复提醒自己的一件事。不是因为它多么深刻,而是因为它太容易被忘记。聪明变得不值钱的时代,最值钱的反而是那些跟聪明无关的东西:勇气、判断力、承诺,以及为自己的选择负责的意愿。

这些东西,AI 给不了你。它们只能从你自己身上长出来。