当认知变得廉价,什么变得昂贵:智能丰裕时代的编程法则
大多数程序员以为 AI 编程的变革是速度——原来写一个函数要二十分钟,现在两分钟。这就像以为工业革命的意义是让马跑得更快。
但真实情况恰好相反。真正发生的变化不在速度,而在经济结构。
我来给这个变化一个精确的定义。我们进入的不是“AI 辅助编程时代”,而是“可扩展智能大量涌入软件生产过程的时代”。这两句话看上去很像,其实差了一个世界。前者意味着 AI 仍然是配角,人类流程不变,只是快了一点。后者意味着——原来极其昂贵、稀缺、不可并行的认知劳动,突然变得便宜、可复制、可并发、可持续调用。这不是效率变化,这是范式变化。
这篇文章想讨论的,就是这个范式变化带来的一系列连锁反应。当一种新的智能供给开始变得丰裕,哪些东西会贬值,哪些东西会被重新照亮——我认为这是每个做软件的人现在都应该认真想一想的问题。
一、主观百倍降本:从昂贵顾问到自来水
大多数人以为,技术成本下降是一个会计问题——账面价格降了多少,预算能省多少。但真正改变行为的,从来不是账面价格,而是心理价格。
经济学家有一个概念叫“心理账户”。丹尼尔·卡尼曼在《思考,快与慢》里讲过一个经典实验:同样是丢了十美元,人们对“丢了一张电影票”和“丢了一张十美元钞票”的反应完全不同。价格一样,但心理核算方式不同,行为就不同。
AI 调用成本的变化,正是这种心理账户的翻转。
半年前,我使用强模型的方式像在跟一个按小时收费的顶级律师谈话。每次提问之前都要精心组织 prompt,生怕浪费了一次调用。我会先自己想十分钟,实在想不通了,才“正式”问一次。心态是:“这个问题值不值得动用 AI?”
然后有一天,我发现几个平台的强模型配额怎么都用不完。有的工具甚至允许你在极低的心理成本下持续调用接近顶级的能力。我的心态悄悄变了:“这个问题我为什么不先让 AI 看一眼?”
这个变化的数字可能没有那么戏剧性——底层 token 定价不一定真的整齐划一降了一百倍。但在主观体验上,变化是百倍级的。因为当你不再犹豫“要不要调一次模型”的时候,工作流就被改写了。你不再是先自己想半天、实在想不通再去问,而是默认先让模型跑一轮、出三个方案、然后从中选一个。你开始把模型当成自来水——拧开就用,想用就用。
这就引出了一个关键的类比。
蒸汽机对体力劳动做的事情,AI 正在对认知劳动做。蒸汽机的意义不是让马车跑得更快——它的意义是让能源便宜到一个程度,使得整个生产组织方式必须重新设计。以前太贵所以不做的事——冗余设计、质量检查、大规模试错——突然之间都可以做了。不是因为人变聪明了,而是因为能源变便宜了。
同样的逻辑,以前让人反复审查一段代码、从十个角度分析一个设计、把每个边界条件都想一遍、写完代码再从安全和并发的角度各检查一遍——这些认知动作不是不知道应该做,而是做不起。一个人一天就那么多小时,注意力就那么多,脑子会累,情绪会烦。现在,这些动作的边际成本正在迅速下降。
所以这件事的 takeaway 是:我们面对的核心问题,已经不是“AI 太贵能不能少用点”,而是“AI 已经不再稀缺,整个工作方式该怎么重新设计”。从“如何多写代码”,转向“如何购买确定性”。
二、AI 的本质:不是聪明助手,而是廉价认知能源
大多数人对 AI 的定位是“一个聪明的助手”。这个定位太窄了,窄到会误导你的整个工作方式。
我来给 AI 一个更精确的定义。把 AI 往抽象了看,它本质上是一种新型认知生产要素。它最核心的特征不是“聪明”——聪明只是附带属性——而是四个更底层的特征。
第一,可复制。 一个人一天只有二十四小时,注意力只有一份,做完 A 才能做 B。但 AI 天然就是并行的。你可以同时让十个实例跑十个不同的任务。人类的认知资源池是固定大小的水缸,AI 的认知资源池更像自来水管网——你可以横向无限接水龙头。
第二,持续运转。 一个人做到第九遍会烦,会走神,会偷工减料。心理学研究表明,人的决策质量在连续工作四小时后显著下降——法官在午饭前批准假释的概率会从65%暴跌到接近0%。AI 不存在这个问题。它不会因为重复就变得敷衍,不会因为疲劳就降低标准。这让它特别适合那些高重复、需要铺量、需要长时间巡检的工作。
第三,适合搜索展开。 AI 可以在极短时间内把一个问题的可能性空间铺开。让它同时给你五种设计方案、列出二十个边界条件、生成三十个测试用例——这类“把模糊问题的搜索空间摊开”的活,恰好是它的强项。
第四,单次错误无生命代价。 一个人犯了重大错误,职业轨迹可能就拐弯了。AI 犯了错,你让它重来就行,试错成本几乎为零。所以它天然适合探索,适合试错,适合大规模地跑那些“万一行呢”的方案。
把这四个特征加在一起,结论就很清楚了。AI 最擅长的事情不是“替你写代码”——那是一种过于狭隘的理解——而是替你把世界摊开来看。它是认知世界里的廉价能源:不是靠单次的神来之笔取胜,而是靠大规模、低成本地执行那些以前你舍不得做的认知动作。
所以这件事的 takeaway 是:不要把 AI 当作一个更快的你,要把它当作一种可以大量廉价调用的认知基础设施。这个定位的差异,会决定你后续所有的用法。
三、人类智能:一种完全不同性质的存在
这里有一个很多人搞错的关键区分。
大多数人习惯性地把 AI 和人类放在同一把尺子上比较:AI 是低配版的人,人是高配版的 AI。AI 笨一点但便宜,人聪明一点但贵。于是问题就变成了“AI 什么时候聪明到能替代人”。
这个理解是错的。错在把两种性质完全不同的东西当成了同一种东西的高低配版。
这件事的本质其实是:AI 和人类的区别不在于谁更聪明,而在于谁有 stake。
什么是 stake?让我用一个具体场景来说明。
假设你让 AI 给你出十个架构方案,每个看起来都挺有道理。AI 可以毫无压力地生成这十个方案,因为它不需要为其中任何一个承担后果。它不会因为选错方案而丢工作,不会因为上线出了事故而凌晨三点被电话叫醒,不会因为一个糟糕的架构决定而在未来三年里天天给自己擦屁股。
人完全不一样。人的每一个重要决定都绑定着实实在在的代价——名誉、时间、关系、职业路径、情绪后果、责任结构、不可逆的生命时间。你做的决定不是悬浮在空中的逻辑推演,它会落地,会回到你自己身上。你得向团队解释,得自己承担后果,得在事后复盘时面对自己。
AI 有推理能力,但没有真正的 stakes。它可以给你十个答案,但它不需要选一个然后活在那个选择的结果里。
而人类真正稀缺的东西——如果你仔细想——不是算力,不是记忆容量,不是搜索速度。是这些:你想成为什么样的人?你觉得什么值得、什么不值得?你愿意为什么承受痛苦?你在一堆路径里为什么选了这一条?你准备为哪种结果负责?
这些问题没有“正确答案”。它们需要一个有限的、会死的、不能同时活一万种人生的存在来回答。恰恰因为你不能无限复制自己,你的选择才有分量。恰恰因为你的时间有限,你的承诺才有重量。
人的有限性不是缺陷,它是承诺的前提。
所以这件事的 takeaway 是:不要在“谁更聪明”的维度上比较 AI 和人类,这个比较没有意义。关键区分是——AI 有推理但没有 stakes,人类有限但正因为有限才能做出有分量的承诺。
四、扩张与压缩:一个精确的分工框架
如果要我用一个公式概括人和 AI 的分工,我会这样说:
AI 是丰裕函数,人是稀缺函数。
这里需要解释一下“丰裕函数”和“稀缺函数”分别是什么。
AI 适合做的事情,有一个共同特征:它们越多越好,而且多了不会出问题。搜索、穷举、对比、批量生成、巡检、回归测试——这些活动天然适合无限放大。让 AI 从十个角度读需求、从五个角色审设计、从大量组合里生成测试用例、同时生成三种实现方案让你比较——这就是丰裕函数在工作。AI 的价值在于把一个模糊问题的可能性空间铺开,让你看到更多原本看不到的东西。
人适合做的事情,恰好相反——它们必须少,必须收敛,必须由一个特定的、要承担后果的人来执行。定义目的、划定取舍边界、承担代价、做最终判断、决定何时停止。这些动作不是因为计算复杂才留给人——今天看起来很难的计算,明天 AI 可能做得比你好——而是因为它们和“谁来负责、谁来承受、谁要把这件事纳入自己的人生”有关。
用一个日常生活的类比:AI 像一个旅行社,可以帮你生成一百条旅行路线,每条都标好了景点、费用和时间。但最终你只能走一条。选哪条、为什么选这条、愿意为这条路线的遗憾负责——这是你的事。旅行社可以无限扩张选项,但你的假期只有七天。
所以正确的分工是:让 AI 负责适合无限放大的部分——搜索、穷举、对比、生成、巡检;让人负责必须由有限生命承担的部分——定义目标、排序价值、做出取舍、承担后果、决定何时停止。
AI 负责扩张可能性,人负责把可能性压缩成命运。
所以这件事的 takeaway 是:不要按“简单的给 AI,难的自己做”来分工。要按“适合发散的给 AI,必须收敛的自己做”来分工。这个区分比难度区分精确得多。
五、死摩擦与活摩擦:一个被忽视的关键区分
接下来要讲一个非常实用但很少有人讲清楚的概念。
大多数人对 AI 的期待是“帮我减少痛苦”。这个期待本身没问题,但它隐含了一个危险的假设——所有的痛苦都是坏的,都应该被消除。
事实恰好相反。有些痛苦只是在浪费你的生命,但有些痛苦却是在塑造你。我把前者叫做死摩擦,后者叫做活摩擦。
死摩擦是什么?就是那些不会让你成长、只会消耗注意力的工作。写大量样板代码、机械性地整理格式、反复搜索同一类信息、批量改名、补充重复性注释、搭测试骨架、翻十几个文件只为确认一个简单的调用关系。这些事情当然需要被正确完成,但它们本身不会让你变得更好。就好比你每天花两个小时在通勤路上——这段时间必须花,但它不会让你成为更好的工程师。AI 越能消灭这类摩擦,你就越应该高兴。
活摩擦则完全不同。比如你纠结“这个设计到底够不够好”的那种折磨,你权衡“长期架构和短期交付到底怎么平衡”的那种痛苦,你面对不完整信息必须做判断时的那种焦虑,你检视自己是不是因为懒惰或虚荣而做出某个决定时的那种不舒服。这些摩擦看起来效率很低,但它们是你的判断力、边界感和风险直觉生长的土壤。
安德斯·艾利克森(Anders Ericsson)在“刻意练习”理论中有一个核心发现:真正让人成长的,不是舒适的重复,而是在能力边缘的挣扎。死摩擦是舒适区里的无意义重复,活摩擦才是能力边缘的有效挣扎。
落到具体工作里,这个区分特别实用。
死摩擦(放心交给 AI):批量生成 DTO、扫调用链、整理变更说明、补测试骨架、格式化代码、生成文档模板。
活摩擦(必须自己穿过去):设计取舍、风险定义、抽象边界的划定、上线标准的制定、关键逻辑是否可信的判断。
所以这件事的 takeaway 是:AI 最有价值的用法不是帮你消灭一切不舒服,而是帮你拿走没有成长价值的痛苦,把真正塑造你的痛苦保留下来。区分死摩擦和活摩擦,是用好 AI 的第一个基本功。
六、从手艺人到控制系统设计师
这一节讲的是一个更深层的范式迁移,很多程序员可能还没有意识到。
传统上,程序员的自我想象是一个手艺人:想清楚、写出来、调通、提交。“写”是核心动作,工程质量的来源是个人手艺——一个经验丰富的人“看一眼就知道哪里不对”。
但当 AI 能大量写代码的时候,“写”就不再是瓶颈了。真正开始变贵的是另外几样东西:需求到底定义清楚了没有?设计有没有被比较和证伪?实现有没有被验证?测试有没有杀伤力?上线有没有可控性?
换句话说,“写出来”越来越不值钱,“证明它值得信”越来越值钱。
这个变化的类比是控制论(cybernetics)。诺伯特·维纳在1948年提出控制论的时候,核心思想就是:系统的质量不取决于某个单一天才部件的性能,而取决于整个系统的反馈和校正机制。
未来的优秀开发者不会像一个手艺精湛的木匠——靠个人手感和经验出活。他更像一个控制系统的设计师:设定目标,放出候选方案,建立测试网络,执行对抗性审查,根据反馈修正,反复让系统收敛到一个足够可信的状态。
以前工程质量靠个人直觉,这种直觉当然珍贵,但它太依赖个人了,不可复制、不可扩展。未来更稳定的路线是建立系统化的验证结构:多方案竞争、独立实现、差分测试、红队 review、回归回放、文档和实现一致性检查。
当智能稀缺的时候,你舍不得做这些。当智能丰裕的时候,你应该默认去做这些。
所以这件事的 takeaway 是:软件工程的未来,不是让一个程序员变成超人,而是让每一行代码都被一群廉价但强大的智能体反复挑战、验证、解释、重放。质量来自多轮冗余验证,不再来自单次聪明。
七、便宜模型铺量,强模型深判
讲完宏观框架,来讲一个非常具体的实操原则。
很多人陷在一个低层次的问题里出不来:“到底哪个模型最好用?”这个问题本身就问错了,就像问“锤子好用还是螺丝刀好用”——它们根本不是互相替代的关系,它们应该放在不同的环节。
便宜模型的价值在于铺量。它的单次判断未必最准,但它可以大量调用。适合拉全局地图、列风险清单、扫仓库、扫 diff、补文档、生成骨架、做第一轮分类。它的优势不是“最对”,而是“最广”。就像一支侦察部队——你派它出去不是为了让它打赢仗,而是为了让它帮你看清战场。
强模型的价值在于压缩不确定性。它应该只在真正难、真正模糊、真正一旦出错代价很高的环节出手:架构方案仲裁、事务边界、一致性语义、幂等设计、权限风险、疑难 bug 根因分析、上线前红队审查。它的价值不是铺量,而是在高风险节点做出高质量判断。
这里有两种常见的浪费,值得警惕。
第一种浪费:让强模型干廉价活。你用最贵的智能去扫文件、补样板代码、写机械注释——就像请一个顶级外科医生帮你贴创可贴,这是在浪费最稀缺的资源。
第二种浪费:让便宜模型直接终审。便宜模型适合大规模探索,但你不能让侦察兵直接拍板战略决策。否则你会把大量“看起来有道理”的半成品直接带进主干代码。
好的分工是一句话:便宜模型负责多做,强模型负责少错。
这个原则不只适用于不同模型之间,它也适用于 AI 和人之间——AI 负责多做,人负责少错。
所以这件事的 takeaway 是:不要追求“一个万能模型解决一切”,而要建立一个分层的智能调度结构。铺量和深判是两种完全不同的动作,需要不同的工具来完成。
八、四种工具,四种工种
上面的分层原则落到具体工具上,会长什么样?
当前的 AI 编程工具生态里,有几个代表性的角色。把它们理解为“谁更聪明”是错误的,正确的理解方式是——它们是不同的工种。
Cursor Auto 模式,相当于一支无限实习生军团。它们可以大量执行低风险、高重复的任务——写骨架、补注释、生成 DTO、整理格式。你不需要它们做出精确判断,你需要的是它们可以同时铺开大量工作。
Opus 级别的强模型,相当于首席架构师兼首席检察官。你不会让首席架构师去写样板代码,你让它做的是:审查关键设计决策、发现深层一致性问题、在高爆炸半径的环节做对抗性审查。它出手的频率应该远低于实习生军团,但每次出手都应该对准最关键的节点。
Codex 类的异步执行工具,相当于并行施工现场。它的价值在于可以同时开多条生产线——你可以同时让它跑三个不同模块的实现,然后回来比较结果。
Kiro 类的规格化工具,相当于规格化与约束中枢。它的核心价值不是写代码,而是维护项目的记忆层——需求规格、设计约束、验证标准。它确保项目不会在大量 AI 产出的冲击下丢失一致性。
把这些角色放在一起看,你会发现一个好的 AI 编程工作流,很像一个组织良好的工程团队:有人负责铺量,有人负责深判,有人负责并行施工,有人负责维护规范。它们不是互相替代的,而是互相配合的。
所以这件事的 takeaway 是:选工具不要问“哪个最聪明”,要问“这个环节需要什么工种”。不同的工具应该被放在不同的岗位上,让它们各自做最适合的事。
九、五个阶段的重新分工
把上述所有原则铺到整个软件开发流程上,每一个阶段都应该重新设计分工。
需求阶段:先铺地图,再冻结规格
需求阶段最怕什么?不是没想法,而是大家以为自己理解一致,实际上理解完全不一致。我见过太多线上事故,根因不是代码写错了,而是需求本身就有模糊地带——成功到底怎么定义?失败怎么回滚?重试算不算新请求?部分成功部分失败怎么办?权限的边界在哪里?
便宜模型在这个阶段最该做的,不是急着给方案,而是帮你把雾拨开。读现有代码,拉调用链,列出所有你没想到的歧义点和失败场景。强模型则该扮演挑刺者:这个词定义清楚了吗?这个边界会不会炸?这个场景出了错解释成本有多高?
而人必须裁决的是:这次到底做不做?做到哪里?哪些明确不做?验收标准是什么?哪些风险不能接受?
一句话:人定义业务真相,AI 帮你把真相周围的迷雾拨开。
设计阶段:不写一版,先比较多版
设计阶段最大的误区是急着追求“一个看起来完整的方案”。在智能丰裕时代,正确做法是默认生成多个互相竞争的设计——最小改动版、最可测试版、最长期可维护版、最强调回滚能力版。让不同方案各自暴露代价,然后你再选。
设计阶段重要的不是“更漂亮”,而是“更可收敛”。好的设计过程不是找到完美方案,而是通过多方案比较快速排除不可行的路径,让最终选择建立在充分的对比之上。
实现阶段:AI 是生产线,人是收敛者
实现阶段最容易犯的错是浪费强模型。绝大多数低风险、高重复的实现工作——DTO、VO、controller 骨架、参数校验、注释、文档——都应该下放给便宜模型。强模型只在少数关键点出手:金额计算、状态转换、权限校验、幂等逻辑、事务和锁。
你在实现阶段的角色不是生产者,是收敛者。你要防止系统发散——判断某个抽象是不是过度了,某个 diff 是不是需要逐行审查,某次小重构会不会稀释主线目标。
测试阶段:最值得铺张浪费的环节
测试阶段可能是智能丰裕时代变化最大的环节。过去很多团队测试做得薄,不是因为不知道测试重要,而是因为做不起——写测试太耗人力了。现在大量便宜智能意味着你终于可以默认去做那些原本觉得太奢侈的验证动作:边界矩阵、权限矩阵、状态转移矩阵、异常路径集合、回归测试、文档和实现一致性检查。
测试阶段的核心不是“让灯都变绿”,而是建立一种你真正愿意相信的确定性。
上线阶段:AI 当参谋,发令权在你
上线阶段是所有哲学都会显形的地方。因为到了这里,事情不再只是代码质量,而是“谁来承担结果”。
AI 可以帮你生成影响范围图、发布清单、回滚方案、监控建议。它可以做上线前的红队审查:最坏会出什么事故?最先看哪几个指标?哪种情况必须回滚?
但最后那个 go/no-go 的决定——谁来盯盘、出了问题是回滚还是热修、灰度策略怎么定——这些事没有任何模型能替你承担。AI 给建议,发令权必须在你手中。
所以这件事的 takeaway 是:五个阶段,AI 的角色都不同,但有一个不变的共同点——最终判断和最终责任始终在人这一边。
十、保留主权:四项不可外包的权力
讲到这里,最底层的问题就浮出来了。在智能越来越丰裕的时代,一个人到底该保留什么?
答案不是“我要坚持自己敲多少行代码”,也不是“我必须手写每一个文档”。如果把亲力亲为本身当成价值,你很容易滑回低效和防御心态。
真正该保留的是主权。
我来给主权一个精确的定义:主权不是凡事都自己做,而是你有能力、也有意识地决定什么交出去、什么必须自己来——而且这个决定是清醒的,不是顺着便利性不知不觉滑过去的。
具体来说,有四项权力必须留在自己手里。
第一,目标定义权。 这件事为什么值得做?做到什么边界算完成?什么明确不做?这些不是 AI 帮你定义的。AI 可以帮你展开选项,但“我们为什么出发”这个问题必须你来回答。
第二,价值排序权。 速度和质量怎么平衡?短期收益和长期债务怎么权衡?哪类风险不能接受?这些本质上都是“你愿意为哪种结果负责”的问题。价值排序是一个人最深层的判断,它不是逻辑推导的结果,而是你整个人生经验、价值观和风险偏好的表达。
第三,关键判断拍板权。 尤其在高爆炸半径的环节——权限模型、金额逻辑、状态机、不可逆迁移、上线回滚。可以让模型给你一百条建议,但“就这么做”必须由你亲自说出来,而且你知道为什么这么选。
第四,后果承担权。 出了事谁解释?谁复盘?谁背结果?谁决定下次怎么防止?AI 可以分析原因,但不能替你承担后果。凡是最终回到责任结构上的事情,都必须有人在场。
这四项权力一旦也交出去了,你可能获得一个极高效的流程,但你可能已经不再是自己工作和人生的主人了。就像一个国家可以把很多事务外包给国际组织,但主权——立法权、司法权、国防权——一旦交出去,这个国家在实质意义上就不再存在了。
所以这件事的 takeaway 是:主权不是“什么都自己做”的固执,而是“清醒地决定什么交出去、什么必须自己来”的能力。在 AI 时代,这四项权力是你作为一个专业人士的最后防线。
十一、在丰裕中学会收束
过去很多年,我们训练自己的方式,本质上是匮乏时代的训练。学会记忆、学会计算、学会搜索、学会组织材料——因为资源有限、外援很少、智能昂贵。在匮乏时代,“多做一点就赢了”是成立的。
但现在世界开始翻转了。智能供给越来越多,建议越来越多,草稿越来越多,路径越来越多。赫伯特·西蒙(Herbert Simon)在1971年就预言过这件事——他说,在信息丰裕的世界里,真正稀缺的是注意力。现在这句话可以更新一下:在智能丰裕的世界里,真正稀缺的是收束力。
收束力是什么?是以下五种能力的总和:
- 在很多建议里形成自己的标准。
- 在很多草稿里做出真正属于你的终稿。
- 在很多路径里选一条,然后长期走下去。
- 在很多优化机会面前知道何时该停。
- 在大量 AI 产出面前,不让自己的判断肌肉萎缩。
这是一种全新的训练。不是匮乏时代那种“多获取、多积累”的训练,而是丰裕时代的训练——靠少迷失一点、少发散一点、少把主权外包一点来取胜。
这也解释了为什么“自己安静想一想”在 AI 时代反而更重要了。AI 太会给答案了,你很容易在还没真正形成自己理解的时候,就满意于一个表达漂亮的外部答案。你以为自己想通了,实际上只是借用了一个看起来完整的结论。心理学上这叫“流畅性错觉”(fluency illusion)——当信息以足够流畅的方式呈现时,你会高估自己对它的理解程度。
所以你至少要给自己保留一些不靠 AI 的思考场域:自己写一版判断,自己做一版复盘,自己走完最后一公里的表达。不是反技术,而是给自己的认知肌肉留训练场。不废掉判断肌肉,是智能丰裕时代最重要的自我纪律。
所以这件事的 takeaway 是:未来一个人最重要的能力不是生产力,而是收束力。不是谁能调更多模型、生成更多东西,而是谁能在海量可能性面前仍然保持方向感。
十二、七条长期原则
如果把这篇文章压缩成七条可以贴在显示器旁边的原则,我会这样写:
1. AI 是廉价的可能性,人类是昂贵的承诺。 理解这个区分,是一切分工的起点。
2. 可逆的事情交给 AI 多试,不可逆的事情由人来定。 试错成本低的环节尽管让 AI 铺开,但最终的不可逆决策必须经过人的审慎判断。
3. 用便宜模型铺量,用强模型深判,用自己做裁决。 三层结构,各司其职。
4. 不要让强模型干廉价活,不要让便宜模型做终审。 这是两种最常见的资源错配,每天都在发生。
5. 真正该被 AI 消灭的是死摩擦,不该被轻易外包的是活摩擦。 区分这两种摩擦,是用好 AI 的基本功。
6. 软件工程的未来,不是更会写,而是更会让系统不容易写错。 从手艺人范式转向控制系统范式。
7. 在智能丰裕时代,人的核心任务是守住主权。 目标定义权、价值排序权、关键判断拍板权、后果承担权——这四项权力是你作为专业人士的最后防线。
结语:治理智能的人
如果有人问我“智能丰裕时代,程序员最该做什么”,我的答案有四层。
第一层:学会高效调用 AI,消灭死摩擦,提升产出。大多数人停在这一层。
第二层:理解 AI 和人类是两种性质不同的智能,建立正确的分工结构。开始有意识地区分铺量和深判、扩张和收敛、可逆和不可逆。
第三层:保留主权——目标定义权、价值排序权、关键判断拍板权、后果承担权——并且这个保留是清醒的、主动的,不是惯性的。
第四层:修炼收束力。在拥有巨大外部智能之后,仍然保有自己的方向感、判断力和承诺能力。
未来不属于最会调用智能的人,而属于最会治理智能的人。
这里的“治理”是一个非常讲究的词。它不是“使用”——使用是工具层面的事。它也不是“控制”——控制暗示着对抗关系。“治理”的意思是:你能够设定目标、分配资源、建立约束、监控执行、承担后果,并且在整个过程中保持对全局的方向感。
真正稀缺的东西,一直都不是算力和数据。真正稀缺的是:清晰的目标、诚实的价值排序、对风险的敏感、对质量的敬畏、对后果的承担、在无限选项面前的收束能力。
在智能丰裕的时代,真正的修炼不是怎样拥有更多外部智能——那个问题正在被技术进步自动解决。真正的修炼是在拥有巨大外部智能之后,仍然保有自己的主权、判断和承诺能力。
这大概是未来很多年里,最值得反复提醒自己的一件事。