AI对谈七讲:一个程序员和一个大学生的认知碰撞(万维钢风格)

AI对谈七讲:一个程序员和一个大学生的认知碰撞

——万维钢风格:精英日课,洞见提炼

这是一期特殊的“精英日课”——不是解读一本书或一篇论文,而是整理一场真实的对谈。2026年4月的一个周日,工作十年的程序员李文业和大二统计学专业的学生葭月二三进行了三个多小时的对话。我从中提炼了七个核心议题,每个议题都有一个可以带走的洞见。


一、“读代码确保正确性”为什么过时了

这场对谈的起因是一位大学老师的追问:“如果你不自己写代码,你怎么判断AI写的代码是对的?”

学生当时答不上来。但程序员李文业给出了一个很犀利的反问——

李文业:你怎么能保证你读了代码,你就能判断它是对的?如果读代码就能确保正确,那为什么公司还需要测试人员?微信不是程序员把代码写出来就让大家用了,它还有专门的测试人员去保证正确性。

这个反问的力量在于:它把“代码审查”从一个神圣化的行为还原成了众多质量保证手段中的一种。而当AI能快速生产大量代码时,人工阅读代码就变成了一个性价比极低的手段。

更有意思的是TDD(测试驱动开发)在AI时代的复兴。TDD要求你在写实现之前先写测试——以前程序员觉得这“很反人类”,因为它消耗额外的时间和精力。但AI不嫌累。AI就像牛马一样,你让它怎么做就怎么做。于是TDD从一个“知道好但做不到”的理想,变成了AI编程的最佳实践。

洞见:卡尔·波普尔说科学的特征叫“可证伪”。代码也有一个类似的特征叫“可测试”。保证代码正确的手段不是“我读过”,而是“我测过”。当AI让测试的成本趋近于零,代码正确性的保障体系就会被彻底重建。


二、一个人能烧多少Token,就是他的能力上限

李文业提出了一个大胆的命题——

李文业:一个人能有效烧掉的token数,约等于一个人的能力上限。AI是一个放大器,初级程序员放大两三倍,高级程序员放大一千倍甚至一万倍。

这句话乍听夸张,但逻辑是自洽的。“有效烧掉”是关键词——不是乱花钱,而是你能想到多少有价值的指令去下达。这取决于你的知识面、经验、判断力和想象力。

他三月份花了1200刀(约8000人民币),四月预算翻倍到2400刀。而学生葭月二三坦承她的使用量连一个200刀的账号都用不完——“不是token的上限,是时间的上限。”

但李文业认为,更深层的限制是想象力。他讲了一个自己的经历:一开始200刀的额度用不完,于是他开始用“看似浪费”的指令让AI做各种实验。结果发现了AI能控制浏览器、能自主优化登录流程等新能力。“如果没有这种超出日常需要的支出,我是发现不了这些东西的。”

李文业:创新来自于浪费。

洞见:这跟黄仁勋提出的“token是新能源”的说法异曲同工。如果你还在用“这个问题值不值得动用AI”的心态使用AI,你的思维就还停留在上个时代。正确的心态是:“这个问题我为什么不先让AI看一眼?”从节省token转向消费token,就是从匮乏思维转向丰裕思维。


三、AI的两种主动性

葭月二三问了一个好问题:AI有主动性吗?

李文业把它拆成了两层:

手段主动性——在解决问题时的灵活性。他举了Opus 4.6的例子:当它发现从A点到B点走不通时,会自动尝试绕路,甚至跳过中间步骤直接去够最终答案。“它有好几次直接想修改底层代码去绕过某个限制。我有时候得盯着它,怕它用太非常规的手段。”

目的主动性——自己给自己设定目标。这个AI没有。“我会突然想着要不要业余也写代码,公司给的账号不好那我就自己买。这种驱动力AI不具备。”

洞见:手段主动性的强弱取决于模型能力和你舍不舍得花钱——用Opus和用免费模型,体验差了一个世纪。目的主动性则完全属于人类。在AI越来越能“怎么做”的时代,人类的核心价值越来越集中在“做什么”和“为什么做”上。


四、跨领域学习比专长更重要了

对谈中出现了一个关于“专才vs通才”的讨论——

葭月二三:有了AI之后这个社会不缺斜杠青年,甚至试错成本非常低。反而这个时候专长变得重要了。

李文业:我会认为跨领域学习的能力比以前更重要了。以前你是后端,只需要学后端。现在大家都是全栈——如果你只会后端,别人不可能专门搭配一个前端给你。

他用了一个CEO的类比——一个大老板不需要知道所有技术细节,但他要知道怎么用人、要什么结果、怎么分配资源。“你不觉得这个跟AI很像吗?”

以前的编译原理就是一个例子。对上一代计算机人来说,编译原理是基础中的基础。但今天绝大多数程序员用不上编译原理——除非你专门搞编译器。“需要懂的人自然会懂,其他人不需要。”

洞见:AI时代的竞争维度变了。以前可能只比一个维度(比如后端能力),以后是多维度的。这对那些跨领域学习能力强的人来说是好消息——AI能帮你在短时间内把一个新领域提到及格线,但从及格到优秀,还是需要你的学习能力和判断力。


五、注意力管理的三步法:量化→自动化→决策化

李文业分享了他通过做APP积累出来的一套“注意力管理哲学”——

第一步:量化。 用番茄APP记录阅读时间,拍照记录饮食,APP记录体重和喝水量。不需要自动化,手动记录就行。关键是建立“看数据”的习惯。

第二步:信息自动化。 做成APP,让数据的采集和统计自动完成。手机打开就自动记录打开次数和使用时长,页面自动生成图表。

第三步:决策化。 基于数据给出建议。喝水APP会在你连续几小时没喝水时提醒你;如果连续几天喝水过量,它会建议你少喝一点。

李文业:我的终极目标是手机上只有我自己做的APP,使用时长要占大部分。用这些APP的时候,我的注意力管理是最科学的,最符合我自己意志的。

洞见:这套三步法的底层逻辑是——人对自己的注意力分配能力是不可靠的(这跟行为经济学的大量研究一致)。与其依赖意志力,不如建立一个外部系统来校准你的行为。番茄APP验证了阅读量,喝水APP验证了健康习惯,饮食APP正在验证体重管理。每一个新场景都可以复用同一套方法论。


六、假设Opus成本下降100倍,你会做什么?

这是李文业提出的一个思想实验——

李文业:假设Cursor的Opus会员从200美元/月降到2美元/月,你会做什么?

葭月二三的回答很诚实:“我没有一个很确定的答案。我可能还没有放开手脚地去想象。”

李文业认为这正是需要做的功课:“你现在能想象到的都是你已经掌握的东西。要探索新的可能性,你就得花时间——花那些‘看似浪费’的时间。”

他举了自己的例子:现在他会让AI主动去找一个项目里10个可能的优化方向,然后他挑几个让AI去改,好的保留、不好的回滚。以前你不可能这么对待一个程序员——“你搞了两三天发现不行让他回滚,他第二天就离职了”——但AI没有这个问题。

李文业:我们的思维还停留在智能非常昂贵的时代。如果你想做前沿的事情,你的思维至少要比别人先进一个阶段。你要用明年的做法去做今年的事。

洞见:这个思想实验的价值不在于答案,而在于它暴露了你的思维边界。如果你想不出来成本下降100倍之后你能做什么不同的事,说明你的使用方式还有巨大的提升空间。正如以前电话费贵的时候人们只打“必要的电话”,现在通话免费了,打电话的方式和频率完全变了。


七、对AI的悲观,是对人类的盲目乐观

最后,我想用葭月二三在对话中说的一句话来收尾——

葭月二三:对AI的悲观,其实是对人类的盲目乐观。

这句话值得展开。

当人们说AI“不够好”的时候,潜台词是“人类的方式更好”。但你认真问一下:人类手动管理注意力的效果好吗?人类一行行读代码来确保正确性的成功率高吗?人类翻一本本书来做文献综述的效率够吗?

如果答案都是“也不太行”,那所谓的“对AI的批评”就不是在坚持一个更高的标准——而是在维护一种熟悉的、但可能已经失效的工作方式。

李文业讲了一个例子。他哥三年前第一次用ChatGPT,问了一个NBA历史前十球员的问题,然后开始嘲笑答案。“这就是很典型的——在新事物刚出来的时候,人们会迫切地证明自己更好,从中获得心理优势感。”

这种心态的问题在于:它会阻止你去学习新的东西。你如果把所有时间都花在证明AI不行上面,你就没有时间去发现AI能帮你做什么。


本期总结

这场对谈最有价值的七个takeaway——

  1. 保证代码正确的手段从“我读过”变成了“我测过”,TDD成为AI时代最佳实践
  2. 你能有效烧掉的token数≈你的能力上限,创新来自于“浪费”
  3. AI有手段主动性但没有目的主动性,人的核心价值在于“做什么”
  4. 跨领域学习能力比单一专长更重要了
  5. 注意力管理三步法:量化→自动化→决策化
  6. 思想实验:如果成本下降100倍你会做什么?——答不出来说明还有巨大提升空间
  7. 对AI的悲观本质上是对人类能力的盲目乐观

下期见。