可编程的显著性:AI时代的注意力争夺战
——万维钢风格:理性思维,精英日课
一个喝水App引发的深层问题
先说一个小事。有人用 AI 编程,花了很短时间给自己写了个提醒喝水的 App。装上之后,饮水习惯显著改善。
这个故事的表面含义是「AI 提高了开发效率」。但如果你仔细想想,会发现它远不止于此。
我们来做一个思想实验。请问,有谁不知道喝水重要?几乎没有。这条信息早就存在于所有人的知识库里。但为什么很多人还是喝水不够?
行为科学的回答很明确:知识不等于行为。 从知道到做到,中间隔着一条巨大的鸿沟。而这条鸿沟的本质,不是你缺乏意志力,而是注意力竞争。
这件事的关键在于,我们需要重新理解三个被严重混淆的概念。
第一个洞察:信号、注意力和信息是三个不同的东西
大多数人把「信息」理解为客观存在的内容,把「注意力」理解为处理信息的有限资源。这个模型太粗糙了。
更精确的理解是这样的——
信号是外部或内部已经存在的差异。身体的口渴是信号,手机上的红点是信号,桌上没翻的书也是信号。世界充满了信号。
注意力是一个极其有限的放大器。它决定哪些信号被选中,进入意识前台。
信息只有那些被注意力选中、并实际改变了你判断或行为的信号,才算得上信息。
卡尼曼在《思考,快与慢》中反复强调,人的认知资源极其有限。系统二的启动成本很高。你每天只有极少数信号能成功进入深度处理通道。
所以,注意力不是在「处理」信息,注意力是在「生成」信息。它决定哪些差异有资格对你产生因果作用。
两者之间的真正关系不是静态的,而是一个闭环:
信号 → 注意力选择 → 信息成立 → 行动与反馈 → 心智模型更新 → 下一轮注意力分配
这条链非常重要。它告诉我们,所谓「注意力问题」本质上从来不只是「我是否专注」,而是「什么差异有资格进入我的因果世界」。
第二个洞察:长期重要的事,天生输在起跑线
现在来看一个残酷的结构性事实。
你的注意力系统是进化塑造的。它天然偏爱什么?理查德·泰勒和卡斯·桑斯坦在《助推》中详细分析过这一点——人类天然被突发的、鲜明的、情绪性的、有即时反馈的刺激吸引。
而生活中真正塑造长期人生质量的东西呢?恰恰具有完全相反的特征:
- 身体缺水——信号微弱、连续、可被延后
- 睡眠债积累——不会即时惩罚你
- 阅读能力退化——不会在一天内给你明确反馈
- 冥想质量下降——只是让你更容易烦躁,而不是一记警报
- 财务风险——长周期、低显著、弱反馈
这些都是「高价值、长周期、低显著」的信号。它们在注意力竞争中天然处于劣势。
核心判断:短期低价值信号的显著性,系统性地压过了长期高价值信号的显著性。
这不是你意志力的问题。这是注意力竞争场的结构性不公平。身体缺水的信号强度大概是 0.5,而一条朋友圈通知的信号强度是 8。谁会赢?答案早就注定了。
这也解释了为什么「再提醒自己一下」「再努力一点」常常不起作用。因为问题不是你缺一条提醒,而是整个注意力环境的竞争规则就对长期价值不友好。
第三个洞察:AI真正改变的是「意图到系统」的距离
理解了上面的分析,你就会明白那个喝水 App 为什么有趣了。
它做的不是给你增加一条「请喝水」的知识。它做的是信号增幅——把一个弱信号重新编码,提高它在注意力竞争中的排名。
而 AI 在这里扮演的角色,远不只是编码加速器。
AI 真正改变的是一个更根本的结构:一个人从模糊意图到可运行系统之间的距离。
过去,你即便很清楚想改善某个方面——比如多喝水、规律阅读、固定冥想——中间还隔着产品设计、工程实现、界面交互、数据逻辑、反馈迭代的高门槛。现在,一个普通人可以低成本地把自己的价值目标变成持续运行的系统。
查尔斯·杜希格在《习惯的力量》中讲「提示——惯常行为——奖赏」回路。但他没有回答一个问题:谁来设计这个回路?过去只有大公司和平台有这个能力。AI 让个体也有了。
我把这种系统叫做注意力支架。它不是代替你意志坚强,而是为长期重要的价值提供一套持续作用于注意力的外部结构。
第四个洞察:可编程的显著性——一个时代级概念
在这里,我要提出一个我认为非常关键的概念:可编程的显著性(Programmable Salience)。
显著性是指某个东西能否从背景中跳出来抓住注意力。过去,大规模设计显著性的能力主要属于平台和大公司——推荐算法、通知系统、信息流,本质上都是显著性编排机器。
AI 让显著性变得可被个人编程了。你可以决定:
- 一个信号什么时候出现
- 以什么形式出现(文字、图表、语音、对话)
- 出现频率如何
- 是否结合历史行为动态调整
- 是否根据你当天的日程和状态做自适应
信息时代正在从「获取信息」转向「编排显著性」。 过去的瓶颈是获取——我能不能搜到、学到。今天真正稀缺的是编排——哪些信息值得进入生活系统,何时进入,以何种形式进入,能否转化为持续作用。
第五个洞察:你需要「神话」和「官僚制」的配合
赫拉利在《Nexus》中提出过一个深刻的判断:信息不等同于真相。历史上推动大规模合作的,往往不是最接近事实的东西,而是更能连接人、制造共同叙事、嵌入制度流程的东西。
信息首先是一种组织力量。
把这个洞见缩小到个人层面,会发现一个非常实用的框架:一个人要长期改变自己,需要两套系统的配合——
「神话」(叙事层): 我是谁?我重视什么?我在成为什么样的人?这些故事提供方向和意义。比如「我是一个愿意照顾身体的人」「我是一个珍惜深度阅读的人」。
「官僚制」(制度层): 提醒、记录、反馈、回顾、规则调整。这些看似枯燥的流程,把价值从语言层带到运行层。
很多人的问题出在两者严重失衡:
- 只有神话没有官僚制——你有大量价值观,却没有任何流程支撑,所有理想停留在心里。
- 只有官僚制没有神话——打卡很漂亮,表格很整齐,但早已忘记为什么开始。系统从服务价值变成了替代价值。
高手的做法是让两者互相校准:叙事提供方向和意义,流程提供持续性和可执行性,二者都接受现实和反馈的修正。
第六个洞察:最大的危险不是效率不足,而是代理指标劫持
这是我必须强调的一点。
几乎所有系统运行久了都会发生同一件事:那些本来只是中介手段的指标——打卡天数、完成率、数字——悄悄取代了原目标。
你开始为了打卡而喝水,为了 streak 而阅读,为了冥想时长而冥想,为了字数而写作。系统表面上运转良好,但目标已经偷偷换掉了。
古德哈特定律说得很明白:一旦一个指标变成目标,它就不再是好的指标。
更隐蔽的风险是感受力退化。系统过强时,你对身体和情绪的直接感受反而减弱。原本是「我感觉需要停一停」,变成了「系统还没报警,应该没事」。
所以,一个健康的个人系统应该包含五层结构:
- 传感器层——让弱信号可见。没有足够分辨率的传感器,后面一切无从谈起。
- 翻译器层——把模糊感受变成可处理的信息模式。把「觉得不太对劲」翻译成「这里有一个可以响应的模式」。
- 反对派层——这是最缺的一层。你需要某种机制来定期问自己:这套东西真的在帮我吗?我是不是在骗自己?
- 选举层——任何规则都不应永久有效。系统必须内置废除旧规则、替换旧策略的路径。
- 宪法层——最高层。守住一条底线:指标只是工具,不是目标。喝水不是为了数字,阅读不是为了页数,冥想不是为了打卡。
重新定义自律:从「扛住」到「治理」
如果用一句话总结这篇文章的核心判断:
在 AI 时代,自律正在从一种人格品质,变成一种系统设计能力。
过去的自律是「扛住」——凭意志力一次次战胜分心和懒惰。今天的自律更像是「治理」——
- 治理自己的注意力结构
- 治理什么会反复进入前台
- 治理哪些弱信号值得被放大
- 治理哪些指标只能做工具
- 治理系统如何服务于价值而不是绑架价值
- 治理不同时间点的自己如何形成连续性
一个人未来的成熟,越来越少表现为超强意志,越来越多表现为足够好的认知治理能力。
自由也需要重新理解。在信息密度极高的时代,自由不再只是「没人命令我」,而是:我能否设计自己的注意力入口,我能否让真正重要的东西获得稳定位置。
AI 让「把意图变成持续运行的信息结构」这件事的成本骤降。这既是机会,也是挑战。
机会在于:你第一次可以为自己建造一套服务于长期价值的认知基础设施。
挑战在于:你是用 AI 来建造自己,还是不知不觉中把自己交给另一个更精密的外部系统。
未来真正有竞争力的人,不一定知道得最多或动作最快。而是那些能为自己搭建更好信息生态、更会为长期价值争夺显著性的人。
这个选择,将定义你在 AI 时代的真正自由度。