可编程的显著性:信息、注意力与自我治理的哲学审视(刘擎风格)

可编程的显著性:信息、注意力与自我治理的哲学审视

——刘擎风格:概念辨析与公共哲学

一、从一个日常案例进入哲学问题

我们不妨从一个看起来极其平凡的案例开始。

一位朋友借助 AI 辅助编程,为自己开发了一个提醒喝水的应用。这个小系统在恰当的时刻提示他补水,记录他的饮水数据,并通过可视化反馈帮助他形成了更好的习惯。结果相当明显——他的日常饮水量获得了实质性改善。

如果我们把这件事仅仅理解为一个技术效率的故事,就会错过它所揭示的更深层问题。因为「多喝水有益健康」从来就不是一条稀缺的知识。几乎所有人都知道这一点。这里的困难不在于认知层面的「不知道」,而在于一个更根本的结构性断裂:知道一件事,并不意味着这件事就能持续地作用于你。

这个断裂指向的,其实是一组古老而深刻的哲学问题:知识与行动之间的关系究竟是什么?一个人为什么会「知善而不为善」?在亚里士多德那里,这被称为akrasia——意志薄弱。而在当代认知科学和信息技术的语境下,我们或许需要重新审视这个问题:也许核心障碍不是意志的薄弱,而是信号的淹没

二、信号、注意力与信息:一组需要严格区分的概念

要理解这个问题,我们首先需要在概念层面做一个重要的区分。在日常用语中,「信息」和「注意力」往往被不加辨别地混用。人们说「信息太多了」,也说「注意力不够用了」,似乎二者不过是一个问题的两面。但如果我们审慎地对待这两个概念,就会发现它们之间的关系远比我们通常以为的更加复杂。

我认为有必要区分三个层次:

第一,信号。 信号是世界中已经存在的差异——身体的微弱口渴感、屏幕上的通知红点、一本搁置很久的书。它们不依赖于任何人的关注而存在,但它们本身尚不构成有意义的信息。

第二,注意力。 注意力是将有限的认知资源指向特定信号的机制。它不只是一种被动的「接收」,更是一种主动的「选择」和「放大」。注意力决定了哪些信号从背景中被提取出来,进入前台意识。

第三,信息。 真正意义上的信息,不是客观地「摆」在那里的东西。更准确地说,信息是那些经由注意力选择,成功进入了一个主体的认知过程,并实际改变了其判断、情感状态或行动倾向的差异。

这个三层区分揭示了一个常被忽视的要点:注意力与信息之间不是简单的处理关系,而是一种生成关系。 没有注意力的参与,信号不会自动成为信息。反过来,一个信号一旦成为信息——即真正改变了一个人的心智模型——它又会反过来重塑这个人的注意力结构,影响他在下一时刻会「看见」什么。

从哲学上看,这里存在一种深刻的循环结构。海德格尔曾指出,我们总是已经处于一种「被抛」的状态之中——我们不是先有一个中立的认知能力,然后再去面对世界;我们总是已经被特定的关切、情境和前理解所塑形。注意力,在某种意义上,就是这种「前理解」在认知层面的运作方式。它不是中性的处理器,而是一个已经带有方向性的选择机制。

三、显著性的不平等:一个结构性的伦理问题

一旦我们接受了上述概念框架,就会看到一个极具伦理意味的结构性问题:在现代生活条件下,不同类型的信号进入注意力前台的机会是极不平等的。

人类的注意力系统是长期进化的产物。它对突发的、鲜明的、情绪激烈的、具有即时社会意义的刺激高度敏感。而那些真正关乎长期生活品质的事物——健康维护、深度阅读、持续的自我反思、稳定的亲密关系、财务的审慎规划——恰恰具有相反的信号特征:缓慢、连续、显著性低、反馈严重延迟。

查尔斯·泰勒在讨论现代人的道德处境时提出过「强评价」的概念——人不只是有欲望,更有对欲望进行评价的能力,能够区分哪些欲望值得追随,哪些应当被抵制。但泰勒也承认,这种强评价的能力并不是在真空中运作的。它需要特定的社会条件、文化资源和制度支撑。

我们今天面临的困境恰恰在于:现代信息环境系统性地削弱了强评价的运作条件。 当短期低价值信号的显著性持续压过长期高价值信号时,一个人即便拥有清晰的价值判断,也难以让这种判断持续地组织自己的日常行为。问题不是他「不知道」什么重要,而是那些重要的东西无法在注意力竞争中获得足够的因果效力。

这不再只是个人意志的问题,而是一个关于显著性分配的结构性正义问题。谁有权力设计什么更显著、什么更容易被看到、什么更频繁地进入人的意识前台?在当下的技术环境中,这种权力主要掌握在平台型企业手中。推荐算法、通知系统、内容流的设计,本质上都是在行使一种对显著性的编排权——它们不是中立地传递信息,而是在积极地塑造什么「值得」被注意。

四、可编程的显著性:认知主权的新起点

正是在这个背景下,AI 带来的一个重要变化开始显得格外有意义。

过去,精细地设计显著性——设计什么以什么方式、在什么时机、以什么频率进入一个人的注意力——这种能力基本只属于机构和平台。而 AI 开始让这种能力部分地回到个体手中。

一个人现在可以低成本地为自己设计:某个信号何时出现、以何种形式出现、是否结合个人历史行为做动态调整、是否根据当天的情境做自适应。这就是我所说的可编程的显著性

这个概念的哲学意义在于:它开始松动过去那种个体面对大型系统时的单向被动关系。过去,个体面对平台设计的显著性结构,更多只有防御性的应对——关掉通知、删除应用、提高自控。而现在,个体开始拥有了建设性的可能——主动为自己长期珍视的价值搭建信息基础设施。

阿伦特曾将自由理解为「开端」的能力——自由不只是不受干预,更是能够在世界中发起新事物、创造新结构的能力。从这个角度看,一个人用 AI 为自己搭建一套服务于健康、阅读、深度思考的系统,恰恰是在行使一种阿伦特意义上的自由。他不是在消极地抵抗外部侵扰,而是在积极地为自己创建一种新的注意力秩序。

五、叙事与制度:个人改变的双重条件

但如果我们止步于此,就会把问题过度简化为一个技术乐观主义的故事。事实上,一个系统是否真正服务于人的长期价值,取决于一个更深层的条件:叙事与制度的互相校准。

赫拉利在《Nexus》中有一个深刻的洞察:人类文明之所以能扩大合作,不仅因为我们能交换事实,还因为我们能围绕叙事建立共同想象,围绕制度建立共同流程。故事让人愿意相信,制度让人持续行动。

将这个洞见缩小到个人层面,我们会发现完全同构的结构。一个人的长期自我改变,同样依赖两个要素的配合:

叙事——关于「我是谁」「我重视什么」「我在成为什么样的人」的自我理解。麦金太尔在《追寻美德》中强调,人的道德生活不是一系列孤立的决策,而是一个有统一性的叙事。我们需要一个关于自己的故事,来为日常行动提供方向和意义。

制度——那些看似枯燥但让价值得以持续运行的结构:提醒、记录、反馈、回顾、规则调整。它们负责把价值从语言层带到运行层。

这里存在一个根本性的张力。叙事没有制度的支撑,会沦为自我感动——你有大量关于理想自我的表述,但生活中没有任何机制让这些表述兑现。而制度失去了叙事的指引,则会退化为官僚主义的自我控制——你精确地打卡、记录、完成指标,却早已遗忘了做这些事的初衷。

好的个人系统,必须让叙事和制度保持动态的互相校准。 叙事提供「为什么值得」的回答;制度提供「如何让它持续生效」的路径;而现实和反馈则提供对两者的检验和修正。

六、代理指标劫持与自我纠错的必要

这就引出了一个至关重要的问题:什么才是一个「好」系统?

一个常见的误解是,好系统就是高效、稳定、自动化的系统。但效率本身并不保证价值方向的正确。一个能稳定放大错误方向的系统,不会因为它运转流畅就变成好系统。

福柯对现代治理术的分析在此具有警示意义:权力最有效的运作方式,往往不是直接的压迫,而是通过设定正常与异常的标准、通过量化和分类、通过看似中立的管理技术来塑形主体。当一个人的自我系统过度依赖量化指标——打卡天数、完成率、连续记录——他实际上可能正在经历一种自我施加的福柯式治理:代理指标悄悄替代了原目标,工具反转为主人。

这就是代理指标劫持的危险。你开始为数字而喝水,为 streak 而阅读,为时长而冥想。系统的目标被偷换了,但因为表面上一切运转良好,这种偷换极难被察觉。

与之相伴的还有一种更深层的风险:感受力的退化。 系统本来是为了增强一个人对自身状态的觉察。但如果系统过强、提醒过密、外部指标过于替代内在感受,最终可能导致一个人与自身经验之间的距离越来越远。他不再「感受到」自己渴了,而是等系统告诉他该喝水了。梅洛-庞蒂所强调的那种身体与世界之间的原初交往,在过度系统化的生活中反而可能被削弱。

因此,好的系统的核心标准不是效率,而是自我纠错的能力。 它必须包含暴露偏差的机制——让使用者能够看到自己正在如何偏离初衷;它必须允许规则的更新和废除——今天有效的策略不一定三个月后还有效;最重要的是,它必须保留一个「宪法层」——始终提醒:指标是工具,不是目标;系统是支撑,不是主人。

七、自律的重构:从人格品质到治理能力

以上分析汇聚起来,指向了一个关于「自律」的深层重构。

传统的理解将自律视为一种人格品质:能忍耐、能克制、能坚持。这种理解预设了一个统一的意志主体,通过自身的力量来抵抗外部诱惑和内在惰性。

但在当代信息环境中,这种理解越来越不够用了。因为真正影响一个人行为轨迹的,已经不只是当下一次次的意志决斗,而是他身处怎样的信息环境、怎样的显著性结构、怎样的反馈机制。

在这样的条件下,自律正在发生一次深刻的概念转型:从「扛住」转向「治理」。 它不再只是一种内在品质的展现,而越来越像是一种系统设计和系统维护的能力——治理自己的注意力结构,治理什么持续进入前台,治理系统如何服务于价值而不是反噬价值。

自由也因此获得了一层新的含义。在信息密度极高、显著性竞争极强的时代,自由不再只是消极意义上的「不受干涉」,也不只是积极意义上的「自我实现」。它还包含一层新的维度:是否有能力设计自己的注意力入口,是否有能力让自己真正珍视的事物在日常生活中获得持续的因果地位。

从这个意义上说,一个人为自己编写的喝水 App 虽然微小,却具有哲学上的示范意义。它示范了一种在 AI 时代开始成为可能的新能力:让个体不再只是被动地被信息环境塑形,而是开始主动参与到塑造自己注意力结构的过程中来。

但这种可能性也伴随着严肃的责任。AI 可以帮助你建造系统,却不能替你决定系统应当服务于什么。它可以提供无数关于「好生活」的模板,但关于「什么是我的好生活」这个问题,最终的判断权仍然——也必须——属于你自己。

人的尊严,在 AI 时代,某种程度上恰恰体现在这里:不是拒绝使用系统,而是在使用系统的同时,依然保有为自己设定方向、为自己搭建纠错机制、为自己保留最终解释权的意愿和能力。