真正的理性思考——《思考,快与慢》读书笔记

真正的理性思考——《思考,快与慢》读书笔记
Photo by Tim Foster / Unsplash

一. 从“有限理性”到“思考的双系统”

在现代心理学与行为经济学的领域,丹尼尔·卡尼曼(Daniel Kahneman)的这本《思考,快与慢》可以说是里程碑式著作。

作者在书中总结了数十年与合作者(特别是已故心理学家 Amos Tversky)共同研究的成果,深入探讨了人类如何做出判断与决策,以及为何我们在许多情况下会出现系统性的偏误(bias)。本书提出的人类“双系统模型”——即“系统 1(快思考)”与“系统 2(慢思考)”——不仅极大影响了心理学的研究范式,也在经济学、公共政策、社会学、商业管理等领域引发了广泛讨论与应用。

今天我们通过阅读这本书来聊聊:

1. 人类的思维系统为何分为“快”与“慢”?它们在运作方式和功能上有何不同?

2. “启发式”(heuristics)与“偏误”(bias)如何导致人们经常做出非理性的判断与决策?

3. 在风险与不确定性环境下,人们怎样高估或低估概率与损益,从而偏离最优选择?

4. “体验自我”与“记忆自我”的区别对幸福感与决策有怎样的影响?

5. 我们能否通过学习或外部设计来减轻或规避思维偏误,使个人与社会决策更佳?

二. “系统 1”与“系统 2”:“快”与“慢”的思维模式

卡尼曼开宗明义指出,人类思维可划分为两个彼此独立却又相互关联的系统:

1. 系统 1(System 1):快速、直觉、自动、无意识,占据了我们日常生活中的绝大部分认知活动。它可以瞬间做出反应,如在面部表情中看到愤怒、联想词语、躲避突发危险、快速判断简单算术等。系统 1 依赖“启发式”思维(heuristics),即通过类似“捷径”的方式迅速给出答案,通常无需努力。

2. 系统 2(System 2):缓慢、努力、可控、基于逻辑推理。它负责复杂的分析、慎重的比较、深度的计算等。例如做长除法、比较商品价值、权衡利弊。系统 2 的运作需要集中注意力和认知资源,一旦被占用就很难再处理其他复杂任务。

卡尼曼在书中给出许多实验与事例来说明这两个系统。系统 1常常是我们日常决策的“默认模式”,它虽高效省力,但也容易产生谬误或偏差;系统 2虽然更准确谨慎,却往往“懒惰”,不愿意介入。只有当任务过难或出现显著冲突时,系统 2 才会被激活,进行深度思考。

三. 注意力与认知负荷:系统 2 的“懒惰”本能

1. 认知资源有限

卡尼曼与合作者曾进行一系列有关“注意力负荷”的实验,其中最著名的是观察瞳孔扩张。当人进行耗时费力的心智活动(如心算 17×24),瞳孔会随认知负荷增大而扩大,并在完成任务或放弃时骤然缩小。由此可知,系统 2 的运作需要耗费有限而宝贵的“认知能量”。这解释了为何我们倾向于采用系统 1 的自动化思维方式,尽量避免消耗过多资源。

2. “认知吝啬鬼”与最小努力原则

人类天生追求认知上的省力。在满足日常所需时,我们会优先使用自动化、快速的系统 1,而非一步步进行严谨推理。这在一般情况下无可厚非——它让我们能迅速应对环境。但是当面对复杂或关键决策时,若系统 2 不及时介入修正,就可能导致重大错误。

3. 分心与负荷对决策的影响

当系统 2 被占用时(如同时进行多任务),我们更易做出冲动或草率决策。这一点在生活中很常见,如在驾驶时专心度不够就更易出现失误,或在做加班赶进度时不经深思熟虑而草率决定。

四. 启发式与偏误:系统 1 的陷阱

1. 代表性启发(Representativeness Heuristic)

当判断某件事或某人属于什么类别时,我们倾向于仅根据“与原型的相似度”来判断。例如,若一个人“安静、喜欢整理、爱阅读”,我们会迅速判断他是个爱学习的好学生。这种就是“代表性启发”最常见的偏差,导致我们在概率和统计上犯错。

2. 可得性启发(Availability Heuristic)

我们往往根据相关事例在记忆中出现的容易程度(可得性)来判断事件发生的频率或可能性。比如在看过新闻报道后,我们可能会高估某类犯罪事件的比例,或在听说有人中奖后便错误地夸大自己中奖概率。可得性启发使我们容易被媒体曝光度、个人经历等因素影响,从而产生系统性的误判。

3. 锚定效应(Anchoring Effect)

在做数量估计时,人们常会将最初得到的数值(锚点)作为参考,并在此基础上做不足够的调整。例如,在砍价时先喊出的价格会对最终成交价起到极强的锚定作用。即使我们知道这个锚点是不合理的,调整依旧不足。

4. 乐观偏误与过度自信(Overconfidence)

卡尼曼指出,人类在对自己或外部环境进行预测时,往往过于自信,忽视不确定性与运气的影响。这体现在创业者对项目成功过于乐观、投资者对股市预测过于确信等。过度自信使得我们低估风险、忽视警讯,容易导致决策失败。

5. 后见之明偏误(Hindsight Bias)

事后观看过去的事件时,我们倾向认为自己“早就知道会这样”,从而低估当时预测的难度。这会妨碍人们反思经验与学习,因为事后看来一切都显得“必然”。

6. 确认偏误(Confirmation Bias)

系统 1 喜欢快速匹配现有信念,并自动忽视与之矛盾的信息。我们在搜集证据时往往倾向于寻找支持已有看法的信息,而忽略反证,导致信念不断自我加强,出现“信息茧房”效应。