把思考说出来,思考才真的发生了

那是一场万人看的比试。

两位老国手坐在棋盘两边,中间隔着一张棋盘。他们的棋艺向来不分高下——往年下了百盘,几乎平分秋色。今年朝廷要分出谁是第一,让他们公开下三十盘,胜多者称国手

第一位国手姓。沈国手出名的是他的沉默。整盘棋下来,他一句话不说,只听得见落子的声音他思考的时候像一座山——你站在他面前,看不出他正在想什么,然后他就落子了。沉、稳、深不可测。看棋的人都说,沈国手的脑子像一片深海——你只看到平静的水面,看不见底下的波涛。

第二位国手姓。严国手则正好相反——他整盘棋都在喃喃自语。下一颗子之前,他会大声地、详细地、把自己心里所有的盘算说出来:

"如果我下这里,他下那里,我下那里,他下这里——不行,那样我后面会缺一口。" "那如果我下这里呢?他可能下那里——但如果他下别的呢?他下别的我就……" "等等,这个角好像有个漏。我先看一下这个漏——啊,确实是漏。那我不能这么走。" "那这一步走这里。"

他自言自语的声音不大,但棋盘旁的人都能听清。他的思考是被他说出来的——一句句、有头有尾、从一个想法接到下一个想法。

观众一开始嘲笑严国手——"哪有这样下棋的?像念书一样。" 沈国手的沉默被认为是真正的高手——"高手胸有沟壑,何须开口。"

但比试开始后,结果出乎所有人意料

第一盘——严国手赢。 第二盘——沈国手赢。 第三、第四、第五——严国手连胜三盘

到了第十盘的时候,棋谱清楚地显示——严国手在简单局面里和沈国手平分秋色,但一到复杂的、需要算十几步以上的局面,严国手就会赢

到了第二十盘,沈国手终于忍不住了。他停下棋,问严国手:

老兄,我们棋艺相当,这一辈子我最了解你。但是这十盘里,那些复杂的局面,你为什么算得过我?你是不是私下练了什么新法?

严国手摇摇头。他想了一会儿,说:

没有新法。我只是开始大声地讲我的思考

沈国手不解:"讲出来,和不讲出来,有什么差别?思考不就在脑子里吗?"

严国手沉默良久,说:

你以为讲出来只是一个'记录'。其实不是。你不讲,你以为自己在思考——但你的思考是飘的、是跳跃的、是只走两三步就 短路 的

复杂的局面要算十五步、二十步。人脑的'安静思考'根本撑不住这个长度——走到第七步、第八步,你的脑子就开始打补丁、抄近路、自己骗自己说"差不多就是这样"——然后你就落了一颗其实你没仔细算过的子。你以为算过了,因为你脑子里有那种"我算过了"的感觉。但其实你没有

而我讲出来的时候——每一句话必须接着上一句话,每一个推论必须有个理由。我说出"那如果他下别的呢"这句话的时候,我必须真的去看那个'别的'是什么——我不能跳过去。讲话这件事的物理性,逼着我的思考一步一步走完整

沉默的我和大声的我棋艺一样。但大声的我,真的把每一步算到了——而沉默的我,只是以为算到了

沈国手听完,沉默了很久。

那盘棋最后他认输了。比试以严国手 19 比 11 胜结束。朝廷封他为国手。

但比试结束当晚,严国手单独去找沈国手,说了一句话——这句话后来被刻在严国手的墓碑上:

我没有比你聪明。我只是不再相信我脑子里那种'我算过了'的感觉,而是把每一步都念出来,亲耳听见

思考是要被说出来,才真的发生的

寓言之外

这就是 Chain of Thought(思维链,简称 CoT)——2022 年 Jason Wei 等人在论文 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 中正式提出的一种 prompt 技巧,改变了我们怎么 "调用" 大模型的智能

把大语言模型想象成一位棋手——你给它一个问题,它要给你一个答案

朴素的用法(沈国手式)是这样:你直接问 "27 × 13 是多少?" 模型直接输出 "351"。模型不写中间步骤,直接给最终答案——它的所有 "推理" 必须在这一次 forward pass 里隐式完成。

但研究者发现了一个有趣现象——对于复杂的问题(数学应用题、多步逻辑、规划),模型直接给答案的准确率惨不忍睹。但只要你在 prompt 里加一句"Let's think step by step"(或者给几个"分步推理"的例子),让模型先生成中间步骤、再给答案——准确率瞬间几倍地上升

例子(经典的 GSM8K 数学题):

Q: 罗杰有 5 个网球。他又买了 2 罐网球,每罐有 3 个球。他现在有多少个球?

直接回答:模型常常蒙一个数字,准确率极低。

CoT prompt:"让我们一步步思考。"

罗杰一开始有 5 个球。 他买了 2 罐,每罐 3 个球,所以 2 × 3 = 6 个球。 总共是 5 + 6 = 11 个球。 答案是 11。

这个简单的改动——让模型先 "自言自语" 走完一遍思路,让模型在小学数学题上的准确率从 ~18% 提升到 ~57%(GPT-3 175B 的实测)。在更难的题上,提升更夸张。

为什么会这样?这是一个比表面看起来更深的问题:

核心解释:每个 token 是一次额外的计算。Transformer 模型的一次 forward pass 计算量是固定的——大约等于它的参数量。这个计算量足以做"对一句话的语义匹配"、"事实回忆"这种相对简单的事,但不足以一步完成一个 7 步的逻辑推理

但是,当模型生成每一个 token 时,它都做了一次完整的 forward pass。如果让模型生成 100 个推理 token,它就用了 100 次 forward pass 的计算。这相当于把"一次思考"拆成"一百次小思考",每次小思考有上一次的全部成果作为上下文

换句话说——CoT 是模型的'外置工作记忆'模型本身没法在一个 forward pass 内做复杂推理,但它能把推理结果一步步写到纸上,把纸当作记忆使用。每一步它只做一点点,但累积下来,可以做到任何长度的多步推理

这就是寓言里严国手说的:讲话的物理性,逼着思考一步一步走完整

CoT 的发现有几个深远的影响:

它揭示了 LLM 推理的"本质"——LLM 不是个完整的"会思考的脑",而是一个"逐 token 思考的引擎"。它需要外部的纸张(generated tokens)作为思考的承载。剥夺它的纸张,它就成了直觉机器,只能给出第一感

它催生了一整套 prompting 技术:

  • Zero-shot CoT——直接加一句 "Let's think step by step" 就能触发(Kojima et al. 2022)
  • Few-shot CoT——给几个分步推理的示例,模型自然会模仿
  • Self-Consistency——让模型生成多次推理路径,投票选最常见的答案(Wang et al. 2022)
  • Tree-of-Thoughts——让模型不是线性思考,而是构建推理的树,探索多条路径(Yao et al. 2023)
  • ReAct——让推理交替进行思考和行动(调用工具),适合 agent
  • Self-Reflection / Reflexion——让模型反思自己的中间结果

它解释了 reasoning models 的崛起——OpenAI 的 o1(2024)、o3(2025)、Anthropic 的 Extended Thinking(2025)、DeepSeek 的 R1(2025),这些被叫做"推理模型"的新一代 LLM,本质上就是把 CoT 内化、放大、训练——让模型在最终回答前生成几千甚至几万个推理 token,实质上把"思考时间"作为新的扩展维度

CoT 还揭示了一个更深的事:LLM 的"智能"和"思考时间"是可以解耦的

传统 AI 模型的能力等于"模型本身的能力"。CoT 出现后,LLM 的实际能力 = 模型本身的能力 × 思考的步数。一个 7B 的小模型,只要让它思考 1000 步,也能解决以前需要 70B 模型才能解决的问题。这是一个计算-智能交换的全新维度

OpenAI 在 2024 年公开提出 "test-time compute" 的 Scaling Law——模型在 inference 时多花多少计算,性能就能提升多少。这条曲线和 Kaplan 的训练 Scaling Law 同样精确。这是过去两年大模型领域最深刻的工程发现之一

更深一层——CoT 提出了一个关于 "思考是什么" 的根本问题。

人类的思考,有多大比例是"在脑子里默默想"的,有多大比例是"通过外部介质来思考"的?

研究表明,人类做复杂推理时,几乎没有谁是纯粹"在脑子里"思考的——我们说话、写字、画图、用手指、跟同事讨论、在白板上推演。这些"外化的思考工具"不是辅助,它们是思考本身的载体

LLM 的 CoT,只是把这件人类一直在做的事情,搬到了模型里。当我们让模型 "think step by step" 时,我们是在让它做人一直在做、却很少被严肃对待的那种思考方式——借助纸张、借助语言、借助外化,把跳跃的直觉拽回到一步步的演绎上来

也许人也是这样。你的脑子比你以为的小得多;你的真正智慧,藏在你和外部世界互动的那个回路里

严国手说的那句话,可能是这一切最简洁的总结:

思考是要被说出来,才真的发生的。

在 AI 史的位置

Chain of Thought 由 Jason Wei 等人在 2022 年 1 月 提出(Google Brain),论文 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 在 NeurIPS 2022 发表。2022 年 5 月 同期 Kojima 等人提出 Zero-shot CoT,把这个技巧简化到一句话。

2022-2023 年 CoT 成了 LLM 工程的基本功——任何稍微复杂的任务都用 CoT prompt。Self-consistency、ToT、ReAct 都建立在 CoT 之上。

2024 年 9 月 OpenAI 发布 o1-preview——第一个把 CoT "训练化"的模型。它在回答前会生成大量 hidden reasoning tokens,在数学、编程、科学题上的水平直接达到博士级。这开启了 "reasoning models" 这一新品类。

2025 年起,几乎所有顶级模型(Claude 3.7 Extended Thinking、Gemini 2.5、DeepSeek-R1、Qwen-QwQ、Grok 3 Reasoning、o3)全部支持或默认启用某种形式的 CoT"思考时间" 成为新的产品维度——你可以选 "快回答" 或 "深思考",后者贵但解决得了真正的难题。

到了 2026 年,Chain of Thought 已经从一个 prompting 技巧,成长为 LLM 智能的第二根支柱(第一根是模型本身的规模)。Kaplan 在 2020 年画出的那条 Scaling Law 曲线,今天又多了一条平行的曲线——思考时间的 Scaling Law。两条曲线的乘积,是大模型今天能做的所有事的边界

版权声明: 如无特别声明,本文版权归 sshipanoo 所有,转载请注明本文链接。

(采用 CC BY-NC-SA 4.0 许可协议进行授权)

本文标题:19. 会大声自言自语的棋手

本文链接:https://www.sshipanoo.com/blog/ai/ai-fables/19-会大声自言自语的棋手/

本文最后一次更新为 天前,文章中的某些内容可能已过时!