跳到内容

技术

思维链 (Chain-of-thought, CoT)

Chain-of-thought (CoT)

让模型先写出推理步骤再给答案的提示技巧,能大幅提升数学与逻辑题的表现。

登入以收藏
Chain-of-thought(思维链)是让模型「一步一步想」的提示技巧——在给最终答案前先把推理步骤写出来。光是在 prompt 加一句「Let's think step by step」,就能让 LLM 从数学题答错一半变成大部分都对。 它有效的原因是:LLM 是 token by token 生成的。如果答案需要多步推理,你却只要求最终结果,模型必须在一次 forward pass 里压缩整条推理链,经常会漏掉某一步。把步骤写出来,模型就能拿自己生成的中间文字当草稿纸,每一步建立在上一步上。 经典例子是应用题:「Roger 有 5 颗网球,又买了 2 罐每罐 3 颗,现在共有几颗?」Zero-shot 可能直接答「11」。CoT prompt 会写「Roger 一开始有 5 颗。2 罐 × 3 颗 = 6 颗新球。5 + 6 = 11」——尤其在难题上正确率高得多。 现在多数推理导向模型(OpenAI o1、DeepSeek R1、Claude extended thinking)内部都会自动做 CoT,不用你叫它。延伸阅读:zero-shot CoT、self-consistency、ReAct、tree-of-thoughts。

最后更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more

思维链 (Chain-of-thought, CoT) · BuilderWorld