跳到內容

技術

思維鏈 (Chain-of-thought, CoT)

Chain-of-thought (CoT)

讓模型先寫出推理步驟再給答案的提示技巧,能大幅提升數學與邏輯題的表現。

登入以收藏
Chain-of-thought(思維鏈)是讓模型「一步一步想」的提示技巧——在給最終答案前先把推理步驟寫出來。光是在 prompt 加一句「Let's think step by step」,就能讓 LLM 從數學題答錯一半變成大部分都對。 它有效的原因是:LLM 是 token by token 生成的。如果答案需要多步推理,你卻只要求最終結果,模型必須在一次 forward pass 裡壓縮整條推理鏈,經常會漏掉某一步。把步驟寫出來,模型就能拿自己生成的中間文字當草稿紙,每一步建立在上一步上。 經典例子是應用題:「Roger 有 5 顆網球,又買了 2 罐每罐 3 顆,現在共有幾顆?」Zero-shot 可能直接答「11」。CoT prompt 會寫「Roger 一開始有 5 顆。2 罐 × 3 顆 = 6 顆新球。5 + 6 = 11」——尤其在難題上正確率高得多。 現在多數推理導向模型(OpenAI o1、DeepSeek R1、Claude extended thinking)內部都會自動做 CoT,不用你叫它。延伸閱讀:zero-shot CoT、self-consistency、ReAct、tree-of-thoughts。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more

思維鏈 (Chain-of-thought, CoT) · BuilderWorld