跳到內容

技術

脈絡內學習 (In-context learning, ICL)

In-context learning (ICL)

LLM 在推理時光看 prompt 裡的範例就能學會新任務、完全不需要更新權重的能力。

登入以收藏
In-context learning 是 LLM 一個很驚人的能力——光靠 prompt 裡的範例就能學會新任務,完全不用訓練。給 GPT-4 三個自編分類規則的範例,它就能正確分類第四個——不用 fine-tune、沒有梯度更新,純粹推理。這個「學習」完全發生在模型一次 forward pass 之中。 它重要的原因是:這是 few-shot prompting 的基礎,也是 LLM 這麼靈活的關鍵原因。靠 ICL,一個模型只要看到不同範例就能做幾千種任務——翻譯、情緒分析、code 風格、自編遊戲規則。你不用一個任務訓練一個模型。也讓 prompt 設計變成某種程式設計。 舉個例子:自編一個假語言,「glorp」意思是加、「snurf」是兩倍。給模型看:「glorp 3 4 = 7。snurf 5 = 10。glorp 2 6 = ?」它會答 8,從來沒有對你的假運算子做過訓練。模型等於從 prompt 裡的三個範例就學會了你的任務。 為什麼有效還是研究問題——論文解釋為模型在隱性執行 meta-learning 演算法、或在 activation space 做梯度下降。實務上,它就是 few-shot prompting 之所以有用的原因。延伸閱讀:few-shot prompting、emergent abilities、scaling laws、meta-learning。

最後更新: 2026-04-29

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more

脈絡內學習 (In-context learning, ICL) · BuilderWorld