Summarization 是任務:把較長的輸入壓縮成較短、忠於原意的版本。兩種主要做法是 extractive(從原文摘出原句)跟 abstractive(寫新句子捕捉意思)。現代 LLM 預設做 abstractive summarization,能依需求調整長度、語氣、聚焦點、目標讀者。 它重要的原因是:資訊過載是現代 AI 最能解的痛點之一。長會議逐字稿、密集的法律文件、20 頁研究論文、一小時 YouTube 影片、完整 email thread——任何你原本得從頭讀的東西都能被摘要省時間。Summarization 是許多實用 AI 產品的底層:會議筆記、文件 Q&A、新聞摘要、podcast 摘要、研究助理。 舉個例子:把 30 頁市場研究 PDF 貼進 Claude,問「用 5 個 bullet 總結重點,聚焦台灣的影響」。模型幾秒內產出一個可用版本,省去半小時閱讀。同一個 prompt 改成「聚焦美國監管環境」,從同樣輸入產生不同摘要。 品質取決於 context window(原文塞得下嗎?)跟模型的忠實度——壞摘要可能幻覺出原文沒有的事實。高風險使用要核對關鍵宣稱。延伸閱讀:ROUGE、RAG、long-context、hallucination。