Summarization 是任务:把较长的输入压缩成较短、忠于原意的版本。两种主要做法是 extractive(从原文摘出原句)跟 abstractive(写新句子捕捉意思)。现代 LLM 默认做 abstractive summarization,能依需求调整长度、语气、聚焦点、目标读者。 它重要的原因是:信息过载是现代 AI 最能解的痛点之一。长会议逐字稿、密集的法律文档、20 页研究论文、一小时 YouTube 视频、完整 email thread——任何你原本得从头读的东西都能被摘要省时间。Summarization 是许多实用 AI 产品的底层:会议笔记、文档 Q&A、新闻摘要、podcast 摘要、研究助手。 举个例子:把 30 页市场研究 PDF 贴进 Claude,问「用 5 个 bullet 总结重点,聚焦台湾的影响」。模型几秒内产出一个可用版本,省去半小时阅读。同一个 prompt 改成「聚焦美国监管环境」,从同样输入产生不同摘要。 质量取决于 context window(原文塞得下吗?)跟模型的忠实度——坏摘要可能幻觉出原文没有的事实。高风险使用要核对关键声称。延伸阅读:ROUGE、RAG、long-context、hallucination。