Zero-shot prompting 是最基本的 prompt 形式:你只用文字描述任务,模型就直接做,完全不给示例。「翻成日文」「用三句话总结这篇文章」就是 zero-shot prompt。 它重要的原因是:现代 LLM 训练数据量太大,光靠指令就能完成很多任务。Zero-shot 是写 prompt 的起点——先试试够不够用,不够再加示例或 fine-tune。Prompt 越短,成本越低、响应越快。 举个例子:把客户评论分成正面、负面、中性。Zero-shot 就是一行「请把这则评论分类为正面、负面或中性:{text}」。几年前这需要标注数据 + 训练分类器,现在 GPT-4 或 Claude 一行解决。 当 zero-shot 结果不够好时,常见的修法是:把任务描述写清楚一点、改用 few-shot 加示例、用 chain-of-thought 把推理步骤拆开、或是 fine-tune。Zero-shot 表现也是评测新模型的常见指标——「没有特别训练过的任务做得如何?」 延伸阅读:few-shot prompting、in-context learning、instruction tuning。