Few-shot prompting 是在 prompt 里先放 2-5 组「输入 → 输出」示例,再丢真正要处理的输入给模型。模型会从示例里学到 pattern,照样套用——不用 fine-tune、不用重新训练,光靠 prompt 就完成。 它好用的原因是:LLM 很擅长从少量示范抓规律。如果你想要固定的输出格式、特定的语气、或一套自定义分类,列几个例子通常比写一大段说明更稳定。这也是最便宜的定制化方法——只多付那几个示例的 token 成本。 举个例子:抽数据。与其写「从这则新闻标题抓出公司名称和融资金额」,不如先放三则标题加上对应的 JSON 结果,再把第四则贴上去。模型会自动模仿格式。同样的技巧也能用在翻译风格、coding style、自定义的情绪分类、各种需要固定输出的任务上。 延伸阅读:zero-shot prompting、one-shot、in-context learning、chain-of-thought。