客户研究是高杠杆活动,大部分团队投入不足因为很烦。访谈本身 30-60 分钟;真实成本在周边 — 招募、排程、准备、逐字稿、整合、分享发现。AI 不让对话本身更好,但能把周边工作压 60-80%。
AI 不做的
访谈本身。真实访谈需要读肢体语言、建立 rapport、知道何时追问 vs 何时走开、感受情绪重量。AI 不做这些。雇或训练好的真人访谈者;不要试着自动化对话。
深度的洞察抽取。资深研究者透过跟资料生活几天找到非显而易见的 pattern。AI 帮更快浮出候选,但真正惊讶的洞察还是来自深熟悉领域的人。
AI 做得好的
讨论大纲建立。 给 Claude 或 GPT 研究问题,它草拟一个 5 题、30 分钟的讨论大纲涵盖领域。第一稿通常 80% 到位。为特定术语跟追问分支编辑。
逐字稿清理。 原始逐字稿很乱 — 嗯、开头错、名字订正。AI 几秒内清掉,保留内容。用清理过的做整合;留原始引用。
引言抽取。 「找这些访谈里 5 个用户描述对 [话题] 挫折的引言。」AI 浮出比任何研究者手动读更快。透过读来源验证 — AI 有时抹平细微之处 — 但速度优势巨大。
跨访谈 pattern 检测。 「我会贴 8 份访谈逐字稿。识别多个访谈里出现的 top 5 主题。每个主题,列出哪些访谈提到、他们具体说什么。」这是研究整合里 AI 最有价值的任务。
研究摘要生成。 给定主题化洞察,AI 能在几分钟内草拟研究摘要文件、高层报告、利害关系人 email。
实用工作流
访谈前: 定义研究问题。让 AI 草拟讨论大纲。为你的领域编辑。送给参与者。
访谈中: 录(取得同意)、轻量做笔记。不要试 live AI 辅助 — 分心又破坏 rapport。
每场访谈后: 把逐字稿过清理。抽 1 段摘要加 3 个最惊讶引言。存进结构化格式。
所有访谈后: 把所有清理过逐字稿贴进 Claude 或 Gemini 的长 context。要主题分析。任何你会行动的主题,读来源验证。
分发: AI 草拟整合报告、执行摘要、投影片内容。你编辑每个的准确跟角度。
能 work 的范例 prompt
讨论大纲:
为访谈 [用户类型] 关于 [研究问题] 草拟 30 分钟讨论大纲。
聚焦在了解他们现在的工作流、痛点、试过什么。避免引导性问题。
每个主问题包含 2-3 个追问分支。
主题抽取:
下面是 8 场关于 [话题] 用户访谈的逐字稿。
识别出现在 3+ 访谈里的 top 5 主题。
每个主题:
- 主题名跟描述
- 哪些访谈讨论到(按编号)
- 2-3 个代表性直接引言
- 最强反驳引言(若有)
不要编造引言;只引用逐字稿里有的。
引言抽取:
找这些访谈里每个用户描述以下的引言:
- 他们在用的 workaround
- 对现状的挫折
- 对某特定功能的愿望
格式:[访谈 #] - [用户名] - [直接引言]
处理敏感访谈
碰敏感话题的用户研究 — 健康、财务、移民、任何个人 — AI 处理要小心:
- 不要把逐字稿贴进 ChatGPT 或任何免费版(资料会进训练,除非你明确 opt out)
- 用有资料隐私保证的企业层,或自架模型
- AI 处理前 strip 个人识别信息
- 在参与者同意书揭露 AI 处理
伦理底线:参与者同意跟研究者讲话,不是让他们的话被第三方 AI 处理。确保你的同意涵盖你实际做的。
整合里的幻觉风险
AI 整合研究有特定失败模式:它会产出听起来像参与者可能会说的引言,但他们没说。引言听起来合理。不是真的。
这危险因为研究应该扎根在实际用户声音。整合但假的引言进到投影片、被引用为用户证据、根据没人说过的东西驱动产品决策。
缓解:
- 永远对照逐字稿验证引言
- 用明确要求归属的 prompt:「每个引言注明访谈编号跟时间戳」
- 高风险发现,让人读实际逐字稿
- 把 AI 整合当供人验证的草稿,不是最终输出
什么时候不要用 AI 做研究
新领域第一场访谈。没准备就进去不好,但带着漏掉领域特定问题的 AI 生准备进去更糟。前 3-5 场用人准备的大纲;了解领域后再让 AI 辅助。
精英或敏感族群的访谈(高层、病人、边缘化族群)。需要的信任很脆弱。AI 介入若揭露,可能侵蚀分享意愿。若不揭露,你跨过伦理线。
非常少访谈数(< 5)。那个 scale 你的脑处理整合比 AI 好。AI 的提升来自跨多访谈压缩。
决策树
- 规模研究(每项目 10+ 访谈):AI 整合加人工验证
- 敏感族群 / 话题:只用人整合
- 独立创业者跟前 5 个客户谈:手动;AI 只给讨论大纲
- 成熟产品团队:AI 整合当默认,加强验证
- 有发表标准的学术研究:允许 AI 辅助,要求引用惯例
下一步
- 对过去项目的逐字稿试 AI 主题抽取;比对你原本整合
- 建跨项目重用的 prompt library
- 设验证标准(任何在交付物里的引言都读来源)
- 看 NotebookLM 特别给研究整合场景