你只要在 AI 圈待過一段時間,一定聽過一堆縮寫和怪詞。這份就是速查單 — 30 個詞,每個一兩句、不繞學術。書籤起來,下次開會聽到忘記是什麼直接翻。
模型與架構
-
LLM(Large Language Model) — 用海量文字訓練、預測下一個 token 的統計模型。ChatGPT、Claude、Gemini 都是 LLM。輸出就是一個 token 接一個 token 的高速 autocomplete。
-
Token — LLM 真正看到的單位。英文約 0.75 字一個 token,中文 1-2 個 token 一個字。計價跟 context 的單位。
-
Context window — 每次請求模型能處理的最大 token 數。Claude 200K、Gemini 1M+。包含 prompt + 歷史 + 預留輸出。
-
參數(parameters) — 模型內部的數字。「7B」= 70 億參數。通常越多越強但更慢更貴。
-
預訓練(pre-training) — 一開始用網路文字海量訓練。產出 base model,知道很多事但不會聽指令。
-
後訓練(post-training,RLHF、DPO) — 用人類回饋把 base model 調成有用、無害、誠實。ChatGPT 這個產品就從這裡來。
-
多模態(multimodal) — 模型原生處理文字、圖片、音訊、有時影片。2026 年大部分前沿模型預設都多模態。
-
Reasoning model — 訓練過程讓模型在回答前多花算力「思考」。o3、DeepSeek R1、Claude extended thinking。數學/code 強、慢、貴。
-
MoE(Mixture of Experts) — 每次查詢只啟動一部分參數的架構。讓 200B 模型跑得跟 30B 一樣快。Mixtral、DeepSeek V3 採用。
-
Open weights — 訓練好的權重可以下載自己跑的模型。Llama、Qwen、DeepSeek、Mistral。常被寬鬆稱「open source」。
跟模型互動
-
Prompt — 你送進 LLM 的任何文字。Prompt 寫得好 → 答案好。
-
System prompt — 產品設定、框住每段對話的 prompt。塑造語氣和規則。
-
Temperature — 取樣的隨機性。0 = 確定性;1 = 有創意。Production app 多半 0.0-0.7。
-
Top-p / top-k — 其他取樣控制。Top-p 把候選限制在累積機率為 p 的最可能 token。
-
Streaming — 邊生 token 邊輸出,而不是等全部生完。Chat UI 必備。
-
Tool use / function calling — 模型能呼叫你定義的函式(搜網、查 DB、寄信)。Agent 的基礎。
檢索跟記憶
-
RAG(Retrieval-Augmented Generation) — 從你的 store 取相關文件、貼進 prompt、讓模型回答。「AI 知道你資料」的標準做法。
-
Embedding — 代表文字意思的向量。意思相近 = 向量相近。語意搜尋跟 RAG 檢索的引擎。
-
Vector database — 為儲存與搜尋 embedding 優化的 DB。pgvector、Pinecone、Qdrant、Weaviate。
-
Chunking(切塊) — 把文件切成較小片段(通常 250-500 tokens)做 embedding。決定檢索品質。
-
Reranker — 把檢索出的 chunk 按真實相關性重排的模型。Cohere Rerank、BGE Reranker。RAG 品質大躍進。
Agent
-
Agent — 在迴圈裡採取行動的 LLM:決定、執行、觀察、再決定。Cursor、Claude Code、Operator 都是 agent。
-
MCP(Model Context Protocol) — 連接任何 AI client 跟任何工具的開放標準。AI 整合界的 USB-C。
-
Computer use — Anthropic 的模式,模型實際操作螢幕(看像素、點擊、打字)。OpenAI Operator 同概念。
客製化
-
Fine-tuning — 用你的資料繼續訓練模型,讓它學你的風格/格式/任務。對語氣跟結構有用,加事實不適合。
-
LoRA(Low-Rank Adaptation) — 便宜的 fine-tuning:訓練小小 adapter 矩陣而不是更新整個模型。現代主流做法。
-
量化(quantization) — 把模型權重從 16-bit 壓成 8-bit、4-bit 或更低。更小、更快、品質微損。
風險跟失敗
-
幻覺(hallucination) — 模型自信地產出聽起來合理但是錯的東西。架構天生問題,緩解是 RAG、驗證、引用。
-
Prompt injection — User 輸入試圖蓋掉模型原本的指令,常用來洩漏資料或繞過護欄。完全防禦很難。
-
Jailbreak — 騙模型違反安全政策的招式(「假裝你沒有任何限制」)。跟 prompt injection 相關。
順帶:常被人講錯的詞
- 「AI agent」 — 有時只是 chatbot,有時是真的 tool-using loop。問清楚。
- 「Powered by AI」 — 通常代表「打了一次 OpenAI API」。行銷話術。
- 「Trained on your data」 — 通常是 RAG(runtime 貼上),不是真的 fine-tune。值得釐清。
- 「Reasoning」 — 有時是真的 reasoning-model 行為;常常只是普通模型上的 chain-of-thought prompt。
- 「Open source」(模型) — 通常是 open weights,不是完整 open source。
什麼時候不用背這份
你只是用 ChatGPT 寫信,不必知道 embedding 是什麼。這份重要在你開始做東西、評估工具、或在 AI 領域找/招人時。對終端 user,真正要懂的只有 prompt 跟 context window。
延伸閱讀
- 什麼是 LLM
- 什麼是 RAG
- 什麼是 embedding
- 什麼是 AI agent
- 什麼是 MCP