DICTIONARY · AI 中文詞典
AI 中文詞典
transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技術名詞,中文化解釋,涵蓋架構 / 技術 / 指標 / 公司 / 人物 / 模型 / 任務。
零一萬物 (01.AI)
01.AI (零一萬物)公司
李開復 2023 年創立的 AI 新創,推出 Yi(易)雙語 open-source 模型家族,總部北京、技術團隊強。
通用人工智慧 (AGI)
AGI (Artificial General Intelligence)其他
假設中能在所有認知任務上達到或超越人類水準的 AI 系統,定義與測量方式至今沒有共識。
AI 對齊 (Alignment)
AI alignment技術
研究與工程上讓 AI 系統的行為真正符合人類使用者意圖(而非字面指令或代理指標)的領域。
阿里巴巴(通義千問 Qwen)
Alibaba (Qwen team)公司
阿里巴巴的 AI 部門與通義千問(Qwen)開源模型家族,目前是中文 open-source LLM 最具影響力的平台,發版速度極快。
Anthropic
公司
由前 OpenAI 研究員(Dario 與 Daniela Amodei)創立、以 AI 安全為核心使命的實驗室,推出 Claude,以 Constitutional AI 跟研究導向的安全文化聞名。
超人工智慧 (ASI)
ASI (Artificial Superintelligence)其他
假設中所有領域都遠超人類智能的 AI,通常被定義為 AGI 之後的下一個層級。
Attention(注意力機制)
Attention架構
讓模型在處理每個 token 時,動態判斷其他 token 重要程度的機制。
BLEU 分數
BLEU指標
機器翻譯的自動評分指標,比對模型輸出與參考翻譯的 n-gram 重疊程度。
位元組對編碼 (BPE)
Byte Pair Encoding (BPE)技術
一種 subword tokenizer 演算法,反覆合併訓練資料中出現頻率最高的相鄰 token 對來建立詞彙表。
C-Eval(中文評估基準)
C-Eval指標
中文版的 MMLU——約 14,000 道選擇題、涵蓋 52 個學科,從國中到專業證照等級。
思維鏈 (Chain-of-thought, CoT)
Chain-of-thought (CoT)技術
讓模型先寫出推理步驟再給答案的提示技巧,能大幅提升數學與邏輯題的表現。
Claude 系列
Claude (family)模型家族
Anthropic 的旗艦 LLM 家族,含 Claude 1、2、3(Haiku/Sonnet/Opus 等級)、Claude 3.5/3.7、Claude 4,以長 context、強 coding、嚴謹安全訓練聞名。
CMMLU
指標
另一個中文版 MMLU 風格的基準,67 個學科約 12,000 道選擇題,比 C-Eval 更強調中國特有知識。
程式碼生成 (Code generation)
Code generation任務
LLM 根據自然語言描述或現有 code context 寫或補全原始碼的任務,是 GitHub Copilot、Cursor、Claude Code 背後的核心能力。
Constitutional AI(憲法式 AI)
Constitutional AI技術
Anthropic 的訓練方法:用一組寫好的原則(「憲法」)加上 AI 自我反饋訓練模型,不靠大量人類標註就能讓模型有用且無害。
上下文視窗 (Context window)
Context window其他
LLM 一次呼叫能處理的 token 上限,包含 system prompt、對話歷史、附加文件。
卷積神經網路(CNN)
Convolutional Neural Network (CNN)架構
一種使用卷積層偵測空間特徵的神經網路架構,長期主導影像辨識領域。
Dario Amodei(達瑞奧・阿莫迪)
Dario Amodei人物
Anthropic 共同創辦人兼 CEO,前 OpenAI 研究副總裁,物理學家出身的 AI 研究者,是「認真對待 AI 安全同時繼續打造前緣模型」最知名的代表聲音。
Decoder(解碼器)
Decoder架構
神經網路中負責逐一生成輸出 token 的模組,是 GPT、Claude 等主流大型語言模型的核心架構。
DeepSeek(深度求索)
DeepSeek公司
杭州的中國 AI 實驗室,2025 年初以 DeepSeek-V3、R1 震撼業界,用一小部分典型成本就訓練出前緣級的 open-weight 模型。
DeepSeek 系列
DeepSeek (family)模型家族
DeepSeek 的 open-weight LLM 家族,含 DeepSeek V2/V3(高效 MoE)、DeepSeek R1(媲美 o1 的 open-weight 推理模型)、DeepSeek-Coder、DeepSeek-VL。
Demis Hassabis(戴密斯・哈薩比斯)
Demis Hassabis人物
英國神經科學家、Google DeepMind 執行長,2010 年共同創立 DeepMind,主導 AlphaGo 與 AlphaFold,2024 年因蛋白質結構預測獲諾貝爾化學獎。
擴散模型 (Diffusion Model)
Diffusion Model架構
一種生成模型,透過學會「逐步去除雜訊」的過程,把隨機噪點還原成圖像或其他資料。
DPO(直接偏好最佳化)
DPO (Direct Preference Optimization)技術
一種對齊技術,直接用人類偏好資料微調模型,不需訓練獎勵模型或跑 RL,是 RLHF 的簡化替代方案。
嵌入向量 (Embedding)
Embedding技術
一串數字(向量)用來表示文字、圖片或音訊的語意,意思相近的內容在向量空間裡會靠近。
湧現能力 (Emergent abilities)
Emergent abilities其他
大模型才會突然出現、小模型完全沒有的能力,例如多步推理、程式碼生成、follow 沒看過的指令。
Encoder(編碼器)
Encoder架構
將輸入資料轉換成濃縮向量表示的神經網路元件,用來抓取輸入的語意。
Encoder-Decoder(編碼器-解碼器)
Encoder-Decoder架構
一種神經網路架構:編碼器將輸入壓縮成中間表示,解碼器再據此生成輸出,常用於翻譯與摘要。
少樣本提示 (Few-shot prompting)
Few-shot prompting技術
在 prompt 裡先給模型幾個範例示範,再讓它照樣處理新輸入的提示技巧。
微調 (Fine-tuning)
Fine-tuning技術
在預訓練模型基礎上,用較小的專屬資料集繼續訓練,讓模型適應特定領域或任務。
前緣模型 (Frontier model)
Frontier model其他
目前能力最強的 AI 模型,通常指 OpenAI、Anthropic、Google DeepMind 用最大算力訓練、能力最廣的模型。
Gemini 系列
Gemini (family)模型家族
Google DeepMind 的旗艦 LLM 家族,含 Gemini 1.0、1.5(1M context)、2.0/2.5(multimodal、推理),直接對打 GPT 跟 Claude。
生成對抗網路 (GAN)
Generative Adversarial Network (GAN)架構
由生成器與判別器兩個模型互相對抗訓練的神經網路架構,用來產生擬真的合成資料。
Geoffrey Hinton(傑弗里・辛頓)
Geoffrey Hinton人物
英裔加籍 computer scientist,常被稱為「AI 教父」,共同發明 backpropagation,獲 2018 年圖靈獎與 2024 年諾貝爾物理學獎。
GLM 系列 / ChatGLM
GLM (family)模型家族
智譜 AI 的 GLM(通用語言模型)家族,包含 open-source 的 ChatGLM 線與商業版 GLM-4,雙語中英能力強。
Google DeepMind
公司
Google 的 AI 研究實驗室,2023 年由 DeepMind(倫敦)跟 Google Brain 合併,曾推出 AlphaGo、AlphaFold、Gemini 模型家族。
GPT 系列
GPT (family)模型家族
OpenAI 的旗艦語言模型家族,從 GPT-1(2018)到 GPT-4 跟 o 系列推理模型,ChatGPT 背後的模型線。
護欄 (Guardrails)
Guardrails技術
圍繞在 LLM 周邊的程式或模型,用來過濾輸入輸出、阻擋不安全內容、強制 schema、限制模型行為。
幻覺 (Hallucination)
Hallucination其他
LLM 產出語句通順但事實錯誤或捏造的內容,例如引用不存在的論文、假造名言、瞎掰 API。
Hugging Face
公司
open-source AI 模型、資料集、demo 的預設分享平台,被稱為「機器學習界的 GitHub」,host 數百萬個模型,包括 Llama、Qwen、DeepSeek、Mistral。
HumanEval
指標
OpenAI 提出的程式碼基準測試,164 道手寫 Python 題,用模型生成的 code 能否通過隱藏單元測試評分(pass@k)。
Ilya Sutskever(伊利亞・蘇茨克維)
Ilya Sutskever人物
OpenAI 共同創辦人與前首席科學家,AlexNet、GPT 系列與規模化法則的關鍵貢獻者,2024 年離開 OpenAI 創立 Safe Superintelligence Inc.
圖像生成 (Image generation)
Image generation任務
從文字 prompt(text-to-image)或其他輸入產生圖像的任務,由 Stable Diffusion、DALL-E、Midjourney、Flux、Imagen 等 diffusion 模型處理。
脈絡內學習 (In-context learning, ICL)
In-context learning (ICL)技術
LLM 在推理時光看 prompt 裡的範例就能學會新任務、完全不需要更新權重的能力。
指令微調 (Instruction Tuning)
Instruction Tuning技術
用大量「指令—回應」資料對語言模型做微調,讓它學會聽懂並執行人類指令,而不只是接續文字。
Kimi 系列
Kimi (family)模型家族
月之暗面的 Kimi LLM 家族(Kimi K1、K1.5、K2),以中文長文件處理跟驅動熱門 Kimi 消費者助理聞名。
知識蒸餾 (Distillation)
Knowledge distillation技術
用大模型(teacher)的輸出訓練小模型(student),讓小模型在更便宜的成本下保留大模型的能力。
KV 快取 (KV cache)
KV cache技術
Transformer 推理時把過去 token 的 Key/Value tensor 快取下來、避免每步都重算的機制,也是長 context 吃記憶體的主因。