DICTIONARY · AI 中文詞典
AI 中文詞典
transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技術名詞,中文化解釋,涵蓋架構 / 技術 / 指標 / 公司 / 人物 / 模型 / 任務。
Llama 系列
Llama (family)模型家族
Meta 的 open-weight LLM 家族,含 Llama 1、2、3、4,是現代可自架 AI 生態的奠基模型線。
LoRA(低秩適應)
LoRA (Low-Rank Adaptation)技術
一種高效微調技術,透過訓練小型低秩矩陣來調整大模型,不必更新全部權重。
LSTM(長短期記憶網路)
LSTM (Long Short-Term Memory)架構
一種能記住長序列資訊的循環神經網路,是 Transformer 出現前處理序列資料的主流架構。
機器翻譯 (Machine translation)
Machine translation任務
把文字從一種語言自動轉成另一種,歷史上由 phrase-based 跟 neural 系統主導,現在幾乎全由 LLM 處理。
Meta AI / FAIR
公司
Meta 的 AI 研究部門,Yann LeCun 任職於此,推出 Llama 開源模型家族跟 PyTorch。
Mistral 系列
Mistral (family)模型家族
Mistral AI 的模型家族,含 Mistral 7B、Mixtral 8x7B/8x22B(sparse MoE)、Mistral Large、Codestral,是歐洲旗艦 LLM 線,混合 open 與商業發佈。
Mistral AI
公司
巴黎的 AI 實驗室,以高效的歐洲 open-weight 模型聞名,推出 Mistral 7B、Mixtral 8x7B、商業版 Mistral Large。
混合專家模型 (Mixture of Experts, MoE)
Mixture of Experts (MoE)架構
一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。
MMLU
指標
57 個學科(高中到專業級)的選擇題基準,是衡量 LLM 廣泛知識最常被引用的指標,以正確率(%)呈現。
月之暗面 (Moonshot AI)
Moonshot AI公司
楊植麟於 2023 年創立的北京 AI 新創,推出 Kimi 聊天助理,以超長 context(20 萬中文字元)跟強勁的消費者用戶採用聞名。
多頭注意力 (Multi-head attention)
Multi-head attention架構
Transformer 中的核心機制,平行執行多組注意力運算,讓模型同時關注輸入中不同層面的關係。
多模態 (Multi-modal)
Multi-modal其他
能處理或產生多種輸入輸出(文字 + 圖片、音訊、影片)的 AI 系統,不只單一模態。
命名實體辨識 (NER)
Named entity recognition (NER)任務
從非結構化文字中辨識並分類命名實體(人名、組織、地名、日期、產品)的任務。
OpenAI
公司
推出 ChatGPT、GPT-4、o 系列推理模型的 AI 實驗室,2015 年成立,目前是最知名的商業 AI 公司。
困惑度 (Perplexity)
Perplexity指標
衡量語言模型對下一個 token 有多「意外」的指標,數值越低越好;本質是平均 negative log-likelihood 的指數。
提示工程 (Prompt engineering)
Prompt engineering技術
寫出能讓 LLM 穩定產出高品質結果的 prompt 的技術,包含結構、範例、角色設定、限制條件。
提示注入 (Prompt injection)
Prompt injection技術
攻擊者在輸入內容(文件、網頁、email)裡藏指令,劫持 LLM 行為的攻擊手法。
QLoRA
技術
結合 4-bit 量化與 LoRA 的微調技術,讓你用單張消費級 GPU 也能微調大型模型。
量化 (Quantization)
Quantization技術
把模型權重從 16/32 位元浮點數壓成 8/4/2 位元,大幅減少記憶體使用並加快推理速度的技術。
問答 (Question answering, QA)
Question answering任務
對使用者問題給出直接答案的任務,可分為靠模型內建知識(closed-book)或先檢索文件再回答(open-book / RAG)。
通義千問 (Qwen) 系列
Qwen (family)模型家族
阿里巴巴的 Qwen open-source LLM 家族(Qwen 1、1.5、2、2.5、3),是 Hugging Face 上下載最多的中文 open-weight 模型線。
ReAct(推理 + 行動)
ReAct (Reason + Act)技術
讓模型交替寫推理(Thought)與呼叫工具(Action)的 agent 模式,能根據工具結果繼續推理。
遞迴神經網路 (RNN)
Recurrent Neural Network (RNN)架構
一種逐步處理序列資料的神經網路,透過隱藏狀態將先前的資訊傳遞下去,用來記住上下文。
檢索增強生成 (RAG)
Retrieval-Augmented Generation (RAG)技術
讓 LLM 在回答前先檢索相關文件,再根據這些資料生成答案的技術,可大幅降低幻覺。
RLHF(人類回饋強化學習)
RLHF (Reinforcement Learning from Human Feedback)技術
透過人類對模型回答的偏好評分,來訓練語言模型產生更有用、更安全回應的技術。
ROUGE 分數
ROUGE指標
評估摘要品質的指標家族,比對生成摘要與人類參考摘要的 n-gram 重疊;常見有 ROUGE-1、ROUGE-2、ROUGE-L。
Sam Altman(山姆・奧特曼)
Sam Altman人物
OpenAI 執行長,前 Y Combinator 總裁,是 AI 業界最公開的代表人物,主導 OpenAI 商業戰略與高曝光的公共溝通。
規模化法則 (Scaling laws)
Scaling laws其他
經驗觀察:LLM 表現會隨模型大小、訓練資料、算力增加而可預測地提升,常以冪次律曲線描述。
Self-Attention(自注意力機制)
Self-Attention架構
讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。
情緒分析 (Sentiment analysis)
Sentiment analysis任務
依情緒分類文字(正面、負面、中性,或更細的情緒標籤)的任務,廣泛用於評論、社群監測、市場研究。
推測式解碼 (Speculative decoding)
Speculative decoding技術
用小模型先預測幾個 token、大模型一次驗證的推理加速技巧,能在不損失品質下讓 LLM 生成快 2-3 倍。
語音轉文字 (STT / ASR)
Speech-to-text (STT/ASR)任務
把語音轉成文字的任務(也叫 ASR,自動語音辨識),最廣泛使用的模型是 OpenAI 的 Whisper。
Stable Diffusion 系列
Stable Diffusion (family)模型家族
Stability AI 的 open-weight 圖像生成 diffusion 模型家族(SD 1.5、SDXL、SD3、SD 3.5),是 open-source AI 藝術生態的基礎。
狀態空間模型(Mamba)
State-Space Model (Mamba)架構
一種以隱藏狀態壓縮序列資訊的模型架構,運算量隨長度線性成長,是 Transformer 注意力機制的替代方案。
摘要 / 總結 (Summarization)
Summarization任務
把長輸入(文章、逐字稿、文件)壓縮成保留關鍵資訊的較短版本的任務。
SuperCLUE
指標
綜合性的中文 LLM 基準測試,涵蓋推理、知識、語言、程式碼、安全,會定期更新 leaderboard。
監督式微調 (SFT)
Supervised fine-tuning (SFT)技術
用一組(輸入、理想輸出)配對資料 fine-tune 預訓練模型的方法,是 post-training 的第一步。
系統提示 (System prompt)
System prompt其他
對話開頭的特殊指令,設定模型在整個對話的角色、語氣、行為規則與限制。
溫度 (Temperature)
Temperature (sampling)其他
控制 LLM 輸出隨機程度的取樣參數——0 = 完全 deterministic 保守,越高越多樣但也越容易出錯。
文字生成 (Text generation)
Text generation任務
LLM 最核心的任務:根據 prompt 產生自由格式的文字,涵蓋 chat、寫作、補全等所有輸出本身為自然語言的場景。
文字轉語音 (TTS)
Text-to-speech (TTS)任務
把文字轉成語音的任務,現代 neural TTS 系統(ElevenLabs、OpenAI TTS、Google)能產出接近人聲、可複製、有情感、多語言的聲音。
斷詞 / 分詞 (Tokenization)
Tokenization技術
把原始文字切成 token(子詞、整詞或字元)的過程,這些 token 才是 LLM 實際處理的單位。
工具使用 / 函式呼叫 (Tool use / Function calling)
Tool use / function calling技術
LLM 自行決定呼叫外部函式(搜尋、程式碼、API),並用結果產生最終回答的能力。
Top-k sampling
其他
把每個 token 選擇限制在機率前 k 高的取樣方法,比 top-p 簡單但較不自適應。
Top-p / Nucleus sampling
Top-p / nucleus sampling其他
從累積機率達 p 的最小 token 集合中取樣的方法,會隨模型信心自動調整候選範圍。
Transformer
架構
Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。
變分自編碼器 (VAE)
Variational Autoencoder (VAE)架構
一種生成式神經網路,將資料壓縮成機率分布的潛在空間,再從中取樣生成新樣本。
向量資料庫 (Vector database)
Vector database技術
專門儲存高維向量(embedding)並能快速找到最相近向量的資料庫。