跳到內容

DICTIONARY · AI 中文詞典

AI 中文詞典

transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技術名詞,中文化解釋,涵蓋架構 / 技術 / 指標 / 公司 / 人物 / 模型 / 任務。

Llama 系列

Llama (family)

模型家族

Meta 的 open-weight LLM 家族,含 Llama 1、2、3、4,是現代可自架 AI 生態的奠基模型線。

LoRA(低秩適應)

LoRA (Low-Rank Adaptation)

技術

一種高效微調技術,透過訓練小型低秩矩陣來調整大模型,不必更新全部權重。

LSTM(長短期記憶網路)

LSTM (Long Short-Term Memory)

架構

一種能記住長序列資訊的循環神經網路,是 Transformer 出現前處理序列資料的主流架構。

機器翻譯 (Machine translation)

Machine translation

任務

把文字從一種語言自動轉成另一種,歷史上由 phrase-based 跟 neural 系統主導,現在幾乎全由 LLM 處理。

Meta AI / FAIR

公司

Meta 的 AI 研究部門,Yann LeCun 任職於此,推出 Llama 開源模型家族跟 PyTorch。

Mistral 系列

Mistral (family)

模型家族

Mistral AI 的模型家族,含 Mistral 7B、Mixtral 8x7B/8x22B(sparse MoE)、Mistral Large、Codestral,是歐洲旗艦 LLM 線,混合 open 與商業發佈。

Mistral AI

公司

巴黎的 AI 實驗室,以高效的歐洲 open-weight 模型聞名,推出 Mistral 7B、Mixtral 8x7B、商業版 Mistral Large。

混合專家模型 (Mixture of Experts, MoE)

Mixture of Experts (MoE)

架構

一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。

MMLU

指標

57 個學科(高中到專業級)的選擇題基準,是衡量 LLM 廣泛知識最常被引用的指標,以正確率(%)呈現。

月之暗面 (Moonshot AI)

Moonshot AI

公司

楊植麟於 2023 年創立的北京 AI 新創,推出 Kimi 聊天助理,以超長 context(20 萬中文字元)跟強勁的消費者用戶採用聞名。

多頭注意力 (Multi-head attention)

Multi-head attention

架構

Transformer 中的核心機制,平行執行多組注意力運算,讓模型同時關注輸入中不同層面的關係。

多模態 (Multi-modal)

Multi-modal

其他

能處理或產生多種輸入輸出(文字 + 圖片、音訊、影片)的 AI 系統,不只單一模態。

命名實體辨識 (NER)

Named entity recognition (NER)

任務

從非結構化文字中辨識並分類命名實體(人名、組織、地名、日期、產品)的任務。

OpenAI

公司

推出 ChatGPT、GPT-4、o 系列推理模型的 AI 實驗室,2015 年成立,目前是最知名的商業 AI 公司。

困惑度 (Perplexity)

Perplexity

指標

衡量語言模型對下一個 token 有多「意外」的指標,數值越低越好;本質是平均 negative log-likelihood 的指數。

提示工程 (Prompt engineering)

Prompt engineering

技術

寫出能讓 LLM 穩定產出高品質結果的 prompt 的技術,包含結構、範例、角色設定、限制條件。

提示注入 (Prompt injection)

Prompt injection

技術

攻擊者在輸入內容(文件、網頁、email)裡藏指令,劫持 LLM 行為的攻擊手法。

QLoRA

技術

結合 4-bit 量化與 LoRA 的微調技術,讓你用單張消費級 GPU 也能微調大型模型。

量化 (Quantization)

Quantization

技術

把模型權重從 16/32 位元浮點數壓成 8/4/2 位元,大幅減少記憶體使用並加快推理速度的技術。

問答 (Question answering, QA)

Question answering

任務

對使用者問題給出直接答案的任務,可分為靠模型內建知識(closed-book)或先檢索文件再回答(open-book / RAG)。

通義千問 (Qwen) 系列

Qwen (family)

模型家族

阿里巴巴的 Qwen open-source LLM 家族(Qwen 1、1.5、2、2.5、3),是 Hugging Face 上下載最多的中文 open-weight 模型線。

ReAct(推理 + 行動)

ReAct (Reason + Act)

技術

讓模型交替寫推理(Thought)與呼叫工具(Action)的 agent 模式,能根據工具結果繼續推理。

遞迴神經網路 (RNN)

Recurrent Neural Network (RNN)

架構

一種逐步處理序列資料的神經網路,透過隱藏狀態將先前的資訊傳遞下去,用來記住上下文。

檢索增強生成 (RAG)

Retrieval-Augmented Generation (RAG)

技術

讓 LLM 在回答前先檢索相關文件,再根據這些資料生成答案的技術,可大幅降低幻覺。

RLHF(人類回饋強化學習)

RLHF (Reinforcement Learning from Human Feedback)

技術

透過人類對模型回答的偏好評分,來訓練語言模型產生更有用、更安全回應的技術。

ROUGE 分數

ROUGE

指標

評估摘要品質的指標家族,比對生成摘要與人類參考摘要的 n-gram 重疊;常見有 ROUGE-1、ROUGE-2、ROUGE-L。

Sam Altman(山姆・奧特曼)

Sam Altman

人物

OpenAI 執行長,前 Y Combinator 總裁,是 AI 業界最公開的代表人物,主導 OpenAI 商業戰略與高曝光的公共溝通。

規模化法則 (Scaling laws)

Scaling laws

其他

經驗觀察:LLM 表現會隨模型大小、訓練資料、算力增加而可預測地提升,常以冪次律曲線描述。

Self-Attention(自注意力機制)

Self-Attention

架構

讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。

情緒分析 (Sentiment analysis)

Sentiment analysis

任務

依情緒分類文字(正面、負面、中性,或更細的情緒標籤)的任務,廣泛用於評論、社群監測、市場研究。

推測式解碼 (Speculative decoding)

Speculative decoding

技術

用小模型先預測幾個 token、大模型一次驗證的推理加速技巧,能在不損失品質下讓 LLM 生成快 2-3 倍。

語音轉文字 (STT / ASR)

Speech-to-text (STT/ASR)

任務

把語音轉成文字的任務(也叫 ASR,自動語音辨識),最廣泛使用的模型是 OpenAI 的 Whisper。

Stable Diffusion 系列

Stable Diffusion (family)

模型家族

Stability AI 的 open-weight 圖像生成 diffusion 模型家族(SD 1.5、SDXL、SD3、SD 3.5),是 open-source AI 藝術生態的基礎。

狀態空間模型(Mamba)

State-Space Model (Mamba)

架構

一種以隱藏狀態壓縮序列資訊的模型架構,運算量隨長度線性成長,是 Transformer 注意力機制的替代方案。

摘要 / 總結 (Summarization)

Summarization

任務

把長輸入(文章、逐字稿、文件)壓縮成保留關鍵資訊的較短版本的任務。

SuperCLUE

指標

綜合性的中文 LLM 基準測試,涵蓋推理、知識、語言、程式碼、安全,會定期更新 leaderboard。

監督式微調 (SFT)

Supervised fine-tuning (SFT)

技術

用一組(輸入、理想輸出)配對資料 fine-tune 預訓練模型的方法,是 post-training 的第一步。

系統提示 (System prompt)

System prompt

其他

對話開頭的特殊指令,設定模型在整個對話的角色、語氣、行為規則與限制。

溫度 (Temperature)

Temperature (sampling)

其他

控制 LLM 輸出隨機程度的取樣參數——0 = 完全 deterministic 保守,越高越多樣但也越容易出錯。

文字生成 (Text generation)

Text generation

任務

LLM 最核心的任務:根據 prompt 產生自由格式的文字,涵蓋 chat、寫作、補全等所有輸出本身為自然語言的場景。

文字轉語音 (TTS)

Text-to-speech (TTS)

任務

把文字轉成語音的任務,現代 neural TTS 系統(ElevenLabs、OpenAI TTS、Google)能產出接近人聲、可複製、有情感、多語言的聲音。

斷詞 / 分詞 (Tokenization)

Tokenization

技術

把原始文字切成 token(子詞、整詞或字元)的過程,這些 token 才是 LLM 實際處理的單位。

工具使用 / 函式呼叫 (Tool use / Function calling)

Tool use / function calling

技術

LLM 自行決定呼叫外部函式(搜尋、程式碼、API),並用結果產生最終回答的能力。

Top-k sampling

其他

把每個 token 選擇限制在機率前 k 高的取樣方法,比 top-p 簡單但較不自適應。

Top-p / Nucleus sampling

Top-p / nucleus sampling

其他

從累積機率達 p 的最小 token 集合中取樣的方法,會隨模型信心自動調整候選範圍。

Transformer

架構

Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。

變分自編碼器 (VAE)

Variational Autoencoder (VAE)

架構

一種生成式神經網路,將資料壓縮成機率分布的潛在空間,再從中取樣生成新樣本。

向量資料庫 (Vector database)

Vector database

技術

專門儲存高維向量(embedding)並能快速找到最相近向量的資料庫。

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more