DICTIONARY · AI 中文詞典
AI 中文詞典
transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技術名詞,中文化解釋,涵蓋架構 / 技術 / 指標 / 公司 / 人物 / 模型 / 任務。
Attention(注意力機制)
Attention架構
讓模型在處理每個 token 時,動態判斷其他 token 重要程度的機制。
卷積神經網路(CNN)
Convolutional Neural Network (CNN)架構
一種使用卷積層偵測空間特徵的神經網路架構,長期主導影像辨識領域。
Decoder(解碼器)
Decoder架構
神經網路中負責逐一生成輸出 token 的模組,是 GPT、Claude 等主流大型語言模型的核心架構。
擴散模型 (Diffusion Model)
Diffusion Model架構
一種生成模型,透過學會「逐步去除雜訊」的過程,把隨機噪點還原成圖像或其他資料。
Encoder(編碼器)
Encoder架構
將輸入資料轉換成濃縮向量表示的神經網路元件,用來抓取輸入的語意。
Encoder-Decoder(編碼器-解碼器)
Encoder-Decoder架構
一種神經網路架構:編碼器將輸入壓縮成中間表示,解碼器再據此生成輸出,常用於翻譯與摘要。
生成對抗網路 (GAN)
Generative Adversarial Network (GAN)架構
由生成器與判別器兩個模型互相對抗訓練的神經網路架構,用來產生擬真的合成資料。
LSTM(長短期記憶網路)
LSTM (Long Short-Term Memory)架構
一種能記住長序列資訊的循環神經網路,是 Transformer 出現前處理序列資料的主流架構。
混合專家模型 (Mixture of Experts, MoE)
Mixture of Experts (MoE)架構
一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。
多頭注意力 (Multi-head attention)
Multi-head attention架構
Transformer 中的核心機制,平行執行多組注意力運算,讓模型同時關注輸入中不同層面的關係。
遞迴神經網路 (RNN)
Recurrent Neural Network (RNN)架構
一種逐步處理序列資料的神經網路,透過隱藏狀態將先前的資訊傳遞下去,用來記住上下文。
Self-Attention(自注意力機制)
Self-Attention架構
讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。
狀態空間模型(Mamba)
State-Space Model (Mamba)架構
一種以隱藏狀態壓縮序列資訊的模型架構,運算量隨長度線性成長,是 Transformer 注意力機制的替代方案。
Transformer
架構
Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。
變分自編碼器 (VAE)
Variational Autoencoder (VAE)架構
一種生成式神經網路,將資料壓縮成機率分布的潛在空間,再從中取樣生成新樣本。
15 total