跳到內容

DICTIONARY · AI 中文詞典

AI 中文詞典

transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技術名詞,中文化解釋,涵蓋架構 / 技術 / 指標 / 公司 / 人物 / 模型 / 任務。

Attention(注意力機制)

Attention

架構

讓模型在處理每個 token 時,動態判斷其他 token 重要程度的機制。

卷積神經網路(CNN)

Convolutional Neural Network (CNN)

架構

一種使用卷積層偵測空間特徵的神經網路架構,長期主導影像辨識領域。

Decoder(解碼器)

Decoder

架構

神經網路中負責逐一生成輸出 token 的模組,是 GPT、Claude 等主流大型語言模型的核心架構。

擴散模型 (Diffusion Model)

Diffusion Model

架構

一種生成模型,透過學會「逐步去除雜訊」的過程,把隨機噪點還原成圖像或其他資料。

Encoder(編碼器)

Encoder

架構

將輸入資料轉換成濃縮向量表示的神經網路元件,用來抓取輸入的語意。

Encoder-Decoder(編碼器-解碼器)

Encoder-Decoder

架構

一種神經網路架構:編碼器將輸入壓縮成中間表示,解碼器再據此生成輸出,常用於翻譯與摘要。

生成對抗網路 (GAN)

Generative Adversarial Network (GAN)

架構

由生成器與判別器兩個模型互相對抗訓練的神經網路架構,用來產生擬真的合成資料。

LSTM(長短期記憶網路)

LSTM (Long Short-Term Memory)

架構

一種能記住長序列資訊的循環神經網路,是 Transformer 出現前處理序列資料的主流架構。

混合專家模型 (Mixture of Experts, MoE)

Mixture of Experts (MoE)

架構

一種把模型拆成多個「專家」子網路的架構,每次只啟動少數幾個專家來處理輸入,讓參數量大增但運算成本不會等比上升。

多頭注意力 (Multi-head attention)

Multi-head attention

架構

Transformer 中的核心機制,平行執行多組注意力運算,讓模型同時關注輸入中不同層面的關係。

遞迴神經網路 (RNN)

Recurrent Neural Network (RNN)

架構

一種逐步處理序列資料的神經網路,透過隱藏狀態將先前的資訊傳遞下去,用來記住上下文。

Self-Attention(自注意力機制)

Self-Attention

架構

讓序列中每個 token 觀察其他所有 token、判斷哪些最相關的機制,是 Transformer 的核心運算。

狀態空間模型(Mamba)

State-Space Model (Mamba)

架構

一種以隱藏狀態壓縮序列資訊的模型架構,運算量隨長度線性成長,是 Transformer 注意力機制的替代方案。

Transformer

架構

Google 在 2017 年提出的神經網路架構,靠 self-attention 平行處理序列,是 GPT、Claude 等大型語言模型的基礎。

變分自編碼器 (VAE)

Variational Autoencoder (VAE)

架構

一種生成式神經網路,將資料壓縮成機率分布的潛在空間,再從中取樣生成新樣本。

15 total

We use cookies

Anonymous analytics help us improve the site. You can opt out anytime. Learn more