DICTIONARY · AI 中文词典
AI 中文词典
transformer / RAG / agent / fine-tuning / context / prompt 等 AI 技术名词,中文化解释,涵盖架构 / 技术 / 指标 / 公司 / 人物 / 模型 / 任务。
零一万物 (01.AI)
01.AI (零一萬物)公司
李开复 2023 年创立的 AI 创业公司,推出 Yi(易)双语 open-source 模型家族,总部北京、技术团队强。
通用人工智能 (AGI)
AGI (Artificial General Intelligence)其他
假设中能在所有认知任务上达到或超越人类水准的 AI 系统,定义与测量方式至今没有共识。
AI 对齐 (Alignment)
AI alignment技术
研究与工程上让 AI 系统的行为真正符合人类用户意图(而非字面指令或代理指标)的领域。
阿里巴巴(通义千问 Qwen)
Alibaba (Qwen team)公司
阿里巴巴的 AI 部门与通义千问(Qwen)开源模型家族,目前是中文 open-source LLM 最具影响力的平台,发版速度极快。
Anthropic
公司
由前 OpenAI 研究员(Dario 与 Daniela Amodei)创立、以 AI 安全为核心使命的实验室,推出 Claude,以 Constitutional AI 跟研究导向的安全文化闻名。
超人工智能 (ASI)
ASI (Artificial Superintelligence)其他
假设中所有领域都远超人类智能的 AI,通常被定义为 AGI 之后的下一个层级。
Attention(注意力机制)
Attention架构
让模型在处理每个 token 时,动态判断其他 token 重要程度的机制。
BLEU 分数
BLEU指标
机器翻译的自动评分指标,比对模型输出与参考翻译的 n-gram 重叠程度。
字节对编码 (BPE)
Byte Pair Encoding (BPE)技术
一种 subword tokenizer 算法,反复合并训练数据中出现频率最高的相邻 token 对来建立词汇表。
C-Eval(中文评估基准)
C-Eval指标
中文版的 MMLU——约 14,000 道选择题、涵盖 52 个学科,从初中到专业资格等级。
思维链 (Chain-of-thought, CoT)
Chain-of-thought (CoT)技术
让模型先写出推理步骤再给答案的提示技巧,能大幅提升数学与逻辑题的表现。
Claude 系列
Claude (family)模型家族
Anthropic 的旗舰 LLM 家族,含 Claude 1、2、3(Haiku/Sonnet/Opus 等级)、Claude 3.5/3.7、Claude 4,以长 context、强 coding、严谨安全训练闻名。
CMMLU
指标
另一个中文版 MMLU 风格的基准,67 个学科约 12,000 道选择题,比 C-Eval 更强调中国特有知识。
代码生成 (Code generation)
Code generation任务
LLM 根据自然语言描述或现有 code context 写或补全源代码的任务,是 GitHub Copilot、Cursor、Claude Code 背后的核心能力。
Constitutional AI(宪法式 AI)
Constitutional AI技术
Anthropic 的训练方法:用一组写好的原则(「宪法」)加上 AI 自我反馈训练模型,不靠大量人类标注就能让模型有用且无害。
上下文窗口 (Context window)
Context window其他
LLM 一次调用能处理的 token 上限,包含 system prompt、对话历史、附加文档。
卷积神经网络(CNN)
Convolutional Neural Network (CNN)架构
一种使用卷积层检测空间特征的神经网络架构,长期主导图像识别领域。
Dario Amodei(达瑞奥・阿莫迪)
Dario Amodei人物
Anthropic 共同创办人兼 CEO,前 OpenAI 研究副总裁,物理学家出身的 AI 研究者,是「认真对待 AI 安全同时继续打造前沿模型」最知名的代表声音。
Decoder(解码器)
Decoder架构
神经网络中负责逐个生成输出 token 的模块,是 GPT、Claude 等主流大语言模型的核心架构。
DeepSeek(深度求索)
DeepSeek公司
杭州的中国 AI 实验室,2025 年初以 DeepSeek-V3、R1 震撼业界,用一小部分典型成本就训练出前沿级的 open-weight 模型。
DeepSeek 系列
DeepSeek (family)模型家族
DeepSeek 的 open-weight LLM 家族,含 DeepSeek V2/V3(高效 MoE)、DeepSeek R1(媲美 o1 的 open-weight 推理模型)、DeepSeek-Coder、DeepSeek-VL。
Demis Hassabis(戴密斯・哈萨比斯)
Demis Hassabis人物
英国神经科学家、Google DeepMind 首席执行官,2010 年共同创立 DeepMind,主导 AlphaGo 与 AlphaFold,2024 年因蛋白质结构预测获诺贝尔化学奖。
扩散模型 (Diffusion Model)
Diffusion Model架构
一种生成模型,通过学会"逐步去除噪声"的过程,把随机噪点还原成图像或其他数据。
DPO(直接偏好优化)
DPO (Direct Preference Optimization)技术
一种对齐技术,直接用人类偏好数据微调模型,不需训练奖励模型或跑 RL,是 RLHF 的简化替代方案。
嵌入向量 (Embedding)
Embedding技术
一串数字(向量)用来表示文字、图片或音频的语义,意思相近的内容在向量空间里会靠近。
涌现能力 (Emergent abilities)
Emergent abilities其他
大模型才会突然出现、小模型完全没有的能力,例如多步推理、代码生成、follow 没看过的指令。
Encoder(编码器)
Encoder架构
将输入数据转换成浓缩向量表示的神经网络组件,用来捕捉输入的语义。
Encoder-Decoder(编码器-解码器)
Encoder-Decoder架构
一种神经网络架构:编码器将输入压缩成中间表示,解码器再据此生成输出,常用于翻译与摘要。
少样本提示 (Few-shot prompting)
Few-shot prompting技术
在 prompt 里先给模型几个示例示范,再让它照样处理新输入的提示技巧。
微调 (Fine-tuning)
Fine-tuning技术
在预训练模型基础上,用较小的专属数据集继续训练,让模型适配特定领域或任务。
前沿模型 (Frontier model)
Frontier model其他
目前能力最强的 AI 模型,通常指 OpenAI、Anthropic、Google DeepMind 用最大算力训练、能力最广的模型。
Gemini 系列
Gemini (family)模型家族
Google DeepMind 的旗舰 LLM 家族,含 Gemini 1.0、1.5(1M context)、2.0/2.5(multimodal、推理),直接对打 GPT 跟 Claude。
生成对抗网络 (GAN)
Generative Adversarial Network (GAN)架构
由生成器与判别器两个模型互相对抗训练的神经网络架构,用来生成逼真的合成数据。
Geoffrey Hinton(杰弗里・辛顿)
Geoffrey Hinton人物
英裔加籍 computer scientist,常被称为「AI 教父」,共同发明 backpropagation,获 2018 年图灵奖与 2024 年诺贝尔物理学奖。
GLM 系列 / ChatGLM
GLM (family)模型家族
智谱 AI 的 GLM(通用语言模型)家族,包含 open-source 的 ChatGLM 线与商业版 GLM-4,双语中英能力强。
Google DeepMind
公司
Google 的 AI 研究实验室,2023 年由 DeepMind(伦敦)跟 Google Brain 合并,曾推出 AlphaGo、AlphaFold、Gemini 模型家族。
GPT 系列
GPT (family)模型家族
OpenAI 的旗舰语言模型家族,从 GPT-1(2018)到 GPT-4 跟 o 系列推理模型,ChatGPT 背后的模型线。
护栏 (Guardrails)
Guardrails技术
围绕在 LLM 周边的程序或模型,用来过滤输入输出、阻挡不安全内容、强制 schema、限制模型行为。
幻觉 (Hallucination)
Hallucination其他
LLM 产出语句通顺但事实错误或捏造的内容,例如引用不存在的论文、假造名言、瞎编 API。
Hugging Face
公司
open-source AI 模型、数据集、demo 的默认分享平台,被称为「机器学习界的 GitHub」,host 数百万个模型,包括 Llama、Qwen、DeepSeek、Mistral。
HumanEval
指标
OpenAI 提出的代码基准测试,164 道手写 Python 题,用模型生成的 code 能否通过隐藏单元测试评分(pass@k)。
Ilya Sutskever(伊利亚・苏茨克维)
Ilya Sutskever人物
OpenAI 共同创办人与前首席科学家,AlexNet、GPT 系列与规模化法则的关键贡献者,2024 年离开 OpenAI 创立 Safe Superintelligence Inc.
图像生成 (Image generation)
Image generation任务
从文字 prompt(text-to-image)或其他输入产生图像的任务,由 Stable Diffusion、DALL-E、Midjourney、Flux、Imagen 等 diffusion 模型处理。
上下文学习 (In-context learning, ICL)
In-context learning (ICL)技术
LLM 在推理时光看 prompt 里的示例就能学会新任务、完全不需要更新权重的能力。
指令微调 (Instruction Tuning)
Instruction Tuning技术
用大量「指令—回应」数据对语言模型做微调,让它学会听懂并执行人类指令,而不只是接续文字。
Kimi 系列
Kimi (family)模型家族
月之暗面的 Kimi LLM 家族(Kimi K1、K1.5、K2),以中文长文档处理跟驱动热门 Kimi 消费者助手闻名。
知识蒸馏 (Distillation)
Knowledge distillation技术
用大模型(teacher)的输出训练小模型(student),让小模型在更便宜的成本下保留大模型的能力。
KV 缓存 (KV cache)
KV cache技术
Transformer 推理时把过去 token 的 Key/Value tensor 缓存下来、避免每步都重算的机制,也是长 context 吃内存的主因。