本文档整理了AI大模型领域的核心专业术语,从基础概念到高级技术架构,帮助您系统性地理解人工智能技术体系。
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| AGI(通用人工智能) |
Artificial General Intelligence,具备人类水平智能的AI系统 |
能像人一样思考、学习、创造的全能AI |
一个能同时写诗、编程、做饭、聊天的机器人 |
| LLM(大语言模型) |
Large Language Model,基于海量数据训练的大型神经网络模型 |
能理解和生成人类语言的"超级大脑" |
GPT-4、Claude、文心一言等都是LLM |
| 训练 |
通过大量数据训练神经网络参数的过程 |
AI的"学习阶段",像人读书积累知识 |
用互联网所有文本训练一个模型学会语言 |
| 推理 |
训练完成的模型根据输入生成输出的过程 |
AI的"应用阶段",像人运用所学知识回答问题 |
输入问题后模型生成回答的过程 |
| Token(词元) |
模型处理文本的最小单元,通过分词算法切分的文本片段 |
AI语言的"字粒子",模型一个一个处理 |
“我喜欢苹果” → [“我”, “喜欢”, “苹果”] |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Transformer |
基于自注意力机制的深度学习架构,2017年Google提出 |
现代AI的"神经骨架",让模型高效理解语言 |
GPT、BERT等所有大模型都基于Transformer |
| Encoder(编码器) |
将输入序列编码为语义表示的神经网络组件 |
AI的"理解器",把文字变成机器懂的向量 |
BERT使用Encoder做文本理解任务 |
| Decoder(解码器) |
根据上下文逐token生成输出的神经网络组件 |
AI的"写作器",根据理解生成回答 |
GPT系列都是Decoder-only模型 |
| Self-Attention(自注意力) |
计算序列中每个元素与其他元素相关性的机制 |
AI自动"关注重点",像人阅读时抓重点 |
“银行"在"存钱"中关注"钱”,在"钓鱼"中关注"河" |
| Multi-Head Attention(多头注意力) |
并行多个自注意力机制,捕获不同类型的依赖关系 |
AI从多个角度同时理解文本 |
一个头关注语法,另一个头关注语义 |
| Positional Encoding(位置编码) |
为每个token添加位置信息的向量表示 |
让模型知道"谁在前谁在后" |
“我爱你"与"你爱我"意义不同 |
| Query(查询向量) |
主动查询相关信息的向量,表示当前词需要什么信息 |
“我要找什么"的数字表达 |
“苹果"查询相关的味道、颜色等属性 |
| Key(键向量) |
被查询信息的标识向量,表示每个词能提供什么信息 |
“我能提供什么"的标签 |
“甜"作为味道特征的Key,等待被查询 |
| Value(值向量) |
实际内容的表示向量,包含词的真实语义信息 |
“我的具体内容"的数值化 |
“甜"的实际语义表示[0.8, 0.2, -0.1] |
| Attention Weight(注意力权重) |
表示关注程度的重要性分数,通常通过softmax归一化 |
“关注程度"的数值化 |
0.8表示强烈关注,0.1表示弱关注,所有权重和为1 |
| Cross-Attention(交叉注意力) |
不同序列间的注意力机制,Query来自一个序列,Key/Value来自另一个序列 |
跨模态信息交互 |
图文匹配中文字Query关注图像Key/Value |
| Causal Attention(因果注意力) |
只能关注当前位置及之前内容的注意力机制,防止未来信息泄露 |
“只能向前看"的注意力 |
GPT生成时第5个词只能看前4个词 |
| Softmax Function |
将任意实数向量转换为概率分布的激活函数 |
转换为"重要性百分比” |
[2,1,0] → [0.67,0.24,0.09],保持相对大小关系 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Vector(向量) |
具有大小和方向的数学对象,一组有序数字 |
事物的"数字身份证”,用数字描述特征 |
[25, 180, 70]可表示一个人的年龄、身高、体重 |
| Embedding(嵌入) |
将离散符号映射到连续向量空间的技术 |
把文字变成"数字坐标” |
"国王"→[0.25, -0.12, 0.78, ...] |
| Query / Key / Value |
自注意力机制中的三个核心向量矩阵,分别代表查询需求、标识信息、实际内容 |
Query=我要什么,Key=我能提供什么,Value=我的具体内容 |
Query=[0.1,0.2]查询味道,Key=[0.8,0.1]标识甜味,Value=[0.9,0.05]甜味的实际表示 |
| Feed-Forward Network(前馈网络) |
对每个位置独立进行非线性变换 |
深化每个词的理解 |
“春天"进一步联想到"温暖、生长” |
| Layer Normalization(层归一化) |
标准化层输入 |
训练"稳定器” |
防止梯度爆炸或发散 |
| Residual Connection(残差连接) |
跨层连接,保留原始信息 |
信息"直通车”,防止丢失 |
类似捷径路径避免深层网络退化 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Tokenizer(分词器) |
将文本转换为token序列 |
“文字切菜刀” |
"Hello world" → ["Hello", " world"] |
| Context Window(上下文窗口) |
模型能处理的最大token数量限制 |
AI的"记忆力上限” |
GPT-4有128K上下文 |
| Decoding(解码) |
根据概率分布逐token生成文本 |
AI"写字过程” |
从最可能的词开始生成 |
| Temperature(温度参数) |
控制生成随机性的参数 |
“创意调节器” |
高温更有创意,低温更稳健 |
| Top-p采样 |
基于累积概率的采样策略 |
“精华筛选器” |
只考虑累计概率达到90%的候选词 |
| Max Tokens(最大令牌数) |
限制生成输出长度 |
“字数限制器” |
防止AI回答过长 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| RAG(检索增强生成) |
结合检索和生成的AI方法 |
“开卷考试"式AI |
先查资料再回答问题 |
| Prompt Engineering(提示工程) |
设计优化提示词的技术 |
“说话艺术” |
让AI更好理解需求 |
| Fine-tuning(微调) |
在预训练模型上进行特定任务训练 |
“定向培训” |
让通用模型变成医疗助手 |
| BPE(字节对编码) |
一种常见分词算法 |
“文字压缩术” |
"unhappiness" → ["un","happi","ness"] |
| Detokenization(反分词) |
将token序列还原为可读文本 |
“拼字还原” |
["我","喜欢","苹果"]→"我喜欢苹果" |
| Streaming(流式输出) |
逐token实时生成输出 |
“打字机效果” |
聊天机器人边输出边思考 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| RNN(循环神经网络) |
逐步处理序列数据的神经网络 |
“逐字阅读AI” |
翻译"我爱你"逐词处理 |
| LSTM(长短期记忆网络) |
改进型RNN,解决长期依赖问题 |
“记忆力更强” |
能记住开头内容 |
| CNN(卷积神经网络) |
擅长处理图像模式的神经网络 |
“图像专家” |
识别猫狗人脸 |
| Encoder-Decoder架构 |
同时包含理解与生成模块的模型 |
“全能型AI” |
机器翻译模型 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| 对话产品 |
面向用户的AI应用接口 |
“AI聊天壳” |
ChatGPT、Claude |
| API调用 |
程序间通信接口 |
“AI电话线” |
程序调用OpenAI API |
| 上下文管理 |
维护对话历史的技术 |
“AI记忆力” |
聊天机器人记住你说过的话 |
| 多轮对话 |
连续人机交互模式 |
“连续聊天” |
先问天气,再问穿衣 |
| 工具调用(Function Calling) |
模型可调用外部API执行任务 |
“AI动手能力” |
AI自动查天气或搜索资料 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| LoRA(低秩适配) |
通过低秩矩阵微调模型参数 |
“轻量级微调” |
让LLM快速适应新领域 |
| Quantization(量化) |
用低精度表示模型参数 |
“模型瘦身” |
FP32→INT8加速推理 |
| Pruning(剪枝) |
删除冗余神经元或连接 |
“修枝整形” |
去除无效参数 |
| Distillation(知识蒸馏) |
用大模型指导小模型学习 |
“老师带学生” |
GPT-4教小模型 |
| Checkpoint(检查点) |
模型训练中保存的中间状态 |
“训练存档点” |
防止断电丢失进度 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Embedding Model(向量模型) |
将文本转为语义向量的模型 |
“语义坐标机” |
text-embedding-3-large |
| Vector Database(向量数据库) |
支持向量检索的数据库 |
“语义仓库” |
Milvus、Pinecone、FAISS |
| Cosine Similarity(余弦相似度) |
衡量两个向量方向相似度 |
“语义相似度计” |
"猫在睡觉"≈"猫咪休息中" |
| Knowledge Graph(知识图谱) |
用节点和关系存储知识结构 |
“知识地图” |
"苹果→是→水果" |
| Hybrid Search(混合检索) |
结合语义检索与关键词匹配 |
“双保险搜索” |
同时检索"猫"和"宠物动物" |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Multimodal Model(多模态模型) |
同时处理文本、图像、音频等模态 |
“全感官AI” |
GPT-4V、Gemini |
| VLM(视觉语言模型) |
Vision-Language Model |
“会看图的AI” |
看图问答AI |
| Speech Recognition(语音识别) |
将语音转文字 |
“听写AI” |
语音输入法 |
| TTS(文本转语音) |
将文字转语音 |
“AI播音员” |
AI读出回答 |
| AI Agent(智能体) |
具备自主行动与决策能力的AI |
“能动的AI助手” |
Devin、AutoGPT |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Hallucination(幻觉) |
模型生成虚假信息 |
“一本正经胡说八道” |
编造论文或事实 |
| Alignment(对齐) |
模型与人类价值观对齐 |
“价值观调教” |
RLHF调教模型 |
| RLHF(人类反馈强化学习) |
用人类偏好优化模型 |
“人教AI说话” |
ChatGPT的训练方式 |
| Red Teaming(红队测试) |
对抗性测试模型安全 |
“安全渗透测试” |
测试模型是否泄密 |
| Bias(偏差) |
模型输出的系统性偏见 |
“AI偏心” |
对性别或语言偏好 |
| 名词 |
专业解释 |
通俗解释 |
举例说明 |
| Mixture of Experts(专家混合) |
包含多个子模型动态激活结构 |
“专家组AI” |
Gemini 1.5 Pro架构 |
| Context Compression(上下文压缩) |
压缩历史对话节省token |
“记忆压缩” |
长对话摘要 |
| Memory-Augmented Model(记忆增强模型) |
结合长期记忆机制的AI |
“有记忆的AI” |
ChatGPT长期记忆功能 |
| Autonomous Agent(自主智能体) |
能自我规划执行任务的AI |
“自理AI” |
AutoGPT、Devin |
| Synthetic Data(合成数据) |
由AI生成的虚拟训练数据 |
“AI自制教材” |
用AI扩充训练集 |
- 入门级(必掌握):Token、Embedding、Transformer、LLM
- 进阶级(重要):Self-Attention、RAG、Context Window
- 高级(可选):LoRA、Mixture of Experts、Red Teaming
- 理解基本原理:Token是什么,为什么需要向量表示
- 掌握核心架构:Transformer的Encoder-Decoder结构
- 实践应用技巧:Prompt工程与RAG结合
- 深入技术细节:注意力机制与对齐训练
基础概念 → 数学表示 → 架构技术 → 处理流程 → 工程实践 → 优化 → 检索 → 智能体
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
Token → Vector → Transformer → Decoding → RAG → LoRA → Embedding → Agent
LLM → Q/K/V → Attention → Context → Prompt → Quant → Knowledge → Memory
🚀 提示:AI技术体系庞大但高度关联。建议从"理解→实现→优化→安全"四个维度系统学习。
- AI大模型完全指南 - 从零基础到Token与向量的深度解析
- Transformer架构深度解析 - 注意力机制与AI大模型的核心技术
- Prompt Engineering完全指南 - 从提示工程到上下文工程的实战教程
- [本文] AI专业名词解释表 - 270+术语完全指南与AI技术体系词典
- 学习顺序:建议按照教程1→教程2→教程3的顺序系统学习,本文作为参考词典随时查阅
- 术语查找:阅读其他教程时遇到不熟悉的术语,可直接在本文中搜索
- 知识体系:结合教程的理论学习和本文的术语解释,建立完整的AI知识体系
| 英文缩写 / 术语 |
中文名称 |
简要说明 |
| AGI (Artificial General Intelligence) |
通用人工智能 |
具备人类水平通用智能的AI |
| Alignment |
对齐 |
让AI行为符合人类价值观的过程 |
| API (Application Programming Interface) |
应用程序接口 |
程序间通信调用的标准方式 |
| AutoGPT / Autonomous Agent |
自主智能体 |
能自主规划和执行任务的AI系统 |
| BERT (Bidirectional Encoder Representations from Transformers) |
双向Transformer编码模型 |
代表性的NLP预训练模型 |
| Bias |
偏差 |
模型输出中的系统性不公平 |
| BPE (Byte Pair Encoding) |
字节对编码 |
常用的文本分词算法 |
| Checkpoint |
检查点 |
模型训练过程中保存的中间状态 |
| CNN (Convolutional Neural Network) |
卷积神经网络 |
擅长图像识别的网络结构 |
| Context Window |
上下文窗口 |
模型可处理的最大token数量 |
| Context Compression |
上下文压缩 |
对历史内容进行摘要以节省上下文 |
| Cosine Similarity |
余弦相似度 |
衡量向量间语义相似度的指标 |
| Decoder |
解码器 |
将语义向量生成文本的网络模块 |
| Decoding |
解码过程 |
模型生成文本的过程 |
| Detokenization |
反分词 |
将token序列还原为文字 |
| Distillation (Knowledge Distillation) |
知识蒸馏 |
大模型指导小模型学习的技术 |
| Embedding |
嵌入 |
将离散词语映射到连续向量空间 |
| Embedding Model |
向量模型 |
生成文本语义向量的模型 |
| Encoder |
编码器 |
将文本转换为语义表示的网络组件 |
| Encoder–Decoder |
编码–解码结构 |
同时具备理解与生成能力的模型架构 |
| Feed Forward Network (FFN) |
前馈网络 |
Transformer层内的非线性变换模块 |
| Fine-tuning |
微调 |
基于预训练模型进行特定任务再训练 |
| Function Calling |
工具调用 |
模型调用外部API执行操作的能力 |
| Hallucination |
幻觉 |
模型生成虚假或编造信息的现象 |
| Hybrid Search |
混合检索 |
结合语义检索与关键词搜索的技术 |
| Knowledge Graph |
知识图谱 |
用节点和关系结构化存储知识的网络 |
| Layer Normalization |
层归一化 |
网络层输入的标准化过程 |
| Latency |
延迟 |
模型从输入到输出的响应时间 |
| LLM (Large Language Model) |
大语言模型 |
基于大规模语料训练的语言模型 |
| LoRA (Low-Rank Adaptation) |
低秩适配 |
轻量级模型微调方法 |
| LSTM (Long Short-Term Memory) |
长短期记忆网络 |
能捕获长距离依赖的RNN变体 |
| Memory-Augmented Model |
记忆增强模型 |
具备长期记忆能力的AI |
| Mixture of Experts (MoE) |
专家混合模型 |
动态选择多个子模型协作的架构 |
| Multi-Head Attention |
多头注意力 |
并行计算多种注意力的机制 |
| Positional Encoding |
位置编码 |
为token添加位置信息的方式 |
| Pruning |
剪枝 |
删除冗余参数减小模型规模 |
| Prompt Engineering |
提示工程 |
优化提示词以提升模型输出质量 |
| Quantization |
量化 |
用低精度表示模型参数以提升性能 |
| Query / Key / Value (QKV) |
查询 / 键 / 值 |
自注意力机制的三要素 |
| RAG (Retrieval-Augmented Generation) |
检索增强生成 |
将外部知识检索与生成结合的技术 |
| Red Teaming |
红队测试 |
通过对抗输入评估模型安全性 |
| Residual Connection |
残差连接 |
跨层信息直通结构,防止梯度退化 |
| RLHF (Reinforcement Learning from Human Feedback) |
人类反馈强化学习 |
通过人类偏好优化模型输出 |
| RNN (Recurrent Neural Network) |
循环神经网络 |
逐步处理序列数据的网络结构 |
| Self-Attention |
自注意力 |
计算序列中元素相关性的机制 |
| Streaming |
流式输出 |
模型边生成边输出的方式 |
| Synthetic Data |
合成数据 |
AI生成的虚拟训练数据 |
| Temperature |
温度参数 |
控制生成随机性的参数 |
| Throughput |
吞吐量 |
每秒处理的请求数量 |
| Token |
词元 |
模型处理文本的最小单位 |
| Tokenizer |
分词器 |
将文本拆分为token的工具 |
| Top-p Sampling |
累积概率采样 |
过滤低概率词汇的生成策略 |
| Transformer |
Transformer架构 |
基于注意力机制的核心神经网络 |
| TTS (Text-to-Speech) |
文本转语音 |
将文字转为自然语音 |
| Vector |
向量 |
数字化表示实体特征的数学结构 |
| Vector Database |
向量数据库 |
存储并按语义检索向量数据的系统 |
| VLM (Vision-Language Model) |
视觉语言模型 |
同时理解图像与语言的模型 |
| Weight |
权重参数 |
模型中可学习的核心数值参数 |