Day 98

这一篇做一个「AI 术语速查表」,尽量用一句话解释一个概念,覆盖从入门到实战经常会遇到的关键词。

一、基础与通用概念(1-20)

  1. 人工智能(AI):让机器表现出类似人类智能能力(感知、推理、决策、生成)的技术总称。
  2. 机器学习(ML):让模型从数据中学习规律,而不是手写全部规则。
  3. 深度学习(DL):使用多层神经网络进行表示学习的机器学习分支。
  4. 神经网络(Neural Network):由多层“神经元”组成的函数逼近模型。
  5. 参数(Parameter):模型内部通过训练得到的权重与偏置。
  6. 特征(Feature):输入样本中可用于建模的信息维度。
  7. 样本(Sample):数据集中单条训练或推理数据。
  8. 标签(Label):监督学习中样本对应的目标答案。
  9. 训练集(Train Set):用于学习模型参数的数据子集。
  10. 验证集(Validation Set):用于调参和选择模型的数据子集。
  11. 测试集(Test Set):用于最终评估泛化能力的数据子集。
  12. 推理(Inference):模型训练完成后对新输入进行预测或生成。
  13. 泛化(Generalization):模型在未见过数据上的表现能力。
  14. 过拟合(Overfitting):模型过度记忆训练数据,导致新数据表现差。
  15. 欠拟合(Underfitting):模型过于简单,训练数据都学不好。
  16. 损失函数(Loss Function):衡量预测结果与真实目标差距的函数。
  17. 优化器(Optimizer):根据梯度更新参数以最小化损失的算法。
  18. 梯度(Gradient):损失函数对参数变化方向与幅度的导数信息。
  19. 学习率(Learning Rate):每次参数更新的步长大小。
  20. 轮次(Epoch):模型完整遍历一遍训练集的过程。

二、机器学习核心术语(21-40)

  1. 监督学习:使用带标签数据训练模型的学习方式。
  2. 无监督学习:在无标签数据中发现结构或分布模式。
  3. 半监督学习:结合少量标签和大量无标签数据进行训练。
  4. 自监督学习:从数据本身构造监督信号进行表示学习。
  5. 分类(Classification):预测离散类别标签的任务。
  6. 回归(Regression):预测连续数值的任务。
  7. 聚类(Clustering):将相似样本自动分组的无监督任务。
  8. 降维(Dimensionality Reduction):把高维特征压缩到低维表示。
  9. 交叉验证(Cross-Validation):通过多折切分评估模型稳定性。
  10. 正则化(Regularization):通过约束模型复杂度来抑制过拟合。
  11. L1 正则化:鼓励参数稀疏化,常用于特征选择。
  12. L2 正则化:惩罚大权重,鼓励参数更平滑稳定。
  13. 偏差(Bias):模型系统性误差,通常源于假设过强。
  14. 方差(Variance):模型对数据扰动的敏感性,过高易过拟合。
  15. 偏差-方差权衡:在欠拟合与过拟合之间寻找平衡。
  16. ROC 曲线:分类器在不同阈值下 TPR 与 FPR 的关系曲线。
  17. AUC:ROC 曲线下面积,衡量分类器整体区分能力。
  18. 精确率(Precision):预测为正的样本中真实为正的比例。
  19. 召回率(Recall):真实为正的样本中被正确找回的比例。
  20. F1 分数:精确率和召回率的调和平均。

三、深度学习常见术语(41-60)

  1. 激活函数(Activation):为网络引入非线性表达能力的函数。
  2. ReLU:常用激活函数,负值置零、正值线性通过。
  3. Sigmoid:把输入压缩到 0 到 1 的 S 形函数。
  4. Softmax:把输出转为概率分布,常用于多分类。
  5. 反向传播(Backpropagation):通过链式法则计算梯度并回传误差。
  6. 批大小(Batch Size):每次参数更新使用的样本数量。
  7. 批归一化(BatchNorm):稳定中间层分布、加速训练收敛。
  8. 层归一化(LayerNorm):按特征维度归一化,Transformer 常用。
  9. Dropout:训练时随机失活部分神经元,降低过拟合。
  10. 残差连接(Residual Connection):跨层捷径连接,缓解深层网络退化。
  11. 卷积神经网络(CNN):擅长提取局部空间特征,常用于图像任务。
  12. 循环神经网络(RNN):处理序列数据的早期神经网络结构。
  13. LSTM:带门控机制的 RNN,缓解长序列梯度消失。
  14. GRU:简化版门控循环单元,参数更少、训练更快。
  15. 注意力机制(Attention):让模型动态关注输入中更重要部分。
  16. 自注意力(Self-Attention):序列内部 token 彼此计算关联权重。
  17. Transformer:基于注意力机制的主流序列建模架构。
  18. 位置编码(Positional Encoding):给 Transformer 注入序列位置信息。
  19. 嵌入(Embedding):将离散符号映射为连续向量表示。
  20. 预训练(Pretraining):先在大规模数据上学习通用能力。

四、大模型与生成式 AI(61-80)

  1. 大语言模型(LLM):参数规模大、能理解和生成自然语言的模型。
  2. 生成式 AI(AIGC):可自动生成文本、图像、音频、视频等内容的 AI。
  3. Token:模型处理文本的基本单位(词片段或字符片段)。
  4. 上下文窗口(Context Window):一次推理中模型可读取的 token 上限。
  5. 提示词(Prompt):给模型的输入指令与上下文内容。
  6. 系统提示词(System Prompt):定义模型角色、边界和行为规则的高优先级指令。
  7. 少样本提示(Few-shot):在提示中给少量示例引导模型输出格式。
  8. 链式思考(CoT):通过中间推理步骤提升复杂问题表现。
  9. 函数调用(Function Calling):模型按规范调用外部工具或 API。
  10. 温度(Temperature):控制采样随机性,越高输出越发散。
  11. Top-k 采样:只在概率最高的 k 个候选中采样下一个 token。
  12. Top-p 采样:在累计概率达到 p 的候选集合中采样。
  13. 幻觉(Hallucination):模型生成看似合理但事实错误的内容。
  14. 对齐(Alignment):让模型行为与人类目标、价值和规则一致。
  15. 指令微调(SFT):用指令-回答数据继续训练以提升可用性。
  16. RLHF:结合人类反馈强化学习优化回答偏好与安全性。
  17. DPO:不显式训练奖励模型的偏好优化方法。
  18. LoRA:低秩适配微调方法,用少量参数高效适配大模型。
  19. 量化(Quantization):降低参数精度以减少显存和推理成本。
  20. 蒸馏(Distillation):把大模型能力迁移到更小模型。

五、RAG、Agent、评估与部署(81-100)

  1. RAG(检索增强生成):先检索外部知识,再让模型基于证据生成答案。
  2. 向量数据库(Vector DB):存储向量并支持高效相似度检索。
  3. 向量嵌入(Vector Embedding):将文本或多模态内容编码为向量。
  4. 相似度检索(Similarity Search):按向量距离找到语义最接近内容。
  5. 重排(Rerank):对初检结果二次排序,提升相关性。
  6. 分块(Chunking):把长文档切成适合检索和引用的小片段。
  7. 知识库(Knowledge Base):可被检索与维护的结构化/非结构化知识集合。
  8. Agent:可自主规划步骤并调用工具完成目标任务的系统。
  9. 工具调用(Tool Use):模型在推理中使用外部能力(搜索、代码、数据库等)。
  10. 工作流(Workflow):按固定步骤编排模型与工具的任务管线。
  11. 多 Agent 协作:多个角色化智能体分工协同完成复杂任务。
  12. 延迟(Latency):从请求到响应所需时间。
  13. 吞吐(Throughput):单位时间内系统可处理请求数量。
  14. QPS:每秒请求数,衡量服务并发能力的常见指标。
  15. 提示词注入(Prompt Injection):通过恶意输入劫持模型行为的攻击方式。
  16. 越狱(Jailbreak):试图绕过模型安全策略的提示攻击。
  17. 基准测试(Benchmark):用标准数据集和任务比较模型能力。
  18. 离线评估(Offline Eval):在固定测试集上批量测量模型效果。
  19. 在线评估(Online Eval):在真实流量中通过 A/B 等方式评估收益。
  20. 可观测性(Observability):对日志、指标、链路与错误进行全面监控分析。

结语

如果你在做 AI 产品,建议把这 100 个术语分成三层记忆:

  • 基础层:1-20(先把核心概念吃透)
  • 实战层:61-90(直接决定大模型应用效果)
  • 工程层:91-100(决定系统能不能稳定上线)

后续我会再做一个「Day 99:AI 常见术语之间的关系图」,把这些词串成一张真正能用于架构设计的地图。