🏷️ AI术语

📚 该标签下的文章

AI术语笔记

AI 术语笔记

本文记录 AI 领域常见的英文术语和缩写,用简洁的语言解释概念。


核心概念

LLM (Large Language Model)

大型语言模型。一种基于深度学习的神经网络,通过海量文本训练来预测下一个 token(词元)。“大"指的是参数数量(数十亿到万亿级别)和训练数据规模。

常见 LLM:GPT、Claude、Llama、DeepSeek 等。

Token

词元。LLM 处理文本的最小单位。英文中 1 token ≈ 1 个单词或标点;中文中 1 token ≈ 1-2 个汉字。一个句子可能被切成几个 token,如 “Hello world” = 3 tokens。

Context Window

上下文窗口。LLM 一次能处理的 token 总数上限,包括输入和输出。超过这个限制的内容会被截断或丢失。

例如:上下文窗口 128k 的模型表示最多能处理约 10 万汉字。

Temperature

温度参数。控制输出随机性的参数:

  • temperature = 0:输出几乎确定,适合精确问答
  • temperature = 0.7~1.0:输出更多样,适合创意写作

Hallucination

幻觉。LLM 生成看似合理但实际错误或不存在的信息。这是 LLM 的固有问题,而非 bug。


RAG 相关

RAG (Retrieval Augmented Generation)

检索增强生成。一种让 LLM 回答基于私有知识的技术:

用户问题 → 检索相关文档 → 拼入提示词 → LLM 生成答案

解决的问题:LLM 不知道私有数据(如你的笔记、企业文档)的问题。

阅读全文