AI术语笔记
AI 术语笔记
本文记录 AI 领域常见的英文术语和缩写,用简洁的语言解释概念。
核心概念
LLM (Large Language Model)
大型语言模型。一种基于深度学习的神经网络,通过海量文本训练来预测下一个 token(词元)。“大"指的是参数数量(数十亿到万亿级别)和训练数据规模。
常见 LLM:GPT、Claude、Llama、DeepSeek 等。
Token
词元。LLM 处理文本的最小单位。英文中 1 token ≈ 1 个单词或标点;中文中 1 token ≈ 1-2 个汉字。一个句子可能被切成几个 token,如 “Hello world” = 3 tokens。
Context Window
上下文窗口。LLM 一次能处理的 token 总数上限,包括输入和输出。超过这个限制的内容会被截断或丢失。
例如:上下文窗口 128k 的模型表示最多能处理约 10 万汉字。
Temperature
温度参数。控制输出随机性的参数:
temperature = 0:输出几乎确定,适合精确问答temperature = 0.7~1.0:输出更多样,适合创意写作
Hallucination
幻觉。LLM 生成看似合理但实际错误或不存在的信息。这是 LLM 的固有问题,而非 bug。
RAG 相关
RAG (Retrieval Augmented Generation)
检索增强生成。一种让 LLM 回答基于私有知识的技术:
用户问题 → 检索相关文档 → 拼入提示词 → LLM 生成答案
解决的问题:LLM 不知道私有数据(如你的笔记、企业文档)的问题。
阅读全文