入门

AI 术语通俗解读

AI 行业热爱自己的缩写和技术术语。以下是你真正需要了解的每个术语,用清晰的语言和真实的例子解释。把这页加入书签。
Sarah Chen 2026 年 3 月 19 日 12 分钟阅读

你不需要理解 AI 背后的数学才能把 AI 用好。但你确实需要理解词汇,因为这些术语不断出现 — 产品描述、定价页、博客,以及那些假设你已经知道这些意思的对话中。

这不是教科书式的词汇表。每个术语都有通俗定义、真正有帮助的类比,以及具体的例子。不用术语解释术语。

核心概念

大多数对话中人们说 “AI” 时指的是什么

一个博学的助手。一个 LLM 在数十亿页文本上训练过 — 书籍、文章、网站、代码、对话 — 并学会了语言模式,足以生成听起来像人类的新文本。它不像你一样 “知道” 事情。它预测下一个最可能的词,一次又一次,速度惊人。但结果好到这种区别常常只是学术问题。

示例:Claude、GPT-4、Gemini、DeepSeek 和 Llama 都是 LLM。当你与 AI 对话时,你正在与一个 LLM 交谈。
Token
AI 用来衡量文本的单位 — 不完全是词,也不完全是字母

词的一个片段。AI 不像你那样读词 — 它把文本切分成 “token”,可以是完整单词、单词的一部分,甚至单个字符。像 “hello” 这样的常用词通常是一个 token。较长的词会被拆分:“extraordinary” 会变成约 3 个 token。经验法则:1 个 token ≈ 0.75 个词,或约 4 个字符。

为什么重要:AI 定价token 计算。当一个模型的价格是 “每百万输入 token 3 $” 时,那相当于约 3 $ 处理 75 万个词 — 大约是 5 本小说的长度。上下文窗口也以 token 衡量。
上下文窗口
AI 一次能 “看到” 多少

上下文窗口 是 AI 在对话期间能保留在工作记忆中的文本总量。你说过的话、它说过的话,加上你粘贴过的任何文档 — 所有内容都必须装进 上下文窗口。一旦对话超出窗口,AI 就开始 “忘记” 早期部分。

规模:8K token ≈ 一篇长博客。32K ≈ 一部短篇小说。128K ≈ 一本 300 页的书。1M token(在某些 GeminiClaude 模型上可用)≈ 单次对话中约 5 本厚小说的文本量。上下文越多,意味着 AI 可以处理更长的文档而不丢失线索。
Prompt
你输入给 AI 的内容

你对 AI 的指令。提示词可以简单到 “法国的首都是什么?”,也可以复杂到一组多段落的指令,包含示例、约束和格式要求。你的提示词质量是影响回答质量的最大因素。

示例:“写一封拒绝会议的专业邮件” 是一个提示词。“你是一位专家营养师。根据以下血液检查结果,建议饮食调整。要具体并引用你的 推理。” 也是。

AI 如何思考(大致)

推理(Inference)
AI 正在思考并生成回答

当 AI 模型处理你的提示词并生成输出时,这叫做 推理。模型本身训练过一次(那需要数周或数月和数百万美元)。之后你每次使用它,它都在做 推理 — 把学到的东西应用到你的具体输入。把训练想成上学,推理 就像参加考试。

为什么重要:推理是你付费的部分。更快的 推理 意味着更快的响应。“推理成本” 是运行 AI 的持续开支,不同于一次性的训练成本。
温度(Temperature)
创意度调节

一个参数(通常 0 到 1),控制 AI 回答的可预测性或创造性。温度 为 0 时,AI 总是选下一个最可能的词 — 可靠、一致,有时乏味。温度为 1 时,它引入随机性,选不那么显而易见的词,带来更有创意、更多样化的输出。把它想成介于 “严谨的会计” 和 “爵士乐手” 之间的滑杆。

实用指南:代码、数据提取和事实性问答用低温度(0-0.3)。创意写作、头脑风暴、生成多样选项用较高温度(0.7-1.0)。
Hallucination
AI 自信地编造内容时

AI 幻觉 是指模型生成听起来权威、看起来合理但完全虚构的信息。它不是在撒谎(它没有意图)— 它在预测听起来合理的文本应该是什么样的,而有时这个预测不符合现实。虚假引用、编造的统计数据、不存在的 URL 和自信但错误的事实主张,都是 幻觉

示例:你问某篇具体论文的作者。AI 回答一个听起来真实的作者名、期刊和年份 — 但那篇论文不存在。每个模型都会出现这种情况。永远要核实重要的事实。

让 AI 变得更聪明

微调(Fine-tuning)
教现有模型新的技能

拿一个预训练过的 LLM,在专门的数据集上进一步训练,让它在特定任务上变得更好。基础模型已经懂语言;微调 教它你所在领域的特定模式。就像雇用一个总体聪明的人,然后给他做在职专业培训。

示例:律师事务所在数千份法律文书上 微调 模型,让它以合适的法律风格写作并理解判例惯例。模型不是从零学法律 — 它在调整已经知道的东西。
给 AI 一本可查阅的参考书

不再只依赖模型训练时学到的东西,RAG 让 AI 在回答前先在一组特定的文档中搜索。它先检索相关信息,然后基于找到的内容生成答案。这大幅减少了事实性问题的 幻觉,因为 AI 基于真实的源材料工作,而不只是凭记忆。

示例:你上传公司的 HR 手册。当你问 “我们的育儿假政策是什么?”,AI 在手册中搜索、找到相关部分、基于真实文档回答 — 而不是猜测。
Embedding
把文本转成数字,让 AI 能搜索和比较

嵌入 把一段文本转换成一串数字(一个 “向量”),捕捉它的含义。相似的文本得到相似的数字。这让 AI 能做语义搜索 — 找到关于同一主题的文档,即使它们用完全不同的词。这是支撑 RAG、推荐系统和智能搜索的技术。

示例:句子 “我如何退货?” 和 “你们的退款政策是什么?” 用的是不同的词,但它们的 嵌入 相似,因为它们几乎是一个意思。使用 嵌入 的搜索系统会把它们匹配起来。

商业面

提供商
运行 AI 的公司

训练、托管和提供 AI 模型的组织。当你使用 Claude 时,提供商是 Anthropic。使用 GPT-4 时,提供商是 OpenAI。使用 Gemini 时是 Google。提供商拥有模型,运行 GPU,设定价格。有些提供商构建自己的模型(Anthropic、Google);其他则托管由不同团队制作的模型(Together.ai、Fireworks)。

在 Zubnet 上:我们连接你与 61 个提供商。你选择模型;我们处理连接。如果一个提供商宕机,你可以切换到另一个,无需改变任何东西。
Wrapper
你与 AI 提供商之间的中间人

一家不运行自己 AI 的公司,而是在别人的 API 上构建产品。有些中间件增加真正的价值 — 更好的界面、计费功能、多提供商访问。另一些只是转售 API 访问加上溢价和一个 logo。关键问题是:这个中间件增加了什么价值?如果答案是 “没有”,那你只是在多付钱。

示例:数百个 “AI 写作工具” 都是对同一个 OpenAI API 的包装。你可以直接用 ChatGPT 得到同样的输出。反之,好的中间件给你原始 API 没有的功能 — 比如对比模型、管理成本、一键切换提供商。
BYOK — Bring Your Own Key
在别人的平台上使用你自己的 API 凭证

不必付平台的加价,你直接从提供商那里获取自己的 API 密钥(如 AnthropicOpenAI),并把它接入平台。你以提供商的批发价直接付费给他们,平台只提供界面。就像带自己的食材去一家餐厅,只付烹饪费,而不是全餐价格。

为什么重要:在 Zubnet,BYOK 意味着你可以用自己的 API 密钥,直接向提供商付费,AI 成本本身没有任何加价。

多模态 & 文本之外

Multimodal
处理不仅是文本的 AI

多模态 AI 可以处理和生成多种类型的内容:文本、图像、音频、视频或代码。早期的 AI 只处理文本 — 你输入,它回复。现代多模态模型可以看图并描述、听音频并转录,或接受文本描述并生成图像。趋势是向能处理一切的模型发展。

示例:你上传一张食谱的照片并问 “做这个我需要什么食材?” 一个多模态模型读图像、识别菜肴、列出食材 — 全部从一张照片。
让 AI 能做超出文本生成之外的事情的工具

一种把 AI 模型连接到外部工具和数据源的标准方式。不仅是聊天,AI 还能搜索网页、查询数据库、读文件、运行代码、调用 API、在现实世界中采取行动。MCP 定义这些连接如何工作,从而任何兼容的工具都能与任何兼容的模型协作。把它想成 AI 的 USB — 一个通用插头,让你连接任何工具。

示例:有了 MCP,AI 助手可以检查你的日历、起草邮件、搜索航班、并把预订加到你的出差表格里 — 全都在一次对话中,使用真实的工具,而不是只生成听起来做过这些事的文本。

快速参考

LLM = AI 大脑 • Token = 其度量单位 • 上下文窗口 = 其工作记忆 • Prompt = 你的指令 • 推理 = AI 在思考 • 温度 = 创意度调节 • 幻觉 = 自信地编造 • 微调 = 专门训练 • RAG = 提供参考材料 • 嵌入 = 用数字表达含义 • 提供商 = 运行者 • 中间件 = 中间人 • BYOK = 你的密钥、他们的界面 • 多模态 = 超越文本 • MCP = AI + 真实工具

这就是词汇。你不必一次全部记住 — 遇到不确定的术语时回到本页。目标不是在 AI 对话中听起来聪明。目标是理解你在买什么、在用什么,以及向你卖 AI 工具的人到底在说什么。

想看这些概念付诸实践?Zubnet 把 61 个提供商的 361+ 个模型汇聚在一起 — 支持 BYOK、多模型对比和透明定价。

Sarah Chen
Zubnet · March 19, 2026
ESC