入門

AI 術語白話解讀

AI 產業熱愛自己的縮寫和技術用語。這裡是你真正需要知道的每個術語,用清楚語言與真實例子說明。把這一頁加到書籤。
Sarah Chen 2026 年 3 月 19 日 12 分鐘閱讀

要好好使用 AI,你不需要懂背後的數學。但你確實需要懂詞彙,因為這些術語會一直出現 — 產品說明、價格頁、部落格,以及那些假設你早已知道這些意思的對話裡。

這不是教科書式的詞彙表。每個術語都有白話定義、真的有幫助的比喻,加上具體例子。不會用術語去解釋術語。

核心概念

大多數對話裡,人們說「AI」時其實是指的東西

一個博覽群書的助理。一個 LLM 用數十億頁文字訓練而成 — 書籍、文章、網站、程式碼、對話 — 它學會語言模式,好到足以產生聽起來像人類的新文字。它不像你那樣「知道」事情。它預測下一個最可能的字,一次又一次,速度驚人。但結果好到那個差別常常只是學術上的。

範例:Claude、GPT-4、Gemini、DeepSeek 和 Llama 都是 LLM。當你跟 AI 聊天時,你是在跟一個 LLM 對話。
Token
AI 用來度量文字的單位 — 不完全是字,也不完全是字母

文字的碎片。AI 不像你那樣讀字 — 它把文字切成「token」,可以是完整單字、單字的一部分,或甚至單一字元。常用字像「hello」通常是一個 token。較長的字會被切開:「extraordinary」大約變成 3 個 token。經驗法則:1 個 token ≈ 0.75 個字,或大約 4 個字元。

為什麼重要:AI 定價是按 token 計費。當一個模型標價「每百萬輸入 token 3 $」時,大約是 3 $ 處理 75 萬個字 — 差不多是 5 本小說的長度。上下文視窗也是用 token 計算。
上下文視窗
AI 一次能「看到」多少

上下文視窗是 AI 在一次對話中能在工作記憶裡留住的文字總量。你說過的話、它說過的話,加上你貼進去的任何文件 — 所有東西都必須塞得進上下文視窗。一旦對話超出視窗,AI 就會開始「忘記」較早的部分。

規模:8K token ≈ 一篇長部落格文章。32K ≈ 一本短篇小說。128K ≈ 一本 300 頁的書。1M token(某些 GeminiClaude 模型可用)≈ 一次對話中大約 5 本厚小說的文字量。上下文越多,代表 AI 能處理更長的文件而不迷失線索。
Prompt
你輸入給 AI 的內容

你給 AI 的指令。一個提示詞可以簡單到像「法國首都是哪裡?」,也可以複雜到是一整組帶範例、限制與格式要求的多段指令。你的提示詞品質,是影響回答品質最大的因素。

範例:「寫一封婉拒會議的專業電子郵件」是一個提示詞。「你是一位專業營養師。根據以下血液檢驗結果,建議飲食調整。要具體,並寫出你的推理。」也是。

AI 怎麼思考(大致上)

推理(Inference)
AI 正在思考並產生回答

當 AI 模型處理你的提示詞並產出回應時,那叫做推理。模型本身只訓練過一次(那需要數週或數月,以及數百萬美元)。之後你每次使用它,它都在做推理 — 把學到的東西套用到你特定的輸入。把訓練想成上學,推理就像在考試。

為什麼重要:推理是你付錢的部分。更快的推理代表更快的回應。「推理成本」是把 AI 跑起來的持續開銷,不同於一次性的訓練成本。
溫度(Temperature)
創意調節鈕

一個參數(通常是 0 到 1),控制 AI 回答的可預測度或創意度。溫度為 0 時,AI 每次都選下一個最可能的字 — 可靠、一致,有時無聊。溫度為 1 時,它會加入隨機性,選一些比較不明顯的字,帶來更多變、更有創意、更令人驚喜的輸出。把它想成介於「嚴謹會計」和「爵士樂手」之間的滑桿。

實用指南:程式碼、資料擷取與事實性問答用低溫度(0-0.3)。創意寫作、腦力激盪、生成多樣化選項用較高溫度(0.7-1.0)。
Hallucination
AI 自信滿滿地編造內容時

AI 幻覺是指模型產生聽起來權威又可信、但其實完全捏造的資訊。它不是在撒謊(它沒有意圖)— 它是在預測聽起來可信的文字長什麼樣,而有時那個預測跟真實不符。假引用、編造的統計數據、不存在的 URL,以及自信但錯誤的事實主張,全部都是幻覺

範例:你問某篇特定論文的作者。AI 回你一個聽起來真實的作者名字、期刊和年份 — 但那篇論文不存在。這種事每個模型都會發生。重要的主張一定要查證。

讓 AI 變得更聰明

微調(Fine-tuning)
教既有模型新把戲

拿一個預先訓練好LLM,再在一個專門資料集上繼續訓練,讓它在特定任務上表現更好。基礎模型已經懂語言;微調教它你所在領域的特有模式。就像請一個大致聰明的人進來,再給他在職的專業訓練。

範例:一家法律事務所在數千份法律訴狀上微調一個模型,讓它用合適的法律風格書寫並理解判例慣例。模型不是從零學法律 — 而是調整它已經知道的東西。
給 AI 一本能查閱的參考書

與其只依賴模型在訓練時學到的東西,RAG 讓 AI 在回答前先去一組特定文件裡搜尋。它先取出相關資訊,再根據找到的內容產生回答。這對事實性問題能大幅降低幻覺,因為 AI 是根據真實的來源材料,而不只是憑記憶。

範例:你上傳公司的 HR 手冊。當你問「我們的育嬰假政策是什麼?」時,AI 會在手冊裡搜尋、找出相關章節,根據真實文件作答 — 而不是瞎猜。
Embedding
把文字轉成數字,讓 AI 能搜尋和比較

嵌入會把一段文字轉成一串數字(一個「向量」),捕捉它的含義。相似的文字會拿到相似的數字。這讓 AI 能做語義搜尋 — 找出討論同一主題的文件,即使它們用的是完全不同的詞。這是RAG、推薦系統與智慧搜尋背後的技術。

範例:句子「我要怎麼退貨?」跟「你們的退款政策是什麼?」用的字不同,但它們的嵌入很相似,因為幾乎是一樣的意思。用嵌入的搜尋系統會把它們配對起來。

商業面

供應商
把 AI 跑起來的公司

訓練、代管並提供 AI 模型的組織。當你用 Claude 時,供應商是 Anthropic。用 GPT-4 時,供應商是 OpenAI。用 Gemini 時是 Google。供應商擁有模型、執行 GPU、訂定價格。有些供應商製作自己的模型(Anthropic、Google);有些則代管別的團隊做的模型(Together.ai、Fireworks)。

在 Zubnet 上:我們把你連上 61 家供應商。你挑模型;我們處理連線。如果一家供應商當機,你可以不改任何設定就切到另一家。
Wrapper
夾在你和 AI 供應商之間的中介

一家不執行自己 AI、而是基於別人 API 做產品的公司。有些中介真的有加值 — 更好的介面、計費功能、多供應商存取。有些只是把 API 加價後套個 logo 轉賣。關鍵問題是:這個中介加了什麼價值?如果答案是「沒有」,你就只是多付錢而已。

範例:幾百個「AI 寫作工具」都是同一支 OpenAI API 的中介。你可以直接用 ChatGPT 得到一樣的輸出。反過來,一個好的中介會給你原始 API 沒有的功能 — 像是比較模型、管理成本,或一鍵切換供應商。
BYOK — Bring Your Own Key
在別人的平台上用自己的 API 憑證

與其付平台加價後的錢,你直接跟供應商(如 AnthropicOpenAI)拿自己的 API 金鑰,再接進平台。你用供應商的批發價直接付給他們,平台只提供介面。就像帶自己的食材到餐廳,只付烹飪費,不是整份餐點的錢。

為什麼重要:在 Zubnet,BYOK 代表你可以用自己的 API 金鑰,直接付錢給供應商,AI 成本本身不會被加價。

多模態 & 文字之外

Multimodal
能處理不只是文字的 AI

多模態 AI 能處理並產出多種類型的內容:文字、影像、音訊、影片或程式碼。早期 AI 只處理文字 — 你輸入、它回覆。現代多模態模型可以看一張影像並描述它、聽音訊並轉錄,或拿一段文字描述產出影像。趨勢是朝著能處理一切的模型前進。

範例:你上傳一張食譜照片,問「要做這個我需要什麼食材?」。一個多模態模型會讀影像、辨識料理、列出食材 — 全部從一張照片。
讓 AI 能做「產生文字」以外事情的工具

把 AI 模型連到外部工具與資料來源的標準方法。AI 不只是聊天,還能搜尋網頁、查詢資料庫、讀檔案、執行程式、呼叫 API、在真實世界裡採取行動。MCP 定義這些連線要怎麼運作,讓任何相容工具都能與任何相容模型搭配。把它想成 AI 的 USB — 一個通用插頭,讓你接上任何工具。

範例:有了 MCP,AI 助理可以檢查你的行事曆、草擬一封電子郵件、搜尋航班、把訂位加進你的出差試算表 — 全在同一次對話裡,用真實工具完成,而不只是產出「看起來好像做了這些事」的文字。

快速參考

LLM = AI 大腦 • Token = 它的度量單位 • 上下文視窗 = 它的工作記憶 • Prompt = 你的指令 • 推理 = AI 在思考 • 溫度 = 創意調節鈕 • 幻覺 = 自信滿滿的虛構 • 微調 = 專門訓練 • RAG = 給它參考材料 • 嵌入 = 把意義化成數字 • 供應商 = 跑它的人 • 中介 = 中間人 • BYOK = 你的金鑰、他們的介面 • 多模態 = 文字之外 • MCP = AI + 真實工具

這就是詞彙。你不用一口氣全部背下來 — 碰到不確定的術語再回到這一頁。目標不是在 AI 對話裡聽起來聰明。而是搞懂你在買什麼、在用什麼,以及那些在賣你 AI 工具的人到底在談什麼。

想看這些概念實際運作?Zubnet 把 61 家供應商的 361+ 個模型放在同一個地方 — 支援 BYOK、多模型比較與透明定價。

Sarah Chen
Zubnet · March 19, 2026
ESC