Zubnet AI學習Wiki › Google DeepMind
公司

Google DeepMind

別名:Gemini、AlphaGo、AlphaFold
Google 的統一 AI 研究部門,由 DeepMind 與 Google Brain 於 2023 年合併而成。推動 Gemini、AlphaGo、AlphaFold 等,以及許多推動現代 AI 的基礎研究。

為什麼重要

Google DeepMind 對現代 AI 的基礎研究貢獻比任何其他單一組織都還要多 — Transformer 架構、強化學習的突破性研究、蛋白質結構預測與規模定律等,皆可追溯至 DeepMind 或 Google Brain 的團隊。他們的 Gemini 模型是唯一內建真正全球分發功能的前沿大型語言模型 (LLM),透過搜尋、Android 與 Google Workspace 服務數十億用戶。而 AlphaFold — 這項解決了生物學界沿襲五十年難題、並榮獲諾貝爾獎的技術 — 其本身已足以讓他們在科學史,而不僅僅是 AI 史上佔有一席之地。

深度解析

Google DeepMind 是兩個獨立起源故事的產物,這兩個故事在 2023 年 4 月合併為一體。DeepMind 於 2010 年在倫敦由 Demis Hassabis、Shane Legg 和 Mustafa Suleyman 創立。Hassabis 算得上是一位神童 — 13 歲時成為國際象棋大師,17 歲時擔任遊戲設計師(他與 Bullfrog Productions 合作開發了 Theme Park),後來又取得倫敦大學學院(UCL)的神經科學博士學位。他與 Legg(在自己的博士論文中提出了「通用人工智慧」一詞)共享一個信念,即透過將深度學習與強化學習結合,並融入神經科學的洞察,可以實現通用智慧。Google 於 2014 年 1 月以約 5 億美元收購 DeepMind,擊敗了 Facebook 的競爭性報價。同時,Google Brain 自 2011 年起就在 Google 內部運作,源於 Jeff Dean 和 Andrew Ng 在大型神經網絡上的研究。Brain 成為了 Google 許多生產級 AI 系統的核心引擎,包括「Attention Is All You Need」的 Transformer 論文(2017 年)— 這無疑是現代 AI 最重要的單篇論文。

AlphaGo、AlphaFold 與研究遺產

DeepMind 的早期歲月創造了 AI 歷史中一些最具標誌性的時刻。2016 年 3 月 AlphaGo 擊敗世界冠軍李世石,這是一個真正的里程碑 — 國際圍棋曾被認為距離 AI 解決還要數十年。後續的 AlphaGo Zero 完全透過自我對弈學習遊戲,不使用任何人類數據,而 AlphaZero 則將這種方法推廣至國際象棋和將棋。但 DeepMind 最具影響力的科學成就可能是 AlphaFold。AlphaFold 於 2018 年發布,後續透過 AlphaFold 2(2020 年)進一步優化,有效地解決了蛋白質結構預測問題 — 這個問題困擾生物學家五十年。DeepMind 發布了幾乎所有已知蛋白質的預測結構,使 Hassabis 和 John Jumper 於 2024 年獲得諾貝爾化學獎。這不僅僅是 AI 基準測試的勝利;這對科學界來說是一項真正的貢獻,加速了全球的藥物發現和生物學研究。

合併與 Gemini

多年來,DeepMind 和 Google Brain 作為平行組織運作,擁有重疊的任務,且關係偶爾緊張。DeepMind 擁有品牌和研究聲譽;Brain 擁有基礎設施專業知識和產品整合能力。2023 年 4 月,Sundar Pichai 在 Hassabis 的領導下將兩者合併為 Google DeepMind,Jeff Dean 擔任首席科學家。這次合併部分是為了提高效率,部分是出於緊迫感 — ChatGPT 讓 Google 擦亮眼睛,公司需要其 AI 人才朝同一方向努力。合併後組織的第一個重大成果是 Gemini,這是在 2023 年 12 月宣布的 Google 多模態模型家族。Gemini 是從頭開始設計的原生多模態模型(同時處理文字、圖片、音訊和視訊,而非事後添加功能),Ultra 版本聲稱在大多數基準測試中與 GPT-4 匹敵或超越 — 雖然發佈時因一段被操縱的演示視頻而受到尖銳批評。後續的 Gemini 發佈,包括具突破性百萬 token 上下文窗口的 1.5 系列,以及 Gemini 2.0 和 2.5 系列,已確立 Google DeepMind 為真正的前沿競爭者。

Google 的獨特地位

沒有其他 AI 實驗室能像 Google DeepMind 一樣擁有這樣的優勢組合:幾乎無限的計算資源(Google 的 TPU 集群是全球最大的 AI 訓練集群之一)、數十年累積的數據和基礎設施、橫跨搜尋、Android、YouTube、Gmail 和雲端的全球分發網絡,以及擁有比任何其他機構都多的基礎 AI 論文的深厚研究人才。支撐所有現代 LLM 的 Transformer 架構就是 Google 發明的。然而,在 2023 年和 2024 年的大部分時間裡,Google 看起來似乎在與 OpenAI 的產品競賽中落後 — 這種觀感讓內部人士感到沮喪,他們清楚知道幕後有多少尖端研究正在進行。創新者的困境是真實的:Google 必須將 AI 整合到每年產生 3000 億美元收入的產品中,而不會損害其核心搜尋廣告業務。

文化、爭議與未來之路

Google 的 AI 歷史並非沒有傷痕。2020 年 AI 道德研究員 Timnit Gebru 被解雇,隨後其共同領導者 Margaret Mitchell 離職,成為關於企業 AI 道德和對提出令人不適問題的研究人員待遇的爭議焦點。DeepMind 共創始人 Mustafa Suleyman 於 2022 年離職(他創立了 Inflection AI,後於 2024 年加入 Microsoft 擔任 Microsoft AI 的首席執行官)。這些離職反映了 Google 研究文化與快速推出競爭性產品的商業壓力之間的更廣泛張力。展望未來,Google DeepMind 可能是下一個 AI 階段的最佳定位實驗室 — 能夠在應用程式中推理、規劃和採取行動的智能代理系統。他們的 Gemini 模型已深度整合到 Google 的產品生態系統中,Project Astra 正推動始終在線的 AI 助手,而 Google 基礎設施的規模意味著他們可以比幾乎任何人都更快地進行迭代。問題在於,組織的規模和複雜性是否能讓它以時刻所需的速度前進。

相關概念

In The News

Google merges Gemini and NotebookLM, finally builds AI project memory
Apr 10, 2026
Google's LangExtract Turns Document Processing Into Assembly Line Code
Apr 10, 2026
Perplexity ditches Google chase, goes after Mint with banking agents
Apr 10, 2026
Google locks Intel into multiyear CPU deal as AI shifts beyond GPUs
Apr 09, 2026
Google bets on CPU shortage with Intel partnership amid AI inference boom
Apr 09, 2026
See all 50 articles about Google DeepMind →
← 所有術語
← GNN GPU →
ESC