黃仁勳說 AGI 來了——但他用的定義跟學術界完全不同
「真他媽該死,到底怎麼辦好焦慮啊啊啊啊。」
這是上個月一個工程師在論壇上的留言。他剛看完 AI 兩次 prompt 就寫完一個功能的 demo。另一個討論串的標題更直接:「以前要請 4 個,現在只需要 1 個。」
然後 2026 年 3 月 23 日,黃仁勳在 Lex Fridman 的 podcast 裡丟了一顆炸彈:
「I think it's now. I think we've achieved AGI.」
在同一集 podcast 裡,他又說了另一句。這句沒上任何標題:
「100,000 個 AI agent 建出 NVIDIA 的機率是零。」
如果 AGI 已經到了,為什麼它連一家公司都建不出來?
答案比你以為的簡單,也比你以為的嚴重:他用的「AGI」跟你腦中的「AGI」不是同一個東西。
AGI 的定義之爭不是學術口水,而是一場涉及數千億美元利益的敘事戰爭。你採用哪個定義,直接決定你該擔心什麼、投資什麼、準備什麼。
而最荒謬的是:連建造 AGI 的人自己都無法統一定義。
「你說十億,你又沒說永遠」
先還原現場。Lex Fridman 問的問題非常具體:「AI 能不能從零開始,建立並經營一家價值十億美元的科技公司?」
黃仁勳說可以。但他馬上加了一個但書:「You said a billion, and you didn't say forever.」
你說十億,你又沒說永遠。
他的意思是:現在的 AI 確實能搞出一個病毒式 app、一個數位網紅、一個 Tamagotchi 遊戲,短暫衝到十億美元估值。然後可能馬上倒。
但真正建造一家持續運作、在物理世界有工廠有供應鏈有三萬名工程師的公司?十萬個 AI agent 一起上也做不到。
這就是他的 AGI 定義:AI 能短暫達到一個經濟門檻,而不是真正匹配人類認知的全部面向。
這個定義本身就是問題。
一張從來沒有人給你看過的 AI 成績單
如果黃仁勳的定義太窄,那學術界怎麼說?
2025 年 10 月,一件罕見的事發生了。33 位研究者聯名發表了一篇論文,嘗試給 AGI 一個嚴格的定義。名單裡同時包含 AI 最大的懷疑派 Gary Marcus、圖靈獎得主 Yoshua Bengio、前 Google CEO Eric Schmidt。這些人平常意見完全不同,但他們在一件事上取得了共識:AGI 必須用心理計量學來衡量。
他們借用了心理學界驗證最充分的人類智力模型,把 AGI 拆成 10 個認知維度,像考試一樣給 AI 打分。
結果公布時我看了很久:
GPT-5 的 AGI 分數是 57%。
不是接近及格,不是「差一點」。而且,最關鍵的不是總分,是各科的分布。
讀寫能力:10/10。數學能力:10/10。常識知識:9/10。
到這裡你可能覺得「那不錯啊」。但往下看:
Long-Term Memory Storage:0/10。
零分。不是 1 分、2 分,是零。
這代表什麼?代表你跟 AI 深入討論了三個小時的專案策略,隔天重新打開對話,它完全不記得。你的新同事如果記憶力是零,你會讓他負責什麼?
論文的作者用了一個詞來形容這個現象:「嚴重失憶」。
他們指出,開發者用兩種「能力扭曲」來掩蓋這個問題。第一是瘋狂擴大 context window:把整個 codebase 塞進對話框,靠工作記憶硬撐。第二是 RAG(檢索增強生成):讓 AI 去外部資料庫搜答案。這兩種做法都有用,但論文的評語毫不客氣——它們是「掩蓋失憶的拐杖」。
我每天用 AI 寫程式。它寫 code 的速度確實讓人頭皮發麻。但它昨天幫我做的架構決策,今天打開一個新對話就忘得一乾二淨。論壇上一位五年經驗的工程師說得很準確:「自從去年底 Opus 4.5 推出後,整個組內四個人幾乎半年沒有手寫程式碼。」另一個討論串更直接:「以前要請 4 個,現在只需要 1 個。」
但如果你把「數學 10 分、記憶 0 分」這張成績單攤開來看,畫面就不一樣了。AI 不是全面進逼,它的認知輪廓是鋸齒狀的:某些尖刺已經超越人類,某些凹陷接近於零。
研究者有一個專門的詞來形容這種形狀:jagged cognitive profile。

2026 年 3 月,Google DeepMind 發表了自己的認知框架,把 AGI 拆成 10 個維度:知覺、生成、注意力、學習、記憶、推理、後設認知、執行功能、問題解決、社會認知。
他們的結論和 Hendrycks 團隊一致:現在的 AI 在某些維度已經超越多數人,但在其他維度遠遠落後。不是差一點,是差到連測量工具都還沒建好——DeepMind 在論文裡承認,10 個維度中有 5 個(包含後設認知、注意力、學習、社會認知),現有的 benchmark 存在嚴重的覆蓋缺口。
他們甚至開了一個 20 萬美元的 Kaggle 獎金,請外部研究者幫忙補上這些測量空白。
讀到這裡你應該意識到一件事:AGI 不是 yes/no 的問題。它是一張雷達圖。而現在的 AI,某些觸角伸得極長,某些還沒長出來。
為什麼定義 AGI 的人比你想的更有錢
如果定義只是學術爭論,那無所謂。問題是,AGI 的定義直接牽動巨額的商業利益。
Fortune 在 3 月 30 日的深度報導裡挖出了一個很少被報導的事實:2023 年,微軟投資 OpenAI 100 億美元時,合約中有一個條款——微軟是 OpenAI 所有 AI 產品的獨家商業夥伴,但 AGI 不包含在內。
換句話說,一旦 OpenAI 宣布達成 AGI,微軟就失去獨家權。
那誰有權宣布 AGI 達成?原本是 OpenAI 的非營利董事會。但據 The Information 報導,在 2023 年那份合約裡,AGI 被秘密定義為一個非常具體的東西:一項能產生至少 1000 億美元利潤的技術。
OpenAI 去年營收 130 億美元,還虧了 80 億。離 1000 億美元的利潤差得遠。
但 Sam Altman 一邊在部落格寫「我們現在有信心知道怎麼建造 AGI」,一邊跟 Bloomberg 說 AGI 是「不太有用的詞」。
你不覺得矛盾嗎?
想想看:對 OpenAI 來說,宣稱「接近 AGI」能吸引投資和人才。但真的宣布「達成 AGI」,微軟的獨家權就消失了。所以最理想的位置是:永遠「接近」但永遠「還沒到」。
定義模糊不是 bug,是 feature。
黃仁勳的動機更直接。他賣的是 GPU。AGI 離得越近,全世界的資料中心就需要買越多 NVIDIA 的晶片。當他在全球最大的 podcast 上說「AGI 已到」,NVIDIA 的股價在那一週上漲了。
Gary Marcus 在他的分析裡把這個現象叫做一個概念錯誤加上一個策略誤判:「把越來越精緻的統計近似跟真正的智慧混為一談,不只是學術上的錯——是會讓你做出錯誤投資決定的錯。」
我幫客戶做數位轉型。最近每次見面,他們第一個問題都是「AGI 來了,我們要不要 all in?」我的回答都一樣:「先問清楚,你說的 AGI 是誰的定義?」
「AGI 這個詞可能已經過時了」
更荒謬的場景出現了。建造 AGI 的公司,正在集體放棄這個詞。
這波退縮從 Anthropic 開始。Anthropic 總裁 Daniela Amodei 先開第一槍:AGI 的概念「可能已經過時了」。理由很直接——Claude 寫程式已經比很多工程師強,但連基本的直覺都做不到。一個系統某些任務超強、其他任務力不從心,那「通用智慧」這個目標本身就不合理。
然後用詞越來越不客氣。先是「不太有用的詞」——說這話的人是 OpenAI 的 Altman,同一個一年前寫「我們知道怎麼建 AGI」的人。再來是「催眠」——Salesforce 的 Benioff 暗指的就是正在催眠市場的那幾家公司。最後升級到直接指控:AGI 炒作正在讓學生做錯職涯選擇,讓 CEO 砸錢在不切實際的承諾上。這不是懷疑派在批評,是 AI 產業最頂層的人在互相拆台。
論壇上一句話總結了這個荒謬:「尼信嗎?老實說我不太信。AI 時代就會產生一堆無用階級。」
但有人不同意放棄。DeepMind 和 Hendrycks 團隊的立場是:不是 AGI 這個概念有問題,是企業把它扭曲了。解法不是丟掉這個詞,是用可量化的科學框架取代行銷敘事。
但 DeepMind 創辦人 Demis Hassabis 看 AGI 的方式完全不同。他不把 AGI 當商業目標。根據 《The Infinity Machine》的記錄,他凌晨兩點坐在桌前,覺得「現實在對著我尖叫,試圖告訴我什麼」。對他來說,建造 AGI 是為了理解宇宙的基本規則。
即便如此,Hassabis 自己也說:我們還在「第一局」。他把大型語言模型比喻成棋局裡的「策略網路」,能預測下一步該走什麼,但缺少「價值網路」:搜尋、規劃、反省的能力。LLM 只在「樹的下半部」搜索知識,沒辦法發明真正原創的東西,比如相對論。
而 DeepMind 內部甚至無法統一路線。Hassabis 堅信強化學習才是通往 AGI 的路,因為只有 RL 能產生超越人類訓練資料的洞見。但另一派研究者認為公司在「錯失」大型語言模型的浪潮,有人因此離職。
連一個實驗室內部,路線都吵不出共識。
如果連測量都做不到,你怎麼確定它沒到?
到這裡,你可能覺得結論很明確:AGI 沒到,定義被炒作了。
但第三個判斷讓我遲疑了。
Hendrycks 團隊的數據有一個被低估的訊號:GPT-4 在 2023 年的 AGI 分數是 27%。GPT-5 在 2025 年是 57%。兩年跳了 30 個百分點。
我自己的體感跟這個數字吻合。兩年前我讓 AI 幫忙重構一段 code,它給的方案漏洞百出,我花更多時間改它的錯。上個月同樣的任務,它一次就給出比我原本想的更乾淨的架構。進步不是漸進的,是跳躍的。
如果這個速度持續,2027 年就可能超過 80%。這不是線性外推,是提醒你加速度本身值得注意。
而 DeepMind 的認知框架承認了一件更根本的事:10 個維度裡有一半,現有的測量工具嚴重不足。後設認知、注意力、學習能力、社會認知、問題解決——這些維度的 benchmark 存在巨大缺口。
如果你無法測量一個東西,你怎麼確定它不存在?
Mallaby 在書中記錄了一個令人不安的細節:Hassabis 當年預測 AGI 會在某個時間軸上到來。現在,它「幾乎剛好在他預言的時間軸上」到達了。但他沒有因此感到勝利——他感到的是恐懼。因為他原本設想的劇本是「一個實驗室安全地建造 AGI」。結果現在變成了全球不可控的軍備競賽。
Hassabis 自己也犯過判斷錯誤。他多年來堅信語言模型因為「沒有接地」——沒有在物理環境中互動——所以不可能有真正的智慧。但後來他承認,語言模型是「不合理地有效」。出走的 LLM 派押對了趨勢。
所以第三個判斷是:過度自信 AGI 很遠,跟過度自信 AGI 很近,一樣危險。
正確的框架不是「AGI 存在 vs 不存在」,而是:AI 的認知雷達圖正在以非線性速度擴張。某些尖刺已經超越人類,某些凹陷可能比我們以為的更快被填平。
你的工作長什麼形狀?
把上面的分析濃縮成你可以帶著走的東西:
第一,不要問「AGI 來了嗎?」——問「他用的是哪個定義?」
同一個詞,至少有三種意思。經濟定義:AI 能做出一個短暫值十億美元的數位產品。心理計量定義:AI 在 10 個認知維度上達到人類中位數(目前 57 分)。合約定義:一項能產生 1000 億美元利潤的技術。
三種定義,三種結論,三種完全不同的緊迫感。
每次有人跟你說「AGI 來了」或「AGI 快來了」,你的第一個問題不是「真的嗎?」——是「他用的哪個定義?這個定義對他有什麼好處?」
第二,看雷達圖的凹陷,不看尖刺。
AI 的讀寫和數學能力已經是 10/10。如果你的工作核心是「讀一篇文件然後寫一份摘要」或「算一組數字」,確實該認真思考。有人在論壇說「大量文組學生搭配 AI 可以頂得上初階工程師」,這話對某些維度是真的。
但記憶力是 0/10。社會認知沒辦法測量。後設認知(知道自己不知道什麼)接近於零。
如果你的工作是「記住三年前客戶說過的一句話,在今天的會議上用恰當的時機提起」——AI 做不到。如果你的工作需要在壓力下即興改變計劃——AI 做不到。如果你的工作需要讀出會議室裡的潛台詞——AI 更做不到。
所以第二件事:畫你自己工作的雷達圖。它橫跨哪些認知維度?跟 AI 的尖刺重疊多少?跟 AI 的凹陷重疊多少?
第三,追蹤加速度,不追蹤標題。
27% → 57%,兩年。下一個數據點出來的時候,不要看標題寫什麼。看那張雷達圖的形狀怎麼變了。哪些凹陷被填平了?哪些還是零?
黃仁勳在同一集 podcast 裡說了一句被忽略的話:「Intelligence is a commodity.」智慧是商品。他認為 AI 的智慧就像洗碗機——功能性地處理任務,效率極高,但需要人類的同理心、痛苦承受力和領導力來驅動。
他可能是對的。但一個賣洗碗機的人告訴你「洗碗的時代結束了」,你會直接信嗎?
下次有人跟你說「AGI 來了」,問他三個問題:他用的定義是什麼?這個定義值多少錢?那張雷達圖上,記憶力幾分?
本文讀了這些來源:
書:
- The Infinity Machine: Demis Hassabis, DeepMind, and the Quest for Superintelligence — Sebastian Mallaby
Podcast:
文章:
- Nvidia's Jensen Huang says 'we've achieved AGI.' But no one can agree on what that means(Fortune)
- AGI通用型人工智慧是什麼?9派定義與6個等級(未來城市@天下)
- 從「人人都喊 AGI」到集體降溫(TechOrange)
- Rumors of AGI's arrival have been greatly exaggerated — Gary Marcus, Valerio Capraro, Walter Quattrociocchi
論文:
- A Definition of AGI — Dan Hendrycks, Yoshua Bengio, Gary Marcus et al.(33 authors)
- Measuring Progress Toward AGI: A Cognitive Framework — Google DeepMind
聲明: 以上內容為個人閱讀 AI 研究文獻後的整理與觀點分享,不構成投資或職涯建議。文中提及的公司(NVIDIA、OpenAI、Google、Anthropic、Microsoft)僅供說明 AGI 定義爭議的商業脈絡。任何投資或職涯決定請自行評估風險。
你可能也想讀:
- AI 會取代你的工作嗎? — 那篇拆的是「會不會」的數據,這篇拆的是「連定義都還沒共識」的前提問題
- NVIDIA 值不值得買?你可能用錯了框架 — 如果你因為黃仁勳的 AGI 宣言考慮買 NVIDIA,先看這張估值分析
- 你只用了 AI 1% 的能力 — AI 的認知雷達圖有尖刺也有凹陷。你用到了哪些尖刺?
新文章上線時通知你
有新主題才通知,僅此而已。
已收到,謝謝!
新文章上線時會通知你。