你以為你會用 AI 了,其實你只用了 1%
你的星期二大概長這樣。
早上收到一封英文 email,丟進 ChatGPT 翻譯。中午想找附近吃的,問 AI 推薦。下午寫個報告,叫它幫你列大綱。晚上看到新聞裡一個不認識的詞,順手問一下。
一天用了四五次。你覺得自己跟得上這個時代。
你沒有錯。但有一件事你可能不知道:你現在站的地方,是一棟大樓的一樓。你以為這是屋頂。
大多數人把 AI 當成更聰明的影印機
台灣某個公務員論壇有人問:「chatgpt 還有什麼好用途?」底下的回覆是:寫新聞稿、校對、翻譯、做表格、寫公文。每一個都是同一種用法:把任務丟進去,拿結果出來。
這不是 AI 的問題。這是用 Google 搜尋的習慣被搬到了 AI 上面。差別只是 Google 給你十個連結,ChatGPT 直接給你一段文字。本質一樣——你問一個問題,拿一個答案,走人。
Wharton 教授 Ethan Mollick 觀察到一模一樣的事:大多數人「直接貼上問題,讓 AI 回答,然後原封不動拿去用」。
他跟 Boston Consulting Group 做過一個實驗。一群菁英顧問拿到 AI 工具後,大部分人的做法就是把任務原封不動丟給 AI,然後直接交出結果。碰到 AI 能力範圍內的任務,表現確實好。但碰到一個剛好超出 AI 能力邊界的任務時,那些盲目信任的顧問全軍覆沒——因為他們早就停止自己思考了。
連 BCG 的人都會卡在這裡。
我一個學長前陣子跟我說:「我有訂 ChatGPT Plus 啊,主要拿來翻譯和寫 email,偶爾問問題。」我問他還用來做什麼,他想了一下說:「就這樣吧。」
我把這個狀態叫 AI 高原期。你覺得到頂了,其實是停在一樓。
一樓跟頂樓的差距在哪裡
差距不在功能,不在付費版,不在 prompt 技巧。差距在一個你可能從來沒想過的問題:
你是在叫 AI 給你答案,還是在叫它幫你想?
我舉三個畫面。
畫面一:帶媽去旅遊。
一樓版本:「推薦京都三天兩夜行程。」AI 給你一份標準的觀光路線,金閣寺、伏見稻荷、錦市場。跟 Google 搜尋「京都自由行」的前三篇差不多。
頂樓版本:「我媽 65 歲,膝蓋不好,走太久會痛。她喜歡傳統市場和手作體驗,不喜歡人多的地方。預算兩個人 10 萬台幣含機票。三天行程,每天下午要有一個可以坐著休息至少一小時的地方。」
你給 AI 的脈絡量,決定它能幫你到什麼程度。第二個版本拿回來的行程,是你用 Google 搜一整晚也拼不出來的。因為沒有旅遊部落客會針對「65 歲膝蓋不好又喜歡手作體驗」寫一篇文章。
畫面二:做一個重要決定。
一樓版本:「我該不該買房?」AI 給你一堆利率分析和房市趨勢。跟財經網站的懶人包差不多。
頂樓版本:「我現在考慮要不要買房,請你先扮演一個堅決反對我買房的財務顧問,盡全力說服我不要買。列出我可能忽略的十件事。」
等它講完,你再說:「好,現在換一個角色,扮演支持我買房的人,反駁剛才的每一點。」
這不是在問 AI 答案。這是在用 AI 幫你把自己的盲點逼出來。你本來只會問朋友「你覺得呢」然後聽一個跟你想法差不多的意見。現在你有一個不怕得罪你的魔鬼代言人。
Mollick 寫書的時候,造了三個 AI 人格當編輯:一個叫 Ozymandias,設定是自大自負的編輯,結果 AI 自己加了英國腔(Mollick 說「加分」);一個叫 Mnemosyne,負責在草稿裡找意想不到的連結;還有一個叫 Steve,設定是「一個看科普和商業書但其實不太看得懂的普通讀者」。三個「人」給他完全不同方向的回饋。
你不需要寫書才能這樣做。我一個朋友在考慮轉職的時候,叫 AI 先扮演面試官,把他的履歷從頭到尾挑毛病。被 AI 電了半小時之後,他說:「我自己從來沒從這個角度看過。」
下次做任何重要決定之前,叫 AI 先當反對派,盡全力說服你不要做。你會發現自己想漏的東西比想到的多。
畫面三:搞懂一件你從來沒碰過的事。
一樓版本:「什麼是 ETF?」AI 給你一段維基百科等級的解釋。
頂樓版本:「我完全不懂投資,但我是一個廚師。請用做菜的比喻,從零解釋 ETF 是什麼、怎麼運作、跟直接買股票差在哪。如果我理解錯了,糾正我。」
AI 最強的地方不是它知道得多。是它可以用你已經懂的事情,解釋你還不懂的事情。但前提是你先告訴它你已經懂什麼。
這三個畫面的共通點:你多給了 AI 一層關於「你是誰」的資訊。 高原期的人只給任務,進階的人給脈絡。
你把預測和判斷混在一起了
AI 做的是預測,你做的是判斷。經濟學家 Ajay Agrawal 的框架說得很清楚。
Agrawal 用一個很日常的例子解釋:出門要不要帶傘。以前你要嘛養成習慣永遠帶(規則),要嘛賭一把不帶(也是規則)。有了天氣 AI 之後,它能告訴你降雨機率 90%。但「淋濕 vs 帶傘的麻煩,哪個你比較不能接受」——這是判斷,AI 不知道。有的人寧可淋濕也不想多拿東西,有的人穿了新鞋絕對不能濕。同一個 90%,不同的人應該做不同的決定。
再往上一層:他提到自駕車租車。AI 能預測走風景路線出車禍的機率比高速公路高一點點。但「那個風景值不值得多承擔一點風險」,是你的判斷。保險公司已經開始把這個風險轉成價格——走風景路線多收你一塊錢,你自己決定值不值得。
高原期的問題就在這裡:你把預測和判斷混在一起了。你問 AI 一個問題,拿到一個看起來像「答案」的東西,以為事情做完了。但那只是預測。你的判斷從來沒有加進去。
更微妙的是,2026 年一個 295 人的實驗發現:越信任 AI 的人,判斷反而越差。不是因為 AI 有毒,是因為他們把自己的判斷外包了,以為 AI 的預測就是最終答案。
但這不是叫你少用 AI。相反,是叫你用更多,但用的方式不一樣。
一份回顧 35 篇研究的分析發現一件有趣的事:對 AI 了解最少的人,反而會自動懷疑它的結果。了解中等的人最容易被牽著走——他們覺得自己懂了,所以不再質疑。了解最深的人才知道什麼時候該信、什麼時候不該信。
換句話說,最危險的不是不用的人,是覺得自己已經會用的人。

兩個聰明人吵架,而且都對
這裡有一個讓我想很久的矛盾。
Agrawal 的框架很漂亮:AI 負責預測,人負責判斷,兩者分開,各做各的。理論上,AI 越強,人的判斷就越重要——因為有了更好的預測,你才能做更精細的判斷。
但 Mollick 的 BCG 實驗指向完全相反的方向。
那個實驗的數字很值得記住:沒有 AI 工具的顧問,在一個需要判斷的任務上正確率 84%。給了 AI 工具的顧問,正確率掉到 60% 到 70%。菁英顧問加了 AI,反而比沒有 AI 的同事差了將近 24 個百分點。
不是因為 AI 給了錯誤的預測。是因為 AI 預測太好用了,好用到這些人停止了自己的判斷。
Agrawal 說預測和判斷可以分開。Mollick 的數據說,實際上人類不會分開。AI 預測越好、越方便,人就越懶得做判斷那一步。這不是意志力的問題,是認知經濟學:判斷要花腦力,如果 AI 已經給了一個看起來很好的答案,你為什麼要再花力氣質疑它?
Nature 2026 的實驗也指向同一件事:越信任 AI 的人判斷越差,而且這個效應只在 AI 組出現——信任人類建議的人沒有這個問題。AI 有某種「獨特的」能力讓你放棄自己的判斷,人類建議做不到。
兩邊都對。Agrawal 對在理論上:預測和判斷確實是兩件事。Mollick 對在現實裡:大多數人根本不會去做分開這個動作。
我從這個矛盾裡拿到的判斷是:問題不是「AI 能不能幫你」,是「你會不會因為它太好用而放棄思考」。 而離開高原期的方法,就是在每次用 AI 的時候,刻意多做一步——不要接受第一個答案,問自己「這裡面有什麼是我的判斷,有什麼只是 AI 的預測」。
Mollick 管 AI 的能力邊界叫 jagged frontier——鋸齒狀邊界。AI 的能力不是一條平線,是像城牆一樣有些地方突出、有些地方凹進去。它能寫出讓人驚豔的十四行詩,卻寫不出剛好五十個字的段落。它能做複雜的數據分析,卻連簡單的數學有時都會算錯。
高原期的人從來沒去摸過那道牆的形狀。他們試了幾次、有些不錯、有些不行,就決定「大概就這樣了」。
最有意思的部分不是你自己
我後來發現,AI 用得越多、用得越深,最意想不到的改變不是我自己變強了,而是它改變了我跟身邊的人的互動。
我爸看完醫生,回來跟我說醫生講了一堆他聽不太懂的數字。我打開 AI,把那些數字貼進去,請它用白話解釋這代表什麼、哪些需要注意、下次回診該問什麼。我爸從「聽不懂但不好意思再問」變成「帶著問題去找醫生」。
幫家人規劃出國旅遊,以前是我一個人用三個晚上在 Google 上拼行程。現在是全家人一起跟 AI 討論,小孩說想去水族館、媽說想逛市場、爸說走太多會累。AI 收了所有條件生出一個版本,我們再一起改。
這不是「我用 AI 幫他們解決問題」。是 AI 變成了我們之間一個新的溝通方式。以前我爸不太會主動問我事情,現在他會說:「那個 AI 可以幫我查一下嗎?」
回頭看,每個場景都是 prediction/judgment 的分離在運作。AI 預測那些醫學數字代表什麼,但我爸對自己身體的理解、他想問醫生什麼、他在不在意某個風險——那是他的判斷,AI 不知道。旅遊行程也一樣:AI 預測哪條路線最受歡迎,但「我媽走太久會痛」「小孩只想去水族館」是我們家的判斷。
有一次比較有意思的是,我弟對某個他完全不懂的領域產生興趣。以前他會問我、我也不懂、然後就沒有然後了。現在他自己打開 AI,用自己的方式問、自己追問、自己建起了一套理解。我什麼都沒做,他自己走通了。那個瞬間我意識到:重點不是我幫他用 AI,是他開始自己跟 AI 建立關係了。他在做的事情,正好就是 Agrawal 說的:提供自己的判斷,讓 AI 的預測變得有用。
Mollick 做過一個非正式調查,發現超過一半的 AI 使用者在組織裡是「地下工作者」——偷偷用,不敢讓同事知道。怕被發現自己的工作可以被自動化,或是公司根本禁止用。
但在家裡不需要地下。你就是那個可以帶身邊的人往前走的人。不是因為你是科技專家,是因為你先踩過那條路。
我大學時候有個教授常說:「最好的學習是教別人。」那時候覺得是老掉牙的話。現在發現他說的不只對,而且在 AI 時代有了新的意思:你不是在教別人用工具,你是在示範一種跟資訊互動的方式。而最好的結果不是他們都來問你,是他們自己學會問 AI。
我怎麼想這件事
我就是一個把 AI 用到生活各個角落的人。不只是工作,是生活的每個面向。
我的做法是:在預算範圍內用最好的工具、最好的模型。不是為了追新,是因為我發現 AI 能力的天花板和地板差距非常大。好的模型在關鍵時刻能幫你想到你想不到的事;差的模型只會給你一段看起來正確但其實空洞的文字。
有人覺得「AI 就是一個工具,工具不需要用到極致」。我不同意。你手機也是一個工具,但你不會只拿來打電話。
McKinsey 在 1980 年代告訴 AT&T,到 2000 年美國會有 90 萬支手機。實際數字是 一億支。人類不擅長想像指數變化。你現在覺得 AI「就這樣了」,可能就是 1995 年覺得手機能幹嘛的那個判斷。
但我真正在意的不是 FOMO,也不是「你不用就落後」那種恐嚇。我在意的是 Mollick 和 Agrawal 吵出來的那個矛盾:AI 越好用,你越可能停止思考。BCG 的菁英顧問不是笨,是太方便了所以懶得判斷。
這才是高原期真正的代價。不是你錯過了什麼功能,是你的判斷力在慢慢退化,而你完全感覺不到——因為 AI 給的答案看起來都很好。
所以我的做法不是「多用」或「少用」。是每次用的時候,刻意區分哪些是 AI 的預測、哪些是我的判斷。該讓它做的讓它做,該自己想的不外包。
具體來說就是一件事:下次用 AI 的時候,多說一句關於你自己的話。
告訴它你是誰、你在什麼情境、你在乎什麼。然後看它回來的東西,問自己:「這裡面有多少是我的判斷?」
那個問題,就是一樓和屋頂的距離。
如果你身邊有人覺得 AI「就這樣了」,把這篇傳給他。不是要說服他,是讓他自己看看高原上面還有什麼。
本文讀了這些來源:
書:
- Co-Intelligence: Living and Working with AI — Ethan Mollick
- Power and Prediction: The Disruptive Economics of Artificial Intelligence — Ajay Agrawal, Joshua Gans, Avi Goldfarb
- Prediction Machines: The Simple Economics of Artificial Intelligence — Ajay Agrawal, Joshua Gans, Avi Goldfarb
- The Exponential Age — Azeem Azhar
Podcast:
論文:
- Examining human reliance on artificial intelligence in decision making(Nature Scientific Reports, 2026)
- Exploring automation bias in human-AI collaboration: a review(AI & Society, Springer, 2025)
聲明: 以上內容為個人使用 AI 工具的經驗分享與閱讀相關研究後的觀點整理,不構成任何專業建議。文中提及的 AI 工具和使用方式僅供參考,實際效果因人而異。
你可能也想讀:
- 你以為你在思考,你其實在選擇相信誰 — 判斷力的問題不只出現在 AI 使用上。你做的每個「自己想的」決定,追溯回去可能都不是你的
- AI Agent 來了,你的判斷力準備好了嗎? — 如果你把更多決策外包給 AI agent,這篇講的風險值得先看
新文章上線時通知你
有新主題才通知,僅此而已。
已收到,謝謝!
新文章上線時會通知你。