跳到主要內容
你以為你會用 AI 了,其實你只用了 1%

你以為你會用 AI 了,其實你只用了 1%

你的星期二大概長這樣。

早上收到一封英文 email,丟進 ChatGPT 翻譯。中午想找附近吃的,問 AI 推薦。下午寫個報告,叫它幫你列大綱。晚上看到新聞裡一個不認識的詞,順手問一下。

一天用了四五次。你覺得自己跟得上這個時代。

你沒有錯。但有一件事你可能不知道:你現在站的地方,是一棟大樓的一樓。你以為這是屋頂。

大多數人把 AI 當成更聰明的影印機

台灣某個公務員論壇有人問:「chatgpt 還有什麼好用途?」底下的回覆是:寫新聞稿、校對、翻譯、做表格、寫公文。每一個都是同一種用法:把任務丟進去,拿結果出來。

這不是 AI 的問題。這是用 Google 搜尋的習慣被搬到了 AI 上面。差別只是 Google 給你十個連結,ChatGPT 直接給你一段文字。本質一樣——你問一個問題,拿一個答案,走人。

Wharton 教授 Ethan Mollick 觀察到一模一樣的事:大多數人「直接貼上問題,讓 AI 回答,然後原封不動拿去用」。

他跟 Boston Consulting Group 做過一個實驗。一群菁英顧問拿到 AI 工具後,大部分人的做法就是把任務原封不動丟給 AI,然後直接交出結果。碰到 AI 能力範圍內的任務,表現確實好。但碰到一個剛好超出 AI 能力邊界的任務時,那些盲目信任的顧問全軍覆沒——因為他們早就停止自己思考了。

連 BCG 的人都會卡在這裡。

我一個學長前陣子跟我說:「我有訂 ChatGPT Plus 啊,主要拿來翻譯和寫 email,偶爾問問題。」我問他還用來做什麼,他想了一下說:「就這樣吧。」

我把這個狀態叫 AI 高原期。你覺得到頂了,其實是停在一樓。

一樓跟頂樓的差距在哪裡

差距不在功能,不在付費版,不在 prompt 技巧。差距在一個你可能從來沒想過的問題:

你是在叫 AI 給你答案,還是在叫它幫你想?

我舉三個畫面。

畫面一:帶媽去旅遊。

一樓版本:「推薦京都三天兩夜行程。」AI 給你一份標準的觀光路線,金閣寺、伏見稻荷、錦市場。跟 Google 搜尋「京都自由行」的前三篇差不多。

頂樓版本:「我媽 65 歲,膝蓋不好,走太久會痛。她喜歡傳統市場和手作體驗,不喜歡人多的地方。預算兩個人 10 萬台幣含機票。三天行程,每天下午要有一個可以坐著休息至少一小時的地方。」

你給 AI 的脈絡量,決定它能幫你到什麼程度。第二個版本拿回來的行程,是你用 Google 搜一整晚也拼不出來的。因為沒有旅遊部落客會針對「65 歲膝蓋不好又喜歡手作體驗」寫一篇文章。

畫面二:做一個重要決定。

一樓版本:「我該不該買房?」AI 給你一堆利率分析和房市趨勢。跟財經網站的懶人包差不多。

頂樓版本:「我現在考慮要不要買房,請你先扮演一個堅決反對我買房的財務顧問,盡全力說服我不要買。列出我可能忽略的十件事。」

等它講完,你再說:「好,現在換一個角色,扮演支持我買房的人,反駁剛才的每一點。」

這不是在問 AI 答案。這是在用 AI 幫你把自己的盲點逼出來。你本來只會問朋友「你覺得呢」然後聽一個跟你想法差不多的意見。現在你有一個不怕得罪你的魔鬼代言人。

Mollick 寫書的時候,造了三個 AI 人格當編輯:一個叫 Ozymandias,設定是自大自負的編輯,結果 AI 自己加了英國腔(Mollick 說「加分」);一個叫 Mnemosyne,負責在草稿裡找意想不到的連結;還有一個叫 Steve,設定是「一個看科普和商業書但其實不太看得懂的普通讀者」。三個「人」給他完全不同方向的回饋。

你不需要寫書才能這樣做。我一個朋友在考慮轉職的時候,叫 AI 先扮演面試官,把他的履歷從頭到尾挑毛病。被 AI 電了半小時之後,他說:「我自己從來沒從這個角度看過。」

下次做任何重要決定之前,叫 AI 先當反對派,盡全力說服你不要做。你會發現自己想漏的東西比想到的多。

畫面三:搞懂一件你從來沒碰過的事。

一樓版本:「什麼是 ETF?」AI 給你一段維基百科等級的解釋。

頂樓版本:「我完全不懂投資,但我是一個廚師。請用做菜的比喻,從零解釋 ETF 是什麼、怎麼運作、跟直接買股票差在哪。如果我理解錯了,糾正我。」

AI 最強的地方不是它知道得多。是它可以用你已經懂的事情,解釋你還不懂的事情。但前提是你先告訴它你已經懂什麼。

這三個畫面的共通點:你多給了 AI 一層關於「你是誰」的資訊。 高原期的人只給任務,進階的人給脈絡。

你把預測和判斷混在一起了

AI 做的是預測,你做的是判斷。經濟學家 Ajay Agrawal 的框架說得很清楚。

Agrawal 用一個很日常的例子解釋:出門要不要帶傘。以前你要嘛養成習慣永遠帶(規則),要嘛賭一把不帶(也是規則)。有了天氣 AI 之後,它能告訴你降雨機率 90%。但「淋濕 vs 帶傘的麻煩,哪個你比較不能接受」——這是判斷,AI 不知道。有的人寧可淋濕也不想多拿東西,有的人穿了新鞋絕對不能濕。同一個 90%,不同的人應該做不同的決定。

再往上一層:他提到自駕車租車。AI 能預測走風景路線出車禍的機率比高速公路高一點點。但「那個風景值不值得多承擔一點風險」,是你的判斷。保險公司已經開始把這個風險轉成價格——走風景路線多收你一塊錢,你自己決定值不值得。

高原期的問題就在這裡:你把預測和判斷混在一起了。你問 AI 一個問題,拿到一個看起來像「答案」的東西,以為事情做完了。但那只是預測。你的判斷從來沒有加進去。

更微妙的是,2026 年一個 295 人的實驗發現:越信任 AI 的人,判斷反而越差。不是因為 AI 有毒,是因為他們把自己的判斷外包了,以為 AI 的預測就是最終答案。

但這不是叫你少用 AI。相反,是叫你用更多,但用的方式不一樣

一份回顧 35 篇研究的分析發現一件有趣的事:對 AI 了解最少的人,反而會自動懷疑它的結果。了解中等的人最容易被牽著走——他們覺得自己懂了,所以不再質疑。了解最深的人才知道什麼時候該信、什麼時候不該信。

換句話說,最危險的不是不用的人,是覺得自己已經會用的人。

兩本書面對面攤開,中間放著多肉植物和眼鏡,像是兩個觀點在對話

兩個聰明人吵架,而且都對

這裡有一個讓我想很久的矛盾。

Agrawal 的框架很漂亮:AI 負責預測,人負責判斷,兩者分開,各做各的。理論上,AI 越強,人的判斷就越重要——因為有了更好的預測,你才能做更精細的判斷。

但 Mollick 的 BCG 實驗指向完全相反的方向。

那個實驗的數字很值得記住:沒有 AI 工具的顧問,在一個需要判斷的任務上正確率 84%。給了 AI 工具的顧問,正確率掉到 60% 到 70%。菁英顧問加了 AI,反而比沒有 AI 的同事差了將近 24 個百分點。

不是因為 AI 給了錯誤的預測。是因為 AI 預測太好用了,好用到這些人停止了自己的判斷。

Agrawal 說預測和判斷可以分開。Mollick 的數據說,實際上人類不會分開。AI 預測越好、越方便,人就越懶得做判斷那一步。這不是意志力的問題,是認知經濟學:判斷要花腦力,如果 AI 已經給了一個看起來很好的答案,你為什麼要再花力氣質疑它?

Nature 2026 的實驗也指向同一件事:越信任 AI 的人判斷越差,而且這個效應只在 AI 組出現——信任人類建議的人沒有這個問題。AI 有某種「獨特的」能力讓你放棄自己的判斷,人類建議做不到。

兩邊都對。Agrawal 對在理論上:預測和判斷確實是兩件事。Mollick 對在現實裡:大多數人根本不會去做分開這個動作。

我從這個矛盾裡拿到的判斷是:問題不是「AI 能不能幫你」,是「你會不會因為它太好用而放棄思考」。 而離開高原期的方法,就是在每次用 AI 的時候,刻意多做一步——不要接受第一個答案,問自己「這裡面有什麼是我的判斷,有什麼只是 AI 的預測」。

Mollick 管 AI 的能力邊界叫 jagged frontier——鋸齒狀邊界。AI 的能力不是一條平線,是像城牆一樣有些地方突出、有些地方凹進去。它能寫出讓人驚豔的十四行詩,卻寫不出剛好五十個字的段落。它能做複雜的數據分析,卻連簡單的數學有時都會算錯。

高原期的人從來沒去摸過那道牆的形狀。他們試了幾次、有些不錯、有些不行,就決定「大概就這樣了」。

最有意思的部分不是你自己

我後來發現,AI 用得越多、用得越深,最意想不到的改變不是我自己變強了,而是它改變了我跟身邊的人的互動。

我爸看完醫生,回來跟我說醫生講了一堆他聽不太懂的數字。我打開 AI,把那些數字貼進去,請它用白話解釋這代表什麼、哪些需要注意、下次回診該問什麼。我爸從「聽不懂但不好意思再問」變成「帶著問題去找醫生」。

幫家人規劃出國旅遊,以前是我一個人用三個晚上在 Google 上拼行程。現在是全家人一起跟 AI 討論,小孩說想去水族館、媽說想逛市場、爸說走太多會累。AI 收了所有條件生出一個版本,我們再一起改。

這不是「我用 AI 幫他們解決問題」。是 AI 變成了我們之間一個新的溝通方式。以前我爸不太會主動問我事情,現在他會說:「那個 AI 可以幫我查一下嗎?」

回頭看,每個場景都是 prediction/judgment 的分離在運作。AI 預測那些醫學數字代表什麼,但我爸對自己身體的理解、他想問醫生什麼、他在不在意某個風險——那是他的判斷,AI 不知道。旅遊行程也一樣:AI 預測哪條路線最受歡迎,但「我媽走太久會痛」「小孩只想去水族館」是我們家的判斷。

有一次比較有意思的是,我弟對某個他完全不懂的領域產生興趣。以前他會問我、我也不懂、然後就沒有然後了。現在他自己打開 AI,用自己的方式問、自己追問、自己建起了一套理解。我什麼都沒做,他自己走通了。那個瞬間我意識到:重點不是我幫他用 AI,是他開始自己跟 AI 建立關係了。他在做的事情,正好就是 Agrawal 說的:提供自己的判斷,讓 AI 的預測變得有用。

Mollick 做過一個非正式調查,發現超過一半的 AI 使用者在組織裡是「地下工作者」——偷偷用,不敢讓同事知道。怕被發現自己的工作可以被自動化,或是公司根本禁止用。

但在家裡不需要地下。你就是那個可以帶身邊的人往前走的人。不是因為你是科技專家,是因為你先踩過那條路。

我大學時候有個教授常說:「最好的學習是教別人。」那時候覺得是老掉牙的話。現在發現他說的不只對,而且在 AI 時代有了新的意思:你不是在教別人用工具,你是在示範一種跟資訊互動的方式。而最好的結果不是他們都來問你,是他們自己學會問 AI。

我怎麼想這件事

我就是一個把 AI 用到生活各個角落的人。不只是工作,是生活的每個面向。

我的做法是:在預算範圍內用最好的工具、最好的模型。不是為了追新,是因為我發現 AI 能力的天花板和地板差距非常大。好的模型在關鍵時刻能幫你想到你想不到的事;差的模型只會給你一段看起來正確但其實空洞的文字。

有人覺得「AI 就是一個工具,工具不需要用到極致」。我不同意。你手機也是一個工具,但你不會只拿來打電話。

McKinsey 在 1980 年代告訴 AT&T,到 2000 年美國會有 90 萬支手機。實際數字是 一億支。人類不擅長想像指數變化。你現在覺得 AI「就這樣了」,可能就是 1995 年覺得手機能幹嘛的那個判斷。

但我真正在意的不是 FOMO,也不是「你不用就落後」那種恐嚇。我在意的是 Mollick 和 Agrawal 吵出來的那個矛盾:AI 越好用,你越可能停止思考。BCG 的菁英顧問不是笨,是太方便了所以懶得判斷。

這才是高原期真正的代價。不是你錯過了什麼功能,是你的判斷力在慢慢退化,而你完全感覺不到——因為 AI 給的答案看起來都很好。

所以我的做法不是「多用」或「少用」。是每次用的時候,刻意區分哪些是 AI 的預測、哪些是我的判斷。該讓它做的讓它做,該自己想的不外包。

具體來說就是一件事:下次用 AI 的時候,多說一句關於你自己的話。

告訴它你是誰、你在什麼情境、你在乎什麼。然後看它回來的東西,問自己:「這裡面有多少是我的判斷?」

那個問題,就是一樓和屋頂的距離。


如果你身邊有人覺得 AI「就這樣了」,把這篇傳給他。不是要說服他,是讓他自己看看高原上面還有什麼。


本文讀了這些來源:

書:

Podcast:

論文:

聲明: 以上內容為個人使用 AI 工具的經驗分享與閱讀相關研究後的觀點整理,不構成任何專業建議。文中提及的 AI 工具和使用方式僅供參考,實際效果因人而異。


你可能也想讀:

新文章上線時通知你

有新主題才通知,僅此而已。