跳到主要內容
你以為你會用 AI 了,其實你只用了 1%

你以為你會用 AI 了,其實你只用了 1%

AI 時代 · 8 個來源 · 約 9 分鐘 ·
目錄(6 節)

你的星期二大概長這樣。

早上收到一封英文 email,丟進 ChatGPT 翻譯。中午想找附近吃的,問 AI 推薦。下午寫個報告,叫它幫你列大綱。晚上看到新聞裡一個不認識的詞,順手問一下。

一天用了四五次。你覺得自己跟得上這個時代。

你沒有錯。但有一件事你可能不知道:你現在站的地方,是一棟大樓的一樓。你以為這是屋頂。

為什麼「ChatGPT 還有什麼好用途」這個問題本身就問錯了

台灣某個公務員社群有人問:「chatgpt 還有什麼好用途?」底下的回覆是:寫新聞稿、校對、翻譯、做表格、寫公文。每一個都是同一種用法:把任務丟進去,拿結果出來。

這不是 AI 的問題。這是用 Google 搜尋的習慣被搬到了 AI 上面。差別只是 Google 給你十個連結,ChatGPT 直接給你一段文字。本質一樣,你問一個問題,拿一個答案,走人。

Mollick 觀察到一模一樣的事:大多數人「直接貼上問題,讓 AI 回答,然後原封不動拿去用」。

他跟 Boston Consulting Group 做過一個實驗。一群菁英顧問拿到 AI 工具後,大部分人的做法就是把任務原封不動丟給 AI,然後直接交出結果。碰到 AI 能力範圍內的任務,表現確實好。但碰到一個剛好超出 AI 能力邊界的任務時,那些盲目信任的顧問全軍覆沒,因為他們早就停止自己思考了。

連 BCG 的人都會卡在這裡。我讀到這個數字,第一個想到的不在他們身上。是我自己。

你用 AI 的方式,跟你用 Google 的方式是一樣的嗎?如果是,你還站在一樓。

一個學長前陣子說:「我有訂 ChatGPT Plus 啊,主要拿來翻譯和寫 email,偶爾問問題。」問他還用來做什麼,他想了一下說:「就這樣吧。」

這個狀態叫 AI 高原期。你覺得到頂了,其實是停在一樓。

差距不在付費版,不在 prompt 技巧:你給沒給 AI「你是誰」

差距不在功能,不在付費版,不在 prompt 技巧。

你是在叫 AI 給你答案,還是在叫它幫你想?

畫面一:帶媽去旅遊。

一樓版本:「推薦京都三天兩夜行程。」AI 給你一份標準的觀光路線,金閣寺、伏見稻荷、錦市場。跟 Google 搜尋「京都自由行」的前三篇差不多。

頂樓版本:「我媽快七十了,膝蓋不好,走太久會痛。她喜歡傳統市場和手作體驗,不喜歡人多的地方。預算有限,三天行程,每天下午要有一個可以坐著休息至少一小時的地方。」

你給 AI 的脈絡量,決定它能幫你到什麼程度。第二個版本拿回來的行程,是你用 Google 搜一整晚也拼不出來的。因為沒有旅遊部落客會針對「65 歲膝蓋不好又喜歡手作體驗」寫一篇文章。

畫面二:做一個重要決定。

一樓版本:「我該不該買房?」AI 給你一堆利率分析和房市趨勢。跟財經網站的懶人包差不多。

頂樓版本:「我現在考慮要不要買房,請你先扮演一個堅決反對我買房的財務顧問,盡全力說服我不要買。列出我可能忽略的十件事。」

等它講完,你再說:「好,現在換一個角色,扮演支持我買房的人,反駁剛才的每一點。」

這不是在問 AI 答案。這是在用 AI 幫你把自己的盲點逼出來。你本來只會問朋友「你覺得呢」然後聽一個跟你想法差不多的意見。現在你有一個不怕得罪你的魔鬼代言人。

Mollick 寫書的時候,造了三個 AI 人格當編輯:一個叫 Ozymandias,設定是自大自負的編輯,結果 AI 自己加了英國腔(Mollick 說「加分」);一個叫 Mnemosyne,負責在草稿裡找意想不到的連結;還有一個叫 Steve,設定是「一個看科普和商業書但其實不太看得懂的普通讀者」。三個「人」給他完全不同方向的回饋。

你不需要寫書才能這樣做。我一個朋友在考慮轉職的時候,叫 AI 先扮演面試官,把他的履歷從頭到尾挑毛病。被 AI 電了半小時之後,他說:「我自己從來沒從這個角度看過。」

下次做任何重要決定之前,叫 AI 先當反對派,盡全力說服你不要做。你會發現自己想漏的東西比想到的多。

畫面三:搞懂一件你從來沒碰過的事。

一樓版本:「什麼是 ETF?」AI 給你一段維基百科等級的解釋。

頂樓版本:「我完全不懂投資,但我是一個廚師。請用做菜的比喻,從零解釋 ETF 是什麼、怎麼運作、跟直接買股票差在哪。如果我理解錯了,糾正我。」

AI 最強的地方在它可以用你已經懂的事情,解釋你還不懂的事情,不在它知道得多。但前提是你先告訴它你已經懂什麼。

這三個畫面的共通點:你多給了 AI 一層關於「你是誰」的資訊。 高原期的人只給任務,進階的人給脈絡。

你把 AI 的預測當成了你的判斷

出門要不要帶傘。

以前你要嘛養成習慣永遠帶,要嘛賭一把不帶。有了天氣 AI 之後,它能告訴你降雨機率 90%。但「淋濕 vs 帶傘的麻煩,哪個你比較不能接受」。這是判斷,AI 不知道。有的人寧可淋濕也不想多拿東西,有的人穿了新鞋絕對不能濕。同一個 90%,不同的人應該做不同的決定。

再往上一層:自駕車租車。AI 能預測走風景路線出車禍的機率比高速公路高一點點。但「那個風景值不值得多承擔一點風險」,是你的判斷。保險公司已經開始把這個風險轉成價格,走風景路線多收你一塊錢,你自己決定值不值得。

Agrawal 他們把這件事拆成兩半:AI 做預測,你做判斷。帶傘、自駕車,聽起來都不難分。你大概覺得自己也分得開。

高原期的人就卡在這裡。你問 AI 一個問題,拿到一個看起來像「答案」的東西,以為事情做完了。那只是預測。你的判斷從來沒有加進去。

2026 年一個 295 人的實驗發現:越信任 AI 的人,判斷反而越差。AI 沒有毒。他們把自己的判斷外包了,以為 AI 的預測就是最終答案。我自己用 AI 用得越多,看到這個數字越心虛。

這不是叫你少用 AI。相反,是叫你用更多,但用的方式不一樣

一份回顧 35 篇研究的分析發現:對 AI 了解最少的人,反而會自動懷疑它的結果。了解中等的人最容易被牽著走——他們覺得自己懂了,所以不再質疑。了解最深的人才知道什麼時候該信、什麼時候不該信。

最危險的是覺得自己已經會用的人,不是不用的人。

越信任 AI 的人,判斷反而越差。AI 沒有毒。是你把判斷外包了。

兩本書面對面攤開,中間放著多肉植物和眼鏡,像是兩個觀點在對話

Agrawal 說 AI 讓判斷更重要,Mollick 的 BCG 實驗說人類直接放棄判斷

這裡有一個讓我想很久的矛盾。

Agrawal 的框架很漂亮:AI 負責預測,人負責判斷,兩者分開,各做各的。理論上,AI 越強,人的判斷就越重要,因為有了更好的預測,你才能做更精細的判斷。

但 Mollick 的 BCG 實驗指向完全相反的方向。

那個實驗的數字很值得記住:沒有 AI 工具的顧問,在一個需要判斷的任務上正確率 84%。給了 AI 工具的顧問,正確率掉到 60% 到 70%。菁英顧問加了 AI,反而比沒有 AI 的同事差了將近 24 個百分點。

AI 沒有給錯誤的預測。是因為 AI 預測太好用了,好用到這些人停止了自己的判斷。

Agrawal 說預測和判斷可以分開。Mollick 的數據說,實際上人類不會分開。AI 預測越好、越方便,人就越懶得做判斷那一步。這跟意志力無關。這是認知經濟學:判斷要花腦力,如果 AI 已經給了一個看起來很好的答案,你為什麼要再花力氣質疑它?

Nature 2026 的實驗也指向同一件事:越信任 AI 的人判斷越差,而且這個效應只在 AI 組出現,信任人類建議的人沒有這個問題。AI 有某種「獨特的」能力讓你放棄自己的判斷,人類建議做不到。

兩邊都對。Agrawal 對在理論上:預測和判斷確實是兩件事。Mollick 對在現實裡:大多數人根本不會去做分開這個動作。

我從這個矛盾裡拿到的判斷是:問題不是「AI 能不能幫你」,是「你會不會因為它太好用而放棄思考」。 而離開高原期的方法,就是在每次用 AI 的時候,刻意多做一步:不要接受第一個答案,問自己「這裡面有什麼是我的判斷,有什麼只是 AI 的預測」。

Mollick 管 AI 的能力邊界叫 jagged frontier(鋸齒狀邊界)。AI 的能力像城牆一樣有些地方突出、有些地方凹進去,不是一條平線。它能寫出讓人驚豔的十四行詩,卻寫不出剛好五十個字的段落。它能做複雜的數據分析,卻連簡單的數學有時都會算錯。

高原期的人從來沒去摸過那道牆的形狀。他們試了幾次、有些不錯、有些不行,就決定「大概就這樣了」。

AI 改變最深的,是你跟家人的互動——不是你的工作方式

AI 用得越多、用得越深,最意想不到的改變不是自己變強了,而是它改變了你跟身邊的人的互動。

我爸看完醫生,回來跟我說醫生講了一堆他聽不太懂的數字。我打開 AI,把那些數字貼進去,請它用白話解釋這代表什麼、哪些需要注意、下次回診該問什麼。我爸從「聽不懂但不好意思再問」變成「帶著問題去找醫生」。

幫家人規劃出國旅遊,以前是我一個人用三個晚上在 Google 上拼行程。現在是全家人一起跟 AI 討論,小的說想去水族館、媽說想逛市場、爸說走太多會累。AI 收了所有條件生出一個版本,我們再一起改。

這不叫「我用 AI 幫他們解決問題」。AI 變成了我們之間一個新的溝通方式。以前我爸不太會主動問我事情,現在他會說:「那個 AI 可以幫我查一下嗎?」

有一次比較有意思的是,我弟對某個他完全不懂的領域產生興趣。以前他會問我、我也不懂、然後就沒有然後了。現在他自己打開 AI,用自己的方式問、自己追問、自己建起了一套理解。我什麼都沒做,他自己走通了。那個瞬間我意識到:重點不在我幫他用 AI。是他開始自己跟 AI 建立關係了。

開頭那個公務員社群問的是「還有什麼好用途」,底下列了一串公文翻譯。他大概沒想到,最有用的那次不在辦公桌上。

Mollick 做過一個非正式調查,發現超過一半的 AI 使用者在組織裡是「地下工作者」,偷偷用,不敢讓同事知道。怕被發現自己的工作可以被自動化,或是公司根本禁止用。

但在家裡不需要地下。你就是那個可以帶身邊的人往前走的人。你不必是科技專家。你先踩過那條路就夠了。

有一句話說「最好的學習是教別人」。聽起來老套,但在 AI 時代有新的意思:你做的事情是示範一種跟資訊互動的方式,不在教別人用工具。而最好的結果不是他們都來問你。是他們自己學會問 AI。

從「給我答案」到「幫我想」:一句話的差距

McKinsey 在 1980 年代告訴 AT&T,到 2000 年美國會有 90 萬支手機。實際數字是一億支。人類不擅長想像指數變化。你現在覺得 AI「就這樣了」,可能就是 1995 年覺得手機能幹嘛的那個判斷。

但我真正在意的不是 FOMO,也不是「你不用就落後」那種恐嚇。

我自己的做法是:每次用 AI 的時候,刻意區分哪些是它的預測、哪些是我的判斷。該讓它做的讓它做,該自己想的不外包。

但我在意的不只是自己。AI 越好用,你越可能停止思考。BCG 的菁英顧問不笨。太方便了所以懶得判斷。這才是高原期真正的代價:你錯過的不是什麼功能。是你的判斷力在慢慢退化,而你完全感覺不到。

所以問題不是「AI 還有什麼好用途」。

問題是:你每次用完 AI,裡面有多少是你的判斷?

你一開始覺得自己跟得上這個時代。現在你知道,跟得上和用得深,是兩件事。


你每次用完 AI,問自己一件事:裡面有多少是你的判斷?那個問題的答案,就是一樓和屋頂的距離。


本文讀了這些來源:

書:

論文:


你可能也想讀:

我寫信時,寄給你

不定期。寫舊文章的後續、新發現、想討論的事。

本文為讀角獸矛盾圖譜(Contradiction Graph)的一個節點。內容以 CC BY 4.0 授權,歡迎引用、改作、再發布,請註明來源。