跳到主要內容
ChatGPT 讓你變笨?真正被外包的是第一個判斷

ChatGPT 讓你變笨?真正被外包的是第一個判斷

AI 時代 · 18 個來源 · 約 10 分鐘 ·
目錄(7 節)

Reddit 上有人寫了一段話,我看完愣了一下。

他重度使用 ChatGPT 六個月後,做事變得很順:先想一分鐘,把背景丟進去,拿一份草稿,再自己修。成品不差,效率也高。直到有一天,他只是要在沒有 AI 的情況下寫 300 字筆記,突然寫不下去。

不是完全不會寫。

是受不了那個很爛的第一版。

這個 Reddit 經驗比「ChatGPT 讓人變笨」更接近問題核心。你可能沒有失去能力,你失去的是忍受自己還沒想清楚的耐心。以前寫東西本來就會先很醜,句子卡、方向散、第一段像沒睡醒。ChatGPT 把你跟爛草稿相處的那段時間拿掉了。拿掉久了,你會開始以為那段本來就不重要。

但那段才是判斷形成的地方。

台灣社群上也有類似焦慮。有人問 ChatGPT 用太多會不會變笨,有人說自己「懶得查資料,就問 AI」,也有人擔心工具一消失,自己會被打回原形。這些話聽起來像工具焦慮,底下其實是在問另一件事:

如果第一步不是我想的,後面再怎麼修改,還算不算我的判斷?

ChatGPT 讓人變笨?問題在你跳過卡住的那 10 分鐘

ChatGPT 不會因為你拿來翻譯、修信、整理表格,就把你變笨。

比較麻煩的是另一種用法:你還沒想清楚,就先叫它幫你起頭。

「幫我想一下怎麼切。」

「先給我三個方向。」

「這份報告大綱怎麼排?」

這些指令看起來不像代寫。你後面還會改,還會刪,還會補資料,甚至會花一個小時把它磨成自己的語氣。問題是,題目一開始就被它切好了。你後面當然還有判斷,但那是在它給出的幾個選項裡挑,不是先問自己這題到底該怎麼看。

所以我現在會先問自己:這件事是在整理我已經有的東西,還是在替我想第一個方向?翻譯、摘要、改錯字、整理格式,可以早點交給 AI;大綱、立場、切角、第一句話,我會先自己留一下。

這兩種外包看起來都叫「用 AI」,但風險完全不同。

文字可以早交出去,起點留給自己。

MIT 那篇研究真正測的是擁有感

先把恐慌拿掉。

MIT Media Lab 那篇實驗其實很窄:54 個人寫文章,分成 ChatGPT 組、搜尋組、自己寫組。研究者關心的是三件事:這篇像不像自己的、內容還記不記得、寫的時候大腦有沒有真的參與。整個研究範圍跟智商或 IQ 無關。

用 ChatGPT 的那組,三項都比較差。他們比較不覺得文章是自己的,記不太清楚內容,寫作時的參與指標也比較低。後半段更容易被媒體拿來下標:研究者讓部分參與者從「用 ChatGPT」切到「自己寫」,觀察拿掉工具後會不會恢復。那一輪只有 18 個人,只能當早期訊號,不能當定論。

這裡要慢一下。

這篇研究自己其實列了很多前提:MIT 的專案頁說它只是預印本、任務也很特定,不能外推到所有 AI 使用。Tech & Learning 的訪談也講清楚:研究範圍跟 IQ 無關,作者也跟「腦腐」那種說法切割。後面有人從樣本和 EEG 分析提出質疑(Stankovic et al. 的 arXiv 回應),Scientific American 的態度也很保守:有趣,但還不能當定論。

所以我不會把它讀成「ChatGPT 讓你變笨」。

更貼近研究結論的講法是:至少在這個寫作任務裡,先用 ChatGPT 寫第一版的人,比較不覺得那篇文章是自己的,也比較記不住自己寫了什麼。

這個差別很大。

前者會把你推進恐慌。後者會逼你檢查自己的做事順序:到底是哪一步太早交出去了?

MIT 跟 Microsoft Research 量的是兩種順序

如果只讀 MIT 那篇,你會很容易跳到一個太簡單的結論:那就少用 AI。

我原本也差點收在這裡。後來看 Microsoft Research 談後設認知,才發現問題可以反過來看:同一個 ChatGPT,也可以回頭問你「你原本想做什麼」「這個輸出有沒有偏掉」「有沒有相反觀點」。教育現場幾個 AI 輔助寫作和探究式學習研究也很像:AI 真的能幫學生修正理解,前提是學生還站在任務裡,沒有被答案拖著走。

把兩邊放一起看,差別在順序。

MIT 那種順序是:AI 先寫,人接手修。

另一批研究的順序是:人先想,AI 反問。

重點是誰先開始。AI 先開始,你很容易變成編輯:挑好壞、修順序、補語氣。你先開始,AI 才比較像教練:反問、反駁、逼你把話講清楚。

Carr 那本 The Shallows 幫我補了一句提醒:工具不只是省時間,也會改變你把注意力放在哪裡。ChatGPT 特別麻煩的地方,是讓你習慣「下一句已經有人接好」這件事。你還是在查資料、改文字、交成果,但停在問題裡的時間變短了。

Mollick 的 Co-Intelligence 提供另一個方向。AI 真的可以扮演共同工作者、老師、教練;但我反而會這樣讀:如果它是共同工作者,那你就更不能把第一個決定交出去。共同工作者可以幫你反駁、補洞、整理;第一個判斷還是要先寫下來。

把這些來源放在一起,界線就變清楚了:

AI 像教練還是像拐杖,差在你有沒有先留下自己的第一步。

「先給我三個方向」這個 40 分鐘陷阱

「幫我寫完」反而明顯。

你看到整段文章從 AI 口中吐出來,心裡多少會知道:這不是我寫的。

比較不容易察覺的是更小的指令。「幫我想一下怎麼切」聽起來只是暖身。你只是想先有個起點,不想卡在空白頁。學生趕作業會這樣做,上班族趕提案會這樣做,我要開一篇文章也會這樣做。

我自己也常常停在這裡。要寫一份架構、提案方向、研究切角時,手指很自然就打出:「先給我三個方向。」

AI 回來一份大綱。三個主軸,每個主軸底下兩三個支撐點,邏輯清楚,結構完整。你看了覺得第二個主軸比較好,第一個可以併到第三個。你開始調整。刪一段、搬一段、改幾個字。四十分鐘後,一份看起來很像你的東西完成了。

問題是,從你讀完那份大綱的那一秒開始,題目的邊界已經被它畫好了。

你在判斷哪個選項比較好,但選項是 AI 先替你切好的。你在編輯結構,但結構不是你從零想出來的。你花了四十分鐘把它變好,卻沒有花五分鐘問自己:這題到底該怎麼看?

用「偷懶」來罵這件事太粗。上班族被任務追著跑,學生被截止日期追著跑,老師和主管也常常只看最後成果。你真的做了很多事,只是最難看、最慢、最不像成果的那一步,被藏起來了。

那一步很像投資決策裡的第一個假設。後面所有資料、試算、模型,都會被第一個假設牽引。差別是投資人至少知道那是假設;AI 使用者常常沒發現,第一個假設已經被別人設定好了。

這也是我寫AI 學習曲線那篇時碰過的同一條線:大部分人卡在高原期,因為拿到答案就直接用,沒再加自己的脈絡。

你以為自己在選答案,其實你先接受了別人幫你切好的題目。

95.9% 勞工用 ChatGPT,沒人問第一步是誰想的

把問題全推給個人自律太便宜。

學校和職場都在獎勵「看起來完成」。老師看作業,主管看交付,客戶看簡報。很少有人問:第一版想法從哪裡來?AI 進場前,你自己列過三個方向嗎?你為什麼選這個大綱,而不是另一個?

台灣職場已經進入「AI 是基本配備」的階段。《經理人》整理比薪水 2025 調查裡,93.9% 受訪勞工實際使用過 AI 工具,63.3% 經常使用;ChatGPT 使用率高達 95.9%。同一份調查也寫到,54.2% 勞工對 AI 感到焦慮,其中 66.8% 的焦慮來自怕跟不上、學不會。

這組數字解釋了為什麼那十分鐘會變得那麼奢侈。

當大家都更快交稿、更快整理、更快生成大綱,你慢下來自己想,會像效率比較差。可是判斷力偏偏需要一段看起來沒效率的時間。你要先把自己模糊的方向寫下來,才知道你是怎麼走到這裡。

所以這題不能只靠「你要有自律」。整個系統都在獎勵你把難看的第一步藏起來。真正要保護的,是一小段 AI 暫時不進場的前置時間。

沒有這段時間,你後面做的都像修稿,不像思考。

Mollick 的「共同工作者」放在四種任務上

到這裡可以畫一條線。

第一格是整理:翻譯、格式、錯字、把你已經讀過的東西整理成摘要。這些事可以早點交給 AI,因為你本來就有材料,也知道大方向。

第二格是壓縮:把你已經寫好的內容變短、變清楚、語氣不要那麼刺。這也可以用,但最好在你已經有一版之後再用。

第三格是定方向:報告從哪個角度切、文章先講哪一層、提案主張是什麼、論點順序怎麼排。這一格開始危險,因為它會決定後面的所有材料怎麼被理解。

第四格是替你開始:你還沒有想法時,它先給你第一個想法;你還沒選邊時,它先替你列出立場;你還沒面對空白頁時,它先把第一段寫好。

說白了:已經有材料的任務,可以早點交給 AI;會決定方向的任務,先慢一下。ChatGPT 很適合把已經存在的東西整理乾淨,但不要總是讓它第一個決定「一件事應該怎麼開始」。

先寫十分鐘爛東西,再讓 AI 挑錯

做法要小到今天就能用。

重要任務先保留十分鐘不開 AI。文章、長信、策略 memo、報告切角、重要決策,都先自己寫一版。可以很短,可以很醜,可以只有幾句不完整的話。文字醜沒關係。重點是讓第一個判斷從你這邊先成形。

十分鐘後再打開 AI。

但第一句不要寫:「幫我寫一版。」

改成:

「反駁這個方向。」

「指出我漏掉什麼。」

「幫我把這個混亂結構整理清楚。」

如果這件事以後可能被回頭檢查,不要只留下最後那份漂亮稿,要留下三段紀錄。

第一段:AI 進場前,你自己的第一句判斷。

第二段:你本來考慮過、後來放棄的兩個方向。

第三段:AI 給了建議後,你拒絕或改寫了哪一點。

這三段紀錄的功能很簡單。它們證明你先想過自己的角度,不是只在 AI 給的選項裡挑一個。下個月有人問你「為什麼這份報告用這個角度」,你拿得出成品,也拿得出想法形成的痕跡。

如果要放進班級或部門規則,可以把它變成作業或提案開頭的一小欄。修錯字、翻譯、格式整理不用交代太多;但要 AI 先產生大綱、立場或論點順序,就附上這三段紀錄。學生可以寫論文主張句前的第一個判斷,提案者可以寫報告前的第一個切角。

這套紀錄要做的,就是把第一步留下來。

回到「ChatGPT 讓你變笨嗎」這個問題,我的答案是:這個問法太粗。真正要問的是,哪些步驟被你交出去了。你把修字交出去,通常沒事;你把第一個判斷交出去,久了就會忘記自己本來怎麼開始。

所以真正的問題在這裡:你有沒有把一開始想的那一步讓出去?

我現在給自己的規則很笨:只要這件事會影響立場、金錢、關係或長期方向,第一輪只打開空白文件,聊天視窗等第二輪再開。

那十分鐘看起來不像成果。

但它能證明你還站在作者的位置上。


先寫十分鐘爛東西,再叫 AI 來挑錯。


本文讀了這些來源:

書:

論文:

Podcast:

文章:

論壇:


追蹤

這篇文章下了一個可推翻的判斷,正在被時間驗證。未來如果出現更好的長期研究,這個判斷要跟著修正。

1 條追蹤中 · 預期結案:2027-12

AI 先行代寫/發想比人先行 + AI 批判更容易累積認知債

作者判斷 · 信心 65%

  • 判斷日:2026-04-29
  • 驗證條件:2027-12 前若至少兩個 N≥200、持續 8 週以上的隨機或準實驗研究顯示,AI 先行代寫/發想組在延遲回憶、獨立遷移、批判推理上不劣於人先行 + AI 批判或結構化反思提示組,本文主張需修正;若研究顯示 AI 先行組較差,或只有結構化反思 / 人先行組保留學習成效,本文判斷保留。
  • 狀態:追蹤中

聲明: 以上內容為作者閱讀研究、書籍、Podcast 與社群案例後的整理與判斷,不構成醫療、教育或職場管理建議。Podcast、Reddit、Dcard 來源只作語境與個案觀察,不作科學證據。

你可能也想讀:

我寫信時,寄給你

不定期。寫舊文章的後續、新發現、想討論的事。

本文為讀角獸矛盾圖譜(Contradiction Graph)的一個節點。內容以 CC BY 4.0 授權,歡迎引用、改作、再發布,請註明來源。