跳到主要內容
大家都用 AI,誰輸錢?Simons 三十年 66% 卻叫散戶買指數

大家都用 AI,誰輸錢?Simons 三十年 66% 卻叫散戶買指數

投資決策 · 16 個來源 · 約 15 分鐘 ·
目錄(9 節)

376%。一個叫 Polystrat 的 AI 代理(AI agent)在一個月內做出的單筆最高報酬。

六十年量化投資史上每一代散戶被收割前,都有一個類似的數字。

你的 LINE 群組每天有人貼 AI 推薦的標的。有個網友的回答讓我笑了很久:「大家都用 AI,誰輸錢?」

這個問題讓我掉進一個矛盾裡想了好幾天。三十年連續打敗市場、年均 66% 的 Renaissance Medallion,是人類史上最成功的量化基金。它的創辦人 Jim Simons 給散戶的建議,是買指數基金。

最會用 AI 打敗市場的人,告訴你不要試。這不是謙虛——讀完六十年量化投資史我才看懂,這是他從自己的實戰裡算出來的數學。

Thorp 用穿戴式電腦打敗賭場,二十年後親眼看到這招反咬華爾街

1961 年,一個在 MIT 教數學的教授帶著一台穿戴式電腦走進拉斯維加斯的賭場。他叫 Edward Thorp。那台機器能即時計算輪盤球的落點機率,讓 Thorp 在賭桌上穩定獲利。賭場很快禁了他。

Thorp 沒有生氣。他把同樣的邏輯搬到華爾街。

他的想法很簡單:如果我能用數學在賭場找到定價錯誤,那市場裡一定也有。他開發了對沖策略,基金 Princeton Newport Partners 年化報酬率大約 20%,維持了將近二十年。

二十年年均 20%。我讀到這個數字時停下來算了一遍:一個從賭場學會找裂縫的數學家,用同一套邏輯在華爾街複利二十年,能把投資人的錢變成原本的 38 倍。這不是「策略運氣好」的數字。他證明了一件事:市場不是完全有效率的,數學能找到裂縫。

但他同時證明了相反的一件事:他親眼見證了這個信念炸掉整個市場的樣子。

諾貝爾獎得主 44% 暴跌:模型告訴你「幾乎不可能」的事,四年就發生了

1998 年,一家叫 Long-Term Capital Management(LTCM)的對沖基金差點摧毀全球金融體系。

LTCM 的創辦團隊包括兩位諾貝爾經濟學獎得主。他們用的是跟 Thorp 相同的核心邏輯:用數學模型找到市場定價錯誤,然後下注價格會回歸正常。

模型說,每一百個交易日裡最多只有一天會虧超過 1.16 億美元。整個基金倒閉,是「十個標準差事件」,機率趨近於零。

我把這段讀了兩次。諾貝爾獎得主建的模型告訴你這件事幾乎不可能發生——然後它在四年內發生了。

1998 年 8 月 21 日,俄羅斯債務違約。LTCM 一天虧了 5.5 億美元,佔資本的 15%。到月底,虧損達 19 億美元(44%)。最後需要聯準會出面協調十四家銀行的救援,才避免了系統性崩盤。

模型哪裡錯了?

它假設市場參與者是獨立的。當恐慌蔓延時,所有持有類似部位的基金同時被迫清算,彼此的賣壓加速了彼此的崩潰。Renaissance Technologies 的數學家 Nick Patterson 後來說了一句話:

「LTCM 的根本錯誤是相信模型反映真理。我們從不相信模型反映現實——只是現實的某些面向。」

讀完這句話我停了兩分鐘。「相信模型反映真理」跟「相信模型反映現實的某些面向」,差一個字,差 19 億美元。這個字後面會一直回來。

模型算得很準。算的東西是錯的。

Simons 年均 66%:唯一打敗市場的人為什麼不能被複製

有個數學家覺得金融市場跟密碼破譯是同一個問題(Jim Simons),他在 1988 年創立了 Medallion Fund。三十年間,這支基金的平均年化回報率大約 66%(扣除費用前)。沒有任何基金、任何策略、在任何可比的時間跨度裡接近這個數字。

那我能不能複製他的方法?

Renaissance 的團隊裡沒有一個金融背景的人。數學家、物理學家、天文學家、語音辨識工程師。Peter Brown 和 Robert Mercer 從 IBM 的語音辨識部門加入,把市場資料當成需要被翻譯的語言,讓機器自己找出人類看不到的模式。大部分量化基金(像 D.E. Shaw)會要求交易訊號有「直覺上合理的經濟解釋」;Mercer 剛好相反:「我們最賺錢的訊號毫無道理⋯⋯如果有道理,別人早就找到了。」別人不敢碰的訊號就是他們的印鈔機。

每一次下單本身會推高價格、吃掉利潤。這叫滑價(slippage)。他們建了一套極精密的模型來壓縮這個成本,內部叫「The Devil」。這套系統比大多數基金的整個交易模型複雜。正因為 The Devil 的限制,Medallion 的資金規模被鎖死在大約 50 億美元。多一塊錢,自己的交易量就會摧毀自己的策略。Simons 不斷把錢退還給投資人。華爾街從來沒有一家基金主動把客戶的錢趕走。

員工被綁在 East Setauket(長島一個偏僻的小鎮),簽終身保密和競業禁止協議,離職後獎金鎖定數年。Renaissance 的知識留在 Renaissance。

三十年的數據、幾百位 PhD、十億美元的基礎設施、終身鎖定的團隊。所有這些加在一起,Gregory Zuckerman 在書裡記了一個數字。

Medallion 只有勉強超過 50% 的交易是賺錢的。

勝率勉強超過丟硬幣。66% 的年化報酬配上 50% 勝率,這個組合我讀了兩次才讀懂。他們能在數百萬次微小的勝率優勢上穩定執行。而你做不到數百萬次。

歷史上每一個試圖複製量化優勢的散戶,都成了提供免費利潤的對手方。Thorp 說得更直白:「高頻交易的電腦不斷從市場中抽取利潤,方法是插在買家和賣家之間。我們交易得越多,作為一個群體就輸給電腦越多。」

Simons 覆蓋了自己的算法:2007 年的一週虧 10 億

2007 年 8 月,全球量化基金同時崩盤。歷史上稱為「Quant Quake」。

起因跟 LTCM 類似:太多量化基金用了太相似的模型。當某些基金因為次貸危機被迫平倉,它們的賣壓觸發了其他量化基金的風控,引發連鎖清算。

Medallion 在一週內虧了超過 10 億美元,跌了 20%。Renaissance 的另一支較大的基金 RIEF 暴跌將近 30 億美元。Morgan Stanley 的量化部門兩天虧了 6 億。Goldman Sachs 被迫緊急注資 30 億美元拯救自己的量化基金。

在 Renaissance 內部,一場你在任何教科書裡都找不到的辯論爆發了。

Peter Brown 和 Robert Mercer,Renaissance 的兩位共同執行長,堅持不應該人為干預。他們的邏輯很硬:「你信系統,還是不信?」一位研究員甚至說:「如果模型在虧錢時你就不聽它的,那你一開始幹嘛建模型?」

Jim Simons 做了相反的決定。他手動覆蓋了算法,強制減倉、增加現金部位。他的理由只有一句:「我們的工作是活下來⋯⋯如果判斷錯了,以後再加回來就好。」

事後證明 Simons 是對的。Medallion 在那年底回到正報酬。

這個故事讓我想了很久。因為它打破了兩個對立的幻覺:

有人說「AI 不會騙人」。也有人說「試過,沒用」。兩種說法都錯在同一個地方:它們都假設 AI 投資是一個 0 或 1 的選擇。但 Renaissance 的歷史告訴你:連最成功的量化團隊,也需要在系統和人類判斷之間切換。真正要問的是:什麼時候聽 AI,什麼時候覆蓋它。

什麼時候該聽系統、什麼時候該覆蓋它——這個「什麼時候」,沒有任何模型能教你。

人類棋子與機器棋子對弈

預測準了就會判斷嗎?菁英顧問用 AI 把正確率從 84% 掉到 60%

你用 AI 分析了一支股票。它告訴你:「根據歷史數據和目前基本面,這支股票被低估 15%。」

然後你要做一個 AI 做不了的事:15% 的潛在報酬,考慮到你可能判斷錯誤的機率、你的生活費需求、你能不能承受短期 30% 的下跌,值不值得?AI 不知道你昨晚因為房貸利率漲了 0.3% 而失眠。

AI 算的是「可能性」,你秤的是「行動的代價」。這兩件事在 Power and Prediction 被 Ajay Agrawal 拉開來講。創投決定要不要投一家新創,AI 能算成功機率,但 AI 算不出「你的基金、你的 LP、你的職涯風險,這筆冒險值不值」。

我在寫 AI 學習曲線那篇時讀到的 BCG 實驗,在這裡又出現了。Co-Intelligence 記錄:菁英顧問使用 AI 輔助做判斷,正確率從 84% 降到 60%。AI 很準。人拿到預測之後,以為自己不用判斷了。

投資社群裡有人用更生動的方式講同一件事:「AI 會順著你的問題回答你喜歡的答案。」

論壇上有人分享用 ChatGPT 做台股分析的心得,一句話講完:「很好用,也很難用。你必須時時提醒它你說過的資訊,不然它會套回錯誤的資訊給你分析。」底下有人回:「主力也知道你的 AI 能算。」

你帶著既有的判斷去問 AI,AI 在你的框架內找到最像答案的東西,你更確信自己是對的。感覺「有根據」,但 AI 只是在放大你的確認偏誤。

這裡有個反直覺的結論:AI 降低了預測的成本,但提高了判斷的價值。 預測變便宜了,每個人都能拿到差不多的預測。差異化來自你用預測做什麼決定。

量化墳場:每一代的「這次不一樣」

「我用 AI 只是參考,不會完全聽它的。」這句話聽起來很穩——直到你看這三個故事。

2006 年,Amaranth Advisors 的交易員 Brian Hunter 看著他的風控模型:最大月虧損不會超過 3 億美元。他持有的天然氣期貨部位佔了整個交易所 70% 的十一月合約和 60% 的一月合約。天然氣價格反轉那天,根本沒有對手方願意接單。一天虧 5.6 億。整個基金 60 億美元蒸發。

你可能覺得:一個交易員太貪心,佔了七成合約,活該。

然後是 Ken Griffin 的 Citadel。2008 年,他用的是完全不同的策略,量化對沖,嚴重依賴放空。SEC 突然宣布暫時禁止放空,他的數學對沖瞬間失效。兩支旗艦基金暴跌 55%,蒸發 90 億美元。Griffin 沒有貪心,模型也很分散。監管環境一變,整套對沖就不存在了。

再往前推。1987 年股災那天,電腦化的「投資組合保險」策略在股價下跌時自動賣出期貨,賣壓觸發更多賣壓,形成致命的正反饋迴路。那套系統沒有「主動判斷」這件事,就是一段寫死的規則在執行。根據標準鐘形曲線模型,那天跌幅發生的機率是 10 的 160 次方分之一。宇宙才存在大約 120 億年,你需要幾十億個十億年,才會統計上「期待」發生一次。

三個案例,三個不同的策略,三個不同的年代。我把筆記本翻回第一頁,發現一件事:每次的教訓長得都一樣,被炸的人都覺得自己這次不一樣。

有人說「拿歷史資料訓練本質上還是看後照鏡開車」。模型做的就是假設未來長得像過去。這個假設每十年左右就會崩潰一次。後照鏡裡看到的路跟前面的完全不同。

每一代都有新的技術承諾「這次不一樣」。1980 年代是投資組合保險。1990 年代是 LTCM 的套利模型。2000 年代是量化因子投資。2020 年代是 AI 選股。

另一位網友總結了這整段歷史,只用了七個字:「風口上豬都會飛。」

2020 年代的風口叫 AI。你站在上面的東西,跟他們站的是同一個假設。

2026 年 AI 交易員 Polystrat:376% 的背後

但也許你會說:2026 年的 AI 跟以前不一樣。現在有大型語言模型(LLM)、有 AI 代理、有自主交易系統。

確實不一樣。

CoinDesk 2026 年 3 月的報導指出,在 Polymarket 預測市場上,那個叫 Polystrat 的 AI 代理在一個月內執行了超過 4,200 筆交易,單筆最高回報 376%。Valory 的執行長 David Minarsch 說,37% 的 AI 代理實現了正報酬,而人類交易者只有 7% 到 13%。

看起來很厲害。

報導裡通常被跳過的那句:「直接用現成的大型語言模型去預測市場,結果跟丟硬幣差不多。」

376% 的 AI 代理不是「買一個 App 按一下」就能用的東西。它是經過專門訓練、用結構化資料餵養、在特定市場環境下運作的系統。它跟你在券商 App 裡看到的「AI 智能選股」的距離,大概跟 SpaceX 的火箭和你家後院的沖天炮差不多。

而且別忘了那 63% 虧錢的 AI 代理。(這些數據來自 Polystrat 的開發商 Valory 自己——我看到這點就把這個數字從我的判斷裡拿掉了。開發商報自己產品的績效,跟你問業務員他家的產品好不好沒兩樣。)

機構怎麼用 AI?比散戶想像的保守。2026 年超過七成的對沖基金部署了 AI 代理,但用在文件閱讀、風險監控、催化劑追蹤這些「預測」工作,不是「選股」。真正的投資判斷,還是人在做。

台灣也一樣。金管會數據:機器人理財已有 24 萬客戶、資產規模 161 億元。但有個用戶用了阿爾發投顧兩年半,AI 在 2022 年債券已經瀑布般下滑時還建議投入 40% 到美國綜合債券 ETF。結果連 1% 定存都不如。你把錢鎖在 AI 的建議裡兩年半,績效輸給什麼都不做。模型看的是歷史配置比例,看不到聯準會正在升息。

最聰明的判斷,也許是判斷自己不該判斷

有一件事跟我的直覺矛盾。

Thorp、Fox、Mallaby,三個花了數年研究量化投資歷史的作者,結論驚人地一致:普通投資人的最佳策略是買低成本指數基金。

Justin Fox 在 The Myth of the Rational Market 裡說:「唯一合理的起點是假設市場比你聰明。」

Thorp 是那個說效率市場假說信徒是「地平說成員」的人。他給散戶的建議竟然是:把主動投資的部位換成年費低於 0.2% 的大盤指數基金

Mallaby 在研究了整本對沖基金歷史後的結論:「對一般儲蓄者來說,便宜追蹤指數的共同基金仍然是最佳選擇。」

等一下。如果 AI 讓預測能力提升、判斷更重要了,為什麼最佳策略是放棄判斷?

因為判斷的價值上升是「對有能力判斷的人」。如果你不能投入 Simons 級別的資源(幾百位 PhD、三十年的乾淨數據、十億美元的基礎設施)來建立判斷框架,那最聰明的判斷恰好是:判斷自己不該判斷。

只在你真正有資訊優勢的極窄領域下注,其他一切承認市場比你聰明,買指數。Thorp 給這件事取了個名字:Circle of Competence,能力圈

我之前寫指數化投資那篇時已經到了類似的結論。但 AI 時代讓這個結論更激進了:散戶主動投資的預期回報比以前更低,因為你的對手變強了。 你不只是在跟其他散戶競爭,你在跟有 AI 加持的機構投資人競爭。有人的直覺又是對的:「散戶乖乖買 ETF 的時代到了。」(但如果你決定不買 ETF 而是用槓桿——那篇會告訴你為什麼那更危險。)

你是哪種人?

AI 會不會取代你的投資判斷,取決於你先回答三個問題。

你有 Renaissance 級別的資源嗎? 幾百位 PhD、三十年的數據、十億美元的基礎設施、終身鎖定的團隊。有這些,Medallion 的勝率勉強超過 50%。你能拿什麼出來比。

退一步問:你的能力圈在哪? Thorp 的回答很具體:只在你確定自己有資訊優勢的極窄領域做判斷。對其他一切,承認市場比你聰明。如果你寫不出你的能力圈,你沒有能力圈。

前兩個都答不出來的話:你用 AI 是在逃避判斷,還是擴大判斷? 如果你用 AI 選股是為了讓自己「感覺有做研究」,你在買安慰劑。如果你用 AI 分析你已經深入了解的領域,那是判斷的放大器。差別在你能不能回答前兩個問題。

券商 App 上的「AI 智能選股」按鈕,我點進去看過,然後退出來了。我不相信券商會做一個真的幫我賺錢的功能。這跟十年前銀行理專推儲蓄型保險和新興國家基金是同一件事。包裝得很漂亮,但賺錢的是賣你產品的人。

我自己的能力圈是讀書和整理,不是選股——所以我把大部分資金交給 ETF,把讀完的書變成這樣的文章。這不是謙虛,是我算過一遍自己能帶什麼到牌桌上。

你現在就能做一件事:打開你的券商帳戶,算一下你的主動投資部位佔多少比例。對每一個部位問自己:「我有什麼是機構和 AI 沒有的資訊優勢?」

如果答不出來,定期定額買全球指數(VT 或 VWRA),把省下來的時間拿去做你真正有能力圈的事。六十年量化歷史指向的就是這個方向。


開頭那個讓我笑很久的網友問:「大家都用 AI,誰輸錢?」六十年量化史的答案很清楚:以為自己也能用 AI 打敗市場的人。把這篇丟進你的投資群組,問他們同一個問題。


本文讀了這些來源:

書:

文章:

資料:

Podcast:


這三篇是同一個論證:

三篇的結論是同一件事:「不用想」是把判斷外包給機制,而那個機制你根本不理解。


追蹤

這篇文章下了三個可驗證的判斷,正在被時間驗證。未來有新事件(AI 基金績效研究、量化基金崩盤、AI-assisted retail 統計)時,這個區段會自動更新結案結果。對的會留下、錯的也會留下。

三條追蹤中 · 最早預期結案:2028-04(AI agent 績效觀察期滿)

AI agent 的投資能力是 37% 勝率還是丟硬幣?

Valory vs CoinDesk

  • 判斷日:2026-04-24
  • 驗證條件:2028-04 前若第三方獨立研究(Morningstar/SEC/學術)確認 AI agent 基金 3 年累積 alpha > 0 且勝率 > 30% → Valory 對;若普遍落後標竿 → CoinDesk 對
  • 預期結案:2028-04
  • 狀態:追蹤中

量化模型能不能反映市場現實?

LTCM 傳統派 vs Nick Patterson

  • 判斷日:2026-04-24
  • 驗證條件:2028-04 前若至少 3 家 AUM ≥ $50 億的量化/AI-driven hedge fund(以 HFR/Eurekahedge 年報或 13F 揭露為準)在同一季單季 drawdown > 30% → Patterson「模型只是部分現實」對;若 3 年內無此事件 → 模型信仰派暫時對
  • 預期結案:2028-04
  • 狀態:追蹤中

AI 時代散戶最佳策略:AI + 判斷還是指數基金?

Ajay Agrawal vs Thorp/Fox/Mallaby

  • 判斷日:2026-04-24
  • 驗證條件:2030-04 前若第三方公開研究(FINRA/學術/Robinhood/E*TRADE/IBKR 年報)揭露「使用 LLM/AutoGPT/平台 AI 選股的散戶」中位 3 年報酬率 > 同期 S&P 500 CAGR → Agrawal 對;若 < S&P 500 CAGR → Thorp/Fox/Mallaby 對
  • 預期結案:2030-04
  • 狀態:追蹤中

這個區段會由站點 automation 每月自動更新。看所有追蹤


你可能也想讀:

我寫信時,寄給你

不定期。寫舊文章的後續、新發現、想討論的事。

本文為讀角獸矛盾圖譜(Contradiction Graph)的一個節點。內容以 CC BY 4.0 授權,歡迎引用、改作、再發布,請註明來源。