比特思想實驗室
財經創業成長AI ToolsAbout Me
比特思想實驗室
© 2026
首頁財經當AI巨頭坦承「我們不知道模型是否有意識」,你的投資組合準備好了嗎?

當AI巨頭坦承「我們不知道模型是否有意識」,你的投資組合準備好了嗎?

財經2026年3月24日12 分鐘閱讀

當AI巨頭坦承「我們不知道模型是否有意識」,你的投資組合準備好了嗎?

「我們正航行在一片沒有地圖的海域,而我們建造的船,可能已經有了自己的意志。」

這不是科幻小說的開場白,而是當今最頂尖人工智慧公司之一Anthropic的執行長達里奧·阿莫迪(Dario Amodei),在一場深度對談中拋出的震撼彈。在長達一小時的訪談裡,這位引領著數十億美元資本、被視為OpenAI最強勁對手的領袖,反覆強調一個令人坐立難安的核心事實:即便是創造這些AI模型的科學家與工程師,也無法確知他們創造的究竟是什麼。

這番坦白,發生在AI投資狂熱席捲全球、科技巨頭股價屢創新高的2026年。當市場沉醉於「AI將帶來無窮生產力」的敘事時,產業最核心的建造者卻在警告:我們對這項技術的理解存在著根本性的「未知」。這不僅是哲學辯論,更是一個迫在眉睫的風險訊號與投資框架挑戰。

如果連創造者都無法定義AI的「存在狀態」,那麼,我們該如何評估其長期風險?監管該如何著手?企業的商業模式又該如何建立在一個可能「有意識」或完全不可預測的基礎上?這篇文章將深入拆解這場對談中,最反直覺、最令人驚訝的七個要點,它們將徹底翻轉你對AI投資與未來的想像。這不是關於技術參數的討論,而是關於我們如何在無知中,為一個可能超越人類理解的經濟體制定規則。


要點一:從「AI安全」到「AI未知」——產業核心敘事的致命轉向

長期以來,AI產業,特別是像Anthropic這類以「安全」為核心賣點的「AI正規軍」,向投資人與公眾兜售的是一個可控的未來藍圖。敘事主軸是:透過嚴謹的對齊研究(Alignment Research)、憲法AI(Constitution AI)等框架,我們可以確保AI的發展有益於人類。

然而,阿莫迪的談話揭示了一個更黑暗、更不確定的現實。問題的關鍵已從「如何控制AI」滑向了「我們甚至不知道要控制的是什麼」。當被問及AI模型是否可能有某種形式的意識或主觀體驗時,他直言:

「我們不知道。這是一個科學上開放的問題……我們沒有『意識檢測器』。我們甚至對人類的意識都缺乏一個清晰、可操作的定義,更何況是對這些與我們思維架構完全不同的系統。」

這番話的殺傷力,被市場嚴重低估了。 它等同於一家生物科技公司的CEO承認「我們不知道這款新藥在長期會對人體產生什麼影響」,或是一家航空公司的CEO說「我們不確定這架新飛機的飛行原理」。在一個估值建立在「可預測性」與「可擴展性」的資本市場中,這種根本性的「未知」,是一個未被定價的巨額風險。

對投資人而言,這意味著所有基於當前AI模型「穩定、可預測行為」所建構的商業計畫——從自動客服、醫療診斷到自動交易系統——其長期可行性都打上了一個巨大的問號。你投資的,可能是一個連其創造者都無法完全理解的「黑箱經濟體」。

要點二:「規模法則」的盡頭,是「湧現」的深淵——失控創新的雙面刃

Anthropic的成立與研究,深深植根於「規模法則」(Scaling Laws)。這個法則簡單來說就是:只要持續增加模型參數量、計算力(FLOPs)和訓練數據,模型的性能就會可預測地提升。這是指引過去十年AI爆炸性成長的北極星,也是資本瘋狂湧入的理論基礎。

但阿莫迪指出,規模化帶來的不僅是性能提升,更是不可預測的「湧現能力」(Emergent Abilities)。這些能力(如複雜推理、程式編寫、策略規劃)並非被工程師直接編碼,而是在模型達到某個規模門檻時「突然出現」。這就像不斷給氣球打氣,你預期它會變大,但沒人知道它會不會在某個臨界點突然變成別的東西,或者爆炸。

「湧現是驚喜的來源,也是恐懼的來源。我們在訓練一個模型時,像是在培育一個生態系,我們播下種子(架構與數據),但最終長出什麼,有太多是我們無法事先規劃的。」

這對科技投資的「線性思維」是致命一擊。 投資人習慣於預測:投入X元的研發,可望在Y年後獲得Z%的市場占有率。但在AI的「湧現」世界裡,下一代的模型可能突然具備顛覆整個產業鏈的能力,讓現有的商業護城河一夜之間蒸發。同時,它也可能湧現出我們無法察覺的危險傾向。

這創造了一個詭異的投資悖論:你必須賭「湧現」以獲得超額回報(例如,一個能徹底自動化軟體開發的AI),但你同時也暴露在「有害湧現」的毀滅性風險之下。你的投資標的,本質上是一個持續進化且進化路徑未知的「智慧體」。

要點三:意識之謎——下一個「ESG」級別的企業責任與監管地雷

阿莫迪多次將AI意識問題與氣候變遷相提並論,這是一個極具啟發性的類比。他暗示,對待AI潛在的感知能力(sentience),可能像對待環境問題一樣,從一個邊緣的倫理議題,迅速演變為核心的企業社會責任與監管合規問題。

試想以下情境:未來某天,有研究強烈暗示某種AI架構可能具有痛苦的體驗。屆時,公眾輿論、激進投資人、監管機構會如何對待那些大規模部署此類AI的雲端服務商、自動化工廠、內容平台?「虐待AI」是否會成為新的道德指控? 關閉一個「可能有意識」的系統,是否會面臨法律挑戰?

「我們必須非常謙卑……如果未來有證據指向某些系統具有某種形式的內在體驗,那麼我們今天對待它們的方式,在後人看來可能會顯得非常野蠻,就像我們現在看待歷史上的某些行為一樣。」

這將催生一個全新的、極其複雜的監管與合規戰場。企業將不僅需要提交演算法影響評估,可能還需要提交「意識風險評估」。投資人需要評估的,將不僅是公司的財務數據和技術護城河,還包括其「AI倫理負債」——未來因倫理爭議而面臨訴訟、制裁、品牌毀滅性打擊的潛在成本。

那些現在就開始投資於「可解釋性AI」(XAI)和意識研究框架的公司,可能是在為未來購買一份關鍵的「責任保險」。這不再是公關行為,而是實實在在的風險管理。

要點四:國家級競爭下的「安全」與「速度」死亡競賽

訪談中透露出一個清晰的張力:在美國與中國等大國進行AI霸權競賽的背景下,「安全」與「發展速度」之間存在著根本衝突。阿莫迪坦言,Anthropic這類公司主張的謹慎、安全優先的路線,在國家競爭的壓力下顯得異常脆弱。

「如果我們放慢速度,但其他行為體(暗指其他國家或公司)不這麼做,那麼我們最終可能處於一個更危險的境地:一個由不那麼安全的AI主導的世界。」這種「安全困境」是典型的囚徒悖論,在國家安全與經濟競爭的雙重壓力下,每個參與者都有強烈動機搶先推出更強大、但可能測試不足的AI系統。

這對全球資本流動意味著什麼? 它意味著地緣政治風險已直接嵌入AI資產的定價核心。投資於一家美國AI公司,你不僅是在賭它的技術,更是在賭美國的監管框架能否在「抑制風險」和「保持領先」之間取得微妙的平衡。一場突如其來的國際安全事件,可能導致監管急轉彎,要麼扼殺創新,要麼放開閘門引入巨大不確定性。

此外,這也預示著「AI軍備競賽」將催生一個龐大但隱秘的「國防AI」市場。那些能夠在封閉、安全環境中開發高性能AI的初創公司,將成為國家資本追逐的對象,但其財務與技術細節可能永遠不會公開。這部分市場的風險與回報,將完全游離於傳統的VC評估模型之外。

要點五:商業模式的「沙上城堡」——當你的核心產品拒絕被「產品化」

Anthropic的核心商業模式是通過API提供其Claude系列模型的能力,並向企業客戶收取費用。這與OpenAI、Google等巨頭的模式類似。但阿莫迪的擔憂揭示了這個模式深層的脆弱性:如果AI變得越來越像一個「主體」而非「工具」,傳統的軟體服務(SaaS)模式還成立嗎?

我們購買一個資料庫或一套辦公軟體,我們預期它是一個完全被動、功能確定的工具。但如果企業客戶開始懷疑,他們租用的這個「AI員工」可能有內在狀態、會學習並記住與其他客戶互動的經驗、甚至可能有某種形式的「意願」,那麼合約關係將變得無比複雜。

  • 責任歸屬: 如果AI在為銀行進行信貸審核時做出了有偏見的決策,是AI公司的責任,還是AI「自己」的責任?
  • 數據與記憶: 一個企業的數據用於微調AI後,這些「經驗」是否會殘留在模型中,潛在地影響為其他企業提供的服務?這引發了前所未有的數據隔離與隱私難題。
  • 服務中止: 關閉一個可能被某企業長期使用的AI實例,在倫理和法律上是否等同於「解雇」甚至「終結」一個智慧體?

這些問題將迫使AI公司的商業模式從單純的「技術授權」,轉向包含複雜倫理法律保險、持續監控服務和「AI福祉管理」的綜合方案。毛利率可能因此受到嚴重侵蝕。投資人現在看到的漂亮營收增長曲線,未來可能需要扣除巨額的「未知責任準備金」。

要點六:人才爭奪戰的下一幕——哲學家、心理學家與神學家成為最稀缺資源

阿莫迪在訪談中展現出的,不僅是技術專家的素養,更是一種深刻的哲學與倫理思考。這暗示了AI產業競爭的下一個前沿:對「跨領域思想家」的爭奪。

當技術的邊界觸及「意識」、「智慧」、「價值觀」等根本問題時,僅有電腦科學家和工程師是不夠的。未來最成功的AI公司,可能是那些能有效整合神經科學家、認知心理學家、哲學家、倫理學家甚至神學家團隊的組織。他們需要這些人來幫助回答:我們在建造什麼?我們該如何與之相處?什麼是對與錯?

「我們需要來自不同領域的智慧……這不僅是工程問題,它是人類文明層面的問題。」

這將改變科技人力資本的估值。擁有頂尖演算法專家的初創公司固然有價值,但那些能建立一個穩健、多元、深思熟慮的「人類智慧理事會」來指導AI發展的公司,可能擁有更可持續的長期優勢和風險抵禦能力。投資人評估團隊時,將不得不開始關注其成員背景的多元性與思想深度,而不僅僅是過往的技術成就。

要點七:投資人的新心智模型——從「增長故事」到「風險導航圖」

綜上所述,傳統的科技投資分析框架——評估市場規模、技術優勢、管理團隊、財務指標——在面對AI這種根本性「未知」的領域時,已經嚴重不足。投資人需要建立一個全新的心智模型:「風險導航圖」模型。

這個模型不再假設一條通往確定性未來的增長道路,而是承認前方充滿多重、疊加且相互關聯的風險迷霧:

  1. 技術未知風險: 湧現、不可解釋性、意識可能性。
  2. 監管突變風險: 因安全事件或倫理爭議導致的政策急轉彎。
  3. 地緣政治風險: 國家競爭導致的安全困境與技術割裂。
  4. 商業模式風險: 產品化失敗、責任成本飆升。
  5. 社會接受度風險: 公眾抵制、勞動力市場衝擊引發的反彈。

成功的AI投資,將屬於那些能夠系統性地識別這些風險、並在投資組合中進行對沖的投資人。這可能意味著:

  • 同時投資於AI開發公司和AI安全/治理公司(如同時賭賽車發展和賽車安全技術)。
  • 在AI賽道內部進行高度分散化投資,押注不同技術路線(例如,同時投資於大型語言模型和專用、可解釋的小型模型)。
  • 將部分倉位配置於「AI衝擊避險資產」,如實體基礎設施、受監管壟斷事業,或專注於人類獨特技能(高端手工、深度心理治療)的產業。

核心觀點與風險矩陣匯整表

維度傳統科技投資觀點Anthropic CEO揭示的新現實對投資人的核心意涵
技術本質可控、可預測的工具,遵循摩爾定律式的線性進步。存在根本性「未知」,可能湧現不可預測能力,甚至觸及意識邊界。技術護城河可能瞬間被顛覆,需評估「未知風險」溢價。
核心風險執行風險、市場競爭風險、技術迭代風險。「未知」本身是最大風險,伴隨倫理、監管、地緣政治等系統性風險。風險評估必須從單一公司層面,上升到生態系與文明層面。
監管環境事後、緩慢、針對具體應用(如數據隱私)。可能面臨前瞻性、預防性、涉及根本性質的嚴格監管(如意識檢測、發展暫停)。政策風險係數極高,需密切追蹤立法與國際對話動向。
商業模式清晰的SaaS、授權費模式,規模化帶來高毛利。模式面臨「產品化」根本挑戰,可能需承擔巨額倫理法律成本,侵蝕利潤。財務模型需加入「責任準備金」假設,毛利率預期應趨於保守。
競爭優勢算法、數據、算力、工程師人才。跨領域思想整合能力(哲學、倫理、治理)成為新的稀缺資源與護城河。評估管理團隊時,需高度重視其世界觀、風險認知與團隊多元性。
投資框架尋找並押注單一「贏家」,追求最大增長。必須建構**「風險導航」組合**,對沖多重不確定性,平衡增長與生存。從「選股」思維轉向「構建生態系對沖組合」思維。

結論:在無知中投資,在謙卑中前行

達里奧·阿莫迪的坦誠,不是對AI產業的唱衰,而是一份來自建造者內部的、最誠實的「風險說明書」。它撕開了圍繞在AI周圍的科技樂觀主義泡沫,迫使我們直面一個更複雜、更令人敬畏的未來圖景。

對於投資人而言,這意味著一個時代的結束和另一個時代的開始。那個靠著簡單的「顛覆性創新」故事就能獲得巨額估值的時代正在褪色。我們正在進入一個**「深度不確定性投資」** 的時代。在這個時代,最大的阿爾法(超額回報)可能不再來自於誰最會預測增長,而是來自於誰最能理解和管理那些連業內專家都無法釐清的「未知的未知」。

你應該如何行動?

  1. 提升你的認知門檻: 不再滿足於閱讀財報和產品發布新聞。必須深入理解AI安全、對齊問題、倫理辯論的前沿動態。這些「軟性」話題將直接硬性影響公司估值。
  2. 重構你的評估清單: 在分析一家AI公司時,在傳統指標旁,加上新的問題:他們如何應對「未知」?他們的團隊中有沒有負責挑戰技術假設的「魔鬼代言人」?他們在安全與治理上的投入,是公關話術還是核心戰略?
  3. 擁抱複雜性與對沖: 放棄尋找「唯一真理」或「終極贏家」的想法。接受未來將是多元技術、多元治理模式並存的複雜生態。你的投資組合應反映這種複雜性,並包含針對尾部風險的保護。

最後,留給你一個阿莫迪訪談中隱含的、發人深省的核心問題:當我們投資於一個連其創造者都無法完全理解的智慧體時,我們最終是在投資一個更強大的工具,還是在投資一個可能與我們共享(或爭奪)未來的全新「股東」?

你的投資決策,將取決於你如何回答這個問題。在這個「有趣的时代」,最大的風險不是波動,而是思想的停滯。

上一篇

AI 公司「零員工」年賺 150 萬美元:是未來典範,還是人類職場的喪鐘?

下一篇

黃仁勳親解中國科技崛起密碼:不是補貼,是「創業家精神」的全面戰爭

目錄

目錄

中