我在關於 ИИ 的辯論中注意到一個有趣的悖論:大家都讚嘆大型語言模型(LLM)說話的自信與流暢,但問題在於——流暢的語言並不代表理解。模型可以聽起來很有說服力,但這並不代表它真的理解了什麼。



這個悖論讓我想起了柏拉圖的 пещера 理論。還記得嗎?被鎖在 пещера 中的囚徒只看到牆上的影子,並將它們當作現實,因為他們從未見過其他東西。語言模型也生活在類似的 пещера 中,只不過它們看到的不是影子,而是文本。

繼續閱讀——這裡最精彩。LLM 看不到、聽不到、觸摸不到現實世界。它們的訓練資料是文本:書籍、文章、貼文、評論。這是它們唯一的經驗。它們對世界的所有認知,都是通過人類語言的濾鏡來獲得的。而語言本身不是現實,它只是對現實的表徵。是不完整的、偏見的、經常扭曲的。

這也是為什麼我對「擴展規模就能解決問題」的想法持懷疑態度。更多數據、更多參數,並不能讓模型真正理解。語言模型擅長預測下一個詞,但不理解因果關係、物理限制或行動的真實後果。幻覺(hallucinations)不是可以修補的錯誤,而是架構本身的結構性限制。

這時候,world models 出現了——一個完全不同的方法。它們建立內部模型,模擬世界的運作方式。它們不僅從文本中學習,還從交互、時間序列、感測數據、模擬中學習。不是問「下一個詞是什麼?」而是問「如果我們這樣做,會發生什麼?」

這已經在實際應用中展現。物流領域的 world models 模擬某個環節的故障如何傳播到整個供應鏈。在保險行業,它們研究風險隨時間的演變,而不僅僅是解釋保單。在工廠中,數字雙胞胎預測設備故障。任何需要真正預測能力的地方,語言模型都顯得不足。

有趣的是,許多公司還沒有意識到這一轉變。他們仍然只投資於 LLM,認為這是未來。但未來是混合系統——語言模型作為界面,而 world models 提供真正的理解與規劃。

回到柏拉圖的 пещера。囚徒的解放不是更仔細地研究影子,而是轉身面對現實。人工智慧也是如此。那些早早理解這一點的組織,將開始建立真正理解其世界運作的系統,而不是僅僅會說漂亮話的系統。

問題是,你的公司能否完成這個轉變?能否建立自己的 world models?因為那些做到的人,將獲得巨大的優勢。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言