✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
我在關於 ИИ 的辯論中注意到一個有趣的悖論:大家都讚嘆大型語言模型(LLM)說話的自信與流暢,但問題在於——流暢的語言並不代表理解。模型可以聽起來很有說服力,但這並不代表它真的理解了什麼。
這個悖論讓我想起了柏拉圖的 пещера 理論。還記得嗎?被鎖在 пещера 中的囚徒只看到牆上的影子,並將它們當作現實,因為他們從未見過其他東西。語言模型也生活在類似的 пещера 中,只不過它們看到的不是影子,而是文本。
繼續閱讀——這裡最精彩。LLM 看不到、聽不到、觸摸不到現實世界。它們的訓練資料是文本:書籍、文章、貼文、評論。這是它們唯一的經驗。它們對世界的所有認知,都是通過人類語言的濾鏡來獲得的。而語言本身不是現實,它只是對現實的表徵。是不完整的、偏見的、經常扭曲的。
這也是為什麼我對「擴展規模就能解決問題」的想法持懷疑態度。更多數據、更多參數,並不能讓模型真正理解。語言模型擅長預測下一個詞,但不理解因果關係、物理限制或行動的真實後果。幻覺(hallucinations)不是可以修補的錯誤,而是架構本身的結構性限制。
這時候,world models 出現了——一個完全不同的方法。它們建立內部模型,模擬世界的運作方式。它們不僅從文本中學習,還從交互、時間序列、感測數據、模擬中學習。不是問「下一個詞是什麼?」而是問「如果我們這樣做,會發生什麼?」
這已經在實際應用中展現。物流領域的 world models 模擬某個環節的故障如何傳播到整個供應鏈。在保險行業,它們研究風險隨時間的演變,而不僅僅是解釋保單。在工廠中,數字雙胞胎預測設備故障。任何需要真正預測能力的地方,語言模型都顯得不足。
有趣的是,許多公司還沒有意識到這一轉變。他們仍然只投資於 LLM,認為這是未來。但未來是混合系統——語言模型作為界面,而 world models 提供真正的理解與規劃。
回到柏拉圖的 пещера。囚徒的解放不是更仔細地研究影子,而是轉身面對現實。人工智慧也是如此。那些早早理解這一點的組織,將開始建立真正理解其世界運作的系統,而不是僅僅會說漂亮話的系統。
問題是,你的公司能否完成這個轉變?能否建立自己的 world models?因為那些做到的人,將獲得巨大的優勢。