除了流入人工智能的資金流之外,還存在一長串大多未解決的實際障礙,阻礙其大規模推廣。其中包括遞歸污染數據。大型語言模型產生大量內容,然後被用作下一代模型的訓練資料。錯誤和幻覺在每個循環中都會被放大。這就像多次複製的複製品:質量不斷下降,最終無法確定原始來源是什麼。行業已經開始使用合成數據來彌補缺乏高質量人類內容的問題——但這可能會加速退化,而非解決問題。更嚴重的問題是數據中毒。惡意攻擊者可以故意篡改訓練樣本,一旦植入“毒藥”,就會永遠留在模型中。尤其是在軍事場景中更為危險:訓練用來辨識自己人和敵人的人工智能,若基於被破壞的數據,可能在真正的衝突中才發現潛在的脆弱性。有記錄顯示,對任何規模的語言模型進行中毒,只需250個有害文件——這使得對訓練數據的攻擊不再是理論威脅,而是一個切實存在的網絡安全問題。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆