🌕 桂花香,月兒圓~
Gate 廣場 · 中秋創作激勵限時開啓!
創作點亮中秋,帶上熱門話題發帖,就有機會瓜分 $5,000 中秋好禮! 🎁
立即報名參與 👉 https://www.gate.com/campaigns/1953
💡 參與攻略
1️⃣ 在廣場發帖並帶上話題 #Gate广场创作点亮中秋#
2️⃣ 內容需圍繞廣場官號(Gate廣場_Official)每日發布的熱點話題進行創作,並確保帶上該熱點話題及 #Gate广场创作点亮中秋# 標籤
3️⃣ 發帖數量越多,內容越優質,互動量越高,獎勵越豐厚!
💰 創作者專屬獎勵
🏆 Top 1:寶格麗中秋限定禮盒 + $100 合約體驗券 + $100 GT
🥈 Top 2:寶格麗中秋限定禮盒 + $80 合約體驗券 + $60 GT
🥉 Top 3:寶格麗中秋限定禮盒 + $60 合約體驗券 + $30 GT
Top 4-10:寶格麗中秋限定禮盒 + $50 合約體驗券
Top 11-20:多功能充電器 + $30 合約體驗券
幸運獎(30 位):每人 $20 合約體驗券
除此之外每位獲獎者都將獲得相應的社區流量扶持,增加您的社區影響力!
🍀 新用戶特別福利:
第一次在活動期間發帖?恭喜你,還有機會衝擊 $600 中秋賞月獎池!
完成任務(完善資料+關注5人+點讚/評論/轉發5帖+帶話題發首帖),30 位幸運用
OpenAI 最新研究:為何 GPT-5 與其他 LLM 還是會胡說八道
OpenAI 發布最新研究論文,直言即使大型語言模型 (LLM) 像 GPT-5 已經進步不少,但是「AI 幻覺」 (Hallucinations) 依舊是根本問題,甚至永遠無法完全消除。研究團隊透過實驗,揭露模型在回答特定問題時,會自信滿滿卻給出完全錯誤的答案,並提出一套新的「評估機制」改革方案,希望能減少模型「亂猜」的情況。
研究員測試 AI 模型不同問題,答案全錯
研究人員向某個被廣泛使用的聊天機器人,詢問某個的博士論文題目,結果連續得到三個答案全都錯誤。接著再問他的生日,機器人同樣給了三個不同日期,結果還是全錯。
研究表示,AI 模型在面對一些資料裡「很不常見的資訊」時,它會很有自信地給出答案,但卻錯得離譜。
預訓練機制只學「語言表面」,不懂事實正確性
研究指出,模型的預訓練過程,是透過大量文字來「預測下一個詞」,但資料裡沒有標註「真或假」。換句話說,模型只學到語言的表面,而不是事實正確性。
拼字或括號這類規律性高的東西,隨著模型規模變大,錯誤會逐漸消失。
但像是「某人生日」這種隨機性高的資訊,無法靠語言模式推理出來,因此容易產生幻覺。
AI 模型被鼓勵「瞎猜」,需修正模型評估模式
研究強調評估方式要大改,重點不是單純看「對或錯」,而是要重罰那種錯得很自信的答案,並且獎勵 AI 要「老實說不知道」。換句話說,AI 要是亂講答案,比承認不知道更該被扣分。
反過來,如果它回答「不確定」,也應該拿到一些分數,而不是直接算零分。而且這不能只是多加幾個測驗做做樣子,而是要徹底推翻現在只看答對率的評估制度。不改正評估方式,AI 只會繼續亂猜。
研究最後表示要降低幻覺,就必須從評估體系下手,建立能真正鼓勵「謹慎與誠實」的測試方式。與其要求 AI「每次都答對」,更重要的是建立一個能接受 AI「不知道」的遊戲規則。
(2025 最新五大主流 LLM 全解析,付費、應用與安全性一次看懂)
這篇文章 OpenAI 最新研究:為何 GPT-5 與其他 LLM 還是會胡說八道 最早出現於 鏈新聞 ABMedia。