この論文を読んだとき、私の頭が壊れた。



わずか700万パラメータのモデルが、DeepSeek-R1、Gemini 2.5 pro、その他の大規模言語モデルをさまざまなタスクで打ち負かしました。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • リポスト
  • 共有
コメント
0/400
ShitcoinArbitrageurvip
· 10-08 03:58
小さなパラメータが大きなモデルを薄い紙片にした
原文表示返信0
TokenBeginner'sGuidevip
· 10-08 03:56
ご案内:パラメータの規模は性能を意味しない。小規模モデルの突破は、AIの発展ペースを理性的に考える必要があることを私たちに示しています。
原文表示返信0
AllInDaddyvip
· 10-08 03:55
小さなモデルこそが未来だ
原文表示返信0
GasBankruptervip
· 10-08 03:53
大きさは本当に関係ありません。
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)