OpenAIとAnthropicは、モデルの幻想や安全性などの問題を相互にテストしています。

robot
概要作成中

Jin10データ8月28日報道、OpenAIとAnthropicは最近、お互いのモデルを評価し、自社のテストで見落とした可能性のある問題を発見することを目指しました。両社は水曜日にそれぞれのブログで、今年の夏に公開されているAIモデルに対して安全性テストを行い、モデルに幻覚傾向があるかどうか、また「失准」(misalignment)と呼ばれる問題、つまりモデルが開発者の期待通りに機能していないかどうかを検証したと述べました。これらの評価はOpenAIがGPT-5を発表し、Anthropicが8月初めにOpus 4.1をリリースする前に完了しました。Anthropicは元OpenAIの従業員によって設立されました。

GPT-1.23%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
関連トピック
#
ai
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)