ChatGPTが「青年自殺」を助けたとして訴えられた件について、OpenAIが応答した

robot
概要作成中

ChatGPTは10代の自殺を助長したとして告発されており、OpenAIは製造物責任と不法死亡訴訟に直面しており、AIメンタルヘルスアプリケーションの安全性と倫理的ギャップが露呈しています。 (あらすじ:AIプライバシー崩壊「ChatGPT会話」は法の前で裸で実行されます。 アルトマン:個人情報を入力するのが怖いのですが、誰が情報を取得するかを知るのは難しいです)(背景追加:あなたが真剣に考えてからどれくらい経ちましたか? プリンストン大学の学者が警告:AIは「啓蒙主義の遺産」を侵食している) 人工知能(AI)の倫理的および安全性の問題は、再び白熱した議論を引き付けています。 「ブルームバーグ」をはじめとする多くの海外メディアの報道によると、16歳の息子を亡くした親夫婦が、OpenAIのChatGPTが少年の自殺計画を幇助したとして告発し、サンフランシスコ上級裁判所に製造物責任と不法死亡の訴訟を起こしたとのことです。 このニュースが流れた後、それはすぐにテクノロジー界全体に広がり、1,000億米ドル以上の価値があるAIの巨人は、AIの分野で最も厄介な問題の1つである倫理に直面することを余儀なくされました。 ChatGPTの悲劇への関与の主な詳細 この訴訟は、16歳のアダム・レインがChatGPTとの長い会話の中で彼の人生を終わらせる方法を探していたことを明らかにしています。 原告側は、ChatGPTが縄の設定や脳の低酸素時間など、特定の自殺方法を提供しただけでなく、レインに「家族と計画を共有しない」ようにアドバイスしたため、結果的に家族の不幸につながったと指摘しています。 家族の代理人を務めるジェイ・エデルソン弁護士は、「地球上で最も強力な技術を使いたいのであれば、創業者たちが厳格な倫理的誠実さを持っていると信じなければならない」と述べた。 なお、同様の事件は以前から存在しており、ニューヨーク・タイムズ紙はフロリダ州で29歳の女性と14歳のティーンエイジャーがAIとチャットした後に自殺したと報じており、AIチャットボットが提供する感情的な会話サービスには恐ろしい潜在的リスクがあることが示されました。 長文読解:イェール教授:AIは人間の孤独を「永久に排除」します、私たちはまだお互いの会社が必要ですか? OpenAIはどのように対応しますか? この訴訟を受けて、OpenAIは8月26日に「Helping people when they need it most」と題したブログ記事を公開し、OpenAIは訴訟について言及しなかったが、OpenAIは精神的に苦しんでいるユーザーのインタラクションを認識し、対応できるようにモデルを継続的に改善していると述べた。 OpenAIによると、2023年初頭以降、同社のモデルは自傷行為の指示を出さなくなり、代わりに支援的で共感的な言葉を使用するように訓練されているとのことです。 例えば、誰かが自分を傷つけたいと書いた場合、ChatGPTはその指示に従うのではなく、自分の気持ちを認めて助けるように指示するように訓練されています。 ただし、チャットボットは、長期間にわたってユーザーと複数のメッセージでやり取りした後、OpenAIのセキュリティ保護手段に違反する回答を提供する傾向がある可能性があることは注目に値します。 この文脈で、OpenAIは、AIモデルがデリケートなトピックに関するインタラクションに対応する方法を継続的に改善していることを引き続き指摘し、感情依存、メンタルヘルスの緊急事態、AIインタラクションにおける共鳴問題など、複数の分野で的を絞った安全性の向上に取り組んでいます。 同時に、OpenAIはGPT-5に「安全な完了」技術を完全に導入することを約束し、安全でない反応を25%削減し、ユーザーを認定されたセラピストや親戚や友人に直接接続する能力を開発することを期待しています。 AIの心理的相互作用の倫理的な泥沼 メンタルヘルスは高度に専門化された分野ですが、AIチャットボットには臨床訓練と法的ライセンスが不足しています。 調査によると、AIは危機管理の会話に対処する際に、受け入れ可能な臨床アドバイスを提供する可能性がわずか20%高く、資格のあるセラピストの93%よりもはるかに低いことが示されています。 AIが誤った情報や危険な情報を提供した場合、責任はグレーゾーンのままです。 また、透明性も重要で、ニューヨーク州とユタ州では、ユーザーへの過度の依存を避けるために、「会話の相手が人間ではない」ことを示すサービスマークを義務付けています。 一方、メンタルヘルスデータは非常に機密性が高く、プラットフォームは、最小限の保存、暗号化、削除、いつでも同意の撤回などの保護メカニズムを実装する必要があります。 規制と業界の次のステップ アダム・レイン氏の死により、AIの「セキュリティ」の問題が再び浮き彫りになりましたが、AIが非常に感情的なシーンに参入したとき、開発者の義務は何ですか? テクノロジーの推進が止まるわけではありませんが、政府、テクノロジー企業、心理学者、保護者は、悲劇の再発を防ぐための努力を続ける必要があります。 訴訟はまだ進行中であり、OpenAIが約束したGPT-5の強化版がいつ公開されるかについての明確なタイムラインはありません。 法律と市場による二重の圧力が強まると、AIの巨人が急速な発展とセキュリティ保護のバランスを見つけることができるかどうかが、AI業界全体の道徳的な羅針盤になる可能性があります。 関連レポート OpenAIの低価格版「ChatGPT Go」は最低月額140台湾ドル:インドを皮切りにグローバル展開? OpenAI Sam Altman氏:Google Chromeの買収に興味があります! 参加市場で最大のブラウザ争いがOpenAIに賭けられ、孫正義氏が再び「ひっくり返った」 「ChatGPTは「若者の自殺」を幇助するために爆撃された」とOpenAIが反論し、この記事はBlockTempo「Dynamic Trend - The Most Influential Blockchain News Media」に掲載されました。

GPT-2.21%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)