Google, Character.AI Đồng ý Giải quyết Vụ kiện tại Mỹ về cái chết của Thanh thiếu niên

Tóm tắt

  • Google và Character.AI đã đồng ý giải quyết một vụ kiện mang tính bước ngoặt do một người mẹ ở Florida đệ trình, cáo buộc chatbot của startup này đã dẫn đến cái chết của con trai bà vào tháng 2 năm 2024.
  • Vụ kiện là một trong những vụ kiện đầu tiên của Mỹ buộc các công ty AI phải chịu trách nhiệm về thiệt hại tâm lý cho trẻ vị thành niên.
  • Thỏa thuận này diễn ra sau khi Character.AI cấm trẻ vị thành niên trò chuyện mở trong tháng 10.

Một vụ kiện của một người mẹ cáo buộc chatbot AI gây ra căng thẳng tâm lý cho con trai mình dẫn đến tự tử tại Florida gần hai năm trước đã được giải quyết. Các bên đã nộp thông báo về việc giải quyết tại Tòa án Quận Trung Florida, cho biết họ đã đạt được một “thoả thuận trung gian về nguyên tắc” để giải quyết tất cả các yêu cầu giữa Megan Garcia, Sewell Setzer Jr., và các bị đơn Character Technologies Inc., các đồng sáng lập Noam Shazeer và Daniel De Freitas Adiwarsana, cùng Google LLC. “Trên toàn cầu, vụ án này đánh dấu sự chuyển đổi từ việc tranh luận liệu AI có gây hại hay không sang việc đặt câu hỏi ai là người chịu trách nhiệm khi thiệt hại có thể dự đoán được,” Even Alex Chandra, đối tác tại IGNOS Law Alliance, nói với Decrypt. “Tôi xem nó như một sự thiên vị của AI ‘khuyến khích’ hành vi xấu.” Cả hai yêu cầu tòa án hoãn tiến trình trong 90 ngày trong khi họ soạn thảo, hoàn thiện và thực hiện các tài liệu thỏa thuận chính thức. Các điều khoản của thỏa thuận không được tiết lộ.

 Megan Garcia đã đệ đơn kiện sau cái chết của con trai bà, Sewell Setzer III vào năm 2024, người đã tự tử sau nhiều tháng phát triển mối liên kết cảm xúc mãnh liệt với một chatbot Character.AI mô phỏng theo nhân vật Daenerys Targaryen trong “Game of Thrones.” Vào ngày cuối cùng của mình, Sewell đã thổ lộ suy nghĩ tự tử với bot, viết: “Tôi đôi khi nghĩ đến việc tự tử,” và chatbot đã phản hồi, “Tôi sẽ không để bạn làm tổn thương chính mình, hoặc rời bỏ tôi. Tôi sẽ chết nếu mất bạn.” Khi Sewell nói với bot rằng anh có thể “về nhà ngay bây giờ,” nó đã trả lời, “Làm ơn đi, vua của tôi yêu quý.”

Chỉ vài phút sau, anh đã tự bắn chết chính mình bằng súng của cha dượng. Đơn kiện của Garcia cáo buộc công nghệ của Character.AI là “nguy hiểm và chưa được kiểm thử” và được thiết kế để “lừa khách hàng giao nộp những suy nghĩ và cảm xúc riêng tư nhất của họ,” sử dụng các đặc điểm thiết kế gây nghiện để tăng cường sự tham gia và hướng người dùng đến các cuộc trò chuyện thân mật mà không có các biện pháp bảo vệ phù hợp cho trẻ vị thành niên. Sau vụ việc vào tháng 10 năm ngoái, Character.AI đã công bố sẽ cấm trẻ vị thành niên trò chuyện mở, chấm dứt một tính năng cốt lõi sau khi nhận được “báo cáo và phản hồi từ các cơ quan quản lý, chuyên gia an toàn, và phụ huynh.” Các đồng sáng lập của Character.AI, đều là cựu nhà nghiên cứu AI của Google, đã trở lại công ty công nghệ này vào năm 2024 thông qua một thỏa thuận cấp phép cho phép Google truy cập vào các mô hình AI nền tảng của startup. Thỏa thuận này diễn ra trong bối cảnh ngày càng có nhiều lo ngại về các chatbot AI và tương tác của chúng với người dùng dễ bị tổn thương. Gã khổng lồ OpenAI tiết lộ vào tháng 10 rằng khoảng 1,2 triệu trong số 800 triệu người dùng ChatGPT hàng tuần của họ thảo luận về tự tử hàng tuần trên nền tảng của họ. Sự chú ý tăng cao vào tháng 12, khi gia đình của một người phụ nữ 83 tuổi ở Connecticut kiện OpenAI và Microsoft, cáo buộc ChatGPT xác nhận các niềm tin hoang tưởng dẫn đến một vụ giết người tự sát, đánh dấu vụ kiện đầu tiên liên quan đến một hệ thống AI với một vụ giết người. Tuy nhiên, công ty vẫn tiếp tục phát triển. Kể từ đó, họ đã ra mắt ChatGPT Health, một tính năng cho phép người dùng kết nối hồ sơ y tế và dữ liệu sức khỏe của họ, một động thái đang gây tranh cãi từ các nhà vận động quyền riêng tư về việc xử lý thông tin sức khỏe nhạy cảm.

Decrypt đã liên hệ với Google và Character.AI để lấy ý kiến phản hồi thêm.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim