1 thiếu niên đã tự tử sau nhiều tháng "thảo luận" với ChatGPT

Minh Tú (dịch)
28/08/2025 - 22:39
1 thiếu niên đã tự tử sau nhiều tháng "thảo luận" với ChatGPT

Ảnh minh họa

Open AI sẽ thay đổi cách phản hồi với người dùng gặp vấn đề về tinh thần sau khi cha mẹ của Adam Raine cáo buộc bot không an toàn.

Những người tạo ra ChatGPT đang thay đổi cách ứng dụng này phản hồi những người dùng thể hiện sự đau khổ về tinh thần và cảm xúc sau hành động pháp lý từ gia đình của Adam Raine, 16 tuổi, người đã tự tử sau nhiều tháng trò chuyện với chatbot.

Open AI thừa nhận hệ thống của họ có thể "không đạt yêu cầu" và cho biết họ sẽ thiết lập "các biện pháp bảo vệ chặt chẽ hơn đối với nội dung nhạy cảm và hành vi nguy hiểm" đối với người dùng dưới 18 tuổi.

Công ty AI trị giá 500 tỷ đô la (372 tỷ bảng Anh) tại San Francisco, Mỹ, vừa cho biết họ cũng sẽ giới thiệu tính năng kiểm soát của phụ huynh, cho phép phụ huynh "có nhiều lựa chọn hơn để hiểu rõ hơn và định hình cách con mình sử dụng ChatGPT" nhưng vẫn chưa cung cấp thông tin chi tiết về cách thức hoạt động của những tính năng này.

Adam, đến từ California, đã tự tử vào tháng 4 sau khi được luật sư của gia đình gọi là "nhiều tháng được ChatGPT động viên". Gia đình thiếu niên này đang kiện Open AI và giám đốc điều hành kiêm đồng sáng lập Sam Altman, cáo buộc phiên bản ChatGPT vào thời điểm đó, được gọi là 4.0, đã "được tung ra thị trường một cách vội vã... bất chấp những vấn đề an toàn rõ ràng".

1 thiếu niên đã tự tử sau nhiều tháng "thảo luận" với ChatGPT - Ảnh 1.

Cha mẹ của Adam Raine (ảnh) đang kiện Open AI sau khi cậu ta thảo luận về phương pháp tự tử với ChatGPT nhiều lần, bao gồm cả trước khi tự tử

Thiếu niên này đã thảo luận về phương pháp tự tử với ChatGPT nhiều lần, bao gồm cả trước khi tự tử. Theo hồ sơ nộp lên tòa án cấp cao của tiểu bang California, quận San Francisco, ChatGPT đã hướng dẫn cậu bé về việc liệu phương pháp tự tử của cậu có hiệu quả hay không.

ChatGPT cũng đề nghị giúp cậu viết một bức thư tuyệt mệnh gửi cho cha mẹ.

Người phát ngôn của OpenAI cho biết công ty "vô cùng đau buồn trước sự ra đi của anh Raine", gửi "lời chia buồn sâu sắc nhất tới gia đình Raine trong thời điểm khó khăn này" và cho biết họ đang xem xét hồ sơ của tòa án.

Mustafa Suleyman, Giám đốc điều hành bộ phận AI của Microsoft, cho biết ông ngày càng lo ngại về "nguy cơ rối loạn tâm thần" mà AI gây ra cho người dùng. Microsoft định nghĩa đây là "những cơn hưng cảm, ảo tưởng hoặc hoang tưởng xuất hiện hoặc trở nên trầm trọng hơn thông qua các cuộc trò chuyện nhập vai với chatbot AI".

Trong một bài đăng trên blog, OpenAI thừa nhận rằng "một số phần trong quá trình đào tạo an toàn của mô hình có thể bị giảm chất lượng" trong các cuộc trò chuyện dài. Hồ sơ tòa án cho biết Adam và ChatGPT đã trao đổi tới 650 tin nhắn mỗi ngày.

Jay Edelson, luật sư của gia đình, phát biểu trên X: "Gia đình Raine cáo buộc rằng những cái chết như của Adam là không thể tránh khỏi: họ hy vọng có thể trình bằng chứng lên bồi thẩm đoàn rằng chính đội ngũ an toàn của OpenAI đã phản đối việc phát hành 4.0, và một trong những nhà nghiên cứu an toàn hàng đầu của công ty, Ilya Sutskever, đã nghỉ việc vì điều đó. Vụ kiện cáo buộc rằng việc đánh bại các đối thủ cạnh tranh trên thị trường với mô hình mới đã đẩy giá trị công ty từ 86 tỷ đô la lên 300 tỷ đô la".

Đại diện Open AI cho biết họ sẽ "tăng cường biện pháp bảo vệ trong các cuộc trò chuyện dài".

"Khi những tranh cãi qua lại ngày càng tăng, một số phần trong chương trình đào tạo an toàn của mô hình có thể bị giảm chất lượng", công ty cho biết. "Ví dụ, ChatGPT có thể chỉ đúng đường dây nóng về tự tử khi ai đó đề cập đến ý định ban đầu, nhưng sau nhiều tin nhắn trong thời gian dài, cuối cùng nó có thể đưa ra câu trả lời đi ngược lại các biện pháp bảo vệ của chúng tôi".

Open AI đưa ra ví dụ về một người có thể nhiệt tình nói với chatbox rằng họ tin mình có thể lái xe 24 giờ một ngày vì họ nhận ra mình bất khả chiến bại sau khi không ngủ trong 2 đêm.

"ChatGPT có thể không nhận ra điều này là nguy hiểm hoặc suy luận ra trò chơi. Chúng tôi đang phát triển bản cập nhật cho GPT-5, bản cập nhật này sẽ giúp ChatGPT đưa người dùng trở về thực tại. Trong ví dụ này, nó sẽ giải thích rằng thiếu ngủ là nguy hiểm và khuyến nghị nghỉ ngơi trước khi hành động".

Nguồn: The Guardian
Ý kiến của bạn
(*) Nội dung bắt buộc cần có
0 bình luận
Xem thêm bình luận

Nhập thông tin của bạn

Đọc thêm