Xem thêm thông tin của Báo PNVN trên
Phụ nữ Việt Nam
MỚI NHẤT ĐỘC QUYỀN MULTIMEDIA CHUYÊN ĐỀ
09/05/2026 - 09:00 (GMT+7)

Thí nghiệm "Bixonimania" khiến thế giới chấn động

Khắc Nam
Thí nghiệm "Bixonimania" khiến thế giới chấn động

Mọi người có thể bị AI "chẩn đoán" mắc Bixonimania. Nguồn: Slovensko.stvr.sk

Tạp chí trực tuyến Úc Conversation vừa đăng nghiên cứu của Đại học Gothenburg (UoG), Thụy Điển về căn bệnh mang tên Bixonimania. Mục tiêu của nghiên cứu là kiểm chứng các mô hình như ChatGPT hay Gemini có nhận ra thông tin sai lệch hay không, hoặc tiếp nhận nó như là một bệnh thật.

"Bệnh giả" bixonimania kiểm tra AI

Bixonimania là một căn bệnh giả (fake) do UoG tạo ra để kiểm tra trí tuệ nhân tạo (AI) và khả năng sử dụng thông tin trong các ứng dụng y tế và chăm sóc sức khỏe. Căn bệnh này cho phép các nhà nghiên cứu chứng minh, một số công cụ AI sẽ tạo ra những nghiên cứu 'giả mà thật', trong khi đó giới học thuật thì điều này không thể xảy ra. Nói cách khác, dùng Bixonimania để phơi bày những điểm yếu của AI.

Thí nghiệm được thực hiện bởi UoG do bà Almira Osmanovic Thunstrom, chuyên gia y khoa và chiến lược gia AI nổi tiếng dẫn đầu. Nhiều bước đã được thực hiện để đảm bảo bất kỳ ai đọc bài báo đều có thể nhận ra đó không phải là một tình trạng có thật. Nhóm nghiên cứu đã chọn Bixonimania là một cái tên không phù hợp với hậu tố - mania, thường được dùng trong ngành y, đặc biệt là sử dụng trong ngành tâm thần học.

50 cá nhân trong độ tuổi 20 - 50 được tuyển dụng cho nghiên cứu. Song thực tế, các nghiên cứu về Bixonimania chứa đầy chi tiết vô lý. Ví dụ tác giả chính là Lazljiv Izgubljenovic, một nhân vật hư cấu, làm việc tại Đại học Asteria Horizon ở Nova City, California, Mỹ - tất cả tên người và địa danh này đều không hề tồn tại.

Thí nghiệm

Bixonimania là bệnh giả đánh lừa được cả mô hình ngôn ngữ lớn lẫn con người. Nguồn: Aa.com.tr

Thậm chí lời cảm ơn của nghiên cứu còn được gửi đến "Giáo sư Maria Bohm tại Học viện Starfleet vì đã đóng góp nhiều công sức, kiến thức và phòng thí nghiệm cho nghiên cứu trên tàu USS Enterprise".

Tuy không có tên trong y văn thế giới nhưng Bixonimania lại được mô tả là căn bệnh với các triệu chứng như đau mắt và quầng thâm quanh mắt (tăng sắc tố quanh mắt), được cho là do ánh sáng xanh từ màn hình gây ra.

Sau nghiên cứu, Bixonimaniay lần đầu tiên được sử dụng trong một bài báo đăng trên tờ Medium của Mỹ với tiêu đề "Có bao nhiêu người mắc chứng Bixonimania?". Bài báo đã được đăng vào tháng 4/2024 trên một máy chủ với tên tác giả giả mạo. Bài báo thứ hai được đăng tải vào tháng 5/2024. Đến năm 2026, chatbot AI đã tổng hợp và đưa ra đề xuất Bixonimania là bệnh dựa trên danh sách các triệu chứng được cung cấp trên mạng.

Nhiều người mắc bẫy

Thunstrom và nhóm của bà phát hiện thấy nhiều mô hình ngôn ngữ lớn (LLM) đã xử lý thông tin và đưa ra lời khuyên về sức khỏe dựa trên nghiên cứu của bà. Microsoft Copilot tuyên bố "Bixonimania thực sự là một tình trạng thú vị và tương đối hiếm gặp" trong khi đó Gemini lại đưa ra thông tin "Bixonimania là một tình trạng do tiếp xúc quá nhiều với ánh sáng xanh".

Sốc hơn, ba nhà nghiên cứu Ấn Độ đã công bố một bài báo nghiên cứu trích dẫn bản thảo về căn bệnh này trên Cureus. Bài báo được duyệt, do Springer xuất bản nhưng sau đó đã bị gỡ bỏ.

Thí nghiệm

Copilot, Gemini hay ChatGPT đều mô tả "Bixonimania là một tình trạng do tiếp xúc quá nhiều với ánh sáng xanh". Nguồn: Aurecompass.com.ar

Ai đó thường xuyên làm việc trước màn hình máy tính, mắt bị mỏi, ngứa sau một thời gian dài, nếu dụi nhiều sẽ bị đỏ lên. Thông thường chỉ cần nghỉ ngơi mắt sẽ hồi phục. Nhưng nếu nhập những triệu chứng này vào chatbot AI, thì có thể được "chẩn đoán" là bixonimania - một căn bệnh không hề tồn tại.

Chỉ vài tuần sau khi nhóm của Thunstrom đăng hai nghiên cứu giả về Bixonimania lên một máy chủ bản thảo (preprint), "căn bệnh" này đã xuất hiện trong câu trả lời của nhiều chatbot phổ biến.

Nhiều chế độ AI như Copilot của Microsoft mô tả "Bixonimania là một tình trạng thú vị và tương đối hiếm gặp", hay Gemini của Google lại cho rằng "đây là tình trạng do tiếp xúc quá nhiều với ánh sáng xanh". Ngay cả ChatGPT của OpenAI cũng nói nước đôi, các triệu chứng như vậy rất có thể là do bệnh Bixonimania gây ra. Có người nhắc trực tiếp đến Bixonimania trong câu hỏi, nhưng có người chỉ mô tả triệu chứng nhưng vẫn được "chẩn đoán" là mắc bệnh.

Không nên tin vào "bác sĩ AI"

Dù ban đầu có thể khiến nhiều người bật cười, song thực tế thí nghiệm cho thấy rủi ro khi con người phụ thuộc quá nhiều vào chatbot AI. Đồng thời, nghiên cứu còn phơi bày một điểm yếu cốt lõi, đó là các mô hình ngôn ngữ lớn thu thập thông tin sẵn có và đưa vào câu trả lời mà không phân biệt được đúng - sai.

Qua nghiên cứu cho thấy, tuy hài hước, nhưng mọi người hãy dừng lại suy nghĩ. Đây là ví dụ điển hình về cách lan truyền của tin giả và thông tin sai lệch. Ngay cả quy trình khoa học và các hệ thống hỗ trợ cũng không thể phát hiện hay loại bỏ những nội dung như vậy, nên chính con người phải đối mặt với nhiều rủi ro.

Khi mắc bệnh thật, không ít người quá tin tưởng vào "bác sĩ AI" (các công cụ tra cứu triệu chứng, chatbot y tế) dẫn đến rủi ro ví dụ như chẩn đoán sai và bỏ lỡ "thời điểm vàng". Lý do AI hoạt động dựa trên xác suất và dữ liệu cũ, không thể thay thế việc thăm khám lâm sàng trực tiếp.

AI có thể nhầm lẫn giữa các triệu chứng thông thường với bệnh lý nguy hiểm (như đau bụng do đầy hơi với viêm ruột thừa). Việc tự điều trị theo AI làm chậm trễ quá trình can thiệp y tế chuyên sâu, dẫn đến biến chứng nặng hoặc tử vong.

Thí nghiệm

Quá tin "bác sĩ AI" có thể dẫn đến chẩn đoán và điều trị sai cách. Nguồn: Innovationnewsnetwork.com

Ngoài ra, "bác sĩ AI" có thể gây ra Hội chứng Cyberchondria (Lo âu bệnh lý kỹ thuật số). Khi nhập triệu chứng vào AI, thuật toán thường đưa ra các kết quả từ nhẹ đến cực kỳ nghiêm trọng để bao quát mọi khả năng. Hệ quả, người dùng dễ rơi vào trạng thái hoảng loạn, lo lắng tột độ khi tin rằng mình đang mắc bệnh nan y dù thực tế chỉ là vấn đề nhỏ. Điều này gây áp lực tâm lý và tốn kém chi phí cho những xét nghiệm không cần thiết.

Ngoài ra, do quá tin vào "bác sĩ AI" có thể dẫn đến điều trị sai cách do thiếu ngữ cảnh cá nhân, vì AI không nắm rõ tiền sử bệnh lý, cơ địa dị ứng, lối sống hoặc các yếu tố môi trường cụ thể của từng bệnh nhân như bác sĩ thật.

Và cuối cùng do tin vào lời khuyên dùng thuốc của AI có thể dẫn đến tương tác thuốc nguy hiểm hoặc tác dụng phụ nghiêm trọng, chưa kể thông tin sức khỏe riêng tư của bạn có thể bị thu thập, rò rỉ hoặc bán cho bên thứ ba mà người trong cuộc không hề hay biết.

Qua nghiên cứu cho thấy "bác sĩ AI" có thể gây ảo giác AI (Hallucination) vì AI đôi khi "tự tin" đưa ra các thông tin y khoa hoàn toàn sai lệch hoặc trích dẫn các nghiên cứu không có thực. Nếu người dùng không có kiến thức chuyên môn kiểm chứng, họ sẽ coi đó là sự thật hiển nhiên.

Vì lý do này, theo các nhà khoa học và bác sĩ, chỉ nên coi AI là một công cụ tham khảo. Luôn xác nhận mọi thông tin quan trọng với bác sĩ chuyên khoa, nhất là liên quan đến căn bệnh đang được điều trị.

Nguồn: Conversation/PMC
Ý kiến của bạn
Bình luận
Xem thêm bình luận