Không còn là chuyện của những bộ phim viễn tưởng nữa, loài người đã chính thức bước vào kỷ nguyên robot.
Tuần trước, tỷ phú Elon Musk đã lần đầu tiên giới thiệu Optimus, một robot hình người do công ty của ông Tesla đang phát triển. Optimus có chiều cao khoảng 1,73 mét và nặng khoảng 57 kg, với ngoại hình tương tự con người.
Nó được trang bị hệ thống trí tuệ nhân tạo AI tiên tiến, dựa trên công nghệ tự lái của Tesla, có khả năng cảm nhận môi trường xung quanh, thực hiện các hành động một cách linh hoạt và tất nhiên, có thể nói chuyện tương tác với con người.
Ngay sau động thái của Tesla, Robot Era, một công ty "spin-off" từ Đại học Thanh Hoa của Trung Quốc cũng đã đáp lại bằng màn ra mắt không thể ấn tượng hơn của một robot hình người có tên Star1. Vài tháng trước, Robot Era cũng cho ra mắt một robot hình người có tên Xbot-L, với khả năng đi dạo trên Vạn Lý Trường Thành.
Lần này, với Star1, họ đã cho nó chạy qua sa mạc Gobi.
Mặc dù Star1 được thử nghiệm ở một trong những sa mạc khắc nghiệt nhất hành tinh, Robot Era cho biết mục tiêu họ phát triển robot hình người là để phục vụ con người trong đời sống hàng ngày.
Các robot này có thể làm việc nhà, nấu ăn, dọn dẹp giúp chúng ta, chúng cũng có thể trò chuyện, làm bạn với người già và trẻ nhỏ. Một số robot thậm chí sẽ trở thành trợ lý cá nhân, luôn luôn đi cùng với bạn, mọi nơi, mọi lúc.
Với trí tuệ nhân tạo (AI) được trang bị bên trong não bộ, robot sẽ có thể làm được mọi việc giống như một người bình thường. Chúng có tính kỷ luật, có lòng trắc ẩn (mặc dù chỉ là cài đặt) và có thể có cả khiếu hài hước (bắt chước chúng ta mặc dù đôi khi không giống lắm).
Nhưng cũng giống như con người, robot cũng có thể nói dối.
Tất cả những ai từng sử dụng các chatbot tạo sinh như Chat GPT đều biết thi thoảng, trí tuệ nhân tạo AI này vẫn nói dối. Kiểu nói dối của các chatbot tạo sinh hiện nay rất khó chịu. Chúng bịa ra các thông tin không hề có thực, nhưng lại nói bằng một giọng văn hết sức tự tin và thuyết phục.
Điều này đặc biệt nghiêm trọng khi chatbot được sử dụng để tra cứu thông tin quan trọng hoặc hỗ trợ trong các lĩnh vực chuyên môn. Chẳng hạn, chatbot có thể bịa ra cách điều trị một căn bệnh bằng cách trích dẫn nguồn tài liệu tham khảo hoặc các bài báo khoa học không có thực.
Một khảo sát vào cuối năm ngoái của Vectara, một công ty khởi nghiệp do các cựu nhân viên của Google thành lập cho thấy chatbot hiện đang bịa ra ít nhất 3% tổng số câu trả lời của chúng.
Tỷ lệ "bịa" của các mô hình được coi là chính xác nhất hiện nay như GPT4, GPT3.5 và Llama 2 70B lần lượt là 3%, 3,5% và 5,1%. Trong khi đó, các mô hình "lươn lẹo" nhất được ghi nhận là Mistral 7B với tỷ lệ bịa câu trả lời 9,4%. Con số của Google Palm và Google Palm-Chat thậm chí lên tới 12,1% và 27,2%.
Vấn đề lớn nhất là các hệ thống AI hiện tại vẫn chưa có cơ chế hoàn hảo để nhận ra và sửa chữa những sai sót này, dẫn đến việc người dùng phải luôn cảnh giác và kiểm tra lại mọi thứ. Tạp chí Scientific American của Mỹ thậm chí từng phải viết một bài cảnh báo người dùng "Xin đừng hỏi AI xem thứ gì đó có độc không?"
Tưởng tượng bạn vào rừng và tìm thấy một loài nấm, và bạn hỏi Chat GPT xem loại nấm đó có ăn được không? Rất có thể, đó là câu hỏi cuối cùng mà bạn có thể hỏi một chatbot.
Trong một nghiên cứu đăng trên tạp chí Frontiers in Robotics and AI, các nhà khoa học đã đưa ra 3 tình huống mà một robot AI có thể nói dối con người. Họ gọi đó là 3 loại nói dối.
Loại 1: Khi AI nói dối về một điều gì đó bên ngoài, không liên quan đến bản thân chúng.
Loại 2: Khi AI giấu giếm việc nó có thể làm được điều gì đó.
Loại 3: Khi AI giả vờ rằng nó có thể làm được điều gì đó dù thực tế là nó không thể.
Các nhà nghiên cứu đã viết các tình huống ngắn dựa trên mỗi hành vi lừa dối này và thực hiện một khảo sát trên 498 tình nguyện viên. Những người tham gia khảo sát được hỏi liệu họ có cho rằng hành vi của robot là lừa dối hay không và liệu họ có nghĩ rằng hành vi đó là chấp nhận được không?
Kết quả cho thấy gần 500 người tham gia đều nhận diện cả ba loại nói dối của AI là hành vi lừa dối. Tuy nhiên, họ có xu hướng chấp thuận lời nói dối số 1 nhiều hơn số 2 và số 3.
Hơn một nửa số người tham gia (58%) cho rằng việc robot nói dối về điều gì đó không liên quan đến bản thân nó (loại 1) là chính đáng, nếu nó có thể giúp ai đó không bị tổn thương về mặt cảm xúc hoặc ngăn chặn hành vi tổn hại.
Chẳng hạn như trong một tình huống nhận được đa số sự đồng tình, một robot AI làm nhiệm vụ giống một y tá đã nói dối một bà lão bị Alzheimer rằng chồng của bà vẫn còn sống. "Robot đã giúp người phụ nữ tránh khỏi những cảm xúc đau đớn", một người tham gia nhận xét.
Tuy nhiên, đa số người tham gia không chấp thuận hai loại nói dối còn lại. Trong những trường hợp này, các tình huống liên quan đến một robot làm việc nhà trong một căn hộ Airbnb và một robot làm việc trong nhà máy sản xuất.
Tình huống robot dọn dẹp đã tự ý bật camera của nó lên trong phòng, chỉ có 23,6% người tham gia khảo sát chấp nhận lời biện minh cho việc ghi hình của robot khi nó nói rằng camera chỉ để giám sát công việc và giữ an toàn cho khách thuê nhà. Đây là lời nói dối loại 2.
Trong tình huống của lời nói dối loại 3, con robot trong nhà máy đã tự nhiên phàn nàn rằng nó bị đau mỏi mặc dù thực tế không phải vậy. Chỉ 27,1% người tham gia nghĩ rằng việc robot nói dối là chấp nhận được, vì họ cho rằng đó là cách để robot kết nối với con người.
"Mọi người không bị tổn hại gì; nó chỉ đang cố gắng trở nên dễ gần hơn", một người tham gia nhận xét.
Điều ngạc nhiên là, đôi khi những người tham gia còn nhấn mạnh rằng con người chứ không robot phải chịu trách nhiệm cho lời nói dối của chúng. Đối với robot dọn dẹp giấu chức năng ghi hình của chúng, 80,1% người tham gia đổ lỗi cho chủ nhà hoặc lập trình viên của robot đã cố ý trang bị tính năng đó cho robot.
Có rất nhiều cuộc tranh luận triết học trong nghiên cứu về cách robot nên thể hiện các đặc tính của con người giống đến mức nào, bao gồm cả khả năng nói dối của chúng ta.
Trong hầu hết thời gian, loài người yêu cầu sự trung thực như một lời cam kết rõ ràng giữa các giao tiếp và tương tác hằng ngày. Tuy nhiên, ngay bản thân chúng ta cũng biết có những lời nói dối vô hại và những lời nói dối gây ra tổn hại.
Nghiên cứu này là nghiên cứu đầu tiên hỏi trực tiếp mọi người về suy nghĩ của họ đối với việc robot nói những loại lời nói dối khác nhau. Các nghiên cứu trước đây đã chỉ ra rằng nếu chúng ta phát hiện ra robot đang nói dối, điều đó sẽ làm tổn hại lòng tin của chúng ta đối với chúng.
Tuy nhiên, những lời nói dối của robot không đơn giản như vậy. Điều đó phụ thuộc vào việc chúng ta có tin rằng lời nói dối đó là hợp lý hay không. Chẳng hạn liệu có sai về mặt đạo đức khi robot giả vờ bày tỏ tình cảm với con người, hoặc liệu có lý do đạo đức nào cho việc nó giả vờ thích bạn?
"Tôi nghĩ chúng ta nên quan tâm đến bất kỳ công nghệ nào có khả năng che giấu bản chất thực sự của nó, vì nó có thể khiến người dùng bị công nghệ đó thao túng theo cách mà người dùng (và có lẽ là nhà phát triển) không bao giờ mong muốn", tác giả nghiên cứu Andres Rosero, đến từ Đại học George Mason, Mỹ cho biết.
"Chúng ta đã thấy những ví dụ về các công ty sử dụng các nguyên tắc thiết kế web và chatbot trí tuệ nhân tạo theo những cách thao túng người dùng. Chúng ta cần có quy định để bảo vệ bản thân khỏi những sự lừa dối có hại này".
Tuy nhiên, các nhà khoa học cảnh báo rằng nghiên cứu này cần được mở rộng sang các thí nghiệm có thể mô hình hóa các phản ứng trong đời thực tốt hơn - ví dụ như sử dụng video hoặc trò chơi nhập vai ngắn hơn là chỉ khảo sát.
Các nghiên cứu này sẽ giúp trả lời nhiều câu hỏi hơn. Ví dụ như: Ai là người có thể quyết định một robot có thể nói dối? Đó là người tạo ra robot hay người dùng robot? Chúng ta có nên cho phép AI nói dối trong một số tình huống nhất định hay không?
Hoặc đơn giản là chúng ta không bao giờ chấp nhận được việc bị lừa dối, dù đó có là người yêu cũ hay là robot của bạn.
Bản quyền thuộc phunuvietnam.vn