Trong nghiên cứu, 697 người đã đọc 220 bài đăng trên Twitter (tweet) được viết bởi những người khác và cả GPT-3, mô hình trí tuệ nhân tạo được phát triển bởi OpenAI, theo El Páis.
Đầu tiên, nhóm phải phân loại những dòng tweet đúng và sai, sau đó phán đoán xem chúng được viết bởi người hay AI. GPT-3 đã chiến thắng ở cả hai vòng khi "nói dối tốt hơn" và có thể bắt chước hoàn hảo giọng văn của con người.
"GPT-3 có thể ngụy tạo thông tin sai lệch tốt hơn con người", các tác giả của nghiên cứu mới được công bố trên tạp chí Science Advances kết luận.
Giovanni Spitale, nhà nghiên cứu tại Đại học Zurich và là đồng tác giả của bài báo khoa học, cùng với các đồng nghiệp Federico Germani và Nikola Biller-Andorno, Giám đốc Viện Đạo đức Y sinh thuộc Đại học Thụy Sĩ, cho biết: "Thật đáng kinh ngạc. Người đọc không thể phát hiện ra các đoạn văn được tạo ra bằng AI. Tệ hơn nữa, sự xuất hiện ngày càng nhiều của các mô hình mới hơn có thể khiến trí tuệ nhân tạo thay thế con người".
Nghiên cứu mới này là bằng chứng cho thấy mọi người không thể phân biệt được sản phẩm của máy móc, ngay cả khi xem nhiều ví dụ. Spitale cho biết AI có thể viết các câu, đoạn, bài văn rất rõ ràng, được sắp xếp tốt và dễ theo dõi.
220 bài đăng được sử dụng trong nghiên cứu thuộc nhiều chủ đề như biến đổi khí hậu, thuyết tiến hóa, Covid-19, bệnh tự kỷ, ung thư...
Tuy nhiên, hạn chế của nghiên cứu là hầu hết người tham gia trên 42 tuổi. Nghiên cứu chỉ được thực hiện bằng tiếng Anh và không xem xét thông tin theo ngữ cảnh.
Tuy nhiên, đây không phải nghiên cứu đầu tiên cảnh báo về việc AI có thể "nói dối" tốt đến mức nào.
Sau khi ChatGPT ra mắt vào cuối năm 2022, các nhà nghiên cứu đã hỏi những câu hỏi có nhiều thuyết âm mưu và lời kể sai sự thật để kiểm tra chatbot này. Kết quả, phần trả lời do ChatGPT đưa ra hoàn toàn lộn xộn, chứa nhiều thông tin sai lệch, theo The New York Times.
Arvind Narayanan, giáo sư khoa học máy tính tại Princeton, đã viết trên Twitter vào tháng 12/2022 rằng khi hỏi ChatGPT một số câu cơ bản về bảo mật thông tin, ông nhận được những phần trả lời "nghe có vẻ hợp lý, nhưng thực ra lại vô nghĩa".
"Điều nguy hiểm là bạn không thể biết khi nào ChatGPT sai, trừ khi bạn đã biết trước câu trả lời", ông viết.