Công nghệ

Đừng dễ dãi với AI

Nếu người dùng chỉ máy móc đồng ý và copy những câu trả lời AI trả về, các công cụ này sẽ trở nên lười biếng, chỉ trả lời những câu nhàm chán, một chiều.

Sự dễ dãi khi tiếp nhận nội dung AI tiềm ẩn nguy cơ tạo ra "vòng xoáy tử thần" khiến nội dung trùng lặp, đi lùi về chất lượng. Ảnh: GN.

Khi một chatbot AI đưa ra phản hồi khá tốt nhưng không chính xác như những gì bạn mong muốn, bạn có bao giờ yêu cầu trả lại một kết quả tốt hơn hay không?

Một nghiên cứu khoa học mới đây của Đại học California tại Los Angeles đã kết luận rằng nếu không ai góp ý cho các AI, nội dung mà chúng tạo ra từ văn bản, hình ảnh, mã code… có thể ngày càng trở nên giống nhau và mang thiên kiến nặng nề.

Trên thực tế, việc phản biện 2 chiều với một công cụ AI tổng quát để cải thiện đầu ra của nó có thể mất rất nhiều thời gian và công sức. Đối với những người không muốn phiền phức đầu tư thời gian cho khâu này, phong cách viết độc đáo của họ có thể bắt đầu biến mất khi phụ thuộc vào công cụ AI để trợ giúp viết email, giấy tờ và bất kỳ nội dung nào.

“Nếu học sinh sử dụng sự trợ giúp của ChatGPT cho bài tập về nhà, phong cách viết của họ rồi sẽ bị ảnh hưởng bởi ChatGPT”, nghiên cứu kết luận.

AI biến sai càng thêm sai

Các nhà khoa học đã chỉ ra rằng với quy mô lớn, nội dung được tạo ra với sự trợ giúp của AI sẽ kém độc đáo hơn những gì người dùng tạo ra nếu không có AI.

Mối lo ngại này càng cấp bách hơn khi nội dung do AI tạo ra đã lan truyền trên Internet và được dùng để để đào tạo thế hệ AI tiếp theo. Các nhà nghiên cứu chỉ ra đây chính là nguy cơ tạo ra "vòng xoáy tử thần" khiến nội dung trùng lặp, đi lùi về chất lượng. Dù hỏi bất kỳ câu hỏi nào, người dùng cũng chỉ một câu trả lời nhạt nhẽo, không có điểm đặc biệt.

Theo các nhà nghiên cứu, điều này không chỉ xảy ra ở nội dung văn bản. Sự nhàm chán có thể xuất hiện ở nhiều lĩnh vực có ứng dụng AI tổng hợp như viết code đến tạo hình ảnh và âm thanh.

AI hiểu lầm bộ phim The Big Bang Theory với Thuyết Big Bang.

Nghiên cứu cũng lưu ý rằng bất kỳ thành kiến nào có trong các công cụ AI, dù thiên hướng chính trị hay các vấn đề khác, dù cố ý hay vô ý, đều có thể được khuếch đại trên toàn xã hội nếu AI tạo sinh được áp dụng rộng rãi hơn.

Để giúp chống lại các kết quả AI tầm thường và duy trì nội dung đa dạng, các nhà nghiên cứu đề xuất các hãng nên tìm cách giúp người dùng trình bày yêu cầu với hệ thống AI dễ dàng hơn. Đơn cử như thiết kế AI tự động đặt các câu hỏi theo sau để có câu trả lời chi tiết hơn hoặc yêu cầu người dùng đánh giá câu trả lời.

Tuy nhiên, cách làm này không phải lúc nào cũng hiệu quả nếu bạn đang vội, Sébastien Martin, trợ lý giáo sư tại Trường Quản lý Kellogg của Đại học Northwestern và là đồng tác giả của bài báo, cho biết.

Điều quan trọng là các công ty AI nên có hướng dẫn, giới thiệu cụ thể về những khả năng cũng như hạn chế của hệ thống trí tuệ nhân tạo khi người dùng sử dụng. Điều này giúp họ hiểu những rủi ro, đồng thời tùy chỉnh và kiểm soát đầu ra của chatbot hơn, Maria De-Arteaga, trợ lý giáo sư tại Đại học Texas ở Austin, nhận định.

Đừng để AI tự “bơi” trong biển thông tin

Theo New York Times, cách sử dụng chatbot AI kém hiệu quả nhất là đặt câu hỏi và kỳ vọng chúng sẽ tự trả về tất cả kết quả chính xác. Trên thực tế, nếu được hướng dẫn tham khảo thông tin từ các nguồn đáng tin cậy, chẳng hạn như các trang web và tài liệu nghiên cứu uy tín, AI có thể thực hiện các yêu cầu với độ chính xác cao.

“Nếu bạn cung cấp thông tin phù hợp, chúng có thể làm được những điều thú vị với lượng thông tin đó. Nhưng nếu để chúng tự ‘bơi’, 70% những gì bạn nhận được đều không chính xác”, Sam Heutmaker, người sáng lập startup AI Context, cho biết.

Việc hướng dẫn các chatbot đến với các nguồn thông tin chất lượng cao như trang báo có uy tín, các ấn phẩm học thuật cũng có thể giúp giảm lượng thông tin sai lệch được tạo ra và lan truyền.

Để hạn chế kết quả đầu ra giảm sút, AI nên tự động đặt các câu hỏi theo sau để có câu trả lời chi tiết hơn hoặc yêu cầu người dùng đánh giá câu trả lời. Ảnh: New York Times.

Lấy một ví dụ đơn giản là các chatbot như ChatGPT và Bard có thể viết các công thức nấu ăn trông có vẻ hay về mặt lý thuyết, nhưng lại không hiệu quả trên thực tế. Bằng chứng là trong một thử nghiệm của tờ New York Times vào tháng 11/2023, các mô hình AI đã tạo ra công thức nấu ăn với món gà nướng khô quắt và một chiếc bánh ngọt cứng, thô ráp.

Trang tin cũng nhận kết quả thất vọng với các công thức nấu hải sản do AI tạo ra. Nhưng điều này đã thay đổi khi họ đính kèm các liên kết web tham khảo về công thức nấu ăn cho ChatGPT. Chatbot này đã lấy dữ liệu từ các trang web để lập kế hoạch bữa ăn và bảo người dùng truy cập các trang web để đọc công thức nấu ăn cụ thể. Điều đó đòi hỏi bạn phải có thêm những bước khác, nhưng kết quả nhận được lại hiệu quả hơn.

Khi nghiên cứu cho một bài viết về loạt trò chơi điện tử nổi tiếng trong quá khứ, New York Times cũng nhờ ChatGPT và Bard khảo sát về các trò chơi, tóm tắt cốt truyện của chúng. Tuy nhiên, 2 chatbot đã nhầm lẫn những chi tiết quan trọng liên quan đến tình tiết câu chuyện và nhân vật trong trò chơi.

Sau khi thử nghiệm nhiều công cụ AI khác nhau, tác giả nhận ra điều quan trọng là phải tập trung vào các nguồn đáng tin cậy và kiểm tra lại độ chính xác của dữ liệu. Cuối cùng, New York Times sử dụng một plugin AI bên ngoài, cho phép tải tệp PDF từ máy tính như tài liệu tham khảo. Sau đó, chatbot sẽ trả lời các câu hỏi của họ về tài liệu này, làm nổi bật các phần quan trọng, luận điểm chính.

Link bài gốcLấy link
https://znews.vn/tai-sao-ban-nen-nghiem-khac-voi-cac-chatbot-ai-post1475735.html