Các công cụ AI thế hệ mới như ChatGpt của Openai, ứng dụng internet dành cho người tiêu dùng phát triển nhanh nhất mọi thời đại, đã gây bão trên toàn thế giới. Chúng được sử dụng trong mọi lĩnh vực, từ giáo dục đến y học và rất thú vị khi “tán gẫu” cùng. Mặc dù các hệ thống AI hiện tại có khả năng tạo ra những chiến công ngoạn mục nhưng chúng cũng tiềm ẩn rủi ro.
Nhiều quốc gia đã ra quy định về AI nhưng rời rạc và không có sự phối hợp toàn cầu
Europol đã cảnh báo rằng chúng có thể làm gia tăng tội phạm mạng. Nhiều chuyên gia AI đang lo lắng sâu sắc về khả năng tạo ra một cơn sóng thần thông tin sai lệch, gây ra mối đe dọa sắp xảy ra đối với cuộc bầu cử tổng thống Mỹ vào năm 2024, và cuối cùng là đối với chính nền dân chủ, bằng cách tạo ra một bầu không khí hoàn toàn không tin tưởng. Các nhà khoa học đã cảnh báo rằng những công cụ mới này có thể được sử dụng để thiết kế những chất độc chết người mới lạ. Những người khác suy đoán rằng về lâu dài có thể có một rủi ro thực sự đối với chính loài người.
Trong một phân tích gần đây về GPT-4, chatbot tiên tiến nhất của OpenAI, công ty đã thừa nhận 12 mối lo ngại nghiêm trọng - mà không cung cấp giải pháp chắc chắn cho bất kỳ vấn đề nào trong số đó.
Chỉ riêng trong năm qua, 37 quy định đề cập đến AI đã được thông qua trên toàn cầu; Ý đã đi xa đến mức cấm ChatGPT. Nhưng sự phối hợp toàn cầu vẫn rất ít ỏi. Ngay cả trong một số quốc gia cũng tồn tại sự bất đồng, chẳng hạn như luật của các bang ở Mỹ, khiến việc giám sát bị chia rẽ. Một sự chắp vá không đồng đều, có kẽ hở sẽ không mang lại lợi ích và sự an toàn cho ai.
Tuy nhiên, vẫn có nhiều thỏa thuận về các nguyên tắc AI có trách nhiệm cơ bản, chẳng hạn như an toàn và độ tin cậy, tính minh bạch, khả năng giải thích, khả năng diễn giải, quyền riêng tư, trách nhiệm giải trình và sự công bằng. Và hầu hết mọi người đều đồng ý rằng phải làm một điều gì đó - một cuộc thăm dò do Trung tâm Quản lý AI công bố cho thấy 91% trong số mẫu đại diện gồm 13.000 người trên 11 quốc gia đồng ý rằng AI cần được quản lý cẩn thận.
Chính trong bối cảnh này, Gary Marcus và Anka Reuel đã kêu gọi cần triển khai ngay lập tức một Cơ quan quốc tế toàn cầu (IAAI), trung lập, phi lợi nhuận về AI, với sự hướng dẫn của các chính phủ, công ty công nghệ lớn, tổ chức phi lợi nhuận, học viện và xã hội, nhằm mục đích hợp tác tìm kiếm các giải pháp quản trị và kỹ thuật để thúc đẩy các công nghệ AI an toàn, bảo mật và hòa bình.
Gary Marcus là Giáo sư danh dự tại Trường Đại học New York và là người sáng lập kiêm giám đốc điều hành của Geometric Intelligence, một công ty máy học được Uber mua lại. Anka Reuel là nghiên cứu sinh tiến sĩ về khoa học máy tính tại Đại học Stanford và là thành viên sáng lập của KIRA, một tổ chức tư vấn tập trung vào việc thúc đẩy AI có trách nhiệm.
Thế giới không có nhiều thời gian và không thể lãng phí thời gian
Thời điểm cho một cơ quan như vậy đã đến, như chính giám đốc điều hành Google Sundar Pichai đã nói vào ngày 16/4. IAAI cũng có thể triệu tập các chuyên gia và phát triển các công cụ để giải quyết việc lan truyền thông tin sai lệch. Về mặt chính sách, IAAI có thể đặt ra vấn đề việc lan truyền thông tin sai lệch trên diện rộng có thể bị trừng phạt như thế nào.
Về khía cạnh kỹ thuật, trọng tâm ban đầu nên là phát triển các công cụ tự động hoặc bán tự động để trả lời các câu hỏi cơ bản, chẳng hạn như “Có bao nhiêu thông tin sai lệch ngoài kia?”, “Số lượng thông tin đó tăng nhanh như thế nào?” và “Ai đang góp phần gây ra những vấn đề như vậy?”
Một điều trớ trêu là các công nghệ hiện tại tạo ra thông tin sai lệch nhưng lại không phát hiện ra được những thông tin sai lệch. Những đổi mới kỹ thuật sẽ rất cần thiết và mang lại lợi ích công cộng lớn, nhưng có thể có hoặc không đủ lợi ích thương mại trực tiếp – do đó cần có sự hỗ trợ độc lập của một thực thể như IAAI.
Một tổ chức kiểu cộng tác toàn cầu như IAAI là một công việc to lớn. Nhiều bên liên quan cần phải tham gia. Cả rủi ro ngắn hạn và dài hạn đều phải được xem xét. Sẽ không có giải pháp nào thành công trừ khi cả chính phủ và các công ty đều tham gia, và không chỉ họ, công chúng thế giới cũng cần được lên tiếng.
May mắn thay, đã có tiền lệ cho sự hợp tác toàn cầu như vậy. Ví dụ, vào cuối thế chiến thứ hai, vũ khí hạt nhân đã làm dấy lên nỗi sợ hãi sâu sắc và sự không chắc chắn về cách sử dụng công nghệ mới. Đáp lại, 81 quốc gia đã nhất trí thông qua quy chế của Cơ quan Năng lượng Nguyên tử Quốc tế để “thúc đẩy các công nghệ hạt nhân an toàn, đảm bảo và hòa bình”, với các quyền kiểm tra. Một loại mô hình khác nhẹ nhàng hơn, ít tập trung hơn vào việc thực thi, là Tổ chức Hàng không Dân dụng Quốc tế, trong đó các quốc gia thành viên đưa ra luật của riêng họ nhưng có sự tư vấn từ một cơ quan toàn cầu. Để có được mô hình phù hợp và đưa ra những lựa chọn phù hợp, sẽ cần có thời gian, trí tuệ và sự hợp tác.
Tất nhiên, những thách thức và rủi ro của AI rất khác và ở một mức độ đáng lo ngại, vẫn chưa được nhận biết đầy đủ. Do mọi thứ đang chuyển động rất nhanh, vì vậy thế giới không có nhiều thời gian và không thể lãng phí thời gian. Một tổ chức phi lợi nhuận toàn cầu, trung lập với sự hỗ trợ từ chính phủ, doanh nghiệp lớn và xã hội là một bước khởi đầu quan trọng.