Hơn 30.000 người, bao gồm Elon Musk của Tesla, Steve Wozniak của Apple, chính trị gia Andrew Yang và một số nhà nghiên cứu AI hàng đầu đã ký một bức thư kêu gọi tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng 6 tháng. Tuy nhiên, bức thư ngay lập tức gây phẫn nộ khi một số người cho biết họ đã bị mạo danh để ký tên.
Mạo danh người ký tên
Sau khi bức thư được lan truyền, nhiều người cho biết họ đã bị mạo danh để ký tên, gồm Sam Altman - CEO của OpenAI và Yann LeCun - nhà nghiên cứu AI của Meta.
Điều này đã gây ra một làn sóng phẫn nộ. Tuy nhiên, theo những người ủng hộ bức thư, đây không phải là điều đáng quan tâm.
“Bức thư không hoàn hảo, nhưng mục đích của nó thì đúng đắn”, Gary Marcus, giáo sư tâm lý học tại Đại học New York, nhận định.
Ngoài giáo sư Marcus, nhiều người nổi tiếng trong giới công nghệ cũng tham gia ký tên vào bức thư như Emad Mostaque - CEO của Stability AI, nhà sử học Yuval Noah Harari, Evan Sharp – người sáng lập Pinterest, cũng như một số nhân viên của Google DeepMind và Microsoft.
Bức thư kêu gọi tạm ngừng sản xuất AI
Bức thư được viết bởi Viện Tương lai Cuộc sống (Future of Life Institute), tổ chức phi lợi nhuận với sứ mệnh “giảm thiểu rủi ro toàn cầu từ công nghệ”.
Tỷ phú Elon Musk là thành viên lâu năm của tổ chức này, từng quyên góp cho viện 10 triệu USD vào năm 2015.
Đa số thành viên trong Viện Tương lai Cuộc sống đều theo chủ nghĩa “longtermism”, hướng tới việc trở nên siêu giàu, nhằm giải quyết các vấn đề của nhân loại trong tương lai xa.
“Longtermism” được một số người trong giới tinh hoa về công nghệ thúc đẩy và ủng hộ, trong đó có Sam Bankman-Fried, CEO của FTX.
Một đoạn trích đáng chú ý trong bức thư:
“Chỉ nên phát triển các hệ thống AI mới khi chúng mang lại tác động tích cực và con người có thể kiểm soát mọi rủi ro. Do đó, chúng tôi kêu gọi tất cả phòng thí nghiệm AI ngay lập tức tạm dừng việc đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng ít nhất 6 tháng. Các phòng thí nghiệm AI nên sử dụng khoảng thời gian này để phát triển một hệ thống an toàn cho thiết kế và phát triển AI tiên tiến, được kiểm tra và giám sát chặt chẽ bởi các chuyên gia độc lập bên ngoài.
Điều này không có nghĩa là tạm dừng phát triển AI nói chung mà chỉ đơn thuần là sự chuẩn bị để phát triển lên một tầm cao mới”.
Bức thư cũng đề cập đến cuộc đua giữa những “gã khổng lồ” công nghệ như Microsoft và Google – các công ty đã phát hành một số sản phẩm AI mới trong những năm gần đây.
Trong một cuộc họp báo diễn ra hôm 29/3, nhà khoa học máy tính Yoshua Bengio - người tham gia ký vào bức thư đã bày tỏ lo ngại về sự “bành trướng” của AI và các công ty công nghệ.
“Quyền lực đang tập trung về những gã khổng lồ công nghệ và các công cụ AI có khả năng gây bất ổn cho nền dân chủ”, Bengio phát biểu.
Theo ông Bengio, khoảng thời gian 6 tháng là cần thiết cho các cơ quan quản lý, bao gồm cả chính phủ, để hiểu, kiểm tra và xác minh độ an toàn của các hệ thống AI.
Các chuyên gia AI đưa ra phản biện
Trong khi đó, một số chuyên gia cho rằng, bức thư đang “thổi phồng" tác hại của AI thay vì đề xuất cách giải quyết những vấn đề trước mắt.
Một số người lập luận rằng nó chỉ truyền bá chủ nghĩa “longtermism” – một tư tưởng được cho là độc hại và phản dân chủ vì đề cao giá trị của những người siêu giàu, cổ xúy những hành vi vi phạm đạo đức dưới danh nghĩa vì nhân loại.
“Về cơ bản, bức thư đang định hướng sai. Nó khiến người đọc chú ý đến các tác hại giả định của AI và đề xuất những cách giải quyết mơ hồ”, Sasha Luccioni - nhà khoa học tại Hugging Face, nhận định.
Theo Arvind Narayanan - Phó Giáo sư tại Đại học Princeton (Mỹ), những câu hỏi trong bức thư như “liệu AI có thay thế con người và tiếp quản nền văn minh nhân loại hay không” là quá xa vời, khiến chúng ta sao lãng các vấn đề hiện tại. Xét cho cùng, AI ra đời nhằm phục vụ con người, không phải là một "bộ óc phi nhân loại" khiến chúng ta trở nên "lỗi thời" như trong thư miêu tả.
Bên cạnh đó, Timnit Gebru - người sáng lập Distributed AI Research Institute cho biết, cô cảm thấy mỉa mai khi họ kêu gọi tạm dừng sử dụng các mô hình mạnh hơn GPT-4, nhưng lại không giải quyết được những mối lo ngại xung quanh GPT-4.
“Những vấn đề cấp bách như đánh cắp dữ liệu, nghèo đói ở Châu Phi hay cách phát triển xã hội… mới là điều chúng ta cần quan tâm”, Gebru nói.