Vào năm 2018 tại Diễn đàn Kinh tế Thế giới ở Davos (Thụy Sĩ), Giám đốc điều hành Google Sundar Pichai nhận định: “AI có lẽ là điều quan trọng nhất mà nhân loại từng tìm ra. Tôi nghĩ về nó như một thứ có ảnh hưởng rộng lớn hơn điện hay lửa”.
Theo Vox, thời điểm đó phát biểu của Pichai vấp phải sự hoài nghi lớn. Nhưng gần 5 năm sau, lời tiên đoán dần trở thành hiện thực.
Tiến bộ vượt bậc của AI
Bản dịch do AI thực hiện tiên tiến đến mức sắp xóa bỏ rào cản của các ngôn ngữ thông dụng trên Internet. Các giáo sư đại học bối rối vì chương trình tạo văn bản AI giờ đây có thể viết bài luận tốt như sinh viên đại học, khiến việc gian lận trở nên dễ dàng, không máy phát hiện đạo văn nào có thể xác định được.
Tranh cãi nổ ra khi một tác phẩm nghệ thuật do AI vẽ chiến thắng tại trong một cuộc thi tại Mỹ. Công cụ mới có tên Copilot sử dụng máy học để dự đoán và hoàn thành các dòng mã máy tính. Tương lai AI có thể tự lập trình đã ngày một cận kề.
Hệ thống AlphaFold của DeepMind, sử dụng AI để dự đoán cấu trúc 3D của hầu hết loại protein tồn tại, ấn tượng đến mức tạp chí Science đã đặt tên cho nó là Bước đột phá của năm 2021.
Trong khi sự đổi mới trong các lĩnh vực công nghệ khác có thể diễn ra chậm chạp – chẳng hạn như ý tưởng về metaverse - AI đang tiến bộ vượt bậc. Tốc độ phát triển nhanh chóng đang tự nuôi sống chính nó. Các doanh nghiệp ngày càng dành nhiều lực hơn vào phát triển AI và sức mạnh tính toán.
Tất nhiên, việc chuyển giao các lĩnh vực rộng lớn trong xã hội loài người cho các thuật toán mà chúng ta hầu như không hiểu sẽ tạo ra rất nhiều vấn đề. Điều này đã bắt đầu châm ngòi cho phản ứng pháp lý xung quanh vấn đề phân biệt đối xử và thiên vị của AI.
Nhưng với tốc độ phát triển chóng vánh, mất một thời gian xã hội mới đưa ra khuôn khổ quy định phù hợp. Chúng ta chỉ giải quyết các nhược điểm của AI khi chúng rõ ràng và hiện hữu.
Chiều hướng nguy hiểm
Các hệ thống trí tuệ nhân tạo do con người xây dựng ngày càng mạnh mẽ và phổ biến. Nhiều công ty công nghệ đặt mục tiêu phát triển cái gọi là trí tuệ tổng quát nhân tạo (AGI) — hệ thống làm thay mọi việc của con người.
Nhưng tạo ra thứ gì đó thông minh hơn chúng ta, có khả năng đánh lừa và đánh lạc hướng chúng ta — và sau đó chỉ hy vọng nó không muốn làm hại con người — là một kế hoạch tồi tệ.
Theo Vox, chúng ta cần thiết kế những hệ thống có thể hiểu bên trong, tuân thủ những mục tiêu được định hình để trở thành những hệ thống an toàn. Tuy nhiên, hiện tại chúng ta không hiểu rõ về các hệ thống đang xây dựng, để biết liệu có thiết kế chúng an toàn hay không trước khi quá muộn.
Có những chuyên gia đang tìm cách phát triển các kỹ thuật để hiểu hệ thống AI và đảm bảo rằng chúng sẽ an toàn khi vận hành. Nhưng hiện lĩnh vực an toàn còn thua xa khoản đầu tư tăng vọt vào việc làm cho các hệ thống AI mạnh hơn, có khả năng cao hơn và nguy hiểm hơn.
Như nhà lập trình trò chơi điện tử kỳ cựu John Carmack phát biểu khi thành lập công ty khởi nghiệp AI mới, “AGI hoặc phá sản, theo cách của khoa học điên rồ”. Vox lo sợ loại “khoa học điên rồ” này có thể giết chết tất cả chúng ta.
Máy tính có thể suy nghĩ
Bộ não con người là bộ máy tư duy có khả năng cao và phức tạp nhất mà sự tiến hóa từng đạt đến. Đó là lý do tại sao loài người — một loài không mạnh lắm, không nhanh lắm và cũng không cứng rắn lắm — đứng đầu chuỗi thức ăn của hành tinh. Dân số liên tục tăng hàng năm trong khi rất nhiều động vật hoang dã đứng trước nguy cơ tuyệt chủng.
Từ những năm 1940, các nhà khoa học bắt đầu nảy ra một ý tưởng vừa nguy hiểm vừa hấp dẫn: Điều gì sẽ xảy ra nếu chúng ta thiết kế các hệ thống máy tính thông qua một cách tiếp cận tương tự như cách thức hoạt động của bộ não con người?
Tâm trí của chúng ta được tạo thành từ các tế bào thần kinh (neuron) gửi tín hiệu đến các tế bào thần kinh khác thông qua các khớp thần kinh liên kết. Sức mạnh kết nối giữa các tế bào thần kinh có thể phát triển hoặc suy yếu dần theo thời gian.
Các kết nối được sử dụng thường xuyên có xu hướng trở nên mạnh mẽ hơn, những kết nối bị bỏ quên có xu hướng suy yếu dần. Tất cả các tế bào thần kinh và kết nối đó mã hóa trí nhớ và bản năng, khả năng phán đoán và kỹ năng của chúng ta.
Vậy tại sao không xây dựng một máy tính theo cách đó? Năm 1958, Frank Rosenblatt đề cập đến một mô hình đơn giản dựa trên một bộ não. Ông đã huấn luyện để nhận ra các mẫu.
“Có thể xây dựng những bộ não tự tái tạo trên dây chuyền lắp ráp và có ý thức về sự tồn tại của chúng”, ông lập luận. Rosenblatt không sai, nhưng đã đi trước thời đại quá xa. Thời điểm đó, máy tính không đủ mạnh và dữ liệu không đủ phong phú để làm cho phương pháp trở nên khả thi.
Mãi cho đến những năm 2010, khi máy tính mạnh hơn 1.000 tỷ lần, người ta mới thấy rõ ràng rằng phương pháp này có thể giải quyết các vấn đề thực tế chứ không phải trò chơi.
Kỹ thuật được Rosenblatt khởi xướng - hiện được gọi là học sâu - bắt đầu vượt trội hơn đáng kể so với các phương pháp tiếp cận khác như thị giác máy tính, ngôn ngữ, dịch thuật, dự đoán và vô số vấn đề khác.
Viễn cảnh tồi tệ nhất
Điều gì khiến AI khác biệt so với những công nghệ mạnh mẽ, mới nổi khác như công nghệ sinh học, thứ có thể gây ra những đại dịch khủng khiếp, hay vũ khí hạt nhân, thứ có thể hủy diệt thế giới trong vài giây?
Sự khác biệt là những công cụ này - dù có thể phá hoại đến mức nào - phần lớn nằm trong tầm kiểm soát của con người. Nếu nó gây ra thảm họa, đó là do chúng ta đã cố tình chọn sử dụng, hoặc không ngăn chặn được việc những cá nhân ác ý lạm dụng chúng hoặc vận hành một cách bất cẩn. AI sẽ nguy hiểm hơn vì đến một ngày nào đó có thể không còn nằm trong tầm kiểm soát.
“Điều đáng lo ngại là nếu chúng ta tạo ra và mất kiểm soát đối với những thứ như vậy, trong khi mục tiêu của chúng có vấn đề, thì kết quả sẽ không chỉ là những thiệt hại trước mắt, như máy bay rơi hoặc nhà máy hạt nhân rò rỉ. Thay vào đó, những tác nhân không phải con người, có năng lực cao, sẽ cố gắng tranh giành và duy trì kiểm soát đối với môi trường của chúng”, Joseph Carlsmith, nhà phân tích tại Open Philanthropy Project, một dự án nghiên cứu trí tuệ nhân tạo cho biết.
Ô nhiễm hạt nhân rất khó để làm sạch và ngăn chặn sự lan rộng. Nhưng nó không cố gắng tránh né bị dọn dẹp, hoặc cố gắng để lây lan - và đặc biệt là không thông minh hơn con người.
Carlsmith cho rằng viễn cảnh các hệ thống do con người tạo ra sẽ chiếm quyền kiểm soát vĩnh viễn, giết chết hầu hết nhân loại hoàn toàn là chuyện khoa học viễn tưởng. Tuy nhiên, ý tưởng này được lấy cảm hứng từ chính những lời cảnh báo của các nhà khoa học hàng đầu khi họ chứng kiến sự xuất hiện của AI, chứ không phải ngược lại.
Những cảnh báo đáng sợ
Trong bài báo nổi tiếng đã đưa Alan Turing trở thành tên gọi của bài đánh giá mức độ thông minh của hệ thống trí tuệ nhân tạo, nhà khoa học tiên phong về AI viết:
“Có rất nhiều việc phải làm để cố gắng duy trì trí thông minh của một người theo tiêu chuẩn do máy móc đặt ra. Có vẻ như một khi phương pháp tư duy của máy móc bắt đầu, sẽ không mất nhiều thời gian để vượt xa sức mạnh yếu ớt của chúng ta. … Do đó, ở một số giai đoạn, chúng ta phải nghĩ đến việc máy móc nắm quyền kiểm soát”.
IJ Good, một nhà toán học cộng tác chặt chẽ với Turing, cũng đưa ra kết luận tương tự. Trong một đoạn trích từ những ghi chú chưa được xuất bản của Good vào năm 2009, ông viết: “Vì sự cạnh tranh toàn cầu, chúng ta không thể ngăn máy móc nắm quyền... chúng ta là những con chuột Lemming”. Ông cho rằng kết cục có lẽ là sự tuyệt chủng của loài người.
“Bạn có thể không phải là một người thù ghét kiến, có ác ý giẫm lên chúng, nhưng nếu bạn phụ trách một dự án thủy điện năng lượng xanh và có một ổ kiến trong vùng bị ngập lụt, tội nghiệp lũ kiến quá. Chúng ta đừng đặt nhân loại vào vị trí của những con kiến đó”, nhà vật lý thiên tài Stephen Hawking viết trong một cuốn sách được xuất bản sau khi ông qua đời năm 2018.
Theo nhận định của Vox, trong thời gian dài, an toàn AI bị xem là một vấn đề xa vời. Đó là lý do chỉ một số ít nhà nghiên cứu cố gắng tìm ra cách làm cho công nghệ này an toàn. Giờ đây, con người có thêm một vấn đề ngược lại: Thách thức đã hiện hữu, không rõ chúng ta có giải quyết kịp thời hay không.