Theo Reuters, vào ngày 29/3, tỷ phú Elon Musk cùng nhiều chuyên gia công nghệ đã cùng ký vào lá thư do Future of Life Institute (Viện Tương lai Sự sống) đưa ra kêu gọi tạm dừng cuộc đua phát triển trí tuệ nhân tạo (AI).
Nổi bật trong nhóm người phản đối sự phát triển AI có thể kể đến Steve Wozniak - đồng sáng lập Apple, Yuval Noah Harari - tác giả sách và nhà sử học, Emad Mostaque - CEO của Stability AI cùng nhiều giáo sư và chuyên gia đã dành phần lớn sự nghiệp để nghiên cứu về trí tuệ nhân tạo như Yoshua Bengio hay Stuart Russell.
Musk cùng những nhân vật kiệt xuất của giới công nghệ lập luận rằng loài người vẫn chưa biết đến toàn bộ phạm vi rủi ro liên quan đến việc phát triển AI. Bức thư cũng đưa ra lo ngại cuộc chạy đua phát triển AI sẽ gây ra nguy cơ sâu sắc cho xã hội và nhân loại, bên cạnh những tác động 'thảm khốc'.
Nỗi sợ của giới tinh hoa công nghệ
Trong cuộc phỏng vấn với ABC News hôm 16/3, CEO Sam Altman của OpenAI - cha đẻ ChatGPT cũng từng nhấn mạnh rằng cả nhà làm luật và xã hội đều cần quan tâm đến chatbot AI để phòng tránh những hậu quả của nó đến nhân loại.
“Chúng ta cần phải cẩn thận và nên cảm thấy vui vẻ vì mình đã bắt đầu có ý thức cảnh giác với AI”, Altman khẳng định trong buổi phỏng vấn.
Thực tế, các lập trình viên, nhà nghiên cứu hay nhiều CEO công nghệ nổi tiếng đều đã gióng lên hồi chuông cảnh báo về trí tuệ nhân tạo trong nhiều thập kỷ qua.
Tuy nhiên, công nghệ này vẫn tìm được đường vào hầu hết mọi ngóc ngách trong cuộc sống hiện đại, từ các công cụ tìm kiếm, cho đến ôtô tự hành hay đề xuất của những ứng dụng giải trí như Netflix.
Nguồn gốc của ChatGPT phải kể đến từ những năm 1960, khi giáo sư Joseph Weizenbaum tạo ra chatbot đầu tiên trên thế giới có tên Eliza.
Kể từ đó, chatbot đã ngày càng thông minh và tương tác nhiều hơn, ví dụ như Alexa của Amazon và Siri của Apple.
Mặc dù vậy, cha đẻ của chatbot lại là người đầu tiên cảnh báo về rủi ro của công nghệ này. Sau thành công của Eliza, nhiều dự án ở Mỹ được thành lập nhằm giúp máy tính hiểu được lời nói của con người.
Weizenbaum tin rằng điều này sẽ dẫn đến việc máy tính sẽ theo dõi rộng rãi cách con người giao tiếp hàng ngày, từ đó chọn ra các cuộc thảo luận liên quan cho các đặc vụ chính phủ.
Ngoài ra, Weizenbaum cho rằng với số tiền cần thiết để tạo ra hệ thống xử lý giọng nói quy mô lớn, chỉ có các cơ quan chính phủ hoặc các tập đoàn lớn mới có thể đảm nhận chúng.
Trong khi đó, thiên tài vật lý Stephen Hawking dù là người dựa vào AI để có thể giao tiếp hàng ngày do mắc chứng xơ cứng teo cơ một bên (ALS), từng đưa ra cảnh báo rằng công nghệ này đang trở nên thông minh một cách nguy hiểm và thậm chí có thể kết liễu loài người.
Hawking tiếp tục nói thêm về nỗi sợ này trong một chủ đề trên Reddit năm 2015. Khi đó, có người đã hỏi thiên tài vật lý rằng liệu ông có đồng ý với ý kiến cho rằng nỗi sợ hãi về AI mà chúng ta thấy trong các bộ phim như Terminator liệu bị đặt nhầm chỗ hay không.
Đáp lại, Hawking cho biết vấn đề với AI sẽ đến trong tương lai khi một hệ thống có thể tạo ra và giải quyết các vấn đề của chính nó.
"Rủi ro thực sự với AI không phải là ác ý mà là năng lực của chúng. Một AI siêu thông minh sẽ cực kỳ giỏi trong việc hoàn thành các mục tiêu của nó và nếu những mục tiêu đó không phù hợp với loài người, chúng ta sẽ gặp rắc rối. Hãy khuyến khích học sinh không chỉ suy nghĩ về cách tạo ra AI mà còn về việc đảm bảo việc sử dụng nó có lợi", Hawking trả lời.
Vì sao Elon Musk lại sợ ChatGPT đến thế?
Elon Musk thường là người tỏ rất háo hức về những công nghệ mới mà ông cho rằng là tương lai của nhân loại, từ ôtô điện cho đến dịch vụ Internet vệ tinh Starlink.
Tuy nhiên, khi nói đến trí tuệ nhân tạo, CEO Tesla lại tỏ ra lo sợ đến bất thường. Phát biểu tại Đại học MIT vào năm 2014, Musk gọi AI là “mối đe dọa hiện hữu lớn nhất” của nhân loại và so sánh nó với việc “triệu hồi quỷ dữ”.
Ít ai biết rằng người đàn ông giàu nhất hành tinh từng là một trong những nhà đầu tư kỳ cựu tại startup OpenAI, cha đẻ của ChatGPT.
OpenAI vốn là tổ chức phi lợi nhuận được thành lập vào năm 2015 và nhận được một số nguồn tài trợ từ CEO Tesla Elon Musk, đồng sáng lập LinkedIn Reid Hoffman và một số nhà đầu tư khác.
Thay vì theo đuổi lợi nhuận, OpenAI cam kết phát triển công nghệ vì lợi ích của nhân loại. Điều lệ thành lập của đơn vị cũng cam kết từ bỏ cuộc đua phát triển AI nếu một đối thủ cạnh tranh đạt mục tiêu trước.
Tuy nhiên, sau khi OpenAI đánh bại những game thủ hàng đầu của giải DotA 2 trực tuyến, Elon Musk cảnh báo về sự nguy hiểm của trí tuệ nhân tạo, nói rằng nó thậm chí còn nguy hiểm hơn các chương trình hạt nhân của Triều Tiên.
Đối với nhiều người, thậm chí nhiều nhà nghiên cứu máy học, một AI có thể vượt qua con người có vẻ như là một giấc mơ xa vời. Thực tế, các startup và những chuyên gia về AI vẫn đang vật lộn để giải quyết các vấn đề thậm chí có vẻ đơn giản với máy học.
Tiêu biểu nhất có thể kể đến như ôtô tự hành gặp rất nhiều khó khăn trong những điều kiện bất thường vì nhiều thứ vốn xuất phát từ bản năng của con người như dự đoán chuyển động của người đi xe đạp, xác định một chiếc túi ni lông đang bay trong gió.
Đó là những khái niệm mà con người rất khó để chỉ dạy cho máy tính. Khả năng AI có thể hơn con người dường như vẫn là một chặng đường dài.
Tuy nhiên, lo lắng của Musk không hẳn là vô lý. Các nhà khoa học về AI tại Đại học California ở Berkeley hay Đại học Oxford năm 2018 liên tiếp công bố các kết quả nghiên cứu đồng ý với CEO Tesla rằng AI có thể trở nên cực kỳ nguy hiểm.
“Khi con người gặp lửa và bị bỏng, chúng tôi đã phát minh ra bình chữa cháy. Khi chúng ta có ôtô và gặp rắc rối, chúng tôi đã phát minh ra dây an toàn, túi khí và đèn giao thông. Nhưng với vũ khí hạt nhân và AI, chúng ta không muốn học hỏi từ những sai lầm của mình. Chúng tôi muốn lên kế hoạch từ trước khi điều đó xảy ra”, Max Tegmark, một giáo sư vật lý tại đại học MIT cho biết.
Đến đầu năm 2018, nói với nhà đồng sáng lập Sam Altman, Elon Musk cho rằng OpenAI đang bị thua kém so với Google. Do đó, Musk đề xuất giải pháp rằng ông sẽ nắm quyền lãnh đạo tại OpenAI và tự bỏ vốn vận hành công ty.
Tuy nhiên, nhiều lãnh đạo OpenAI, bao gồm cả nhà đồng sáng lập Greg Brockman và Sam Altman không chấp nhận yêu cầu mua lại của Elon Musk. Đây chính là lý do khiến vị tỷ phú rời khỏi ban quản trị OpenAI vào năm 2018, đồng thời rút khoản đầu tư khổng lồ đã định trước.
Mối quan hệ giữa Elon Musk và OpenAI liên tiếp gặp vấn đề trong những năm gần đây. Năm 2020, Musk đã nói trên Twitter rằng niềm tin của ông đối với tính bảo mật của công ty này là không cao.
"OpenAI nên công khai hơn nữa", vị tỷ phú tweet về cuộc điều tra của MIT Technology Review với OpenAI. Gần đây nhất, Elon Musk cho biết ông đang tạm dừng quyền truy cập của OpenAI vào cơ sở dữ liệu Twitter sau khi biết công ty này đang sử dụng nền tảng mạng xã hội này để đào tạo ChatGPT.