Bard, chatbot AI của Google cạnh tranh trực tiếp với ChatGPT, đã khiến công ty chủ quản bay hơi 140 tỷ USD giá trị thị trường dù chưa ra mắt.
Alphabet - công ty mẹ Google dù đã cố gắng bỏ qua sự cố này, nhưng một thách thức khác đang xuất hiện từ nỗ lực tích hợp công nghệ Generative AI - AI tự sinh vào công cụ tìm kiếm của hãng: Chi phí vận hành.
John Hennessy, chủ tịch Alphabet cũng thừa nhận với Reuters mặc dù việc tinh chỉnh sẽ giúp chi phí giảm xuống, việc huấn luyện AI, hay còn được biết đến như một mô hình ngôn ngữ lớn, tốn kém gấp 10 lần so với tìm kiếm bằng từ khóa theo cách thông thường.
Chi phí gấp nhiều lần tìm kiếm thủ công
Ra mắt vào tháng 11/2022, ChatGPT nhanh chóng trở thành điểm đến yêu thích của hàng triệu câu hỏi từ người dùng.
Chỉ sau 2 tháng kể từ thời điểm trình làng, ChatGPT đã cán mốc 100 triệu người dùng, qua đó trở thành ứng dụng có tốc độ phát triển nhanh nhất trên phạm vi toàn cầu.
Nhưng thành tựu cũng đi kèm với khó khăn. ChatGPT thường xuyên gặp tình trạng quá tải vì phải xử lý khối lượng công việc khổng lồ và nhiều người dùng tìm cách lách luật, vi phạm các điều khoản an toàn của chatbot.
Bên cạnh đó, ChatGPT vẫn là một khoản đầu tư tốn kém vì vẫn chưa có quảng cáo. Trong khi đó, trung bình mỗi cuộc hội thoại OpenAI đều phải tốn phí để vận hành bộ máy phần cứng, con số tổng lên đến hàng triệu USD/tuần CEO Sam Altman cho biết.
Do đó, để trang trải phần chi phí này, công ty phần mềm đã ra mắt bản ChatGPT Plus thu phí 20 USD/tháng.
Rowan Curran, nhà phân tích tại Forrester Research cho biết đối với các mô hình AI lớn, quy trình xử lý tiêu tốn đến hàng triệu USD, chưa bao gồm chi phí trả cho các kỹ sư.
Vào tháng 12/2022, Giám đốc điều hành của OpenAI Sam Altman nói trên Twitter rằng chi phí trung bình cho mỗi truy vấn của ChatGPT là 1 cent.
Trong khi đó, một phân tích của ngân hàng Morgan Stanley lại đưa con số này lên mức 2 cent. Con số này gấp khoảng 7 lần chi phí trung bình cho một lần tìm kiếm trên Google và nó có thể tăng lên nhanh chóng trong thời gian tới.
Morgan Stanley ước tính 3,3 nghìn tỷ lượt truy vấn tìm kiếm của Google trong năm 2022 tiêu tốn khoảng 0.25 cent cho mỗi lượt. Con số này sẽ còn tăng thêm tùy thuộc vào lượng văn bản mà AI phải tạo ra.
Các nhà phân tích dự đoán Google có thể phải đối mặt với khoản chi phí tăng thêm đến 6 tỷ USD vào năm 2024 nếu tích hợp AI giống như ChatGPT để xử lý một nửa số lượt truy vấn mà họ nhận được với câu trả lời dài 50 từ.
Điều làm cho tìm kiếm với AI đắt hơn so với cách tìm kiếm theo từ khóa nằm ở sức mạnh tính toán liên quan đến nó. Theo Reuters, những công cụ AI như ChatGPT phụ thuộc lớn vào những con chip trị giá hàng USD.
Bên cạnh đó, theo ước tính qua phân tích từ bên thứ ba của các nhà nghiên cứu, việc huấn luyện cho mô hình GPT-3, công nghệ đứng sau ChatGPT tiêu thụ khoảng 1.287 MWh và dẫn đến lượng khí thải tương đương hơn 550 tấn CO2.
Bài toán nan giải
Quá trình xử lý một truy vấn tìm kiếm do AI cung cấp được gọi là "suy luận". Trong đó, một "mạng lưới thần kinh" được mô hình hóa một cách lỏng lẻo dựa trên đặc điểm sinh học của bộ não con người nhằm đưa ra câu trả lời cho một câu hỏi từ quá trình mà AI đã được huấn luyện trước đó.
Ngược lại, với cách tìm kiếm theo từ khóa, trình thu thập dữ liệu web của Google chỉ việc quét mạng Internet để biên soạn một chỉ mục thông tin. Khi người dùng nhập truy vấn, Google sẽ cung cấp các câu trả lời phù hợp nhất được lưu trữ trong chỉ mục này.
Richard Socher- CEO công cụ tìm kiếm You.com, một đối thủ cạnh tranh khác của Google, cho biết việc tích hợp tính năng trò chuyện bằng AI cũng như các ứng dụng của nó cho biểu đồ, video và công nghệ tổng hợp khác đã làm tăng chi phí từ 30% đến 50%.
Trong khi đó, một nguồn thân cận với Google nói với Reuters rằng còn quá sớm để xác định chính xác chi phí của Chatbot vì hiệu quả và cách sử dụng rất khác nhau tùy thuộc vào công nghệ liên quan và mô hình AI đằng sau nó.
Paul Daugherty, giám đốc công nghệ của Accenture thừa nhận chi phí khổng lồ là một trong hai lý do chính khiến những gã khổng lồ tìm kiếm và truyền thông xã hội với hàng tỷ người dùng không dám triển khai chatbot AI trong một sớm một chiều.
"Đầu tiên là độ chính xác. Sau đó, bạn phải mở rộng quy mô này theo đúng cách", ông Daugherty nói.
Trong nhiều năm, các nhà nghiên cứu tại Alphabet và các nơi khác đã phải nghiên cứu cách đào tạo và vận hành các mô hình ngôn ngữ lớn với chi phí rẻ hơn.
Các mô hình ngôn ngữ lớn hơn, sẽ yêu cầu nhiều chip hơn để "suy luận", dẫn đến chi phí tăng cao. Trí tuệ nhân tạo, công nghệ đã làm người dùng khắp thế giới choáng váng vì khả năng suy nghĩ giống như con người, đã phình to về quy mô khi đạt tới 175 tỷ tham số.
“Những mô hình này rất đắt tiền và do đó, cấp độ phát minh tiếp theo sẽ phải tìm cách giảm chi phí đào tạo và suy luận của các mô hình này để chúng tôi có thể đưa nó vào trong mọi ứng dụng”, một giám đốc giấu tên trả lời Reuters.
Theo nguồn tin của Reuters, hiện tại các nhà khoa học máy tính của OpenAI đã tìm ra cách tối ưu hóa chi phí suy luận thông qua những đoạn mã phức tạp giúp chip hoạt động hiệu quả hơn.
Tuy nhiên, một vấn đề dài hạn là làm thế nào để giảm số lượng tham số trong mô hình AI xuống 10 hoặc thậm chí 100 lần mà không làm giảm độ chính xác.
“Làm thế nào để giảm bớt các tham số đi một cách hiệu quả nhất, đó vẫn là một câu hỏi mở", Naveen Rao, người từng điều hành mảng chip AI của Intel cho biết.