Sự ra đời của kỷ nguyên mô hình ngôn ngữ lớn đã và đang khiến sức mạnh tính toán, hay còn gọi là chip AI trở thành nguồn tài nguyên khan hiếm đối với các nhà cung cấp dịch vụ đám mây. Việc khan hiếm và chi phí phải chi trả quá đắt đỏ được coi là một trong những lý do thôi thúc các nhà cung cấp tự nghiên cứu chip dành riêng cho mình.
Phát triển chip AI riêng, không giao hết "sự sống" cho Nvidia
Mức độ khan hiếm được phản ánh ngay trong hoạt động kinh doanh của những gã khổng lồ đám mây, nó khiến cho kế hoạch kinh doanh của các công ty bị trì trệ. Ngay cả với Microsoft, công ty đã đi trước một bước, cũng bị dính tin đồn do thiếu GPU, nhiều kế hoạch mới bị trì hoãn và khách hàng mới phải xếp hàng hàng tháng trời để có thể được sử dụng dịch vụ của Azure. Ngay cả các tổ chức đầu tư mạo hiểm cũng phải dựa vào hàng tồn kho chip Nvidia để giành lấy các dự án.
Hầu hết các mô hình AI tiên tiến hiện nay đều được cung cấp bởi GPU, vì GPU chạy khối lượng công việc máy học tốt hơn so với bộ xử lý đa năng. Tuy nhiên, GPU cũng chỉ được coi là chip đa năng chứ không phải là nền tảng xử lý thực sự cho điện toán AI. Theo như Viện nghiên cứu Yuanchuan đã chỉ ra trong "A Crack in the Nvidia Empire", GPU không được sinh ra để đào tạo mạng lưới thần kinh, trí tuệ nhân tạo càng phát triển nhanh thì sẽ có càng nhiều vấn đề bị lộ ra.
Amazon, Google và Microsoft đã và đang phát triển các chip được gọi là ASIC - mạch tích hợp dành riêng cho ứng dụng - phù hợp hơn với trí tuệ nhân tạo. The Information đã phỏng vấn nhiều chuyên gia và nhà phân tích trong ngành công nghiệp chip và kết luận rằng GPU Nvidia đã giúp đào tạo mô hình đằng sau Chat GPT, nhưng ASIC thường thực hiện các tác vụ này nhanh hơn và tiêu thụ ít năng lượng hơn.
Hiện tại, Amazon và Google đều đã phát triển các ASIC tùy chỉnh cho các sản phẩm nội bộ quan trọng và đã cung cấp các chip này cho khách hàng thông qua đám mây. Microsoft cũng đã bắt tay vào nghiên cứu phát triển chip ASIC từ năm 2019 để cung cấp năng lượng cho các mô hình ngôn ngữ lớn.
Một số chip do các nhà cung cấp dịch vụ đám mây này phát triển, chẳng hạn như chip máy chủ Graviton của Amazon và chip dành riêng cho AI do Amazon và Google phát hành, đã có hiệu suất tương đương với chip của các nhà sản xuất chip truyền thống. Theo dữ liệu hiệu suất do khách hàng trên đám mây và Microsoft công bố. Google TPU v4 nhanh hơn 1,2-1,7 lần so với Nvidia A100, đồng thời giảm mức tiêu thụ điện năng 1,3-1,9 lần.
Đầu tư mạnh để giành lấy khách hàng
Ngoài việc nghiên cứu và phát triển chip, các gã khổng lồ cung cấp dịch vụ đám mây cũng mạnh tay đầu tư nhiều vào mảng chiến lược để giành lấy các khách hàng AI và các dự án AI.
So với đầu tư mạo hiểm, đầu tư chiến lược của các gã khổng lồ có lợi thế hơn hẳn. Sự kết hợp giữa OpenAI và Microsoft là một ví dụ điển hình, mở ra tiền lệ cho các mô hình quy mô lớn và đầu tư chiến lược. Các thành phần cần thiết cho các mô hình lớn và các ứng dụng liên quan có chi phí vô cùng đắt đỏ, vậy nên nếu số tiền đầu tư quá ít, các công ty nhỏ sẽ không đủ khả năng để giành lấy các dự án AI. Xét cho cùng, Google, Microsoft, AWS, Oracle hay Nvidia không chỉ có thể viết những tấm séc khổng lồ mà còn cung cấp các thành phần khan hiếm như tín dụng đám mây và GPU.
Google là công ty tích cực nhất trong số các nhà cung cấp đám mây lớn, cung cấp cho các công ty khởi nghiệp AI kết hợp tiền mặt và tín dụng Google Cloud để đổi lấy vốn chủ sở hữu. Đầu năm nay, Google đã đầu tư 400 triệu USD vào Anthropic, một trong những thách thức kinh doanh chính của OpenAI. Google Cloud cho hay họ đã trở thành nhà cung cấp đám mây "ưa thích" của Anthropic.
Gần đây, Google cũng đã đầu tư 100 triệu USD vào Runway, một công ty nghiên cứu AI ứng dụng. Trước đó, Amazon AWS đã giới thiệu Runway như một startup AI quan trọng. Vào tháng 3 năm nay, AWS và Runway đã công bố thiết lập quan hệ đối tác chiến lược lâu dài, trở thành "nhà cung cấp đám mây ưa thích" của họ. Giờ đây, Runway có vẻ sẽ là một trong những "con tốt thí" trong cuộc đọ sức của Google với Amazon, bởi Runway cũng được cho là sẽ thuê máy chủ đám mây của Google. Trước đó, Google Cloud cũng đã công bố thiết lập quan hệ đối tác với hai công ty AI đình đám khác là: Midjourney trong lĩnh vực đồ thị Vincent và robot trò chuyện App Character.ai, vốn trước đây là khách hàng đám mây chủ lực của Oracle.
Mô hình ngôn ngữ lớn là chìa khóa phân thắng thua
Sức mạnh tính toán và đầu tư chiến lược là hai mảng cần thiết phải đẩy mạnh trong giai đoạn đầu của cuộc chiến, nhưng xét về chạy đường dài, mô hình ngôn ngữ lớn mới là chìa khóa thực sự dẫn đến thành công trong cạnh tranh thị trường.
Microsoft có thể trở thành người dẫn đầu là nhờ vào sự hợp tác với OpenAI và những kỹ thuật xuất sắc của nhóm nhân viên Microsoft. Trong sáu tháng qua, gã khổng lồ này đã ưu tiên sử dụng các sản phẩm OpenAI và việc giảm giá các sản phẩm phần mềm doanh nghiệp để chiếm lĩnh nhiều thị trường đám mây hơn. Sau đó, Microsoft lại dựa vào việc nâng cấp dòng sản phẩm lên Microsoft 365 Copilot để tăng giá nhằm thu được doanh thu lớn hơn.
Trái với Microsoft, công ty từng dẫn đầu một thời là AWS lại đang đi chậm hơn một bước và phải đối mặt với thách thức ngày một gay gắt hơn. Các sản phẩm AI của AWS không theo kịp làn sóng mô hình ngôn ngữ lớn. Trong khi đó, kể từ tháng 11/2021, Microsoft đã bắt đầu bán các sản phẩm AI được phát triển dựa trên loạt mô hình GPT dành cho khách hàng doanh nghiệp. Đồng thời, Google cũng đã giành lấy các công ty khởi nghiệp AI lớn với tư cách là khách hàng đám mây và bán phần mềm AI độc quyền cho các khách hàng đám mây của mình. Ngay cả Oracle, kẻ tụt hậu về điện toán đám mây, cũng có lợi thế riêng trong việc cung cấp tài nguyên điện toán cho các công ty khởi nghiệp AI.
Tuy muộn màng, nhưng vào tháng 4 năm nay, AWS cũng bắt đầu cho phép khách hàng của mình sử dụng các mô hình lớn từ Stability, Anthropic và AI21 Labs làm cơ sở cho sản phẩm của riêng họ.