Trong 2 bài viết đăng trên blog công ty hôm 13/3, Microsoft giải thích cách tạo ra cơ sở hạ tầng mạnh mẽ của Azure, được OpenAI sử dụng để vận hành ChatGPT và các mô hình AI khác, cũng như phương pháp cải tiến, giúp hệ thống của họ ngày càng vượt trội hơn.
Để xây dựng siêu máy tính cung cấp sức mạnh cho các dự án của OpenAI, Microsoft kết hợp hàng nghìn đơn vị xử lý đồ họa (GPU) Nvidia trên nền tảng điện toán đám mây Azure. Điều này cho phép OpenAI đào tạo các mô hình ngày càng mạnh mẽ và "khai mở năng lực AI" của các công cụ như ChatGPT và Bing.
Theo Bloomberg, Phó chủ tịch AI và đám mây của Microsoft Scott Guthrie cho biết công ty chi hàng trăm triệu USD cho dự án. Đây là con số khiêm tốn so với hàng tỷ USD đầu tư vào OpenAI trong nhiều năm qua. Tuy nhiên, điều đó cho thấy gã khổng lồ công nghệ này sẵn sàng đổ nhiều tiền hơn cho lĩnh vực AI.
Để tăng cường năng lực xử lý AI của Azure, Microsoft vận hành các máy ảo mới, sử dụng GPU H100 và A100 Tensor Core của Nvidia, cũng như mạng Quantum-2 InfiniBand - dự án được 2 công ty giới thiệu vào năm ngoái.
Theo Microsoft, điều này cho phép OpenAI và những công ty khác dựa vào Azure để huấn luyện các mô hình AI lớn hơn và phức tạp hơn.
"Một trong những điều chúng tôi học được là mô hình càng lớn, bạn càng có nhiều dữ liệu và càng huấn luyện lâu thì độ chính xác của mô hình càng cao", Nidhi Chappell, Giám đốc sản phẩm Azure của Microsoft cho biết.
Để thực hiện được việc này, AI cần hoạt động trên nền tảng có quy mô lớn, mạnh mẽ và đáng tin cậy trong thời gian dài. Vì vậy, Microsoft và các đối tác tiếp tục cải tiến cơ sở hạ tầng để đáp ứng nhu cầu ngày càng tăng đối với các mô hình lớn hơn và phức tạp hơn theo cấp số nhân.