Microsoft cho biết họ không có kế hoạch thương mại hoá những con chip này, mà sẽ phục vụ nhu cầu nội bộ trên sản phẩm phần mềm, cũng như một phần dịch vụ điện toán đám mây Azure.
Tự sản xuất chip để cắt giảm chi phí
Microsoft và những gã khổng lồ công nghệ khác như Alphabet (Google) đang phải vật lộn với chi phí cung cấp dịch vụ AI cao, có thể gấp hơn 10 lần so với các dịch vụ truyền thống như công cụ tìm kiếm. Tự sản xuất chip đang là xu thế của các doanh nghiệp công nghệ để cắt giảm chi phí AI đắt đỏ.
Các giám đốc điều hành của Microsoft cho biết họ có kế hoạch giải bài toán chi phí AI tăng cao bằng cách sử dụng mô hình nền tảng chung để tích hợp AI sâu rộng vào toàn bộ hệ sinh thái phần mềm. Và chip Maia ra đời để tối ưu công việc đó.
Chip Maia được thiết kế để chạy các mô hình ngôn ngữ lớn (LLM), nền tảng cho dịch vụ Azure OpenAI - sản phẩm hợp tác giữa Microsoft và công ty sở hữu ChatGPT.
“Chúng tôi nghĩ rằng điều này có thể cung cấp các giải pháp tốt hơn cho khách hàng của mình với tốc độ nhanh hơn, chi phí thấp hơn và chất lượng cao hơn”, Scott Guthrie, Phó Chủ tịch điều hành bộ phận đám mây và AI của Microsoft cho hay.
Microsoft cũng cho biết, vào năm tới họ sẽ cung cấp cho khách hàng Azure các dịch vụ đám mây chạy trên những con chip hàng đầu mới nhất của Nvidia và Advanced Micro Devices (AMD). Hiện tập đoàn đang thử nghiệm GPT-4 trên chip của AMD.
Tăng cạnh tranh trong lĩnh vực đám mây
Con chip thứ hai có tên mã Cobalt, được Microsoft ra mắt để tiết kiệm chi phí nội bộ, đồng thời cạnh tranh với dịch vụ đám mây AWS của Amazon, vốn sử dụng con chip tự thiết kế “Graviton”.
Cobalt là bộ xử lý trung tâm (CPU) sản xuất theo công nghệ của Arm, hiện đang được thử nghiệm để hỗ trợ phần mềm nhắn tin doanh nghiệp Teams.
Đại diện AWS cho biết, chip Graviton của họ hiện đang có khoảng 50.000 khách hàng và công ty này cũng sẽ tổ chức hội nghị các nhà phát triển vào cuối tháng này.
"AWS sẽ tiếp tục đổi mới để cung cấp các thế hệ chip tự thiết kế trong tương lai nhằm mang lại hiệu suất về giá thậm chí còn tốt hơn, cho bất kỳ khối lượng công việc nào khách hàng yêu cầu", trích tuyên bố của đại diện AWS sau khi Microsoft công bố bộ đôi chip AI.
Rani Borkar, Phó Chủ tịch tập đoàn phụ trách hệ thống phần cứng và cơ sở hạ tầng Azure cho biết, cả hai con chip mới đều được sản xuất trên tiến trình 5nm của TSMC.
Trong đó, Maia được kết hợp với cáp mạng Ethernet tiêu chuẩn, thay vì sử dụng công nghệ mạng Nvidia tuỳ chỉnh đắt tiền hơn mà Microsoft đã sử dụng trong các siêu máy tính xây dựng cho OpenAI.