Cha đẻ của ChatGPT 'dội gáo nước lạnh' vào tham vọng của một gã khổng lồ công nghệ
Tưởng chừng một liên minh mới sắp hình thành để thách thức ngôi vương chip AI, nhưng tuyên bố mới nhất của cha đẻ ChatGPT đã dập tắt tin đồn.
OpenAI - "cha đẻ" của ChatGPT vừa chính thức làm rõ lập trường về việc sử dụng chip do Google sản xuất, khẳng định họ không có kế hoạch cụ thể nào để tích hợp Bộ xử lý Tensor (TPU) của Google vào các sản phẩm của mình trên quy mô lớn.
Tuyên bố được đưa ra hôm Chủ nhật, dập tắt các đồn đoán xuất hiện cuối tuần trước cho rằng OpenAI đang có một bước chuyển dịch lớn về phần cứng.

Thông tin ban đầu cho rằng OpenAI tìm đến chip của Google như một giải pháp thay thế hiệu quả về chi phí cho các GPU của Nvidia trong tác vụ "suy luận" (inference), quá trình mô hình AI đưa ra câu trả lời cho người dùng. Đây là giai đoạn tiêu tốn chi phí vận hành nhiều nhất.
Các GPU như Nvidia H100 hay B200 là những bộ xử lý đa năng. Chúng có hàng nghìn nhân xử lý (lõi CUDA) có thể thực hiện song song nhiều loại phép tính phức tạp. Sự linh hoạt này giúp GPU cực kỳ mạnh mẽ trong cả quá trình huấn luyện mô hình AI. Tuy nhiên, nó cũng đi kèm với mức tiêu thụ điện năng và chi phí rất cao.
TPU của Google hiện ở thế hệ v5p, là một loại ASIC (Application Specific Integrated Circuit), vi mạch tích hợp chuyên dụng. Nó không đa năng như GPU mà được thiết kế tối ưu cho một nhiệm vụ duy nhất: thực hiện các phép nhân ma trận (matrix multiplication) cực nhanh. Đây là phép toán cốt lõi trong hầu hết các mạng nơ-ron thần kinh. Bằng cách loại bỏ các chức năng không cần thiết, TPU có thể đạt hiệu suất tính toán trên mỗi Watt điện năng cực kỳ cao cho các tác vụ AI, qua đó giảm đáng kể chi phí vận hành.
Việc OpenAI, dù chỉ là thử nghiệm, cũng cho thấy các TPU của Google đã đạt đến một trình độ đủ hấp dẫn để các phòng thí nghiệm hàng đầu phải cân nhắc như một giải pháp tiềm năng để tối ưu hóa chi phí.
Chiến lược "đa chân kiềng" của OpenAI
Đối mặt với chi phí khổng lồ và nguy cơ phụ thuộc, chiến lược của OpenAI là không "bỏ tất cả trứng vào một giỏ". Công ty cho biết vẫn tiếp tục sử dụng các GPU Nvidia H100 làm nền tảng, đồng thời tích hợp cả chip AI từ đối thủ AMD Instinct MI300X.
Thứ hai, OpenAI đang tự phát triển chip riêng. Nỗ lực này dự kiến sẽ đạt đến cột mốc "tape-out" ngay trong năm nay. Trong ngành bán dẫn, "tape-out" là giai đoạn thiết kế kiến trúc chip đã hoàn tất và được gửi đến nhà máy để sản xuất thử nghiệm. Đây là một bước tiến cực kỳ quan trọng, khẳng định sự nghiêm túc và trưởng thành của dự án.
Và cuối cùng, họ đa dạng hóa các nhà cung cấp dịch vụ đám mây. Dù đã ký hợp đồng sử dụng Google Cloud, phần lớn năng lực tính toán mới của họ lại đến từ CoreWeave, một nhà cung cấp "neocloud" chuyên biệt cho AI, cho phép thuê trực tiếp các cụm GPU lớn với hiệu suất cao.
Về phần mình, Google đang quyết liệt đưa TPU ra thị trường để thách thức sự thống trị của Nvidia và đã thành công với các khách hàng như Apple, Anthropic và Safe Superintelligence.
Sự việc của OpenAI, dù chỉ là một thử nghiệm nhỏ, đã phản ánh một thực tế lớn hơn: cuộc chiến phần cứng cho AI đang bước vào giai đoạn cạnh tranh khốc liệt. Vị thế thống trị của Nvidia đang bị thách thức từ mọi phía: từ các đối thủ truyền thống với kiến trúc khác biệt như Google, tới các đối thủ cạnh tranh trực tiếp như AMD, và từ chính những khách hàng lớn nhất của họ đang trên con đường tự chủ công nghệ.