Chatbot AI ngốn điện khổng lồ, nguy cơ “đốt” gấp đôi năng lượng toàn cầu vào 2030
Chatbot AI tiêu tốn lượng điện khổng lồ khi huấn luyện và vận hành, dự báo nhu cầu năng lượng có thể tăng gấp đôi toàn cầu vào năm 2030.
Vì sao chatbot AI tốn nhiều năng lượng đến vậy?
Theo Live Science, các chatbot trí tuệ nhân tạo (AI) như ChatGPT hay Gemini ngày càng đóng vai trò lớn trong đời sống, nhưng đi kèm với đó là thách thức năng lượng. Năm 2023, riêng trung tâm dữ liệu phục vụ AI đã chiếm 4,4% tổng tiêu thụ điện tại Mỹ và 1,5% toàn cầu – một con số khổng lồ trong bối cảnh nhiều quốc gia đang nỗ lực cắt giảm phát thải. Dự báo tới năm 2030, mức tiêu thụ này có thể tăng ít nhất gấp đôi do nhu cầu sử dụng AI tiếp tục bùng nổ.

Nguyên nhân chính khiến AI tiêu tốn điện năng nằm ở quá trình huấn luyện và suy luận. Để đào tạo một mô hình ngôn ngữ lớn (LLM), hàng tỷ tham số cần được xử lý trên tập dữ liệu khổng lồ. Ông Alex de Vries-Gao, chuyên gia công nghệ bền vững tại Đại học Vrije Amsterdam, cho biết: “Mô hình càng lớn, dữ liệu càng nhiều thì kết quả càng chính xác, nhưng năng lượng tiêu thụ cũng tăng theo cấp số nhân”.
Ví dụ, một máy chủ Nvidia DGX A100 có thể ngốn tới 6,5 kW điện mỗi giờ. Quá trình huấn luyện thường cần hàng trăm máy chủ, mỗi máy có 8 GPU, chạy liên tục trong nhiều tuần hoặc nhiều tháng. Riêng GPT-4 của OpenAI được ước tính đã tiêu tốn tới 50 GWh năng lượng, tương đương lượng điện cấp cho thành phố San Francisco trong ba ngày.
Không chỉ huấn luyện, quá trình suy luận – khi chatbot trả lời câu hỏi của người dùng – cũng tiêu tốn điện không kém. Theo OpenAI, tính đến tháng 7/2025, người dùng gửi hơn 2,5 tỷ câu hỏi mỗi ngày cho ChatGPT. Con số khổng lồ này buộc các công ty phải vận hành hàng nghìn máy chủ để phản hồi tức thì, đẩy mức tiêu thụ năng lượng tăng mạnh.
Minh bạch năng lượng, chìa khóa cho tương lai bền vững
Dù nhu cầu năng lượng của AI ngày càng lớn, nhưng mức tiêu thụ thực tế vẫn còn là bí ẩn. Nhiều tập đoàn công nghệ lớn như Google, Microsoft, Meta giữ kín số liệu hoặc chỉ công bố thống kê chung chung, khiến giới nghiên cứu khó đánh giá chính xác tác động môi trường.
Ông Mosharaf Chowdhury, nhà khoa học máy tính tại Đại học Michigan, đang phát triển ML Energy Leaderboard – một bảng theo dõi mức tiêu thụ điện trong quá trình suy luận của các mô hình AI mã nguồn mở. Tuy nhiên, với những hệ thống AI thương mại hàng đầu, tính minh bạch vẫn là thách thức lớn.
Trong khi đó, thế giới đang đặt mục tiêu cắt giảm phát thải để chống biến đổi khí hậu. Nếu AI tiếp tục tăng trưởng “nóng” mà không có giải pháp tối ưu năng lượng, nguy cơ gây áp lực lên hạ tầng điện toàn cầu là điều khó tránh.
Các chuyên gia cho rằng ngoài nỗ lực từ phía doanh nghiệp, người dùng cũng có thể góp phần bằng cách sử dụng AI có trách nhiệm hơn: tránh lạm dụng, ưu tiên các nền tảng công khai minh bạch về mức tiêu thụ năng lượng, và khuyến khích các công ty áp dụng giải pháp tiết kiệm điện.
Rõ ràng, AI đang mở ra kỷ nguyên mới cho công nghệ, nhưng cái giá phải trả là thách thức năng lượng chưa từng có. Câu hỏi đặt ra: liệu thế giới có thể vừa khai thác sức mạnh AI vừa đảm bảo sự phát triển bền vững cho hành tinh? Đây sẽ là bài toán lớn trong thập kỷ tới.