Nhịp sống số

DeepSeek tung mô hình AI mới giúp giảm nửa chi phí suy luận

Thu Giang 30/09/2025 12:26

DeepSeek giới thiệu mô hình AI V3.2-exp với công nghệ Sparse Attention, hứa hẹn giảm tới 50% chi phí suy luận khi xử lý ngữ cảnh dài.

Giải pháp giảm chi phí từ công nghệ Sparse Attention

Ngày 29/9, DeepSeek công bố mô hình AI V3.2-exp trên nền tảng Hugging Face và GitHub, khẳng định đây là bước tiến quan trọng giúp cắt giảm chi phí suy luận trong các tác vụ xử lý ngữ cảnh dài. Sản phẩm hiện trong giai đoạn thử nghiệm cuối và dự kiến sớm được triển khai dưới dạng API cho các nhà phát triển.

deepseek1.jpeg
DeepSeek nỗ lực trở lại đường đua bằng cách tập trung vào tối ưu hóa chi phí suy luận

Trọng tâm của V3.2-exp nằm ở hệ thống DeepSeek Sparse Attention – một cơ chế phức tạp được thiết kế để tối ưu cách mô hình xử lý dữ liệu đầu vào. Sparse Attention hoạt động nhờ một module riêng có khả năng ưu tiên các đoạn trích quan trọng từ cửa sổ ngữ cảnh. Sau đó, tính năng fine-grained token selection sẽ chọn lọc những mã thông báo (token) then chốt, tải vào “cửa sổ Attention” theo trình tự hạn chế. Cách tiếp cận này giúp giảm đáng kể lượng tài nguyên tính toán cần dùng mà vẫn duy trì độ chính xác trong xử lý thông tin.

Theo thử nghiệm nội bộ của DeepSeek, việc sử dụng Sparse Attention cho phép chi phí một lệnh gọi API đơn giản giảm khoảng 50% khi áp dụng cho chuỗi ngữ cảnh dài. Kết quả này đặc biệt quan trọng trong bối cảnh các mô hình ngôn ngữ ngày càng cần dung lượng xử lý lớn, đòi hỏi hạ tầng tốn kém. Dù vậy, công ty cho biết sẽ tiếp tục thử nghiệm và đánh giá chi tiết trước khi chính thức thương mại hóa cho người dùng cuối.

Chuyên trang TechCrunch nhận định, V3.2-exp có thể trở thành giải pháp đột phá trong việc cân bằng giữa hiệu năng và chi phí – một thách thức lớn mà nhiều công ty AI toàn cầu đang nỗ lực giải quyết.

Củng cố vị thế với chiến lược AI chi phí thấp

DeepSeek không phải là cái tên xa lạ trong lĩnh vực trí tuệ nhân tạo. Công ty có trụ sở tại Trung Quốc từng gây chú ý mạnh mẽ hồi đầu năm với mô hình V3 và R1, nổi bật nhờ hiệu năng cao đi kèm chi phí thấp. Phương pháp mà hãng theo đuổi là “chưng cất mô hình” (model distillation) – giúp mô hình duy trì độ chính xác ở mức tốt trong khi chi phí huấn luyện và vận hành rẻ hơn nhiều so với các hệ thống lớn.

deepseek(1).jpeg
mô hình AI V3.2-exp

Chiến lược này được đánh giá phù hợp với mục tiêu “dân chủ hóa AI”, tức đưa công nghệ trí tuệ nhân tạo tiếp cận được nhiều doanh nghiệp và cá nhân hơn thay vì chỉ gói gọn trong tay những tập đoàn công nghệ khổng lồ. Tuy nhiên, theo Reuters, sự bùng nổ ban đầu của DeepSeek từng hạ nhiệt khi các mô hình trước chưa tạo ra bước ngoặt toàn diện trong đào tạo AI như kỳ vọng.

Với V3.2-exp, DeepSeek đang cho thấy nỗ lực trở lại đường đua bằng cách tập trung vào tối ưu hóa chi phí suy luận – khía cạnh đang trở thành bài toán nan giải cho toàn ngành. Khi nhu cầu triển khai các mô hình AI ngày càng lớn, đặc biệt ở cấp độ doanh nghiệp vừa và nhỏ, chi phí hạ tầng và năng lượng luôn là rào cản.

Ngoài ra, DeepSeek cũng định hướng mở rộng hệ sinh thái bằng cách hợp tác với cộng đồng mã nguồn mở. Việc phát hành V3.2-exp trên Hugging Face và GitHub không chỉ tạo sự minh bạch mà còn khuyến khích các nhà phát triển toàn cầu tham gia thử nghiệm, đóng góp và hoàn thiện sản phẩm.

Nếu thành công, V3.2-exp có thể giúp DeepSeek củng cố vị thế là một trong những công ty tiên phong trong lĩnh vực AI hiệu năng cao – chi phí thấp, mở ra cơ hội cạnh tranh trực tiếp với những ông lớn như OpenAI, Anthropic hay Google DeepMind.

Thu Giang