Sản phẩm

Google trình làng TurboQuant: “Phép màu nén” giúp AI nhanh gấp 8 lần

[tintuc]

Bằng cách kết hợp toán học tọa độ cực và lớp sửa lỗi thông minh, thuật toán mới của Google Research đã giải quyết bài toán hóc búa nhất của các mô hình ngôn ngữ lớn: Cơn khát bộ nhớ.



Giới công nghệ đang xôn xao trước công bố mới nhất từ Google Research mang tên TurboQuant. Thuật toán này được ví như phiên bản đời thực của "Pied Piper" — startup sở hữu công nghệ nén thần kỳ trong bộ phim nổi tiếng Silicon Valley — nhờ khả năng tối ưu hóa dữ liệu ở mức chưa từng có.
Giải quyết "nút thắt cổ chai" của AI hiện đại
Hiện nay, rào cản lớn nhất khiến các mô hình ngôn ngữ lớn (LLM) tốn kém và chậm chạp chính là KV cache (bộ nhớ đệm khóa - giá trị). Khi xử lý các đoạn hội thoại dài hoặc dữ liệu phức tạp, KV cache phình to nhanh chóng, ngốn một lượng lớn tài nguyên RAM và làm tăng chi phí vận hành máy chủ.
Trước đây, để giảm dung lượng, người ta thường dùng kỹ thuật lượng tử hóa (quantization). Tuy nhiên, đánh đổi của việc nén dữ liệu thường là sự "ngây ngô" đi của AI khi chất lượng phản hồi bị giảm sút rõ rệt.
Matthew Prince, CEO của công ty cung cấp hạ tầng Internet Cloudflare, nhận định đây có thể là "khoảnh khắc DeepSeek" của Google, xét về khả năng tối ưu hóa giúp AI chạy mượt trên các phần cứng kém với chi phí rẻ hơn.
TurboQuant vẫn đang trong giai đoạn thử nghiệm và dự kiến được trình bày chi tiết tại hội nghị ICLR 2026 tháng tới. Thuật toán không giúp giải quyết triệt để tình trạng thiếu hụt RAM toàn cầu do chỉ tập trung vào quá trình suy luận thay vì quá trình huấn luyện, nhưng mở ra tương lai cho AI trên di động. Với hạn chế về phần cứng của smartphone, TurboQuant có thể hỗ trợ các trợ lý ảo xử lý dữ liệu phức tạp ngay trên thiết bị mà không cần gửi lên đám mây.

[/tintuc]

Tags: tin-tuc
Danh mục
Sản phẩm

Người dùng vừa đặt đơn hàng

Sản phẩm