Google TurboQuant сжимает ИИ-модели в 6 раз

Ars Technica AI 📅 25.03.2026

Что произошло

Google представила алгоритм TurboQuant для сжатия больших языковых моделей (LLM). TurboQuant сокращает использование памяти в 6 раз без потери качества вывода, в отличие от других методов сжатия.

В цифрах

Сокращение использования памяти в 6 раз

Почему это важно

Это позволяет запускать мощные ИИ-модели на устройствах с ограниченной памятью, снижая затраты на инфраструктуру и расширяя доступность ИИ.

Итог

Google TurboQuant делает ИИ-модели эффективнее без ущерба для качества.

Читать оригинал →