Новый подход искусственного интеллекта для достижения полной разреженности активаций в LLMs

 Q-Sparse: A New Artificial Intelligence AI Approach to Enable Full Sparsity of Activations in LLMs

Q-Sparse: Новый подход искусственного интеллекта для обеспечения полной разреженности активаций в LLMs

LLM отлично справляются с задачами обработки естественного языка, но сталкиваются с проблемами развертывания из-за высоких вычислительных и памятных требований во время вывода. Недавние исследования направлены на повышение эффективности LLM через квантизацию, обрезку, дистилляцию и улучшенное декодирование. Разреженность, ключевой подход, уменьшает вычисления путем исключения нулевых элементов и уменьшает передачу ввода-вывода между памятью и вычислительными блоками. В то время как разреженность весов экономит вычисления, она сталкивается с параллелизацией GPU и потерей точности. Разреженность активации, достигаемая с помощью таких техник, как механизм смеси экспертов (MoE), также требует полной эффективности и дальнейшего изучения законов масштабирования по сравнению с плотными моделями.

Эффективность Q-Sparse

Исследователи из Microsoft и Университета Китайской академии наук разработали Q-Sparse, эффективный подход для обучения разреженно-активированных LLM. Q-Sparse обеспечивает полную разреженность активации, применяя разреживание top-K к активациям и используя прямую оценку во время обучения, значительно улучшая эффективность вывода. Ключевые результаты включают достижение базовой производительности LLM при более низких затратах вывода, установление оптимального закона масштабирования для разреженно-активированных LLM и демонстрацию эффективности в различных настройках обучения. Q-Sparse работает с полными и 1-битными моделями, предлагая путь к более эффективным, экономичным и энергосберегающим LLM.

Улучшение архитектуры Transformer

Q-Sparse улучшает архитектуру Transformer, обеспечивая полную разреженность активаций через разреживание top-K и прямую оценку (STE). Этот подход применяет функцию top-K к активациям во время умножения матриц, уменьшая вычислительные затраты и объем памяти. Он поддерживает полные и квантованные модели, включая 1-битные модели, такие как BitNet b1.58. Кроме того, Q-Sparse использует квадратичную функцию ReLU для слоев прямого распространения, чтобы улучшить разреженность активации. Для обучения он преодолевает исчезновение градиента с помощью STE. Q-Sparse эффективен для обучения с нуля, продолжения обучения и донастройки, поддерживая эффективность и производительность в различных настройках.

Масштабирование производительности

Недавние исследования показывают, что производительность LLM масштабируется с размером модели и обучающими данными по закону степени. Исследователи исследуют это для разреженно-активированных LLM, обнаруживая, что их производительность также подчиняется закону степени с размером модели и экспоненциальному закону соотношения разреженности. Эксперименты показывают, что при фиксированном соотношении разреженности производительность разреженно-активированных моделей масштабируется аналогично плотным моделям. Разрыв в производительности между разреженными и плотными моделями уменьшается с увеличением размера модели. Оптимальный закон масштабирования вывода показывает, что разреженные модели могут эффективно соответствовать или превосходить плотные модели с правильной разреженностью, с оптимальными соотношениями разреженности 45,58% для полной точности и 61,25% для 1,58-битных моделей.

Оценка эффективности Q-Sparse LLM

Исследователи оценили Q-Sparse LLM в различных настройках, включая обучение с нуля, продолжение обучения и донастройку. При обучении с нуля с 50 млрд токенов Q-Sparse соответствовал плотным базовым значениям при 40% разреженности. Модели BitNet b1.58 с Q-Sparse превзошли плотные базовые значения при том же бюджете вычислений. Продолжение обучения Mistral 7B показало, что Q-Sparse достигает сопоставимой производительности с плотными базовыми значениями, но с более высокой эффективностью. Результаты донастройки продемонстрировали, что модели Q-Sparse с около 4 млрд активированных параметров соответствуют или превосходят производительность плотных 7 млрд моделей, доказывая эффективность и эффективность Q-Sparse в различных сценариях обучения.

Заключение

Результаты показывают, что сочетание BitNet b1.58 с Q-Sparse предлагает значительные выгоды в эффективности, особенно в выводе. Исследователи планируют масштабировать обучение с более крупными моделями и токенами и интегрировать YOCO для оптимизации управления кэшем KV. Q-Sparse дополняет MoE и будет адаптирован для пакетной обработки для улучшения его практичности. Q-Sparse работает сопоставимо с плотными базовыми значениями, улучшая эффективность вывода через разреживание top-K и прямую оценку. Он эффективен в различных настройках и совместим с полными и 1-битными моделями, что делает его ключевым подходом для улучшения эффективности и устойчивости LLM.

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект