Сжатие кэша для эффективного вывода LLM в масштабируемой пирамиде

 PyramidInfer: Allowing Efficient KV Cache Compression for Scalable LLM Inference

PyramidInfer: эффективное сжатие кэша KV для масштабируемого вывода LLM

LLM, такие как GPT-4, отлично справляются с пониманием языка, но сталкиваются с высоким использованием памяти GPU во время вывода, что ограничивает их масштабируемость для приложений реального времени, таких как чат-боты. Существующие методы снижают использование памяти путем сжатия кэша KV, но не учитывают межслойные зависимости и требования к памяти предварительных вычислений.

Исследователи из Университета Шанхайского Цзяотун, компании Xiaohongshu Inc. и Южно-Китайского университета технологий разработали PyramidInfer, который улучшает вывод LLM путем сжатия кэша KV. В отличие от существующих методов, PyramidInfer сохраняет только важные ключи контекста и значения по слоям, что значительно уменьшает использование памяти GPU. Эксперименты показывают, что PyramidInfer увеличивает пропускную способность в 2,2 раза и снижает память кэша KV более чем на 54% по сравнению с существующими методами, демонстрируя его эффективность в различных задачах и моделях.

Практические решения

Эффективные стратегии необходимы для обработки растущего спроса на запросы чат-ботов с целью максимизации пропускной способности путем использования параллелизма GPU. Один из подходов – увеличение памяти GPU с помощью параллелизма конвейера и выгрузки кэша KV, используя несколько GPU или оперативную память. Для ограниченной памяти GPU другой вариант – снижение кэша KV. Техники, такие как FlashAttention 2 и PagedAttention, минимизируют потери памяти путем оптимизации операций CUDA. Методы, такие как StreamingLLM, H2O и Scissorhands, сжимают кэш KV, фокусируясь на недавнем контексте или механизмах внимания, но не учитывают различия между слоями и сжатие в фазе предварительной загрузки. PyramidInfer устраняет эти недостатки, учитывая сжатие, специфичное для слоя, в обе фазы.

Проверка гипотезы об избыточности контекста вывода (ICR) и гипотезы о последовательности внимания (RAC) вдохновила создание PyramidInfer. ICR предполагает, что многие ключи контекста и значения избыточны во время вывода и необходимы только при обучении для предсказания следующего токена. Эксперименты с моделью LLaMA 2-13B показали, что более глубокие слои имеют большую избыточность, что позволяет значительно сократить кэш KV без ущерба качеству вывода. RAC подтверждает, что некоторые ключи и значения последовательно использовались недавними токенами, что позволяет выбрать ключевые контексты (PVC) для эффективного вывода. PyramidInfer использует эти идеи для эффективного сжатия кэша KV в обеих фазах.

В заключение, PyramidInfer представляет эффективный метод сжатия кэша KV во время предварительной загрузки и генерации, вдохновленный ICR и RAC. Этот подход значительно снижает использование памяти GPU без ущерба для производительности модели, что делает его идеальным для развертывания больших языковых моделей в ограниченных ресурсах. Несмотря на его эффективность, PyramidInfer требует дополнительных вычислений, что ограничивает ускорение при небольших размерах пакета. Как первый метод сжатия кэша KV в фазе предварительной загрузки, PyramidInfer еще не является безотказным методом, что указывает на потенциал для будущих улучшений в этой области.

Проверьте статью здесь

Все права на это исследование принадлежат его авторам.

Также не забудьте подписаться на нас в Twitter.

Присоединяйтесь к нашему Telegram-каналу, Discord-каналу и группе LinkedIn.

Если вам понравилась наша работа, вам понравится и наша рассылка.

Не забудьте присоединиться к нашему 42k+ ML SubReddit.

Попробуйте ИИ ассистент в продажах на сайте Flycode.ru.

Узнайте, как ИИ может изменить ваши процессы с решениями от Flycode.ru.

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • СуперBPE: Новые Горизонты Токенизации для Языковых Моделей

    Введение в проблемы токенизации Языковые модели сталкиваются с серьезными проблемами при обработке текстовых данных из-за ограничений традиционных методов токенизации. Текущие токенизаторы делят текст на токены словарного запаса, которые не могут пересекаться с пробелами,…

  • TXAGENT: Искусственный интеллект для точной медицины и рекомендаций по лечению

    Введение в TXAGENT: Революция в прецизионной терапии с помощью ИИ Прецизионная терапия становится все более важной в здравоохранении, так как она настраивает лечение в соответствии с индивидуальными профилями пациентов. Это позволяет оптимизировать результаты…

  • TULIP: Новый подход к обучению для улучшения понимания визуальных и языковых данных

    TULIP: Новая Эра в Понимании Языка и Визуальных Изображений Введение в Контрастное Обучение Недавние достижения в искусственном интеллекте значительно улучшили связь между визуальным контентом и языком. Модели контрастного обучения, связывающие изображения и текст…

  • Революция в локализации кода: решения на основе графов от LocAgent

    Преобразование обслуживания программного обеспечения с помощью LocAgent Введение Обслуживание программного обеспечения является важной частью жизненного цикла разработки, где разработчики регулярно исправляют ошибки, добавляют новые функции и улучшают производительность. Ключевым аспектом этого процесса является…

  • LocAgent: Революция в локализации кода с помощью графового ИИ для обслуживания ПО

    Улучшение обслуживания программного обеспечения с помощью ИИ: случай LocAgent Введение в обслуживание программного обеспечения Обслуживание программного обеспечения — это важный этап в жизненном цикле разработки программного обеспечения. На этом этапе разработчики возвращаются к…

  • Инновации в обработке языка с помощью ИИ: новые возможности для бизнеса

    Преобразование обработки языка с помощью ИИ Понимание проблем обработки языка Обработка языка – это сложная задача, требующая учета многомерности и контекста. Исследования в области психолингвистики сосредоточены на определении символических характеристик различных языковых областей.…

  • Надежный ИИ для Обслуживания Клиентов: Решения и Принципы

    Улучшение Надежности ИИ в Обслуживании Клиентов Проблема: Непостоянная Производительность ИИ в Обслуживании Клиентов Большие языковые модели (LLMs) показывают многообещающие результаты в роли обслуживания клиентов, но их надежность как независимых агентов вызывает серьезные опасения.…

  • Создание разговорного исследовательского помощника с использованием технологии RAG

    Создание Разговорного Исследовательского Ассистента Введение Технология Retrieval-Augmented Generation (RAG) улучшает традиционные языковые модели, интегрируя системы поиска информации. Это позволяет создавать разговорных исследовательских ассистентов, которые точно отвечают на запросы, основанные на конкретных базах знаний.…

  • Беспристрастное обучение с подкреплением для улучшения математического мышления в больших языковых моделях

    Практические бизнес-решения Организации, стремящиеся использовать ИИ, могут реализовать следующие стратегии: 1. Определите возможности автоматизации Изучите процессы, которые можно автоматизировать для повышения эффективности и снижения затрат. Это может включать обработку данных, ответы на часто…

  • Fin-R1: Прорыв в финансовом ИИ

    Введение Искусственный интеллект (ИИ) в финансовом секторе продолжает развиваться, предлагая новые решения для улучшения бизнес-процессов. Система Fin-R1, специализированная модель ИИ, способна решить многие проблемы, связанные с финансовым анализом и принятием решений. Проблемы в…

  • SWEET-RL: Прорыв в обучении многоходовых языковых агентов

    Практические бизнес-решения с использованием SWEET-RL Введение в большие языковые модели (LLMs) Большие языковые модели (LLMs) становятся мощными автономными агентами, способными выполнять сложные задачи. Их применение в бизнесе может значительно повысить эффективность процессов. Решение…

  • RD-Agent: Революция в автоматизации НИОКР с помощью ИИ

    Преобразование НИОКР с помощью ИИ: Решение RD-Agent Значение НИОКР в эпоху ИИ НИОКР играет ключевую роль в повышении производительности, особенно в условиях, когда доминирует ИИ. Традиционные методы автоматизации НИОКР часто не справляются с…

  • Современные аудиомодели OpenAI для синтеза речи и транскрипции в реальном времени

    Улучшение взаимодействия с аудио в реальном времени с помощью передовых аудиомоделей OpenAI Введение Быстрый рост голосовых взаимодействий на цифровых платформах повысил ожидания пользователей к бесшовным и естественным аудиоопытам. Традиционные технологии синтеза речи и…

  • Инновационные решения для управления катастрофами с использованием ИИ

    Практические бизнес-решения для управления бедствиями с использованием ИИ Использование ИИ для управления бедствиями Инновационное применение модели глубокого обучения ResNet-50 от IBM позволяет организациям быстро анализировать спутниковые изображения для определения и классификации зон, пострадавших…

  • Запуск MoshiVis: Открытая модель речевого взаимодействия с изображениями

    Преобразование бизнеса с помощью MoshiVis Проблемы традиционных систем Традиционные системы взаимодействия с речью и визуальным контентом часто имеют недостатки, такие как задержки и неспособность учитывать эмоциональные сигналы. Это особенно важно для пользователей с…

  • NVIDIA Dynamo: Библиотека для ускорения и масштабирования ИИ моделей

    Преобразование бизнеса с помощью ИИ Искусственный интеллект (ИИ) предлагает множество возможностей для оптимизации бизнес-процессов и повышения эффективности. Вот практические решения на основе технологий, таких как NVIDIA Dynamo, которые могут улучшить результаты бизнеса и…

  • Создание семантической поисковой системы с использованием Sentence Transformers и FAISS

    Построение семантической поисковой системы Понимание семантического поиска Семантический поиск улучшает традиционное сопоставление ключевых слов, понимая контекстное значение поисковых запросов. Это позволяет бизнесу улучшить пользовательский опыт и процесс извлечения информации. Реализация семантической поисковой системы…

  • Эффективная интеграция знаний в большие языковые модели с KBLAM

    Улучшение больших языковых моделей с помощью KBLAM Введение в интеграцию знаний в LLM Большие языковые модели (LLM) обладают выдающимися способностями к рассуждению и знанию. Однако им часто не хватает дополнительной информации для заполнения…