Большие языковые модели для снижения задержки: новое семейство моделей, специализированных на методе декодирования Якоби.

 Consistency Large Language Models (CLLMs): A New Family of LLMs Specialized for the Jacobi Decoding Method for Latency Reduction

“`html

Consistency Large Language Models (CLLMs): Новое семейство LLM, специализированное для метода декодирования Якоби для снижения задержки

Большие языковые модели (LLM), включая GPT-4, LLaMA и PaLM, выталкивают границы искусственного интеллекта. Задержка вывода LLM играет важную роль из-за интеграции LLM в различные приложения, обеспечивая положительный опыт пользователя и высокое качество обслуживания. Однако служба LLM работает в рамках AR-парадигмы, генерируя по одному токену за раз, потому что механизм внимания полагается на предыдущие состояния токенов для генерации следующего токена. Чтобы создать более длинный ответ, выполняется прямой проход, используя LLM, эквивалентный количеству сгенерированных токенов, что приводит к высокой задержке.

Эффективный метод вывода LLM

Эффективный метод вывода LLM разделен на два потока: метод, требующий дополнительной тренировки, и метод, не требующий ее. Исследователи изучили этот метод из-за высокой стоимости вывода AR для LLM, в основном сосредоточившись на увеличении процесса декодирования AR. Еще один существующий метод – это Дистилляция LLM, где используется техника дистилляции знаний (KD) для создания маленьких моделей и замены функциональности более крупных. Однако традиционные методы KD неэффективны для LLM. Поэтому KD используется для авторегрессивных LLM для минимизации обратного KL-расхождения между студенческими и учительскими моделями через декодирование, управляемое студентом.

Consistency Large Language Models (CLLMs)

Исследователи из университета Шанхая Джиао и университета Калифорнии предложили CLLMs, новое семейство LLM, специализированное для метода декодирования Якоби для снижения задержки. CLLM был сравнен с традиционными методами, такими как спекулятивное декодирование и Медуза, для настройки вспомогательных компонентов модели и не использовал дополнительную память для этой задачи, в отличие от других. Когда CLLM обучается на ∼ 1M токенов для LLaMA-7B, он становится в 3,4 раза быстрее на наборе данных Spider, что показывает, что стоимость настройки для этого метода умеренная. Два основных фактора для ускорения – быстрое декодирование и стационарные токены.

В быстром декодировании правильные предсказания делаются в один проход для нескольких последовательных токенов, тогда как стационарные токены показывают правильное предсказание без изменений через последующие итерации, несмотря на то, что они предшествуют неточным токенам. В LLM и CLLM, когда сравниваются количество быстрых и стационарных токенов на всех четырех наборах данных (в Таблице 3), улучшение количества токенов составляет от 2,0x до 6,8x. Также для обоих количеств токенов такое улучшение в наборах данных, специфичных для домена, лучше, чем в наборах данных общего профиля на MT-bench. Это помогает выделить коллокации и простые синтаксические структуры, такие как пробелы, токены новой строки и повторяющиеся специальные символы в специализированных областях, таких как программирование.

Исследователи провели эксперименты для оценки производительности и ускорения вывода CLLM на нескольких задачах, таких как сравнение базовых уровней (SOTA) на трех специфических для домена задачах и задачах общего профиля на MT-bench. CLLM показывает выдающуюся производительность на различных бенчмарках, например, он может достичь ускорения в 2,4× до 3,4× с использованием декодирования Якоби с практически никакой потерей точности на специфических для домена бенчмарках, таких как GSM8K, CodeSearchNet Python и Spider. CLLM может достичь ускорения в 2,4× на ShareGPT с производительностью SOTA, с оценкой 6,4 на общедоступном бенчмарке MT-bench.

Заключение

Исследователи представили CLLM, новое семейство LLM, которое отличается эффективным параллельным декодированием и разработано таким образом, что может улучшить эффективность декодирования Якоби. Дополнительные архитектурные решения или управление двумя различными моделями в одной системе сложны, и сложность снижается с помощью CLLM, потому что этот метод прямо адаптирован из целевой предварительно обученной LLM. Кроме того, количество быстрых и стационарных токенов сравниваются на четырех наборах данных, показывая улучшение от 2,0x до 6,8x в LLM и CLLM.

Посмотрите статью и проект. Вся заслуга за это исследование принадлежит его авторам. Также не забудьте подписаться на наш Twitter. Присоединяйтесь к нашему каналу Telegram, каналу Discord и группе LinkedIn.

Если вам понравилась наша работа, вам понравится наш информационный бюллетень.

Не забудьте присоединиться к нашему 42k+ ML SubReddit

Оригинал статьи опубликован на сайте MarkTechPost.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Преобразование бизнес-процессов с помощью AI: Фреймворк PLAN-AND-ACT

    Преобразование бизнес-процессов с помощью ИИ: Рамочная структура PLAN-AND-ACT Понимание проблем Компании сталкиваются с вызовами при использовании ИИ, такими как сложность выполнения задач и адаптация к динамичным условиям. Это требует перевода пользовательских инструкций в…

  • DeepSeek V3-0324: Революция в AI для бизнеса

    Введение Искусственный интеллект (ИИ) значительно развился, но многие компании сталкиваются с высокими затратами на вычисления и разработку больших языковых моделей (LLM). Решение этих проблем возможно благодаря новейшей модели DeepSeek-V3-0324. Решение DeepSeek-V3-0324 Модель DeepSeek-V3-0324…

  • Понимание и улучшение многоагентных систем в ИИ

    Понимание и улучшение многопользовательских систем Введение в многопользовательские системы Многопользовательские системы (MAS) включают сотрудничество нескольких агентов ИИ для выполнения сложных задач. Несмотря на их потенциал, эти системы часто работают хуже, чем одноагентные решения.…

  • Gemini 2.5 Pro: Революция в Искусственном Интеллекте

    Практические бизнес-решения Трансформация бизнес-процессов Компании могут использовать AI-модели, такие как Gemini 2.5 Pro, для повышения операционной эффективности. Вот несколько практических шагов: 1. Определите возможности автоматизации Изучите процессы, которые можно автоматизировать. Анализируйте взаимодействия с…

  • Современные решения для оценки позы человека в бизнесе

    Бизнес-решения: Продвинутая оценка позы человека Введение в оценку позы человека Оценка позы человека — это инновационная технология, которая преобразует визуальную информацию в практические данные о движении человека. Используя такие модели, как MediaPipe, компании…

  • RWKV-7: Эффективное Моделирование Последовательностей для Бизнеса

    Введение в RWKV-7 Модель RWKV-7 представляет собой значительное достижение в области моделирования последовательностей благодаря инновационной архитектуре рекуррентной нейронной сети (RNN). Это более эффективная альтернатива традиционным авторегрессионным трансформерам, особенно для задач, требующих обработки длинных…

  • Qwen2.5-VL-32B-Instruct: Прорыв в моделях визуального языка

    Практические бизнес-решения с использованием Qwen2.5-VL-32B-Instruct Модель Qwen2.5-VL-32B-Instruct предлагает множество возможностей для улучшения бизнес-процессов и реальной жизни. Вот несколько шагов для ее внедрения: 1. Определите возможности автоматизации Анализируйте текущие процессы, чтобы найти задачи, где…

  • Извлечение Структурированных Данных с Помощью ИИ

    Практические бизнес-решения на основе извлечения структурированных данных с помощью ИИ Введение Использование ИИ для извлечения структурированных данных может значительно улучшить бизнес-процессы и повысить эффективность работы. Данная инструкция поможет вам внедрить ИИ-технологии, такие как…

  • Космос-Reason1: Новые горизонты в физическом ИИ

    Введение в Cosmos-Reason1: Прорыв в физическом ИИ Недавние исследования ИИ от NVIDIA представляют Cosmos-Reason1 — мультимодальную модель, предназначенную для улучшения способности ИИ рассуждать в физических средах. Это достижение критически важно для таких приложений,…

  • TokenSet: Революция в семантически осознанном визуальном представлении

    Введение TokenSet представляет собой инновационный подход к визуальной генерации, который может значительно улучшить бизнес-процессы. Этот фреймворк помогает оптимально представлять изображения, учитывая семантическую сложность различных областей. Давайте рассмотрим, как его использование может повысить бизнес-результаты…

  • Лира: Эффективная Архитектура для Моделирования Биологических Последовательностей

    Введение Lyra – это новая архитектура, которая предлагает эффективный подход к моделированию биологических последовательностей, позволяя улучшить бизнес-процессы в области биотехнологий и медицины. Проблемы в текущих моделях Существующие модели требуют значительных вычислительных ресурсов и…

  • СуперBPE: Новые Горизонты Токенизации для Языковых Моделей

    Введение в проблемы токенизации Языковые модели сталкиваются с серьезными проблемами при обработке текстовых данных из-за ограничений традиционных методов токенизации. Текущие токенизаторы делят текст на токены словарного запаса, которые не могут пересекаться с пробелами,…

  • TXAGENT: Искусственный интеллект для точной медицины и рекомендаций по лечению

    Введение в TXAGENT: Революция в прецизионной терапии с помощью ИИ Прецизионная терапия становится все более важной в здравоохранении, так как она настраивает лечение в соответствии с индивидуальными профилями пациентов. Это позволяет оптимизировать результаты…

  • TULIP: Новый подход к обучению для улучшения понимания визуальных и языковых данных

    TULIP: Новая Эра в Понимании Языка и Визуальных Изображений Введение в Контрастное Обучение Недавние достижения в искусственном интеллекте значительно улучшили связь между визуальным контентом и языком. Модели контрастного обучения, связывающие изображения и текст…

  • Революция в локализации кода: решения на основе графов от LocAgent

    Преобразование обслуживания программного обеспечения с помощью LocAgent Введение Обслуживание программного обеспечения является важной частью жизненного цикла разработки, где разработчики регулярно исправляют ошибки, добавляют новые функции и улучшают производительность. Ключевым аспектом этого процесса является…

  • LocAgent: Революция в локализации кода с помощью графового ИИ для обслуживания ПО

    Улучшение обслуживания программного обеспечения с помощью ИИ: случай LocAgent Введение в обслуживание программного обеспечения Обслуживание программного обеспечения — это важный этап в жизненном цикле разработки программного обеспечения. На этом этапе разработчики возвращаются к…

  • Инновации в обработке языка с помощью ИИ: новые возможности для бизнеса

    Преобразование обработки языка с помощью ИИ Понимание проблем обработки языка Обработка языка – это сложная задача, требующая учета многомерности и контекста. Исследования в области психолингвистики сосредоточены на определении символических характеристик различных языковых областей.…

  • Надежный ИИ для Обслуживания Клиентов: Решения и Принципы

    Улучшение Надежности ИИ в Обслуживании Клиентов Проблема: Непостоянная Производительность ИИ в Обслуживании Клиентов Большие языковые модели (LLMs) показывают многообещающие результаты в роли обслуживания клиентов, но их надежность как независимых агентов вызывает серьезные опасения.…