Алгоритм гибридного обучения с подкреплением, использующий оффлайн-данные для оптимизации предпочтений и онлайн-данные для регуляризации KL-дивергенции

 HyPO: A Hybrid Reinforcement Learning Algorithm that Uses Offline Data for Contrastive-based Preference Optimization and Online Unlabeled Data for KL Regularization

HyPO: Гибридный алгоритм обучения с подкреплением, использующий офлайн-данные для контрастивной оптимизации предпочтений и онлайн-неразмеченные данные для регуляризации KL

Исследование в области искусственного интеллекта акцентирует внимание на тонкой настройке больших языковых моделей (LLM) для соответствия приоритетам человека. Эта настройка обеспечивает генерацию полезных, актуальных и соответствующих ответов систем ИИ ожиданиям пользователей. Текущий подход в области ИИ подчеркивает обучение на предпочтительных данных человека для улучшения этих моделей, решая проблему сложности ручной спецификации функций вознаграждения для различных задач. Два основных подхода в этой области – онлайн обучение с подкреплением (RL) и офлайн контрастивные методы, каждый из которых имеет уникальные преимущества и вызовы.

Применимые практические решения

Одной из центральных проблем тонкой настройки LLM на предпочтения человека является ограниченный охват статических наборов данных. Эти наборы могут не соответствовать разнообразию и динамике предпочтений человека в реальных приложениях. Проблема охвата наборов данных особенно остро проявляется, когда модели обучаются исключительно на заранее собранных данных, что может привести к недостаточной производительности. Это подчеркивает необходимость методов эффективного использования статических наборов данных и данных в реальном времени для улучшения соответствия модели предпочтениям человека.

Существующие методы тонкой настройки предпочтений в LLM включают онлайн методы обучения с подкреплением, такие как оптимизация приближенной политики (PPO), и офлайн контрастивные методы, такие как прямая оптимизация предпочтений (DPO). Онлайн методы обучения с подкреплением включают двухэтапную процедуру, при которой модель вознаграждения обучается на фиксированном офлайн-наборе предпочтений, за которым следует обучение с использованием онлайн-данных. Этот подход имеет преимущества реальной обратной связи, но требует вычислительных ресурсов. В отличие от этого, офлайн контрастивные методы оптимизируют политики на основе только предварительно собранных данных, избегая необходимости выборки в реальном времени, но потенциально страдая от переобучения и ограниченных возможностей обобщения.

Исследователи из Университета Карнеги-Меллон, компании Aurora Innovation и Корнеллского университета представили новый метод под названием HyPO. Этот гибридный подход объединяет преимущества онлайн и офлайн методов с целью повышения производительности модели при сохранении вычислительной эффективности.

HyPO использует сложный алгоритмический каркас, который использует офлайн-данные для цели DPO и онлайн выборки для контроля обратной дивергенции KL. Алгоритм итеративно обновляет параметры модели, оптимизируя потери DPO и включая регуляризационный член KL, полученный из онлайн-выборок. Этот гибридный подход эффективно решает недостатки чисто офлайн методов, таких как переобучение и недостаточный охват наборов данных, интегрируя преимущества онлайн методов обучения с подкреплением, но без их вычислительной сложности.

Эмпирические результаты

Производительность HyPO была оценена на нескольких показателях, включая задачу TL;DR и общие бенчмарки чата, такие как AlpacaEval 2.0 и MT-Bench. Результаты были впечатляющими, с HyPO, достигшим победного результата 46.44% в задаче TL;DR с использованием модели Pythia 1.4B, по сравнению с 42.17% для метода DPO. Для модели Pythia 2.8B HyPO достиг победного результата 50.50%, значительно превзойдя 44.39% для DPO. Кроме того, HyPO продемонстрировал превосходный контроль над обратной дивергенцией KL, со значениями 0.37 и 2.51 для моделей Pythia 1.4B и 2.8B соответственно, по сравнению с 0.16 и 2.43 для DPO.

В общих бенчмарках чата HyPO также показал заметные улучшения. Например, в оценке MT-Bench модели, настроенные с помощью HyPO, достигли оценок 8.43 и 8.09 в среднем по первому и второму ходу соответственно, превосходя оценки моделей, настроенных с помощью DPO в 8.31 и 7.89. Аналогично, в AlpacaEval 2.0 HyPO достиг 30.7% и 32.2% победных результатов на первом и втором ходах соответственно, по сравнению с 28.4% и 30.9% для DPO.

Эмпирические результаты подчеркивают способность HyPO уменьшать проблемы переобучения, которые часто наблюдаются в офлайн контрастивных методах. Например, когда модель обучалась на наборе данных TL;DR, HyPO сохранял средний KL-показатель валидации значительно ниже, чем у DPO, указывая на лучшее соответствие эталонной политике и снижение переобучения. Эта способность использовать онлайн данные для регуляризации помогает HyPO достигать более надежной производительности на различных задачах.

В заключение, введение гибридной оптимизации предпочтений (HyPO), эффективно объединяющей офлайн и онлайн данные, адресует ограничения существующих методов и улучшает соответствие больших языковых моделей предпочтениям человека. Повышение производительности, продемонстрированное в эмпирических оценках, подчеркивает потенциал HyPO в достижении более точных и надежных систем искусственного интеллекта.

Для подробностей найдите статью. Вся заслуга за данное исследование принадлежит его исследователям. Также не забудьте подписаться на наш Telegram канал и присоединиться к нашей группе по продажам. Если вам нравится наша работа, вы полюбите нашу рассылку.

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Создание индивидуального клиента MCP с использованием Gemini

    Создание клиентского приложения Model Context Protocol (MCP) с использованием Gemini Практические бизнес-решения Создание клиентского приложения MCP с использованием Gemini позволяет интегрировать искусственный интеллект в бизнес-процессы. Это улучшает взаимодействие с клиентами, оптимизирует рабочие процессы…

  • Улучшение многомодального обучения: рамки UniME

    Введение в многомодальное представление данных Многомодальное представление данных – это новая область в искусственном интеллекте, которая объединяет различные типы данных, такие как текст и изображения, для создания более полных и точных моделей. Один…

  • Модель THINKPRM: Преобразование бизнеса с помощью ИИ

    Преобразование бизнеса с помощью ИИ: Модель THINKPRM Введение в THINKPRM Модель THINKPRM (Generative Process Reward Model) представляет собой значительное достижение в верификации процессов рассуждения с использованием искусственного интеллекта. Эта модель повышает эффективность и…

  • Улучшение бизнеса с помощью разговорного ИИ

    “`html Улучшение бизнеса с помощью разговорного ИИ Введение в вызов функций в разговорном ИИ Вызов функций — это мощная возможность, которая позволяет большим языковым моделям (LLM) связывать естественные языковые запросы с реальными приложениями,…

  • VERSA: Инновационный инструмент для оценки аудиосигналов

    Введение в VERSA: Современный инструмент для оценки аудио Команда WAVLab представила VERSA, инновационный и комплексный набор инструментов для оценки речи, аудио и музыкальных сигналов. С развитием искусственного интеллекта, который генерирует аудио, необходимость в…

  • Alibaba Qwen3: Новое Поколение Языковых Моделей

    Введение в Qwen3: Новая эра в больших языковых моделях Команда Alibaba Qwen недавно представила Qwen3, последнее достижение в серии больших языковых моделей (LLMs). Qwen3 предлагает новый набор моделей, оптимизированных для различных приложений, включая…

  • ViSMaP: Инновационное решение для автоматизации суммирования длинных видео

    Преобразование видео: ViSMaP ViSMaP представляет собой инновационный подход к обобщению длинных видео без необходимости в дорогих аннотациях. Это решение может значительно улучшить бизнес и повседневную жизнь, а именно: Преимущества ViSMaP Сокращение временных затрат…

  • Эффективное управление контекстом для больших языковых моделей

    Модель Контекстного Протокола: Улучшение Взаимодействия с ИИ Введение Эффективное управление контекстом является ключевым при использовании больших языковых моделей (LLMs). Этот документ предлагает практическую реализацию Модели Контекстного Протокола (MCP), сосредоточенную на семантическом делении, динамическом…

  • Запуск DeepWiki: ИИ-инструмент для понимания репозиториев GitHub

    Введение в DeepWiki Devin AI представил DeepWiki — бесплатный инструмент, который генерирует структурированную документацию для репозиториев GitHub. Этот инновационный инструмент упрощает понимание сложных кодовых баз, что облегчает жизнь разработчикам, работающим с незнакомыми проектами.…

  • Эффективные модели Tina для улучшения обучения с подкреплением

    Введение Современные бизнесы сталкиваются с вызовами в области многослойного рассуждения, особенно в научных исследованиях и стратегическом планировании. Традиционные методы, такие как узконаправленное обучение, требуют значительных затрат и могут приводить к поверхностному обучению. Однако…

  • FlowReasoner: Персонализированный Мета-Агент для Многоагентных Систем

    Введение в FlowReasoner Недавние достижения в области искусственного интеллекта привели к разработке FlowReasoner, мета-агента, который автоматизирует создание персонализированных многопользовательских систем, адаптированных к запросам пользователей. Это значительно повышает эффективность и масштабируемость. Проблемы в текущих…

  • Руководство Microsoft по режимам отказа в агентных системах ИИ

    Введение Понимание и управление рисками в системах агентного ИИ могут значительно улучшить бизнес-процессы и повысить доверие клиентов. Ниже представлены практические решения, которые помогут в этом. Практические бизнес-решения Создание надежных систем агентного ИИ требует…

  • Автономные пайплайны анализа данных с PraisonAI

    Создание полностью автономных потоков анализа данных с PraisonAI Введение В этом руководстве описывается, как бизнес может улучшить процессы анализа данных, перейдя от ручного кодирования к полностью автономным потокам данных, управляемым ИИ. Используя платформу…

  • QuaDMix: Инновационная Оптимизация Качества и Разнообразия Данных в AI

    Практические бизнес-решения с использованием QuaDMix Имплементация QuaDMix может существенно улучшить AI-приложения благодаря следующим ключевым аспектам: 1. Упрощение кураторства данных Используйте QuaDMix для поддержания высокого качества данных без жертвы разнообразием, что приведет к более…

  • Оптимизация методов масштабирования для повышения эффективности reasoning в языковых моделях

    “`html Оптимизация Производительности Размышлений в Языковых Моделях: Практические Бизнес-Решения Понимание Методов Масштабирования во Время Вывода Языковые модели могут выполнять множество задач, но часто сталкиваются с трудностями при сложном размышлении. Методы масштабирования вычислений во…

  • Интеграция API Gemini с агентами LangGraph для оптимизации рабочих процессов ИИ

    Улучшение рабочих процессов с помощью интеграции Arcade и Gemini API Этот документ описывает, как преобразовать статические разговорные интерфейсы в динамичных, действующих ИИ-ассистентов с использованием Arcade и Gemini Developer API. Используя набор готовых инструментов,…

  • СоциоВерс: Революционная Модель Социальной Симуляции на Основе LLM

    Использование ИИ для Социальной Симуляции: Инициатива SocioVerse Введение в SocioVerse Исследователи из Университета Фудань разработали SocioVerse, инновационную модель мира, использующую агентов на основе больших языковых моделей (LLM) для симуляции социальных динамик. Эта модель…

  • Токен-Шаффл: Революция в генерации высококачественных изображений с помощью трансформеров

    Введение в Token-Shuffle Meta AI представила инновационный метод, известный как Token-Shuffle, который повышает эффективность генерации изображений в авторегрессионных (AR) моделях. Этот подход решает вычислительные задачи, связанные с созданием изображений высокого разрешения, что может…