Улучшение задач рассуждения в языковых моделях через итеративную оптимизацию предпочтений.

 Iterative Preference Optimization for Improving Reasoning Tasks in Language Models

Итеративная оптимизация предпочтений для улучшения задач рассуждения в языковых моделях

Методы итеративной оптимизации предпочтений показали свою эффективность в настройке общих задач настройки, но они приводят к ограниченным улучшениям в задачах рассуждения. Эти методы, использующие оптимизацию предпочтений, улучшают соответствие языковой модели человеческим требованиям по сравнению с простой настройкой под наблюдением. Офлайновые техники, такие как DPO, становятся популярными из-за своей простоты и эффективности. Недавние достижения предлагают итеративное применение офлайновых процедур, таких как Итеративное DPO, Самовознаграждающие LLM и SPIN, которые создают новые отношения предпочтения для дальнейшего улучшения производительности модели. Однако оптимизация предпочтений остается неизученной в этой области, несмотря на успешное применение других итеративных методов обучения, таких как STaR и RestEM, для задач рассуждения.

Практические решения и ценность

Методы итеративного выравнивания включают как стратегии с участием человека, так и автоматизированные стратегии. В то время как некоторые полагаются на обратную связь человека для обучения с подкреплением (RLHF), другие, такие как Итеративное DPO, оптимизируют предпочтительные пары автономно, генерируя новые пары для последующих итераций с использованием обновленных моделей. SPIN, вариант Итеративного DPO, использует метки человека и генерации модели для создания предпочтительных пар, но сталкивается с ограничениями, когда производительность модели соответствует стандартам человека. Самовознаграждающие LLM также используют Итеративное DPO, причем сама модель выступает в качестве оценщика наград, принося улучшения в следовании инструкциям, но умеренные улучшения в рассуждениях. В отличие от этого, Экспертная итерация и STaR сосредотачиваются на кураторстве выборки и улучшении обучающих данных, отклоняясь от оптимизации предпочтительных пар.

Исследователи из FAIR в Meta и Нью-Йоркского университета представляют подход, нацеленный на итеративную оптимизацию предпочтений для задач рассуждения, в частности Chain-of-Thought (CoT) рассуждения. Каждая итерация включает выбор нескольких шагов рассуждения CoT и окончательных ответов, конструирование предпочтительных пар, где победители имеют правильные ответы, а проигравшие – неправильные. Обучение включает в себя вариант DPO, включающий термин потери отрицательного логарифма правдоподобия (NLL) для победителей пар, что является важным для улучшения производительности. Итеративный процесс повторяется путем генерации новых пар и повторного обучения модели с предыдущей итерации, тем самым пошагово улучшая производительность модели.

Этот подход зависит от базовой языковой модели, обычно предварительно обученной или настроенной по инструкции, и набора данных тренировочных входов, с возможностью оценить правильность окончательного вывода. Исследования используют наборы данных с золотыми метками для тренировочных входов, получая бинарную награду от точных совпадений между метками и окончательными ответами. Метод включает два шага на каждую итерацию: (i) Генерация цепочки рассуждений и ответов и (ii) Оптимизация предпочтений.

В экспериментах исследователи были обучены использовать модифицированную потерю DPO с добавленным термином отрицательного логарифма правдоподобия, который был признан важным. Профессиональные навыки рассуждения улучшаются на протяжении последовательных итераций этого метода. Используя только примеры из набора данных для обучения, подход приводит к увеличению точности для Llama-2-70B-Chat, повышаясь с 55,6% до 81,6% на GSM8K (и 88,7% при большинстве голосов из 32 образцов), с 12,5% до 20,8% на MATH и с 77,8% до 86,7% на ARC-Challenge. Эти улучшения превосходят производительность других моделей на основе Llama-2, которые не используют дополнительные наборы данных.

Заключение

Данное исследование представляет итеративный алгоритм обучения, нацеленный на улучшение производительности задач рассуждения на основе цепочки мыслей для языковых моделей. Каждая итерация генерирует несколько ответов и создает предпочтительные пары на основе правильности окончательного ответа, используя модифицированную потерю DPO с дополнительным термином NLL для обучения. Метод не требует участия человека или дополнительных обучающих данных, сохраняя простоту и эффективность. Экспериментальные результаты показывают существенные улучшения на GMS8K, MATH и ARC-Challenge по сравнению с различными базовыми моделями, использующими ту же базовую модель и обучающие данные. Эти результаты подчеркивают эффективность итеративного подхода к обучению для улучшения рассуждения языковых моделей.

Полезные ссылки:

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • IBM Granite 3.3: Революция в технологии распознавания речи

    Практические бизнес-решения с использованием Granite 3.3 Granite 3.3 от IBM предлагает множество возможностей для улучшения бизнес-процессов и повседневной жизни. Вот как это может помочь вашему бизнесу: 1. Автоматизация процессов Используйте возможности распознавания речи…

  • Практическое руководство по созданию агентов LLM для бизнес-приложений

    Введение OpenAI выпустила руководство по созданию агентов, которое предлагает структурированный подход для реализации автономных систем ИИ. Это руководство поможет инженерным и продуктовым командам эффективно использовать ИИ в бизнесе. Понимание агентов Агенты отличаются от…

  • Запуск Google Gemini 2.5 Flash: Новые Возможности для Бизнеса

    Практические бизнес-решения для внедрения Gemini 2.5 Flash Google представил Gemini 2.5 Flash, продвинутую модель ИИ с улучшенными возможностями рассуждений. Вот несколько практических решений для бизнеса, которые помогут улучшить результаты и повседневную жизнь. Шаг…

  • Создание модульного процесса оценки LLM с Google AI и LangChain

    Построение Модульного Оценочного Пайплайна LLM Введение Оценка больших языковых моделей (LLM) важна для повышения надежности и эффективности искусственного интеллекта в бизнесе. Этот подход позволяет систематически оценивать сильные и слабые стороны LLM по различным…

  • M1: Гибридная модель для эффективного reasoning в бизнесе

    M1: Новый Подход к Рассуждению Искусственного Интеллекта Понимание Необходимости Эффективных Моделей Рассуждения Эффективное рассуждение важно для решения сложных задач в таких областях, как математика и программирование. Традиционные модели на основе трансформеров показали значительные…

  • Рамки безопасности Zero Trust для защиты протокола контекста модели от отравления инструментов

    Улучшение безопасности ИИ: Рамки Zero Trust Введение Системы искусственного интеллекта (ИИ) все чаще взаимодействуют с данными в реальном времени, что делает необходимость в надежных мерах безопасности крайне важной. Рамки безопасности Zero Trust предлагают…

  • Загрузка наборов данных и дообучение моделей на Hugging Face Hub

    Практические решения для бизнеса с использованием ИИ Введение Использование платформы Hugging Face для загрузки и настройки наборов данных и моделей может значительно улучшить бизнес-процессы. Это позволяет компаниям создавать специализированные ИИ-решения, которые могут повысить…

  • Интеграция Figma с Cursor IDE для создания веб-страницы входа

    Интеграция Figma с Cursor IDE для веб-разработки Введение Интеграция инструментов дизайна, таких как Figma, с средами разработки, такими как Cursor IDE, может значительно повысить продуктивность. Используя Протокол Контекста Модели (MCP), разработчики могут упростить…

  • Pixel-SAIL: Революционная Модель для Задач Визуального И Языкового Восприятия

    Будущее моделей визуального языка: практические бизнес-решения Введение в Pixel-SAIL Недавние достижения в области искусственного интеллекта (ИИ) привели к разработке Pixel-SAIL, модели, которая улучшает понимание на уровне пикселей. Эта модель может значительно улучшить бизнес-процессы…

  • Оптимизация выбора данных для предварительного обучения LLM через DataDecide

    Преобразование производительности моделей ИИ через оптимизацию данных Понимание задачи выбора данных в предварительном обучении LLM Создание больших языковых моделей (LLM) требует значительных вычислительных ресурсов, особенно при тестировании различных предварительных наборов данных. Это приводит…

  • Новые модели OpenAI: o3 и o4-mini для бизнес-решений

    Практические бизнес-решения OpenAI Обзор новых моделей OpenAI OpenAI недавно запустила две инновационные модели, o3 и o4-mini, которые представляют собой значительные достижения в области искусственного интеллекта. Эти модели улучшают интеграцию мультимодальных входов, таких как…

  • DELSSOME: Ускорение биофизического моделирования мозга в 2000 раз с помощью глубокого обучения

    Революция в биофизическом моделировании мозга с использованием DELSSOME Введение в биофизические модели мозга Биофизические модели мозга необходимы для понимания сложных процессов его работы. Они связывают клеточную динамику нейронов с крупномасштабной активностью мозга. Однако…

  • Codex CLI: Преобразование естественного языка в код для разработчиков

    Введение в Codex CLI Командные интерфейсы (CLI) являются важными инструментами для разработчиков, позволяя эффективно управлять системами и автоматизировать процессы. Однако они требуют точного синтаксиса и глубокого понимания команд, что может быть сложно для…

  • Создание интерактивных BI панелей с Taipy для анализа временных рядов

    Введение В этом руководстве мы рассмотрим, как создать интерактивную панель управления с помощью Taipy, мощного фреймворка для разработки веб-приложений на Python. Используя Taipy, мы смоделируем сложные временные ряды, выполним сезонную декомпозицию в реальном…

  • DISCIPL: Новый Фреймворк для Повышения Эффективности Языковых Моделей

    Введение DISCIPL: Новый Фреймворк для Языковых Моделей Понимание Проблемы Языковые модели значительно продвинулись, но все еще испытывают трудности с задачами, требующими точного рассуждения и соблюдения конкретных ограничений. Введение DISCIPL DISCIPL – это новаторский…

  • TabPFN: Революция в прогнозировании ячеек таблиц с помощью трансформеров

    Преобразование анализа табличных данных с помощью TabPFN Введение в табличные данные и их проблемы Табличные данные важны в различных секторах, включая финансы, здравоохранение и научные исследования. Традиционные модели, такие как градиентные бустированные деревья…

  • SQL-R1: Модель NL2SQL с высокой точностью для сложных запросов

    Преобразование запросов на естественном языке в SQL с помощью SQL-R1 Введение в NL2SQL Технология Natural Language to SQL (NL2SQL) позволяет пользователям взаимодействовать с базами данных на понятном языке. Это улучшает доступность данных для…

  • Преодоление Ограничений Языковых Моделей: Рекомендации для Бизнеса

    Практические бизнес-решения на основе исследований MIT Понимание больших языковых моделей (LLM) Большие языковые модели (LLM) могут помочь в решении реальных бизнес-задач, таких как анализ данных и автоматизация обслуживания клиентов. Их эффективность в решении…