Как синтетические доказательства меняют возможности системы LLM

 Revolutionizing Theorem Proving: How Synthetic Proof Data Transforms LLM Capabilities

“`html

Революционное доказательство теорем: как синтетические доказательства изменяют возможности LLM

Доказательные ассистенты, такие как Lean, обеспечивают высокую точность в математических доказательствах, решая растущую сложность современной математики, которая часто приводит к ошибкам. Формальные языки, такие как Lean, Isabelle и Coq, создают компьютерно-проверяемые доказательства, но требуют значительных усилий и экспертизы. Автоматизированное доказательство теорем становится все более важным, с новыми методами, фокусирующимися на алгоритмах поиска потенциальных решений. Несмотря на улучшения в LLM, этим методам требуется больше обучающих данных. Продвижение в автоформализации предлагает определенное облегчение, но наборы данных остаются слишком маленькими, чтобы полностью использовать возможности LLM.

Практические решения и ценность

Исследователи из DeepSeek, Университета Сунь Ят-сен, Университета Эдинбурга и MBZUAI разработали метод генерации обширных данных доказательств LFourfour из задач математических соревнований старших классов и студентов. Путем перевода этих задач в формальные утверждения, фильтрации низкокачественных и генерации доказательств они создали набор данных из 8 миллионов утверждений. Путем настройки модели DeepSeekMath 7B на этих данных им удалось достичь точности 46,3% в генерации полного доказательства на тесте Lean 4 miniF2F, превзойдя 23,0% у GPT-4. Их модель также решила 5 из 148 задач бенчмарка FIMO, превзойдя GPT-4. Эта работа продвигает доказательство теорем путем использования синтетических данных большого масштаба.

Автоматизированное доказательство теорем (ATP) является ключевой областью исследований в области искусственного интеллекта с момента своего возникновения. Оно развилось от эффективных доказателей первого порядка, таких как E и Vampire, к обработке сложных теорем в современных доказательственных ассистентах, таких как Lean, Isabelle и Coq. Недавние успехи в глубоком обучении и модельно-управляемом поиске возродили ATP, объединяя нейронные модели с алгоритмами поиска в дереве и обучением с подкреплением. Эти методы, хотя и мощные, требуют больших ресурсов. Автоформализация, преобразование естественного языка в формальные утверждения, решает проблему ограниченных обучающих данных. Недавние усилия синтезируют большие наборы формальных доказательств, используя LLM, чтобы значительно улучшить производительность нейронных доказателей на сложных математических задачах.

Подход включает четыре основных этапа. Формальные математические утверждения изначально генерируются из большой коллекции неформальных математических задач. Эти автоформализованные утверждения проходят фильтрацию через оценку модели и отклонение гипотез для выбора высококачественных. Затем модель DeepSeek-Prover пытается доказать эти утверждения с проверкой корректности с помощью формального верификатора Lean 4, что приводит к подтвержденным формальным утверждениям и доказательствам. Эти данные используются для настройки модели DeepSeek-Prover, и процесс повторяется, пока улучшения не станут незначительными. Для улучшения эффективности доказательства одновременно доказываются как исходные утверждения, так и их отрицания, быстро отбрасывая недопустимые утверждения.

DeepSeek-Prover, основанный на модели DeepSeekMath-Base 7B, был настроен с глобальным размером пакета 512 и постоянной скоростью обучения 1 × 10^−4, включая 6 000 шагов разогрева с использованием синтетических данных. Его производительность была сравнена с GPT-3.5, GPT-4 и несколькими передовыми методами, такими как GPT-f, Proof Artifact Co-Training, ReProver, Llemma и COPRA. Оценки на бенчмарках miniF2F и FIMO показали, что DeepSeek-Prover превзошел другие, достигнув 60,2% на miniF2F-valid и 52,0% на miniF2F-test, значительно превышая 25,41% и 22,95% у GPT-4. Бенчмарк FIMO успешно доказал пять теорем с разными попытками, превзойдя GPT-4, который не смог установить ни одной.

В заключение, исследование разработало метод генерации обширных синтетических доказательств из задач математических соревнований старших классов и студентов. Путем перевода задач на естественном языке в формальные утверждения, фильтрации низкокачественных данных и использования итеративного доказательства было создано 8 миллионов доказательств, значительно улучшающих производительность модели DeepSeekMath 7B в автоматизированном доказательстве теорем. Модель превосходит GPT-4 и другие бенчмарки, такие как miniF2F и FIMO. Открытые наборы данных и модель направлены на продвижение исследований в области автоматизированного доказательства теорем и улучшение возможностей крупных языковых моделей в формальном математическом рассуждении, с планами расширения области решаемых математических проблем в будущих работах.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Запуск VAPO: Революционная платформа для улучшенного обучения в AI

    Введение в VAPO ByteDance представила VAPO — новую структуру обучения с подкреплением, предназначенную для решения сложных задач рассуждения в больших языковых моделях. VAPO улучшает точность оценки, что критично для сложных сценариев рассуждения. Проблемы…

  • Эффективное понимание длинных видео с использованием T* и LV-Haystack

    Введение в понимание длинных видео Понимание длинных видео стало значительной задачей в области искусственного интеллекта. Для эффективного извлечения информации из длительного контента необходимо разрабатывать практические решения. Решение проблем анализа видео Традиционные модели видео…

  • Оптимизация бюджета вывода для моделей самосогласованности и генеративных вознаграждений в ИИ

    Введение в оценку бюджета вывода с помощью ИИ Данный документ представляет собой практическое решение для оценки бюджета вывода при использовании ИИ в бизнесе. Внедрение искусственного интеллекта может значительно улучшить результаты работы организации. Шаги…

  • Agent2Agent: Новый Протокол Сотрудничества AI Агентов

    Преобразование бизнеса с помощью Agent2Agent Google представил Agent2Agent (A2A) — инновационный протокол, который позволяет AI-агентам безопасно сотрудничать на различных платформах. Этот протокол упрощает рабочие процессы, вовлекающие несколько специализированных AI-агентов, улучшая их взаимодействие. Преимущества…

  • Запуск набора инструментов разработки агентов (ADK) от Google для многопользовательских систем

    Введение в ADK Google недавно представила набор инструментов для разработки агентов (ADK), который является открытым фреймворком для разработки, управления и развертывания многопользовательских систем. Этот фреймворк написан на Python и подходит для различных приложений,…

  • Роль “впитывающих” вниманий в стабилизации больших языковых моделей

    Понимание “впитывающих” механизмов внимания в больших языковых моделях Большие языковые модели (LLMs) имеют уникальное поведение, известное как “впитывающие” механизмы внимания. Это явление имеет значительные последствия для стабильности и производительности моделей, что может улучшить…

  • TorchSim: Революция в атомистических симуляциях с помощью PyTorch

    Введение в TorchSim TorchSim – это инновационный движок атомистического моделирования, который значительно улучшает симуляции материалов, делая их быстрее и эффективнее традиционных методов. Это позволяет отдельным ученым решать несколько задач одновременно. Ключевые особенности TorchSim…

  • API Evals от OpenAI: Оптимизация оценки моделей для бизнеса

    Введение в Evals API OpenAI представила Evals API, мощный инструмент для упрощения оценки больших языковых моделей (LLMs) для разработчиков и команд. Этот новый API позволяет программно проводить оценку, позволяя разработчикам определять тесты, автоматизировать…

  • Запуск моделей APIGen-MT и xLAM-2-fc-r для обучения агентов с многоходовыми взаимодействиями

    Введение Инновационные модели Salesforce AI, APIGen-MT и xLAM-2-fc-r, значительно улучшают способности AI-агентов в управлении сложными многоуровневыми взаимодействиями. Эти решения особенно актуальны для бизнеса, который зависит от эффективной коммуникации и выполнения задач. Проблема многоуровневых…

  • Huawei Dream 7B: Революционная Модель Диффузионного Размышления для Бизнеса

    Практические бизнес-решения на основе Dream 7B Модель Dream 7B от Huawei предлагает революционные возможности для автоматизации и улучшения бизнес-процессов. Внедрение этой технологии может значительно повысить эффективность и качество работы организаций. Как улучшить бизнес…

  • МегаСкейл-Инфер: Революционная система для эффективного обслуживания LLM на основе MoE

    Введение MegaScale-Infer: Оптимизация Производительности Больших Языковых Моделей Большие языковые модели (LLMs) играют важную роль в различных приложениях, таких как чат-боты и генерация кода. Однако с увеличением их размеров возникают проблемы с эффективностью вычислений.…

  • Инновации в тактильном восприятии: решение для бизнеса с использованием ИИ

    Преобразование тактильного восприятия с помощью ИИ: Практические бизнес-решения Понимание технологии тактильного восприятия Тактильное восприятие необходимо для эффективного взаимодействия интеллектуальных систем с физической средой. Технологии, такие как сенсор GelSight, предоставляют подробную информацию о контактных…

  • LLM+FOON: Улучшение планирования кулинарных задач для роботов

    Введение Разработка роботов для домашнего использования, особенно в кулинарии, становится все более актуальной. Эти роботы должны выполнять различные задачи, требующие визуальной интерпретации, манипуляции и принятия решений. Использование LLM+FOON фреймворка может значительно улучшить планирование…

  • Создание локального RAG-пайплайна с Ollama и DeepSeek-R1 на Google Colab

    Практические бизнес-решения с использованием RAG-пайплайна Создание RAG-пайплайна с использованием Ollama и Google Colab может значительно улучшить бизнес и повседневную жизнь. Вот как это может повысить результаты бизнеса: Преимущества Эффективный доступ к информации из…

  • Улучшение моделей рассуждений с помощью масштабирования во время вывода

    Введение Искусственный интеллект может существенно улучшить бизнес-процессы, особенно в области сложного решения задач. Следуя новейшим исследованиям в области масштабирования языковых моделей, можно улучшить качества рассуждений и значительно повысить эффективность работы. Проблемы текущих моделей…

  • RARE: Масштабируемая AI-структура для улучшения специфического рассуждения

    Введение Современные достижения в области больших языковых моделей (LLMs) продемонстрировали впечатляющие возможности в различных задачах. Однако они часто сталкиваются с трудностями в специализированных областях, требующих глубоких знаний и рассуждений. Это ограничение связано с…

  • OceanSim: Инновационный GPU-ускоренный симулятор подводной robotics

    Введение в OceanSim: Преобразование симуляции подводной робототехники OceanSim – это современная платформа для симуляции подводной робототехники, разработанная Университетом Мичигана. Она использует высокопроизводительное GPU-ускорение, что делает ее ценным инструментом для таких приложений, как морская…

  • Генератор питчей для стартапов на основе AI

    Создание генератора питчей для стартапов на базе ИИ Данный гид предлагает простой подход к созданию приложения, использующего ИИ для генерации идей питчей для стартапов. Используя модель Google Gemini Pro вместе с фреймворком LiteLLM,…