Новая модель Transformer для проблемы коммивояжера

 CycleFormer: A New Transformer Model for the Traveling Salesman Problem (TSP)

CycleFormer: новая модель трансформера для проблемы коммивояжера (TSP)

Множество новаторских моделей, включая ChatGPT, Bard, LLaMa, AlphaFold2 и Dall-E 2, появились в различных областях с момента появления трансформера в обработке естественного языка (NLP). Попытки решить комбинаторные задачи оптимизации, такие как проблема коммивояжера (TSP), с использованием глубокого обучения логически продвигались от сверточных нейронных сетей (CNN) к рекуррентным нейронным сетям (RNN) и, наконец, к моделям на основе трансформеров. Использование координат N городов (узлов, вершин, токенов) TSP определяет кратчайший гамильтонов цикл, проходящий через каждый узел. Вычислительная сложность растет экспоненциально с увеличением числа городов, что делает ее представительной NP-трудной задачей в информатике.

Решение проблемы

Итеративные алгоритмы улучшения и стохастические алгоритмы – две основные категории, в которые попадают эвристические алгоритмы. Существует много усилий, но они все еще не могут сравниться с лучшими эвристическими алгоритмами. Производительность трансформера критически важна, поскольку он является двигателем, решающим проблемы конвейера; однако это аналогично AlphaGo, который сам по себе был недостаточно мощным, но победил лучших профессионалов в мире, объединив постобрабатывающие техники поиска, такие как Монте-Карло дерево поиска (MCTS). Выбор следующего города для посещения, в зависимости от уже посещенных, лежит в основе TSP, и трансформер, модель, которая пытается обнаружить отношения между узлами с использованием механизмов внимания, хорошо подходит для этой задачи. Из-за его первоначального проектирования для языковых моделей трансформер представлял метафорические вызовы в предыдущих исследованиях, когда он применялся к области TSP.

Среди многих различий между трансформатором в языковой области и трансформатором в области TSP является значение токенов. Слова и их подслова считаются токенами в области языков. С другой стороны, в области TSP каждый узел обычно превращается в токен. В отличие от набора слов, набор координат узлов является бесконечным, непредсказуемым и несвязанным. Индексы токенов и пространственная связь между соседними токенами бесполезны в этой организации. Еще одно важное различие – дублирование. В отношении решений TSP, в отличие от лингвистических областей, гамильтонов цикл не может быть сформирован путем декодирования одного и того же города более одного раза. Во время декодирования TSP используется маска посещенных, чтобы избежать повторения.

Результаты исследования

Исследователи из Сеульского национального университета представляют CycleFormer, решение TSP на основе трансформеров. В этой модели исследователи объединяют лучшие особенности модели трансформера на основе обучения с учителем (SL) с особенностями TSP. Текущие решатели TSP на основе трансформеров ограничены, поскольку они обучаются с использованием RL. Это мешает им полностью использовать преимущества SL, такие как более быстрое обучение благодаря маске посещенных и более стабильная сходимость. NP-трудность TSP делает невозможным для оптимальных решателей SL знать глобальный оптимум при увеличении размеров проблемы. Однако это ограничение можно обойти, если трансформер, обученный на проблемах разумного размера, является обобщаемым и масштабируемым. Следовательно, на данный момент SL и RL будут сосуществовать.

Эксклюзивное внимание команды сосредоточено на симметричной TSP, определяемой расстоянием между любыми двумя точками и постоянной во всех направлениях. Они существенно изменили первоначальное проектирование, чтобы гарантировать, что трансформер воплощает свойства TSP. Поскольку решение TSP является циклическим, они обеспечили, что их позиционное кодирование (PE) на стороне декодера будет нечувствительным к вращению и отражению. Таким образом, начальный узел тесно связан с узлами в начале и конце тура, но очень несвязан с узлами посередине.

Исследователи используют 2D координаты кодировщика для пространственного позиционного кодирования. Используемые кодирования позиций кодировщика и декодера полностью различны. Контекстное вложение (память) из выхода кодировщика служит входом для декодера. Эта стратегия позволяет быстро максимизировать использование полученной информации, используя тот факт, что набор токенов, используемых в кодировщике и декодере, одинаков в TSP. Они заменяют последний линейный слой трансформера на динамическое вложение; это контекстное кодирование графа и действует как выход кодировщика (память).

Использование позиционного кодирования и токенного кодирования, а также изменение входа декодера и использование контекстного вектора кодировщика в выходе декодера – два способа, которыми CycleFormer существенно отличается от первоначального трансформера. Эти улучшения демонстрируют потенциал решателей TSP на основе трансформеров для улучшения путем применения стратегий улучшения производительности, используемых в больших языковых моделях (LLM), таких как увеличение размерности вложения и количество блоков внимания. Это подчеркивает текущие вызовы и захватывающие возможности для будущих достижений в этой области.

Согласно обширным экспериментальным результатам, с этими характеристиками дизайна CycleFormer может превзойти SOTA-модели на основе трансформеров, сохраняя форму трансформера в TSP-50, TSP-100 и TSP-500. “Оптимальный разрыв”, термин, используемый для измерения разницы между лучшим возможным решением и решением, найденным моделью, между SOTA и TSP-500 во время многократного декодирования составляет от 3,09% до 1,10%, улучшение в 2,8 раза благодаря CycleFormer.

Предложенная модель, CycleFormer, имеет потенциал превзойти SOTA-альтернативы, такие как Pointerformer. Ее соблюдение архитектуры трансформера позволяет включать дополнительные подходы LLM, такие как увеличение размерности вложения и стекание нескольких блоков внимания, для улучшения производительности. При увеличении размера проблемы методы ускорения вывода в больших языковых моделях, такие как Retention и DeepSpeed, могут оказаться выгодными. Хотя исследователи не могли экспериментировать с TSP-1000 из-за ограничений ресурсов, они считают, что с достаточным количеством оптимальных ответов TSP-1000 CycleFormer может превзойти существующие модели. Они планируют включить MCTS в качестве постобработки в будущих исследованиях для дальнейшего улучшения производительности CycleFormer.

Подробнее ознакомьтесь с документом. Вся заслуга за это исследование принадлежит исследователям этого проекта. Также не забудьте подписаться на наш Twitter. Присоединяйтесь к нашему каналу в Telegram, каналу в Discord и группе в LinkedIn.

Если вам понравилась наша работа, вам понравится наша рассылка.

Не забудьте присоединиться к нашему 43k+ ML SubReddit. Также ознакомьтесь с нашей платформой AI Events.

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Создание локального RAG-пайплайна с Ollama и DeepSeek-R1 на Google Colab

    Практические бизнес-решения с использованием RAG-пайплайна Создание RAG-пайплайна с использованием Ollama и Google Colab может значительно улучшить бизнес и повседневную жизнь. Вот как это может повысить результаты бизнеса: Преимущества Эффективный доступ к информации из…

  • Улучшение моделей рассуждений с помощью масштабирования во время вывода

    Введение Искусственный интеллект может существенно улучшить бизнес-процессы, особенно в области сложного решения задач. Следуя новейшим исследованиям в области масштабирования языковых моделей, можно улучшить качества рассуждений и значительно повысить эффективность работы. Проблемы текущих моделей…

  • RARE: Масштабируемая AI-структура для улучшения специфического рассуждения

    Введение Современные достижения в области больших языковых моделей (LLMs) продемонстрировали впечатляющие возможности в различных задачах. Однако они часто сталкиваются с трудностями в специализированных областях, требующих глубоких знаний и рассуждений. Это ограничение связано с…

  • OceanSim: Инновационный GPU-ускоренный симулятор подводной robotics

    Введение в OceanSim: Преобразование симуляции подводной робототехники OceanSim – это современная платформа для симуляции подводной робототехники, разработанная Университетом Мичигана. Она использует высокопроизводительное GPU-ускорение, что делает ее ценным инструментом для таких приложений, как морская…

  • Генератор питчей для стартапов на основе AI

    Создание генератора питчей для стартапов на базе ИИ Данный гид предлагает простой подход к созданию приложения, использующего ИИ для генерации идей питчей для стартапов. Используя модель Google Gemini Pro вместе с фреймворком LiteLLM,…

  • MMSearch-R1: Новые горизонты для бизнес-ИИ

    MMSearch-R1: Улучшение возможностей ИИ в бизнесе Введение в большие мультимодальные модели (LMM) Большие мультимодальные модели (LMM) значительно продвинулись в понимании и обработке визуальных и текстовых данных. Однако они сталкиваются с проблемами при работе…

  • Масштабируемое Моделирование Наград для AI: Улучшение Общих Моделей Наград с SPCT

    Улучшение моделей вознаграждения для приложений ИИ Введение в моделирование вознаграждения Метод обучения с подкреплением (RL) стал ключевым методом для улучшения возможностей больших языковых моделей (LLMs). Мы можем применять RL, чтобы модели лучше понимали…

  • Архитектура трансфузии: Повышение креативности GPT-4o в бизнесе

    Преобразование AI с помощью архитектуры Transfusion Введение в GPT-4o и архитектуру Transfusion GPT-4o от OpenAI представляет собой значительное достижение в области мультимодального искусственного интеллекта, объединяя генерацию текста и изображений в одном выходе. Архитектура…

  • Графы атрибуции: Новый подход к интерпретируемости ИИ

    Введение Недавние разработки в области искусственного интеллекта, такие как графы атрибуции, открывают новые горизонты для понимания работы AI-моделей. Это позволяет компаниям лучше доверять и использовать ИИ в своих бизнес-процессах. Проблема интерпретируемости ИИ Одной…

  • Оценка надежности цепочечного рассуждения в ИИ: Исследования Anthropic

    Улучшение прозрачности и безопасности ИИ Введение в цепочку размышлений Цепочка размышлений (CoT) представляет собой значительное достижение в области искусственного интеллекта (ИИ). Этот подход позволяет моделям ИИ формулировать свои шаги рассуждений перед тем, как…

  • Модели Llama 4 от Meta AI: Решения для бизнеса

    Введение в модели Llama 4 Meta AI недавно представила свое новое поколение мультимодальных моделей Llama 4, включая две разновидности: Llama 4 Scout и Llama 4 Maverick. Эти модели представляют собой значительный шаг вперед…

  • Масштабируемое Обучение с Подкреплением для Сложных Задач

    Практические бизнес-решения на основе RLVR Использование обучения с подкреплением с проверяемыми наградами (RLVR) открывает новые возможности для бизнеса. Давайте рассмотрим, как это может улучшить бизнес и реальную жизнь, а также шаги для внедрения.…

  • Запуск AgentIQ от NVIDIA: Оптимизация рабочих процессов AI-агентов

    Введение С увеличением использования интеллектуальных систем, основанных на AI-агентах, компании сталкиваются с проблемами, связанными с совместимостью, мониторингом производительности и управлением рабочими процессами. Решение этих проблем может значительно повысить эффективность и масштабируемость AI-разработок. NVIDIA…

  • Генерация ИИ для Автономного Управления Задачами

    GenSpark Super Agent: Преобразование Бизнес-Операций с Помощью ИИ Введение в GenSpark GenSpark Super Agent, или просто GenSpark, — это инновационное решение на основе ИИ, предназначенное для автономного управления сложными задачами в различных областях.…

  • Создание контекстного AI-ассистента на базе LangChain и Gemini

    Создание контекстно-осведомленного AI-ассистента Этот текст описывает процесс создания контекстно-осведомленного AI-ассистента с использованием LangChain, LangGraph и языковой модели Gemini от Google. Применение принципов Протокола Контекста Модели (MCP) позволит разработать упрощенную версию AI-ассистента, который эффективно…

  • Создание AI-бота для вопросов и ответов на веб-сайтах с использованием открытых моделей

    Построение AI Q&A Бота для Вебсайтов с Использованием Открытых Моделей Обзор и Преимущества Создание AI Q&A бота может значительно повысить эффективность вашей компании, улучшая доступ к информации и сокращая время, затрачиваемое на поиск…

  • Запуск проверенного агента SWE-bench от Augment Code: Прорыв в области ИИ для программной инженерии

    Введение Запуск открытого AI-агента от Augment Code представляет собой значительный шаг в области программной инженерии. Этот инструмент может значительно улучшить процессы разработки и повысить эффективность работы команд. Практические бизнес-решения Использование AI-агента Augment Code…

  • NVIDIA HOVER: Революция в гуманоидной робототехнике с помощью единого ИИ управления

    Практические бизнес-решения с использованием HOVER NVIDIA HOVER предлагает революционное решение в области гуманоидной робототехники, которое может значительно улучшить бизнес-процессы и повседневную жизнь. Ниже представлены шаги для реализации и повышения результатов бизнеса. Шаги к…