Способность к обучению в контексте у многослойных перцептронов (MLP) и трансформеров: сравнительное исследование

 In-Context Learning Capabilities of Multi-Layer Perceptrons MLPs: A Comparative Study with Transformers






Интеллектуальные решения AI

Ин-контекстное обучение многослойных перцептронов (MLP): сравнительное исследование с трансформерами

В последние годы произошли значительные прорывы в области нейронных языковых моделей, в частности больших языковых моделей (LLM), возможность которых предоставлена архитектурой Transformer и увеличением масштабов. LLM обладают исключительными навыками в генерации грамотного текста, ответах на вопросы, кратком изложении содержания, создании оригинальных выводов и решении сложных головоломок. Ключевая способность – это возможность контекстного обучения (ICL), когда модель использует новые образцы задач, представленные во время вывода, для точного реагирования без обновления весов. ICL обычно причисляется к трансформерам и их механизмам на основе внимания.

Практические решения и ценность

Ин-контекстное обучение (ICL) признано для задач линейной регрессии с трансформерами, которые могут обобщаться на новые пары входных данных/меток в контексте. Трансформеры достигают этого, потенциально реализуя градиентный спуск или воспроизведение регрессии по методу наименьших квадратов. Трансформеры интерполируют между обучением весов внутри контекста и контекстным обучением, а разнообразные наборы данных улучшают возможности контекстного обучения. Пока большинство исследований сосредотачивается на трансформерах, некоторые из них исследуют рекуррентные нейронные сети (RNN) и LSTM, но смешанные результаты. Недавние находки подчеркивают, что различные причинные последовательностные модели и модели пространства состояний также достигают контекстного обучения. Тем не менее, потенциал многослойных перцептронов (MLP) для контекстного обучения остается недостаточно исследованным, несмотря на их возрождение в сложных задачах благодаря появлению модели MLP-Mixer.

В данном исследовании ученые из Гарварда демонстрируют, что многослойные перцептроны (MLP) могут эффективно обучаться в контексте. MLP и модели MLP-Mixer по сравнению с трансформерами показывают конкурентоспособные результаты на задачах контекстного обучения в рамках одного и того же вычислительного бюджета. В частности, MLP превосходят трансформеры в задачах реляционного рассуждения в контексте, что вызывает сомнения в том, что контекстное обучение уникально для трансформеров. Этот успех предполагает, что стоит изучать не только архитектуры на основе внимания, и указывает на то, что трансформеры, ограниченные самовниманием и позиционным кодированием, могут быть предвзяты в отношении определенных структур задач по сравнению с MLP.

Исследование рассматривает поведение MLP в контексте двух задач: контекстной регрессии и контекстной классификации. Для контекстной регрессии входом является последовательность линейно связанных пар значений (xi, yi), с различными весами β и добавленным шумом, плюс запрос xq. Модель предсказывает соответствующий yq, выведя β из контекстных образцов. Для контекстной классификации входом является последовательность образцов (xi, yi), за которыми следует запрос xq, выбранный из смеси гауссовых моделей. Модель предсказывает правильную метку для xq, опираясь на контекстные образцы и учитывая разнообразие данных и всплески (количество повторов в кластере в контексте).

MLP и трансформеры были сравнены по контекстной регрессии и классификации. Обе архитектуры, включая MLP-Mixer, достигли практически оптимальной среднеквадратичной ошибки (MSE) при достаточных вычислениях, хотя трансформеры незначительно превзошли MLP при более ограниченных вычислительных бюджетах. При увеличении длины контекста ванильные MLP показали худшие результаты, в то время как MLP-Mixer поддержали оптимальную MSE. При увеличении разнообразия данных все модели переключились с обучения весам внутри контекста на контекстное обучение, и трансформеры сделали это быстрее. В контекстной классификации MLP проявили себя сопоставимо с трансформерами, поддерживая относительно прямую потерю с увеличением длины контекста и переходя от обучения весам внутри контекста к контекстному обучению при увеличении разнообразия данных.

В данной работе ученые Гарварда сравнили MLP и трансформеры на контекстных задачах регрессии и классификации. Все архитектуры, включая MLP-Mixer, достигли практически оптимальной среднеквадратичной ошибки при достаточных ресурсах, хотя трансформеры незначительно превзошли MLP при меньших ресурсах. Ванильные MLP показали худшие результаты с увеличением длины контекста, в то время как MLP-Mixer поддержали оптимальную MSE. При увеличении разнообразия данных все модели переходили от обучения весам внутри контекста к контекстному обучению, при этом трансформеры делали это быстрее. В контекстной классификации MLP показали сопоставимую производительность с трансформерами, поддерживая плоскую потерю с увеличением длины контекста и переходя на контекстное обучение с увеличением разнообразия данных.



Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Улучшение бизнеса с помощью разговорного ИИ

    “`html Улучшение бизнеса с помощью разговорного ИИ Введение в вызов функций в разговорном ИИ Вызов функций — это мощная возможность, которая позволяет большим языковым моделям (LLM) связывать естественные языковые запросы с реальными приложениями,…

  • VERSA: Инновационный инструмент для оценки аудиосигналов

    Введение в VERSA: Современный инструмент для оценки аудио Команда WAVLab представила VERSA, инновационный и комплексный набор инструментов для оценки речи, аудио и музыкальных сигналов. С развитием искусственного интеллекта, который генерирует аудио, необходимость в…

  • Alibaba Qwen3: Новое Поколение Языковых Моделей

    Введение в Qwen3: Новая эра в больших языковых моделях Команда Alibaba Qwen недавно представила Qwen3, последнее достижение в серии больших языковых моделей (LLMs). Qwen3 предлагает новый набор моделей, оптимизированных для различных приложений, включая…

  • ViSMaP: Инновационное решение для автоматизации суммирования длинных видео

    Преобразование видео: ViSMaP ViSMaP представляет собой инновационный подход к обобщению длинных видео без необходимости в дорогих аннотациях. Это решение может значительно улучшить бизнес и повседневную жизнь, а именно: Преимущества ViSMaP Сокращение временных затрат…

  • Эффективное управление контекстом для больших языковых моделей

    Модель Контекстного Протокола: Улучшение Взаимодействия с ИИ Введение Эффективное управление контекстом является ключевым при использовании больших языковых моделей (LLMs). Этот документ предлагает практическую реализацию Модели Контекстного Протокола (MCP), сосредоточенную на семантическом делении, динамическом…

  • Запуск DeepWiki: ИИ-инструмент для понимания репозиториев GitHub

    Введение в DeepWiki Devin AI представил DeepWiki — бесплатный инструмент, который генерирует структурированную документацию для репозиториев GitHub. Этот инновационный инструмент упрощает понимание сложных кодовых баз, что облегчает жизнь разработчикам, работающим с незнакомыми проектами.…

  • Эффективные модели Tina для улучшения обучения с подкреплением

    Введение Современные бизнесы сталкиваются с вызовами в области многослойного рассуждения, особенно в научных исследованиях и стратегическом планировании. Традиционные методы, такие как узконаправленное обучение, требуют значительных затрат и могут приводить к поверхностному обучению. Однако…

  • FlowReasoner: Персонализированный Мета-Агент для Многоагентных Систем

    Введение в FlowReasoner Недавние достижения в области искусственного интеллекта привели к разработке FlowReasoner, мета-агента, который автоматизирует создание персонализированных многопользовательских систем, адаптированных к запросам пользователей. Это значительно повышает эффективность и масштабируемость. Проблемы в текущих…

  • Руководство Microsoft по режимам отказа в агентных системах ИИ

    Введение Понимание и управление рисками в системах агентного ИИ могут значительно улучшить бизнес-процессы и повысить доверие клиентов. Ниже представлены практические решения, которые помогут в этом. Практические бизнес-решения Создание надежных систем агентного ИИ требует…

  • Автономные пайплайны анализа данных с PraisonAI

    Создание полностью автономных потоков анализа данных с PraisonAI Введение В этом руководстве описывается, как бизнес может улучшить процессы анализа данных, перейдя от ручного кодирования к полностью автономным потокам данных, управляемым ИИ. Используя платформу…

  • QuaDMix: Инновационная Оптимизация Качества и Разнообразия Данных в AI

    Практические бизнес-решения с использованием QuaDMix Имплементация QuaDMix может существенно улучшить AI-приложения благодаря следующим ключевым аспектам: 1. Упрощение кураторства данных Используйте QuaDMix для поддержания высокого качества данных без жертвы разнообразием, что приведет к более…

  • Оптимизация методов масштабирования для повышения эффективности reasoning в языковых моделях

    “`html Оптимизация Производительности Размышлений в Языковых Моделях: Практические Бизнес-Решения Понимание Методов Масштабирования во Время Вывода Языковые модели могут выполнять множество задач, но часто сталкиваются с трудностями при сложном размышлении. Методы масштабирования вычислений во…

  • Интеграция API Gemini с агентами LangGraph для оптимизации рабочих процессов ИИ

    Улучшение рабочих процессов с помощью интеграции Arcade и Gemini API Этот документ описывает, как преобразовать статические разговорные интерфейсы в динамичных, действующих ИИ-ассистентов с использованием Arcade и Gemini Developer API. Используя набор готовых инструментов,…

  • СоциоВерс: Революционная Модель Социальной Симуляции на Основе LLM

    Использование ИИ для Социальной Симуляции: Инициатива SocioVerse Введение в SocioVerse Исследователи из Университета Фудань разработали SocioVerse, инновационную модель мира, использующую агентов на основе больших языковых моделей (LLM) для симуляции социальных динамик. Эта модель…

  • Токен-Шаффл: Революция в генерации высококачественных изображений с помощью трансформеров

    Введение в Token-Shuffle Meta AI представила инновационный метод, известный как Token-Shuffle, который повышает эффективность генерации изображений в авторегрессионных (AR) моделях. Этот подход решает вычислительные задачи, связанные с созданием изображений высокого разрешения, что может…

  • Революция в A/B тестировании с помощью ИИ: AgentA/B

    Трансформация A/B тестирования с помощью ИИ: AgentA/B Введение В цифровом мире создание эффективных веб-интерфейсов критически важно для вовлечения пользователей, особенно в сфере электронной торговли и контентного стриминга. A/B тестирование — это широко используемый…

  • Skywork R1V2: Инновации в Мультимодальном Ресонновании

    Практические бизнес-решения с использованием Skywork AI R1V2 Skywork AI R1V2 предлагает инновационные решения для бизнеса, которые могут значительно улучшить эффективность и качество работы. Вот как это может повлиять на бизнес и реальную жизнь:…

  • Переход от демонстраций GenAI к надежным производственным системам: важность структурированных рабочих процессов

    Введение Генеративный ИИ (GenAI) демонстрирует впечатляющие возможности, но переход от демонстраций к производственным системам требует структурированных рабочих процессов. Это важно для достижения реальной отдачи от инвестиций (ROI). Проблемы развертывания в производственной среде Многие…