Новый подход к использованию искусственного интеллекта для улучшения когнитивных моделей.

 This AI Paper from Princeton and the University of Warwick Proposes a Novel Artificial Intelligence Approach to Enhance the Utility of LLMs as Cognitive Models

“`html

Использование Large Language Models (LLMs) в качестве моделей человеческого познания

Ученые, изучающие Large Language Models (LLMs), обнаружили, что LLMs выполняют задачи когнитивного характера аналогично людям, часто принимая решения, которые отклоняются от рациональных норм, таких как риск и устойчивость к потерям. LLMs также проявляют человекоподобные предубеждения и ошибки, особенно в задачах вероятностных оценок и арифметических операций. Эти сходства указывают на потенциал использования LLMs в качестве моделей человеческого познания. Однако остаются значительные проблемы, включая объем данных, на которых обучаются LLMs, и неясные истоки этих поведенческих сходств.

Применение LLMs в качестве моделей человеческого познания

Существуют споры относительно пригодности LLMs в качестве моделей человеческого познания из-за нескольких проблем. LLMs обучаются на гораздо более объемных наборах данных, чем люди, и могли быть выведены на тестовые вопросы, что приводит к искусственному усилению человекоподобных поведенческих черт через процессы выравнивания ценностей. Тем не менее, настройка LLMs, таких как модель LLaMA-1-65B, на наборах данных о человеческих выборах улучшила точность прогнозирования человеческого поведения. Предыдущие исследования также подчеркивают важность синтетических наборов данных для расширения возможностей LLMs, особенно в задачах решения проблем, таких как арифметика. Предварительное обучение на таких наборах данных может существенно улучшить производительность в прогнозировании человеческих решений.

Практические решения и ценность

Исследователи из Принстонского и Уорикского университетов предлагают улучшение полезности LLMs в качестве когнитивных моделей путем (i) использования вычислительно эквивалентных задач, которые должны усваивать как LLMs, так и рациональные агенты для решения когнитивных проблем, и (ii) исследования распределения задач, необходимого для проявления LLMs человекоподобного поведения. Применительно к принятию решений, особенно рисковым и межвременным выборам, Arithmetic-GPT, LLM, предварительно обученная на экологически валидном арифметическом наборе данных, прогнозирует человеческое поведение лучше, чем многие традиционные когнитивные модели. Это предварительное обучение достаточно для приближения LLMs к принятию решений, близкому к человеческому.

Исследователи решают проблемы использования LLMs в качестве когнитивных моделей путем определения алгоритма генерации данных для создания синтетических наборов данных и получения доступа к нейрональным активациям, важным для принятия решений. Маленькая модель с архитектурой Generative Pretrained Transformer (GPT), названная Arithmetic-GPT, была предварительно обучена на арифметических задачах. Для обучения были созданы синтетические наборы данных, отражающие реалистичные вероятности и значения. Подробности предварительного обучения включают длину контекста 26, размер партии 2048 и скорость обучения 10⁻³. Наборы данных о человеческом принятии решений в рисковых и межвременных выборах были переанализированы для оценки производительности модели.

Экспериментальные результаты показывают, что вложения из модели Arithmetic-GPT, предварительно обученной на экологически валидных синтетических наборах данных, наиболее точно прогнозируют человеческие выборы в задачах принятия решений. Логистическая регрессия, использующая вложения в качестве независимых переменных и вероятности человеческих выборов в качестве зависимой переменной, демонстрирует более высокие скорректированные R² значения по сравнению с другими моделями, включая LLaMA-3-70bInstruct. Сравнение с моделями поведения и многослойными персептронами показывает, что вложения Arithmetic-GPT по-прежнему обеспечивают сильное соответствие с человеческими данными, особенно в задачах межвременных выборов. Надежность подтверждается 10-кратной перекрестной проверкой.

Исследование приходит к выводу, что Large Language Models, в частности Arithmetic-GPT, предварительно обученные на экологически валидных синтетических наборах данных, могут тесно моделировать человеческое когнитивное поведение в задачах принятия решений, превосходя традиционные когнитивные модели и некоторые более продвинутые LLMs, такие как LLaMA-3-70bInstruct. Этот подход решает ключевые проблемы с использованием синтетических наборов данных и нейрональных активаций. Полученные результаты подчеркивают потенциал LLMs в качестве когнитивных моделей, предоставляя ценные исследовательские данные как в когнитивной науке, так и в машинном обучении, с подтверждением надежности через обширные методы валидации.

Проверить Статью. Все права на это исследование принадлежат исследователям данного проекта. Также, не забудьте подписаться на наш твиттер. Присоединяйтесь к нашему Telegram каналу, каналу Discord и группе LinkedIn.

Если вам интересна наша работа, вам понравится наш новостной бюллетень.

Не забудьте присоединиться к нашему 43k+ ML SubReddit | Также, ознакомьтесь с нашей платформой AI Events.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Абсолютный Ноль: Новые Горизонты Автономного Обучения ИИ

    “`html Введение в трансформацию бизнеса с помощью ИИ Современные достижения в области искусственного интеллекта (ИИ) открывают новые возможности для бизнеса. Использование моделей, таких как Absolute Zero Reasoner (AZR), позволяет автоматизировать процессы и улучшить…

  • Гибридная модель исследований Google: инновации и масштабируемая инженерия в компьютерных науках

    Преобразование Исследований и Разработок в ИИ Введение Современные технологии требуют новых подходов к разработке, которые сочетают исследовательские и практические аспекты. Это позволяет создавать системы, способные адаптироваться к потребностям пользователей. Проблемы Связи Исследований и…

  • Оптимизация ИИ для бизнес-эффективности: Apriel-Nemotron-15b-Thinker

    Оптимизация ИИ для бизнес-эффективности Введение в возможности моделей ИИ Современные модели ИИ могут решать сложные задачи, такие как математическое моделирование и помощь в принятии бизнес-решений. Чтобы создать эффективные модели, необходимо интегрировать математическое мышление…

  • Многофункциональный ИИ: Решения для бизнеса с использованием Ming-Lite-Uni

    Мультимодальный ИИ: Бизнес-решения для улучшения коммуникации Понимание мультимодального ИИ Мультимодальный ИИ — это быстро развивающаяся технология, позволяющая системам понимать, генерировать и реагировать, используя различные типы данных, такие как текст, изображения, аудио и видео.…

  • Оптимизация моделей ИИ с помощью подкрепляющего тонкого обучения на o4-mini

    Рекомендации по внедрению Усиленной Тонкой Настройки (RFT) Шаг 1: Разработка функции оценки Создайте Python-функцию, которая будет оценивать выходные данные модели, выставляя баллы от 0 до 1 в зависимости от таких критериев, как точность…

  • Запуск LlamaFirewall: Открытый инструмент безопасности для автономных ИИ-агентов

    Практические бизнес-решения с использованием LlamaFirewall Введение в проблемы безопасности AI С увеличением автономии агентов искусственного интеллекта (AI) возрастает их уязвимость к рискам безопасности. LlamaFirewall от Meta AI предлагает решение для защиты этих агентов…

  • X-Fusion: Инновации в Мультимодальных ИИ для Бизнеса

    Преобразование бизнеса с помощью многомодальных решений ИИ Введение в многомодальный ИИ Недавние достижения в области больших языковых моделей (LLM) значительно улучшили их возможности в задачах, связанных с языком. Однако эффективная коммуникация часто требует…

  • Открытые Модели Кодового Рассуждения NVIDIA: Решение для Бизнеса

    NVIDIA’s Open Code Reasoning Models: Бизнес-решение для интеллектуального кода NVIDIA открыла доступ к своим моделям Open Code Reasoning (OCR), что позволяет бизнесу использовать мощные инструменты для улучшения кода и автоматизации процессов. Преимущества использования…

  • Запуск nanoVLM: Упрощение разработки моделей визуального языка

    Введение в nanoVLM: Новая эра в разработке моделей зрения и языка Hugging Face недавно выпустила nanoVLM, инновационную платформу, которая упрощает разработку моделей зрения и языка (VLM). Этот инструмент на базе PyTorch позволяет исследователям…

  • Gemini 2.5 Pro I/O: Революция в разработке ПО и веб-приложений

    Введение в Gemini 2.5 Pro I/O Gemini 2.5 Pro I/O — это продвинутая версия AI-модели от Google, предназначенная для разработки программного обеспечения и мультимодального понимания. Это обновление значительно улучшает точность кодирования и разработку…

  • Новые горизонты в бизнесе: применение низкорангового разреженного внимания в ИИ

    Практические бизнес-решения Для использования достижений в области ИИ, компании могут принять следующие стратегии: 1. Автоматизация процессов Определите задачи, которые можно автоматизировать с помощью ИИ, что повысит эффективность и снизит затраты. 2. Улучшение взаимодействия…

  • Интеллектуальная маршрутизация запросов с использованием Claude: пошаговое руководство

    Внедрение Интеллектуальной Системы Маршрутизации Обзор Данная инструкция описывает, как создать интеллектуальную систему маршрутизации, которая повышает эффективность и качество ответов на запросы клиентов. Используя модели Claude от Anthropic, система автоматически классифицирует запросы пользователей и…

  • WebThinker: Инновации в автономном исследовании и генерации отчетов

    Введение в большие модели рассуждений (LRMs) Большие модели рассуждений (LRMs) продемонстрировали выдающиеся способности в таких областях, как математика, программирование и научное рассуждение. Однако они сталкиваются с серьезными проблемами при обработке сложной информации и…

  • Создание индивидуального клиента MCP с использованием Gemini

    Создание клиентского приложения Model Context Protocol (MCP) с использованием Gemini Практические бизнес-решения Создание клиентского приложения MCP с использованием Gemini позволяет интегрировать искусственный интеллект в бизнес-процессы. Это улучшает взаимодействие с клиентами, оптимизирует рабочие процессы…

  • Улучшение многомодального обучения: рамки UniME

    Введение в многомодальное представление данных Многомодальное представление данных – это новая область в искусственном интеллекте, которая объединяет различные типы данных, такие как текст и изображения, для создания более полных и точных моделей. Один…

  • Модель THINKPRM: Преобразование бизнеса с помощью ИИ

    Преобразование бизнеса с помощью ИИ: Модель THINKPRM Введение в THINKPRM Модель THINKPRM (Generative Process Reward Model) представляет собой значительное достижение в верификации процессов рассуждения с использованием искусственного интеллекта. Эта модель повышает эффективность и…

  • Улучшение бизнеса с помощью разговорного ИИ

    “`html Улучшение бизнеса с помощью разговорного ИИ Введение в вызов функций в разговорном ИИ Вызов функций — это мощная возможность, которая позволяет большим языковым моделям (LLM) связывать естественные языковые запросы с реальными приложениями,…

  • VERSA: Инновационный инструмент для оценки аудиосигналов

    Введение в VERSA: Современный инструмент для оценки аудио Команда WAVLab представила VERSA, инновационный и комплексный набор инструментов для оценки речи, аудио и музыкальных сигналов. С развитием искусственного интеллекта, который генерирует аудио, необходимость в…