Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в важных приложениях

 Enhancing Trust in Large Language Models: Fine-Tuning for Calibrated Uncertainties in High-Stakes Applications

“`html

Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в высокостейких приложениях

Большие языковые модели (LLM) сталкиваются с серьезным вызовом в точном представлении неопределенности по поводу правильности своих выводов. Эта проблема критична для приложений принятия решений, особенно в областях, таких как здравоохранение, где ошибочная уверенность может привести к опасным последствиям. Задачу дополнительно усложняют лингвистические вариации в свободной генерации, которые не могут быть исчерпывающе учтены во время обучения. Практики LLM должны уметь маневрировать между методами оценки черного ящика и методами оценки белого ящика, причем первые становятся популярными из-за ограниченных моделей, а вторые становятся более доступными благодаря открытым моделям.

Практические решения и ценность

Существующие попытки решить эту проблему исследовали различные подходы. Некоторые методы используют естественное выражение LLM распределения возможных результатов, используя вероятности предсказанных токенов для тестов с множественным выбором. Однако они становятся менее надежными для ответов длиной в предложение из-за необходимости распределения вероятностей по многим формулировкам. Другие подходы используют подсказки для создания оценок неопределенности, используя изученные LLM концепции “правильности” и вероятностей. Линейные зонды также использовались для классификации правильности модели на основе скрытых представлений. Несмотря на эти усилия, методы черного ящика часто не могут генерировать полезные неопределенности для популярных открытых моделей, требуя тщательных вмешательств для точной настройки.

Для продвижения дебатов о необходимых вмешательствах для хорошей калибровки, исследователи из Нью-Йоркского университета, Abacus AI и Кембриджского университета провели глубокое исследование неопределенности калибровки LLM. Они предлагают точную настройку для лучших неопределенностей, которая обеспечивает более быстрые и надежные оценки при использовании относительно небольшого количества дополнительных параметров. Этот метод обещает обобщаться на новые типы вопросов и задачи за пределами набора данных для настройки. Подход включает в себя обучение языковых моделей распознавать то, что они не знают, с использованием набора данных для калибровки, изучение эффективной параметризации и определение количества данных, необходимых для хорошей обобщаемости.

Предложенный метод включает в себя фокус на методах черного ящика для оценки неопределенности языковой модели, особенно тех, которые требуют одиночной выборки или прямого прохода. Для открытой генерации, где ответы не ограничены отдельными токенами или предписанными возможностями, исследователи используют перплексию в качестве метрики, нормализованной по длине. Подход также исследует методы подсказок в качестве альтернативы вероятности последовательности, вводя форматы, которые заложили основу для недавних работ. Среди них нулевые классификаторы и устные утверждения уверенности, которые используются для создания оценок неопределенности из выводов языковой модели.

Результаты показывают, что точная настройка для неопределенностей значительно улучшает производительность по сравнению с обычно используемыми базовыми значениями. Качество оценок черного ящика неопределенности, производимых открытыми моделями, было исследовано по сравнению с точностью, используя модели, такие как LLaMA-2, Mistral и LLaMA-3. Оценка на открытой MMLU показала, что методы подсказок обычно дают плохо калиброванные неопределенности, и калибровка не улучшается “из коробки”, по мере улучшения базовой модели. Однако AUROC показал небольшое улучшение с мощностью базовой модели, хотя все еще отстает от моделей с точной настройкой для неопределенности.

Это исследование показывает, что неопределенности “из коробки” от LLM ненадежны для открытой генерации, вопреки предыдущим результатам. Введенные процедуры точной настройки производят калиброванные неопределенности с практическими свойствами обобщения. Особенно важно, что точная настройка оказывается удивительно эффективной по образцам и не зависит от представлений, специфичных для модели, оценивающей свои генерации. Исследование также демонстрирует возможность калиброванных неопределенностей быть устойчивыми к сдвигам распределения.

Посмотреть статью. Вся заслуга за это исследование принадлежит исследователям этого проекта. Также не забудьте подписаться на наш Twitter.

Присоединяйтесь к нашему каналу в Telegram и группе в LinkedIn.

Если вам нравится наша работа, вам понравится наш бюллетень.

Не забудьте присоединиться к нашему 44k+ ML SubReddit.

Поддержите нас и мы поможем вам внедрить искусственный интеллект в ваш бизнес.

Если вам нужны советы по внедрению ИИ, пишите нам на Telegram.

Попробуйте ИИ ассистент в продажах здесь. Этот ИИ ассистент в продажах помогает отвечать на вопросы клиентов, генерировать контент для отдела продаж и снижать нагрузку на первую линию.

Узнайте, как ИИ может изменить ваши процессы с решениями от Flycode.ru.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Agent2Agent: Новый Протокол Сотрудничества AI Агентов

    Преобразование бизнеса с помощью Agent2Agent Google представил Agent2Agent (A2A) — инновационный протокол, который позволяет AI-агентам безопасно сотрудничать на различных платформах. Этот протокол упрощает рабочие процессы, вовлекающие несколько специализированных AI-агентов, улучшая их взаимодействие. Преимущества…

  • Запуск набора инструментов разработки агентов (ADK) от Google для многопользовательских систем

    Введение в ADK Google недавно представила набор инструментов для разработки агентов (ADK), который является открытым фреймворком для разработки, управления и развертывания многопользовательских систем. Этот фреймворк написан на Python и подходит для различных приложений,…

  • Роль “впитывающих” вниманий в стабилизации больших языковых моделей

    Понимание “впитывающих” механизмов внимания в больших языковых моделях Большие языковые модели (LLMs) имеют уникальное поведение, известное как “впитывающие” механизмы внимания. Это явление имеет значительные последствия для стабильности и производительности моделей, что может улучшить…

  • TorchSim: Революция в атомистических симуляциях с помощью PyTorch

    Введение в TorchSim TorchSim – это инновационный движок атомистического моделирования, который значительно улучшает симуляции материалов, делая их быстрее и эффективнее традиционных методов. Это позволяет отдельным ученым решать несколько задач одновременно. Ключевые особенности TorchSim…

  • API Evals от OpenAI: Оптимизация оценки моделей для бизнеса

    Введение в Evals API OpenAI представила Evals API, мощный инструмент для упрощения оценки больших языковых моделей (LLMs) для разработчиков и команд. Этот новый API позволяет программно проводить оценку, позволяя разработчикам определять тесты, автоматизировать…

  • Запуск моделей APIGen-MT и xLAM-2-fc-r для обучения агентов с многоходовыми взаимодействиями

    Введение Инновационные модели Salesforce AI, APIGen-MT и xLAM-2-fc-r, значительно улучшают способности AI-агентов в управлении сложными многоуровневыми взаимодействиями. Эти решения особенно актуальны для бизнеса, который зависит от эффективной коммуникации и выполнения задач. Проблема многоуровневых…

  • Huawei Dream 7B: Революционная Модель Диффузионного Размышления для Бизнеса

    Практические бизнес-решения на основе Dream 7B Модель Dream 7B от Huawei предлагает революционные возможности для автоматизации и улучшения бизнес-процессов. Внедрение этой технологии может значительно повысить эффективность и качество работы организаций. Как улучшить бизнес…

  • МегаСкейл-Инфер: Революционная система для эффективного обслуживания LLM на основе MoE

    Введение MegaScale-Infer: Оптимизация Производительности Больших Языковых Моделей Большие языковые модели (LLMs) играют важную роль в различных приложениях, таких как чат-боты и генерация кода. Однако с увеличением их размеров возникают проблемы с эффективностью вычислений.…

  • Инновации в тактильном восприятии: решение для бизнеса с использованием ИИ

    Преобразование тактильного восприятия с помощью ИИ: Практические бизнес-решения Понимание технологии тактильного восприятия Тактильное восприятие необходимо для эффективного взаимодействия интеллектуальных систем с физической средой. Технологии, такие как сенсор GelSight, предоставляют подробную информацию о контактных…

  • LLM+FOON: Улучшение планирования кулинарных задач для роботов

    Введение Разработка роботов для домашнего использования, особенно в кулинарии, становится все более актуальной. Эти роботы должны выполнять различные задачи, требующие визуальной интерпретации, манипуляции и принятия решений. Использование LLM+FOON фреймворка может значительно улучшить планирование…

  • Создание локального RAG-пайплайна с Ollama и DeepSeek-R1 на Google Colab

    Практические бизнес-решения с использованием RAG-пайплайна Создание RAG-пайплайна с использованием Ollama и Google Colab может значительно улучшить бизнес и повседневную жизнь. Вот как это может повысить результаты бизнеса: Преимущества Эффективный доступ к информации из…

  • Улучшение моделей рассуждений с помощью масштабирования во время вывода

    Введение Искусственный интеллект может существенно улучшить бизнес-процессы, особенно в области сложного решения задач. Следуя новейшим исследованиям в области масштабирования языковых моделей, можно улучшить качества рассуждений и значительно повысить эффективность работы. Проблемы текущих моделей…

  • RARE: Масштабируемая AI-структура для улучшения специфического рассуждения

    Введение Современные достижения в области больших языковых моделей (LLMs) продемонстрировали впечатляющие возможности в различных задачах. Однако они часто сталкиваются с трудностями в специализированных областях, требующих глубоких знаний и рассуждений. Это ограничение связано с…

  • OceanSim: Инновационный GPU-ускоренный симулятор подводной robotics

    Введение в OceanSim: Преобразование симуляции подводной робототехники OceanSim – это современная платформа для симуляции подводной робототехники, разработанная Университетом Мичигана. Она использует высокопроизводительное GPU-ускорение, что делает ее ценным инструментом для таких приложений, как морская…

  • Генератор питчей для стартапов на основе AI

    Создание генератора питчей для стартапов на базе ИИ Данный гид предлагает простой подход к созданию приложения, использующего ИИ для генерации идей питчей для стартапов. Используя модель Google Gemini Pro вместе с фреймворком LiteLLM,…

  • MMSearch-R1: Новые горизонты для бизнес-ИИ

    MMSearch-R1: Улучшение возможностей ИИ в бизнесе Введение в большие мультимодальные модели (LMM) Большие мультимодальные модели (LMM) значительно продвинулись в понимании и обработке визуальных и текстовых данных. Однако они сталкиваются с проблемами при работе…

  • Масштабируемое Моделирование Наград для AI: Улучшение Общих Моделей Наград с SPCT

    Улучшение моделей вознаграждения для приложений ИИ Введение в моделирование вознаграждения Метод обучения с подкреплением (RL) стал ключевым методом для улучшения возможностей больших языковых моделей (LLMs). Мы можем применять RL, чтобы модели лучше понимали…

  • Архитектура трансфузии: Повышение креативности GPT-4o в бизнесе

    Преобразование AI с помощью архитектуры Transfusion Введение в GPT-4o и архитектуру Transfusion GPT-4o от OpenAI представляет собой значительное достижение в области мультимодального искусственного интеллекта, объединяя генерацию текста и изображений в одном выходе. Архитектура…