Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в важных приложениях

 Enhancing Trust in Large Language Models: Fine-Tuning for Calibrated Uncertainties in High-Stakes Applications

“`html

Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в высокостейких приложениях

Большие языковые модели (LLM) сталкиваются с серьезным вызовом в точном представлении неопределенности по поводу правильности своих выводов. Эта проблема критична для приложений принятия решений, особенно в областях, таких как здравоохранение, где ошибочная уверенность может привести к опасным последствиям. Задачу дополнительно усложняют лингвистические вариации в свободной генерации, которые не могут быть исчерпывающе учтены во время обучения. Практики LLM должны уметь маневрировать между методами оценки черного ящика и методами оценки белого ящика, причем первые становятся популярными из-за ограниченных моделей, а вторые становятся более доступными благодаря открытым моделям.

Практические решения и ценность

Существующие попытки решить эту проблему исследовали различные подходы. Некоторые методы используют естественное выражение LLM распределения возможных результатов, используя вероятности предсказанных токенов для тестов с множественным выбором. Однако они становятся менее надежными для ответов длиной в предложение из-за необходимости распределения вероятностей по многим формулировкам. Другие подходы используют подсказки для создания оценок неопределенности, используя изученные LLM концепции “правильности” и вероятностей. Линейные зонды также использовались для классификации правильности модели на основе скрытых представлений. Несмотря на эти усилия, методы черного ящика часто не могут генерировать полезные неопределенности для популярных открытых моделей, требуя тщательных вмешательств для точной настройки.

Для продвижения дебатов о необходимых вмешательствах для хорошей калибровки, исследователи из Нью-Йоркского университета, Abacus AI и Кембриджского университета провели глубокое исследование неопределенности калибровки LLM. Они предлагают точную настройку для лучших неопределенностей, которая обеспечивает более быстрые и надежные оценки при использовании относительно небольшого количества дополнительных параметров. Этот метод обещает обобщаться на новые типы вопросов и задачи за пределами набора данных для настройки. Подход включает в себя обучение языковых моделей распознавать то, что они не знают, с использованием набора данных для калибровки, изучение эффективной параметризации и определение количества данных, необходимых для хорошей обобщаемости.

Предложенный метод включает в себя фокус на методах черного ящика для оценки неопределенности языковой модели, особенно тех, которые требуют одиночной выборки или прямого прохода. Для открытой генерации, где ответы не ограничены отдельными токенами или предписанными возможностями, исследователи используют перплексию в качестве метрики, нормализованной по длине. Подход также исследует методы подсказок в качестве альтернативы вероятности последовательности, вводя форматы, которые заложили основу для недавних работ. Среди них нулевые классификаторы и устные утверждения уверенности, которые используются для создания оценок неопределенности из выводов языковой модели.

Результаты показывают, что точная настройка для неопределенностей значительно улучшает производительность по сравнению с обычно используемыми базовыми значениями. Качество оценок черного ящика неопределенности, производимых открытыми моделями, было исследовано по сравнению с точностью, используя модели, такие как LLaMA-2, Mistral и LLaMA-3. Оценка на открытой MMLU показала, что методы подсказок обычно дают плохо калиброванные неопределенности, и калибровка не улучшается “из коробки”, по мере улучшения базовой модели. Однако AUROC показал небольшое улучшение с мощностью базовой модели, хотя все еще отстает от моделей с точной настройкой для неопределенности.

Это исследование показывает, что неопределенности “из коробки” от LLM ненадежны для открытой генерации, вопреки предыдущим результатам. Введенные процедуры точной настройки производят калиброванные неопределенности с практическими свойствами обобщения. Особенно важно, что точная настройка оказывается удивительно эффективной по образцам и не зависит от представлений, специфичных для модели, оценивающей свои генерации. Исследование также демонстрирует возможность калиброванных неопределенностей быть устойчивыми к сдвигам распределения.

Посмотреть статью. Вся заслуга за это исследование принадлежит исследователям этого проекта. Также не забудьте подписаться на наш Twitter.

Присоединяйтесь к нашему каналу в Telegram и группе в LinkedIn.

Если вам нравится наша работа, вам понравится наш бюллетень.

Не забудьте присоединиться к нашему 44k+ ML SubReddit.

Поддержите нас и мы поможем вам внедрить искусственный интеллект в ваш бизнес.

Если вам нужны советы по внедрению ИИ, пишите нам на Telegram.

Попробуйте ИИ ассистент в продажах здесь. Этот ИИ ассистент в продажах помогает отвечать на вопросы клиентов, генерировать контент для отдела продаж и снижать нагрузку на первую линию.

Узнайте, как ИИ может изменить ваши процессы с решениями от Flycode.ru.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект