Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в важных приложениях

 Enhancing Trust in Large Language Models: Fine-Tuning for Calibrated Uncertainties in High-Stakes Applications

“`html

Улучшение доверия к большим языковым моделям: настройка для калиброванных неопределенностей в высокостейких приложениях

Большие языковые модели (LLM) сталкиваются с серьезным вызовом в точном представлении неопределенности по поводу правильности своих выводов. Эта проблема критична для приложений принятия решений, особенно в областях, таких как здравоохранение, где ошибочная уверенность может привести к опасным последствиям. Задачу дополнительно усложняют лингвистические вариации в свободной генерации, которые не могут быть исчерпывающе учтены во время обучения. Практики LLM должны уметь маневрировать между методами оценки черного ящика и методами оценки белого ящика, причем первые становятся популярными из-за ограниченных моделей, а вторые становятся более доступными благодаря открытым моделям.

Практические решения и ценность

Существующие попытки решить эту проблему исследовали различные подходы. Некоторые методы используют естественное выражение LLM распределения возможных результатов, используя вероятности предсказанных токенов для тестов с множественным выбором. Однако они становятся менее надежными для ответов длиной в предложение из-за необходимости распределения вероятностей по многим формулировкам. Другие подходы используют подсказки для создания оценок неопределенности, используя изученные LLM концепции “правильности” и вероятностей. Линейные зонды также использовались для классификации правильности модели на основе скрытых представлений. Несмотря на эти усилия, методы черного ящика часто не могут генерировать полезные неопределенности для популярных открытых моделей, требуя тщательных вмешательств для точной настройки.

Для продвижения дебатов о необходимых вмешательствах для хорошей калибровки, исследователи из Нью-Йоркского университета, Abacus AI и Кембриджского университета провели глубокое исследование неопределенности калибровки LLM. Они предлагают точную настройку для лучших неопределенностей, которая обеспечивает более быстрые и надежные оценки при использовании относительно небольшого количества дополнительных параметров. Этот метод обещает обобщаться на новые типы вопросов и задачи за пределами набора данных для настройки. Подход включает в себя обучение языковых моделей распознавать то, что они не знают, с использованием набора данных для калибровки, изучение эффективной параметризации и определение количества данных, необходимых для хорошей обобщаемости.

Предложенный метод включает в себя фокус на методах черного ящика для оценки неопределенности языковой модели, особенно тех, которые требуют одиночной выборки или прямого прохода. Для открытой генерации, где ответы не ограничены отдельными токенами или предписанными возможностями, исследователи используют перплексию в качестве метрики, нормализованной по длине. Подход также исследует методы подсказок в качестве альтернативы вероятности последовательности, вводя форматы, которые заложили основу для недавних работ. Среди них нулевые классификаторы и устные утверждения уверенности, которые используются для создания оценок неопределенности из выводов языковой модели.

Результаты показывают, что точная настройка для неопределенностей значительно улучшает производительность по сравнению с обычно используемыми базовыми значениями. Качество оценок черного ящика неопределенности, производимых открытыми моделями, было исследовано по сравнению с точностью, используя модели, такие как LLaMA-2, Mistral и LLaMA-3. Оценка на открытой MMLU показала, что методы подсказок обычно дают плохо калиброванные неопределенности, и калибровка не улучшается “из коробки”, по мере улучшения базовой модели. Однако AUROC показал небольшое улучшение с мощностью базовой модели, хотя все еще отстает от моделей с точной настройкой для неопределенности.

Это исследование показывает, что неопределенности “из коробки” от LLM ненадежны для открытой генерации, вопреки предыдущим результатам. Введенные процедуры точной настройки производят калиброванные неопределенности с практическими свойствами обобщения. Особенно важно, что точная настройка оказывается удивительно эффективной по образцам и не зависит от представлений, специфичных для модели, оценивающей свои генерации. Исследование также демонстрирует возможность калиброванных неопределенностей быть устойчивыми к сдвигам распределения.

Посмотреть статью. Вся заслуга за это исследование принадлежит исследователям этого проекта. Также не забудьте подписаться на наш Twitter.

Присоединяйтесь к нашему каналу в Telegram и группе в LinkedIn.

Если вам нравится наша работа, вам понравится наш бюллетень.

Не забудьте присоединиться к нашему 44k+ ML SubReddit.

Поддержите нас и мы поможем вам внедрить искусственный интеллект в ваш бизнес.

Если вам нужны советы по внедрению ИИ, пишите нам на Telegram.

Попробуйте ИИ ассистент в продажах здесь. Этот ИИ ассистент в продажах помогает отвечать на вопросы клиентов, генерировать контент для отдела продаж и снижать нагрузку на первую линию.

Узнайте, как ИИ может изменить ваши процессы с решениями от Flycode.ru.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Улучшение математического мышления в ИИ с помощью дообучения

    Введение Недавние достижения в области больших языковых моделей (LLMs) показывают, что они могут эффективно решать сложные математические задачи с минимальным количеством данных. Исследования, проведенные в UC Berkeley и Allen Institute for AI, разработали…

  • ReZero: Улучшение больших языковых моделей с помощью обучения с подкреплением

    Практические бизнес-решения на основе ReZero Введение в Retrieval-Augmented Generation (RAG) Использование RAG позволяет LLM получать актуальную информацию в реальном времени, что улучшает качество ответов. Это можно применить для улучшения обслуживания клиентов и ускорения…

  • Модель восприятия от Meta AI: новая эра в бизнесе с ИИ

    Модель восприятия языка Meta AI: Бизнес-перспектива Введение в Модель восприятия языка (PLM) Meta AI недавно запустила Модель восприятия языка (PLM), инновационную и открытую платформу для моделирования языка и визуальных данных. Эта модель направлена…

  • Firecrawl Playground: Инструменты для извлечения данных с веб-сайтов

    Firecrawl Playground: Практическое руководство по извлечению данных для бизнеса Введение Веб-скрапинг и извлечение данных необходимы для преобразования неструктурированного веб-контента в полезные инсайты. Firecrawl Playground упрощает этот процесс с помощью интуитивно понятного интерфейса, позволяя…

  • Запуск Perception Encoder от Meta AI: Упрощение визуального восприятия для бизнеса

    Преобразование бизнеса с помощью Perception Encoder от Meta AI Проблема общих визуальных энкодеров Современные AI-системы требуют сложных моделей визуального восприятия для выполнения различных задач. Традиционные модели часто зависят от множества целей предобучения, что…

  • IBM Granite 3.3: Революция в технологии распознавания речи

    Практические бизнес-решения с использованием Granite 3.3 Granite 3.3 от IBM предлагает множество возможностей для улучшения бизнес-процессов и повседневной жизни. Вот как это может помочь вашему бизнесу: 1. Автоматизация процессов Используйте возможности распознавания речи…

  • Практическое руководство по созданию агентов LLM для бизнес-приложений

    Введение OpenAI выпустила руководство по созданию агентов, которое предлагает структурированный подход для реализации автономных систем ИИ. Это руководство поможет инженерным и продуктовым командам эффективно использовать ИИ в бизнесе. Понимание агентов Агенты отличаются от…

  • Запуск Google Gemini 2.5 Flash: Новые Возможности для Бизнеса

    Практические бизнес-решения для внедрения Gemini 2.5 Flash Google представил Gemini 2.5 Flash, продвинутую модель ИИ с улучшенными возможностями рассуждений. Вот несколько практических решений для бизнеса, которые помогут улучшить результаты и повседневную жизнь. Шаг…

  • Создание модульного процесса оценки LLM с Google AI и LangChain

    Построение Модульного Оценочного Пайплайна LLM Введение Оценка больших языковых моделей (LLM) важна для повышения надежности и эффективности искусственного интеллекта в бизнесе. Этот подход позволяет систематически оценивать сильные и слабые стороны LLM по различным…

  • M1: Гибридная модель для эффективного reasoning в бизнесе

    M1: Новый Подход к Рассуждению Искусственного Интеллекта Понимание Необходимости Эффективных Моделей Рассуждения Эффективное рассуждение важно для решения сложных задач в таких областях, как математика и программирование. Традиционные модели на основе трансформеров показали значительные…

  • Рамки безопасности Zero Trust для защиты протокола контекста модели от отравления инструментов

    Улучшение безопасности ИИ: Рамки Zero Trust Введение Системы искусственного интеллекта (ИИ) все чаще взаимодействуют с данными в реальном времени, что делает необходимость в надежных мерах безопасности крайне важной. Рамки безопасности Zero Trust предлагают…

  • Загрузка наборов данных и дообучение моделей на Hugging Face Hub

    Практические решения для бизнеса с использованием ИИ Введение Использование платформы Hugging Face для загрузки и настройки наборов данных и моделей может значительно улучшить бизнес-процессы. Это позволяет компаниям создавать специализированные ИИ-решения, которые могут повысить…

  • Интеграция Figma с Cursor IDE для создания веб-страницы входа

    Интеграция Figma с Cursor IDE для веб-разработки Введение Интеграция инструментов дизайна, таких как Figma, с средами разработки, такими как Cursor IDE, может значительно повысить продуктивность. Используя Протокол Контекста Модели (MCP), разработчики могут упростить…

  • Pixel-SAIL: Революционная Модель для Задач Визуального И Языкового Восприятия

    Будущее моделей визуального языка: практические бизнес-решения Введение в Pixel-SAIL Недавние достижения в области искусственного интеллекта (ИИ) привели к разработке Pixel-SAIL, модели, которая улучшает понимание на уровне пикселей. Эта модель может значительно улучшить бизнес-процессы…

  • Оптимизация выбора данных для предварительного обучения LLM через DataDecide

    Преобразование производительности моделей ИИ через оптимизацию данных Понимание задачи выбора данных в предварительном обучении LLM Создание больших языковых моделей (LLM) требует значительных вычислительных ресурсов, особенно при тестировании различных предварительных наборов данных. Это приводит…

  • Новые модели OpenAI: o3 и o4-mini для бизнес-решений

    Практические бизнес-решения OpenAI Обзор новых моделей OpenAI OpenAI недавно запустила две инновационные модели, o3 и o4-mini, которые представляют собой значительные достижения в области искусственного интеллекта. Эти модели улучшают интеграцию мультимодальных входов, таких как…

  • DELSSOME: Ускорение биофизического моделирования мозга в 2000 раз с помощью глубокого обучения

    Революция в биофизическом моделировании мозга с использованием DELSSOME Введение в биофизические модели мозга Биофизические модели мозга необходимы для понимания сложных процессов его работы. Они связывают клеточную динамику нейронов с крупномасштабной активностью мозга. Однако…

  • Codex CLI: Преобразование естественного языка в код для разработчиков

    Введение в Codex CLI Командные интерфейсы (CLI) являются важными инструментами для разработчиков, позволяя эффективно управлять системами и автоматизировать процессы. Однако они требуют точного синтаксиса и глубокого понимания команд, что может быть сложно для…