Инновационный подход искусственного интеллекта к разблокировке LLMs с помощью визуальных подсказок

 Crossing Modalities: The Innovative Artificial Intelligence Approach to Jailbreaking LLMs with Visual Cues

“`html

Проблема “взлома” крупных языковых моделей и их безопасность

С появлением крупных языковых моделей (LLM) возникла серьезная проблема “взлома”, которая представляет угрозу безопасности. “Взлом” заключается в использовании уязвимостей этих моделей для создания вредного или неприемлемого контента. Поскольку LLM, такие как ChatGPT и GPT-3, все чаще интегрируются в различные приложения, обеспечение их безопасности и соответствия этическим стандартам становится важным. Несмотря на усилия по выравниванию этих моделей с рекомендациями по безопасному поведению, злоумышленники все равно могут создавать конкретные запросы, обходящие эти защиты, что приводит к производству токсичного, предвзятого или иным образом неприемлемого контента. Эта проблема представляет существенные риски, включая распространение дезинформации, укрепление вредных стереотипов и потенциальное злоупотребление в злонамеренных целях.

Методы “взлома” в настоящее время

В настоящее время методы “взлома” в основном включают создание конкретных запросов для обхода выравнивания модели. Эти методы можно разделить на две категории: методы дискретной оптимизации и методы, основанные на векторных представлениях слов. Методы дискретной оптимизации включают прямую оптимизацию дискретных токенов для создания запросов, способных взламывать LLM. Хотя эта методика эффективна, она часто требует значительных вычислительных затрат и может потребовать значительного пробного и ошибочного подхода для определения успешных запросов. С другой стороны, методы, основанные на векторных представлениях, позволяют злоумышленникам оптимизировать векторные представления токенов (векторные представления слов) для поиска точек в пространстве векторных представлений, которые могут привести к “взлому”. Эти представления затем преобразуются в дискретные токены, которые могут быть использованы в качестве входных запросов. Этот метод может быть более эффективным, чем дискретная оптимизация, но все равно сталкивается с проблемами в плане устойчивости и обобщаемости.

Новый метод с использованием визуальной модальности

Команда исследователей из Университета Сидиан, Университета Сиань Джаотунг, исследовательской компании Wormpex AI Research и Meta предлагает новый метод, который вводит визуальную модальность в целевую LLM, создавая мультимодельную крупную языковую модель (MLLM). Этот подход включает создание MLLM путем интеграции визуального модуля в LLM, выполнение эффективного “взлома” MLLM для генерации векторных представлений “взлома” (embJS), а затем преобразование этих представлений в текстовые запросы (txtJS) для “взлома” LLM. Основная идея заключается в том, что визуальные входы могут предоставлять более богатые и гибкие подсказки для создания эффективных запросов “взлома”, потенциально преодолевая некоторые ограничения чисто текстовых методов.

Оценка производительности метода

Производительность предложенного метода была оценена с использованием мультимодального набора данных AdvBench-M, который включает различные категории вредного поведения. Исследователи протестировали свой подход на нескольких моделях, включая LLaMA-2-Chat-7B и GPT-3.5, продемонстрировав значительные улучшения по сравнению с современными методами. Результаты показали более высокую эффективность и эффективность, с заметным успехом в “взломе” между классами, где запросы, разработанные для одной категории вредного поведения, также могли “взламывать” другие категории.

Заключение

Предложенный метод, путем включения визуальных входов, улучшает гибкость и богатство запросов “взлома”, превосходя существующие современные техники. Этот подход демонстрирует превосходные возможности межклассового “взлома” и улучшает эффективность и эффективность атак “взлома”, представляя новые вызовы для обеспечения безопасного и этичного развертывания передовых языковых моделей. Полученные результаты подчеркивают важность разработки надежных защит от мультимодального “взлома” для поддержания целостности и безопасности систем искусственного интеллекта.

“`

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект