
«`html
Проблема «взлома» крупных языковых моделей и их безопасность
С появлением крупных языковых моделей (LLM) возникла серьезная проблема «взлома», которая представляет угрозу безопасности. «Взлом» заключается в использовании уязвимостей этих моделей для создания вредного или неприемлемого контента. Поскольку LLM, такие как ChatGPT и GPT-3, все чаще интегрируются в различные приложения, обеспечение их безопасности и соответствия этическим стандартам становится важным. Несмотря на усилия по выравниванию этих моделей с рекомендациями по безопасному поведению, злоумышленники все равно могут создавать конкретные запросы, обходящие эти защиты, что приводит к производству токсичного, предвзятого или иным образом неприемлемого контента. Эта проблема представляет существенные риски, включая распространение дезинформации, укрепление вредных стереотипов и потенциальное злоупотребление в злонамеренных целях.
Методы «взлома» в настоящее время
В настоящее время методы «взлома» в основном включают создание конкретных запросов для обхода выравнивания модели. Эти методы можно разделить на две категории: методы дискретной оптимизации и методы, основанные на векторных представлениях слов. Методы дискретной оптимизации включают прямую оптимизацию дискретных токенов для создания запросов, способных взламывать LLM. Хотя эта методика эффективна, она часто требует значительных вычислительных затрат и может потребовать значительного пробного и ошибочного подхода для определения успешных запросов. С другой стороны, методы, основанные на векторных представлениях, позволяют злоумышленникам оптимизировать векторные представления токенов (векторные представления слов) для поиска точек в пространстве векторных представлений, которые могут привести к «взлому». Эти представления затем преобразуются в дискретные токены, которые могут быть использованы в качестве входных запросов. Этот метод может быть более эффективным, чем дискретная оптимизация, но все равно сталкивается с проблемами в плане устойчивости и обобщаемости.
Новый метод с использованием визуальной модальности
Команда исследователей из Университета Сидиан, Университета Сиань Джаотунг, исследовательской компании Wormpex AI Research и Meta предлагает новый метод, который вводит визуальную модальность в целевую LLM, создавая мультимодельную крупную языковую модель (MLLM). Этот подход включает создание MLLM путем интеграции визуального модуля в LLM, выполнение эффективного «взлома» MLLM для генерации векторных представлений «взлома» (embJS), а затем преобразование этих представлений в текстовые запросы (txtJS) для «взлома» LLM. Основная идея заключается в том, что визуальные входы могут предоставлять более богатые и гибкие подсказки для создания эффективных запросов «взлома», потенциально преодолевая некоторые ограничения чисто текстовых методов.
Оценка производительности метода
Производительность предложенного метода была оценена с использованием мультимодального набора данных AdvBench-M, который включает различные категории вредного поведения. Исследователи протестировали свой подход на нескольких моделях, включая LLaMA-2-Chat-7B и GPT-3.5, продемонстрировав значительные улучшения по сравнению с современными методами. Результаты показали более высокую эффективность и эффективность, с заметным успехом в «взломе» между классами, где запросы, разработанные для одной категории вредного поведения, также могли «взламывать» другие категории.
Заключение
Предложенный метод, путем включения визуальных входов, улучшает гибкость и богатство запросов «взлома», превосходя существующие современные техники. Этот подход демонстрирует превосходные возможности межклассового «взлома» и улучшает эффективность и эффективность атак «взлома», представляя новые вызовы для обеспечения безопасного и этичного развертывания передовых языковых моделей. Полученные результаты подчеркивают важность разработки надежных защит от мультимодального «взлома» для поддержания целостности и безопасности систем искусственного интеллекта.
«`