Новые модели Reader-LM для преобразования HTML в Markdown: многоязычные, с длинным контекстом и высокоэффективные

 Jina AI Released Reader-LM-0.5B and Reader-LM-1.5B: Revolutionizing HTML-to-Markdown Conversion with Multilingual, Long-Context, and Highly Efficient Small Language Models for Web Data Processing

Jina AI выпустила Reader-LM-0.5B и Reader-LM-1.5B: Революционные модели малых языковых моделей для преобразования HTML в Markdown

Выпуск Reader-LM-0.5B и Reader-LM-1.5B Jina AI является значительным событием в технологии малых языковых моделей (SLM). Эти модели разработаны для решения уникальной и конкретной задачи: преобразование сырого, шумного HTML с открытого веб-сайта в чистый формат markdown. Хотя эта задача кажется простой, она представляет собой сложные вызовы, особенно в обработке большого количества шума в современном веб-контенте, такого как заголовки, подвалы и боковые панели. Серия Reader-LM нацелена на эффективное решение этой проблемы, с упором на экономичность и производительность.

Фон и цель

В апреле 2024 года Jina AI представила Jina Reader, API, который преобразует любой URL в markdown, подходящий для больших языковых моделей (LLM). Этот API использует инструменты, такие как пакет Readability от Mozilla, для извлечения основного содержимого веб-страницы, а затем регулярные выражения и библиотеку Turndown для преобразования очищенного HTML в markdown. Однако этот метод столкнулся с проблемами, такими как неправильная фильтрация контента и трудности в преобразовании сложных структур HTML. Получив обратную связь от пользователей, Jina AI поняла, что патчинг существующего конвейера с помощью дополнительных регулярных выражений и эвристик не является устойчивым решением.

Чтобы преодолеть эти ограничения, Jina AI задала важный вопрос: может ли эта проблема быть решена end-to-end с использованием языковой модели? Вместо ручных правил, языковая модель может более эффективно обрабатывать задачу преобразования HTML в markdown, особенно с менее чем миллиардом параметров, что делает ее выполнимой для работы на краю.

Введение моделей Reader-LM

Jina AI выпустила две малые языковые модели: Reader-LM-0.5B и Reader-LM-1.5B. Эти модели обучены специально для преобразования сырого HTML в markdown, и обе поддерживают мультиязычность и контекст длиной до 256 токенов. Эта способность обрабатывать большие контексты критична, поскольку содержимое HTML современных веб-сайтов часто содержит больше шума, чем когда-либо, с встроенным CSS, JavaScript и другими элементами, значительно увеличивающими количество токенов.

В то время как большие языковые модели известны своими высокими вычислительными требованиями, малые языковые модели, такие как Reader-LM, разработаны для обеспечения эффективной производительности без дорогостоящей инфраструктуры. Reader-LM-0.5B и Reader-LM-1.5B превосходят многие более крупные модели в конкретной задаче преобразования HTML в markdown, при этом имея лишь долю их размера.

Архитектура и спецификации

Модели Reader-LM разработаны для обработки входных данных с длинным контекстом и выполнения выборочного копирования из HTML в markdown. Эта задача более проста, чем типичные функции LLM, такие как генерация текста или написание кода. Это поведение выборочного копирования в первую очередь направлено на идентификацию соответствующего контента, пропуская ненужные элементы, такие как боковые панели и заголовки, и форматируя оставшийся контент в синтаксисе markdown.

Спецификации моделей

Reader-LM-0.5B: С 494 миллионами параметров, данная модель включает 24 слоя, 896 скрытых размеров и 14 запросов. Она компактна, но способна эффективно обрабатывать задачу выборочного копирования.

Reader-LM-1.5B: Эта более крупная модель имеет 1,54 миллиарда параметров, 28 слоев, 1536 скрытых размеров и 12 запросов. Она проявляет себя лучше, особенно при работе с более сложными структурами HTML.

Обе модели поддерживают длину контекста до 256 токенов, что критично для обработки часто длинного и шумного HTML-контента, найденного в сети. Их способность обрабатывать мультиязычный контент делает их универсальными инструментами для глобальных приложений.

Производительность и бенчмаркинг

Производительность Reader-LM-0.5B и Reader-LM-1.5B была тщательно оценена по сравнению с несколькими большими языковыми моделями, включая GPT-4o, Gemini-1.5-Flash, LLaMA-3.1-70B и Qwen2-7BInstruct. Модели были протестированы с использованием метрик, таких как ROUGE-L (для задач суммаризации и вопросно-ответной системы), Token Error Rate (TER, который измеряет уровень галлюцинаций контента) и Word Error Rate (WER, который оценивает несоответствия между сгенерированным markdown и оригинальным HTML).

В этих оценках модели Reader-LM превзошли многие более крупные модели в терминах генерации чистого, точного markdown из HTML. Например, Reader-LM-1.5B достигла оценки ROUGE-L 0,72, WER 1,87 и TER 0,19, значительно лучше, чем GPT-4o и другие протестированные модели. Reader-LM-0.5B, хотя и меньше, также показала конкурентоспособные результаты, особенно в задаче сохранения структуры, что важно для преобразования HTML в markdown.

Обучение и разработка

Для обучения моделей Reader-LM требовалось подготовить высококачественные пары данных с сырым HTML и соответствующим markdown. Jina AI сгенерировала эти данные, используя свой существующий API Jina Reader, дополненный синтетическим HTML, сгенерированным GPT-4o для обучения. Итоговый обучающий набор данных содержал примерно 2,5 миллиарда токенов.

Модели обучались в два этапа:

Краткое и простое HTML: На этом этапе использовались до 32 тысяч токенов и 1,5 миллиарда обучающих токенов.

Длинное и сложное HTML: На этом этапе последовательности увеличились до 128 тысяч токенов с 1,2 миллиарда обучающих токенов. Ключевым новшеством на этом этапе было использование механизма «зигзаг-кольцевого внимания», что улучшило обработку длинных контекстов.

Несмотря на сложность преобразования HTML в markdown, модели были оптимизированы для эффективной обработки этой задачи без излишних вычислительных нагрузок. Они используют такие техники, как контрастный поиск, чтобы предотвратить дегенерацию токенов и повторяющиеся циклы во время генерации markdown.

Прикладные возможности

Reader-LM разработан для практического использования как в индивидуальных, так и в корпоративных средах. Модели могут быть легко протестированы с помощью Google Colab, а производственные среды могут использовать платформы, такие как Azure и AWS, где модели скоро будут доступны. Reader-LM лицензирован под CC BY-NC 4.0, с возможностью коммерческого использования для компаний, ищущих решения для работы на собственных серверах.

Модели идеально подходят для автоматизации извлечения и очистки данных с открытого веба в производственных средах. Преобразуя сырой HTML в чистый markdown, Reader-LM обеспечивает эффективную обработку данных, что упрощает для последующих LLM суммирование, рассуждение и получение инсайтов из веб-контента. Кроме того, их мультиязычные возможности расширяют их применимость в различных отраслях и регионах.

Заключение

Выпуск Reader-LM-0.5B и Reader-LM-1.5B представляет собой прорыв в технологии малых языковых моделей, специально разработанных для преобразования HTML в markdown. Эти модели решают критическую потребность в эффективном, экономичном извлечении данных из шумного и часто ошеломляющего веб-контента, характерного для современного интернета. С их компактным размером, поддержкой длинного контекста и мультиязычными возможностями модели Reader-LM предлагают мощный инструмент для разработчиков и предприятий, стремящихся оптимизировать свои рабочие процессы.

Мобильная разработка на заказ и готовые решения

Мобильная разработка

Готовые и индивидуальные решения

Веб решения - разработка сайтов и сервисов

Web решения

Получите бесплатную консультацию по веб-разработке прямо сейчас

Аутсорсинг, подбор специалистов и команд разработки

Аутсорсинг

Выберите своего специалиста сегодня и начните свой проект

Новости

  • Itinai.com it company office background blured photography by e4139fc1 862c 4177 9de9 70fb39c5af9e 1

    NovelSeek: Революция в автономных научных исследованиях с помощью ИИ

    Введение в NovelSeek: революция в научных исследованиях Научные исследования требуют высокой экспертизы для генерации гипотез, проектирования экспериментов и анализа результатов. NovelSeek — это система ИИ, которая автономно управляет всем процессом научного открытия. Как…

  • Itinai.com it company office background blured photography by 0b545732 d29f 4839 a448 751a77ba1563 2

    WINA: Эффективная активация нейронов для оптимизации вывода больших языковых моделей

    Преобразование Идентификации Нейронов с Помощью WINA Microsoft представила WINA (Weight Informed Neuron Activation) — инновационную структуру, позволяющую эффективно использовать большие языковые модели (LLMs) без необходимости в обучении. Это решение помогает компаниям оптимизировать производительность…

  • Itinai.com it company office background blured photography by 12fe5e49 d0a5 47b8 a36f 0071089d22c3 0

    Трансформация клиентского опыта с помощью агентного ИИ

    Превращение клиентского опыта с помощью агентного ИИ Понимание агентного ИИ Агентный ИИ — это системы с интеллектуальными агентами, которые могут запоминать прошлые взаимодействия, рассуждать о процессах и принимать решения без постоянного вмешательства человека.…

  • Itinai.com it company office background blured photography by 2f4c6499 6d9f 413b 8dd8 10c4ad53e96c 1

    Адаптивные Модели Рассуждений для Эффективного Решения Проблем в ИИ

    Введение Данная статья обсуждает два инновационных концепта в области искусственного интеллекта: Модели Адаптивного Рассуждения (ARM) и Ada-GRPO. Эти модели помогают повысить эффективность и масштабируемость решения задач в AI, особенно в области рассуждений. Понимание…

  • Itinai.com it company office background blured photography by 48cb21e9 ed8f 4a55 9f5b 4570e52f1cce 2

    Создание масштабируемой системы коммуникации между агентами с использованием ACP в Python

    «`html Практическое руководство по созданию масштабируемой системы коммуникации для агентов Введение Создание эффективной системы коммуникации между агентами важно для бизнеса, стремящегося использовать искусственный интеллект. Этот подход позволяет улучшить бизнес-процессы и повысить качество обслуживания…

  • Itinai.com it company office background blured photography by a4b45723 df9d 4684 b150 bb2c5790acc8 0

    Ограничения многомодальных моделей в физическом рассуждении: результаты PHYX Benchmark

    Понимание Ограничений Мультимодальных Основных Моделей в Физическом Рассуждении Введение в Мультимодальные Основные Модели Недавние достижения в области мультимодальных основных моделей сделали шаги вперед в различных областях, включая математику и логическое рассуждение. Однако они…

  • Itinai.com it company office background blured photography by 0b545732 d29f 4839 a448 751a77ba1563 0

    Запуск Yambda: крупнейший набор данных для систем рекомендаций от Яндекса

    Введение в набор данных Yambda от Yandex Yandex недавно запустил Yambda — набор данных, который значительно улучшает возможности рекомендательных систем. Он содержит почти 5 миллиардов анонимизированных взаимодействий пользователей с Yandex Music, что позволяет…

  • Itinai.com it company office background blured photography by 2f4c6499 6d9f 413b 8dd8 10c4ad53e96c 2

    Биомни: Революция в автоматизации биомедицинских исследований с помощью ИИ

    Biomni: Трансформация биомедицинских исследований с помощью ИИ Проблемы в биомедицинских исследованиях Биомедицинские исследования сталкиваются с рядом серьезных проблем: Перегрузка данными: Огромные объемы данных затрудняют работу исследователей. Интеграция инструментов: Сложности с объединением различных инструментов…

  • Itinai.com it company office background blured photography by 12fe5e49 d0a5 47b8 a36f 0071089d22c3 3

    Улучшение LLM с помощью интерливинг-рассуждений для более быстрых и точных ответов

    Введение в Интерливинг Резонанс Исследователи из Apple и Университета Дьюка разработали инновационный подход, называемый Интерливинг Резонанс, который улучшает производительность больших языковых моделей (LLMs), позволяя им предоставлять промежуточные ответы во время сложного решения задач.…

  • Itinai.com it company office background blured photography by 93e48de1 e0a4 4327 bf1a 5249ee257f75 2

    DeepSeek R1-0528: Революция в открытом ИИ

    Решения для бизнеса с применением DeepSeek R1-0528 Модель DeepSeek R1-0528 представляет собой значительный шаг вперед в области открытого ИИ. Ниже приведены практические бизнес-решения на основе её возможностей. Преимущества для бизнеса и реальной жизни…

  • Itinai.com it company office background blured photography by d266ecb7 1141 4fd8 a45e d7242fbf1e9e 1

    Создание самообучающегося ИИ-агента с помощью API Gemini от Google

    Практическое руководство по созданию самообучающегося AI-агента с использованием Google’s Gemini API Введение В современном деловом мире внедрение искусственного интеллекта (AI) становится ключевым фактором успеха. Этот гайд поможет вам разработать самообучающегося AI-агента, который будет…

  • Itinai.com it company office background blured photography by 342dc52c d1e8 48a5 a450 02825b0d4c2b 2

    Samsung представляет ANSE: Улучшение моделей текст-в-видео с активным выбором шума

    Практические бизнес-решения на основе ANSE Исследования Samsung представили ANSE — революционный фреймворк для улучшения моделей текст-видео. Вот как это можно применить в бизнесе для повышения эффективности и качества. Преимущества ANSE для бизнеса Улучшение…

  • Itinai.com it company office background blured photography by 12fe5e49 d0a5 47b8 a36f 0071089d22c3 1

    WEB-SHEPHERD: Инновационная модель вознаграждений для эффективной навигации в сети

    Решения для бизнеса с использованием WEB-SHEPHERD WEB-SHEPHERD предлагает практические решения для бизнеса, которые могут значительно улучшить эффективность работы и повысить качество обслуживания клиентов. Вот как это можно реализовать: 1. Повышение эффективности WEB-SHEPHERD предоставляет…

  • Itinai.com it company office background blured photography by 724d9f47 b65a 445e b4b5 b5939a7eba28 1

    Dimple: Новый Модель Языкового Генератора для Бизнеса

    Введение в Dimple Исследователи Национального университета Сингапура разработали Dimple, новую модель, которая улучшает генерацию текста с помощью инновационных технологий. Эта модель, известная как Дискретная Диффузионная Мультимодальная Языковая Модель (DMLLM), сочетает визуальные и текстовые…

  • Itinai.com it company office background blured photography by 342dc52c d1e8 48a5 a450 02825b0d4c2b 2

    Улучшение математического мышления с помощью обучения с подкреплением

    Улучшение математического мышления с помощью обучения с подкреплением Введение Недавние достижения в области искусственного интеллекта (ИИ) привели к инновационным методам улучшения математического мышления в моделях. Одним из таких подходов является обучение с подкреплением…

  • Itinai.com it company office background blured photography by 0b545732 d29f 4839 a448 751a77ba1563 0

    Интерактивный анализ видео с помощью AI и Lyzr Chatbot Framework

    Преобразование видео-контента в действенные инсайты с помощью ИИ В современном цифровом мире компаниям необходимо эффективно извлекать ценную информацию из мультимедийных ресурсов. Использование искусственного интеллекта может значительно улучшить этот процесс, особенно при анализе транскриптов…

  • Itinai.com it company office background blured photography by 431ba571 009a 4ead 8847 7d3b7a613a24 0

    MMaDA: Унифицированная Модель Мультимодального Диффузии для Бизнеса

    Унифицированная многомодальная диффузионная модель для бизнес-приложений Преимущества MMaDA для бизнеса MMaDA (Многомодальная диффузионная модель для текстового анализа, визуального понимания и генерации изображений) значительно упрощает интеграцию различных типов данных, что приводит к более эффективным…

  • Itinai.com it company office background blured photography by 2f4c6499 6d9f 413b 8dd8 10c4ad53e96c 3

    Мягкое мышление: новое слово в рассуждениях ИИ

    Понимание изменений в рассуждении ИИ Большие языковые модели (LLM) традиционно полагаются на дискретные языковые токены для обработки информации. Этот метод, хотя и эффективен для простых задач, ограничивает способность модели рассуждать в сложных или…