Выбрать язык

Улучшение переводчиков на основе больших языковых моделей с помощью переводческих баз данных

Исследование по улучшению машинного перевода на основе LLM с использованием промптов из переводческих баз данных, демонстрирующее значительный рост оценки BLEU для множества языков и предметных областей.
translation-service.org | PDF Size: 0.2 MB
Оценка: 4.5/5
Ваша оценка
Вы уже оценили этот документ
Обложка PDF-документа - Улучшение переводчиков на основе больших языковых моделей с помощью переводческих баз данных

1. Введение

Данная исследовательская работа, "Улучшение переводчиков на основе больших языковых моделей с помощью переводческих баз данных", исследует новый подход к улучшению машинного перевода (МП) за счёт использования способности больших языковых моделей (LLM) к обучению в контексте. Основная идея заключается в использовании переводческих баз данных (Translation Memories, TM) — баз данных прошлых человеческих переводов — в качестве динамических промптов для настройки LLM, что исключает необходимость изменения архитектуры или масштабного дообучения базовой модели. Этот метод, названный Translation Memory Prompting for Large Language Models (TMP-LM), демонстрирует значительный прирост производительности, делая перевод на основе LLM конкурентоспособным по сравнению с передовыми системами нейронного машинного перевода (NMT), дообученными на больших доменно-специфичных наборах данных.

2. Методология

2.1. Промптинг с использованием переводческих баз данных (TMP-LM)

TMP-LM — это простая, но эффективная стратегия промптинга с малым количеством примеров (few-shot). Для перевода заданного исходного предложения $x$ система извлекает $k$ релевантных пар перевода $(x^{tm}_i, y^{tm}_i)$ из TM. Эти пары форматируются в промпт по определённому шаблону, который затем добавляется перед инструкцией для перевода $x$. LLM, учитывая этот промпт, генерирует перевод $y$. Процесс можно формализовать как поиск $y$, максимизирующего $P(y | f_{ref}(x^{tm}_1, y^{tm}_1, ..., x^{tm}_k, y^{tm}_k, x), \theta)$, где $f_{ref}$ — функция шаблона промпта, а $\theta$ — параметры LLM.

2.2. Дизайн шаблона промпта

В работе исследуются различные стили промптов, в основном противопоставляя форматы INSTRUCTION и CODE (см. Рисунок 1 в PDF). Формат INSTRUCTION использует естественный язык (например, "Если перевод X1 — это Y1..., то каков перевод X?"). Формат CODE использует структурированный стиль "ключ-значение" (например, "[src-lang]=[X1] [tgt-lang]=[Y1]..."). Выбор шаблона существенно влияет на способность LLM эффективно использовать предоставленные примеры из TM.

Ключевое улучшение

20-30 BLEU

Очков прироста по сравнению с базовым LLM-переводчиком

Основное преимущество

Без изменения архитектуры

Использует стандартную LLM только через промптинг

Базис для сравнения

Передовая NMT

Конкурирует с интенсивно дообученными моделями

3. Эксперименты и результаты

3.1. Экспериментальная установка

Эксперименты проводились с использованием модели GPT-3.5 (text-davinci-003, далее davinci-003) для нескольких языковых пар (например, Zh-En, De-En) и предметных областей (IT, Коран, Медицина, Право). Переводческие базы данных были созданы из доменно-специфичных данных. Производительность оценивалась с помощью метрики BLEU, сравнивая TMP-LM с сильным базовым уровнем: базовой моделью davinci-003 без промптов из TM и с хорошо настроенной, крупномасштабной системой NMT (передовой базовый уровень, SOTA).

3.2. Основные результаты

Результаты впечатляют. TMP-LM улучшил качество перевода базовой LLM на от 20 до 30 очков BLEU в различных задачах. На большинстве тестовых наборов производительность LLM с промптами была сопоставима или даже превосходила производительность специализированной, доменно-специфичной системы NMT. Это демонстрирует огромный потенциал обучения в контексте с высококачественными промптами для адаптации универсальных LLM к специализированным задачам перевода.

3.3. Абляционные исследования

Абляционные исследования подтвердили важность как качества TM, так и дизайна промпта. Прирост производительности напрямую коррелировал с релевантностью и точностью извлечённых примеров из TM. Более того, промпт в стиле CODE, как правило, давал более стабильные и последовательные улучшения, чем промпт в стиле INSTRUCTION, вероятно, из-за его более чёткой и менее двусмысленной структуры для анализа LLM.

Ключевые выводы

  • LLM — исключительные ученики по промптам: Их способность "понимать" и следовать сложным инструкциям является ключевым фактором успеха TMP-LM.
  • Дизайн промпта критически важен: Формат и ясность шаблона промпта — нетривиальные гиперпараметры, существенно влияющие на производительность.
  • TM как динамический источник знаний: Этот подход превращает статические базы данных TM в активные, контекстные руководства для LLM, соединяя классическую и современную парадигмы МП.
  • Экономически эффективная адаптация: TMP-LM предоставляет путь к высококачественному, доменно-специфичному переводу без вычислительных затрат на дообучение массивных LLM.

4. Анализ и обсуждение

4.1. Ключевая идея

Эта статья не только о лучшем переводе; это мастер-класс по арбитражу ресурсов. Авторы выявили критическую неэффективность: недостаточное использование существующих, высокоценных переводческих баз данных (TM) в эпоху LLM. В то время как индустрия одержима масштабированием параметров модели, они демонстрируют, что масштабирование контекстного интеллекта — предоставление LLM правильных предшествующих примеров — может дать непропорционально высокую отдачу. Скачок на 20-30 очков BLEU — это не просто улучшение; это смена парадигмы, доказывающая, что для многих задач умно промптированный универсал может превзойти тонко настроенного специалиста. Это перекликается с выводами в других областях, где обучение в контексте превосходит дообучение на задачах с малым количеством данных, как обсуждается в исследованиях таких институтов, как Центр исследования базовых моделей Стэнфорда.

4.2. Логическая последовательность

Аргументация элегантно проста и невероятно эффективна: 1) Проблема: LLM — сильные переводчики, но им не хватает доменной специфичности; TM богаты доменными знаниями, но являются пассивными базами данных. 2) Гипотеза: Обучение в контексте LLM может активировать TM. 3) Механизм: Представить сегменты TM как промпты с малым количеством примеров (few-shot). 4) Валидация: Огромный прирост BLEU в различных областях. 5) Следствие: Оптимальная система перевода может быть гибридной LLM, усиленной поиском, а не чистой end-to-end NMT моделью. Эта последовательность отражает успешный паттерн "генерации, усиленной поиском", наблюдаемый в таких моделях, как RETRO, но применяет его к зрелой, коммерчески важной проблеме: переводу.

4.3. Сильные стороны и недостатки

Сильные стороны: Подход прагматично блестящий. Он ненавязчивый (без изменений модели), немедленно развертываемый на API, таких как OpenAI, и использует невозвратные затраты (корпоративные TM). Он превращает пассив (статические базы данных TM) в стратегический актив. Сравнение с передовой NMT — смелый и убедительный эталон.

Недостатки: В статье обходят стороной очевидную проблему: задержка и стоимость. Создание и обработка длинных промптов, насыщенных примерами, для каждого предложения значительно увеличивает время вывода и потребление токенов, что неприемлемо для приложений реального времени с большим объёмом. Кроме того, метод чрезвычайно чувствителен к качеству TM; зашумлённые или нерелевантные совпадения из TM могут ухудшить производительность, создавая сценарий "мусор на входе — мусор на выходе". Зависимость от проприетарной модели (davinci-003) также ограничивает воспроизводимость и независимую проверку.

4.4. Практические выводы

Для руководителей предприятий: Перестаньте рассматривать вашу TM как устаревший архив. Это исследование требует переоценки активов TM как основного компонента вашего стека AI-перевода. Преимущество первопроходца заключается в создании надёжных систем поиска по TM с поддержкой векторного поиска, оптимизированных для промптинга LLM.

Для исследователей: Промпт в стиле CODE — значительное открытие. Будущая работа должна систематизировать инженерию промптов для перевода, переходя от искусства к науке. Исследование этого подхода с открытыми LLM (например, LLaMA, BLOOM) — критически важный следующий шаг для демократизации метода.

Для разработчиков: Реализуйте механизм отката. Используйте оценки уверенности от системы поиска по TM; если высококачественное совпадение не найдено, переходите к базовому переводу LLM, чтобы избежать ухудшения. Эта гибридная устойчивость ключева для промышленных систем.

5. Технические детали

Основное техническое новшество — формулировка промпта. Для заданного исходного предложения $x$ и $k$ извлечённых пар из TM $(x_i^{tm}, y_i^{tm})$ промпт $P$ конструируется как:
$P = f_{ref}(x_1^{tm}, y_1^{tm}, ..., x_k^{tm}, y_k^{tm}, x)$
Где $f_{ref}$ — функция шаблона. Затем LLM вычисляет:
$y^* = \arg\max_y P(y | P, \theta)$
В экспериментах работы обычно используется $k=2$ или $k=4$. Извлечение примеров из TM основано на метриках схожести, таких как BM25 или косинусное сходство эмбеддингов между $x$ и $x_i^{tm}$.

6. Пример аналитического подхода

Сценарий: Юридической фирме необходимо перевести новый пункт контракта с немецкого на английский. Их TM содержит тысячи ранее переведённых пунктов.
Применение подхода:

  1. Поиск: Система использует семантический поиск, чтобы найти 2 наиболее похожих исходных немецких пункта из TM и их профессиональные английские переводы.
  2. Конструирование промпта (стиль CODE):
    [src-lang]=[Найденный немецкий пункт 1] [tgt-lang]=[Английский перевод 1] [src-lang]=[Найденный немецкий пункт 2] [tgt-lang]=[Английский перевод 2] [src-lang]=[Новый немецкий пункт] [tgt-lang]=
  3. Выполнение: Этот промпт отправляется в LLM (например, GPT-4). LLM, учитывая точную юридическую формулировку предыдущих примеров, генерирует перевод нового пункта, сохраняя согласованную терминологию и стиль.
  4. Результат: Высококачественный, соответствующий предметной области перевод, который универсальный переводчик, вероятно, упустил бы.
Этот подход превращает каждую новую задачу перевода в проблему обучения с малым количеством примеров, специфичную для контекста данного документа.

7. Будущие применения и направления

Последствия TMP-LM выходят далеко за рамки перевода:

  • Контролируемая генерация текста: Адаптация LLM для определённого голоса бренда, стилей технической документации или соответствия нормативным требованиям путём использования примерных текстов в качестве промптов.
  • Персонализированные AI-ассистенты: Использование прошлых писем, отчётов или сообщений пользователя в качестве "памяти стиля" для промптинга LLM с целью генерации нового контента в его уникальной манере.
  • Генерация и адаптация кода: Промптинг LLM существующими функциями и паттернами кодовой базы для генерации нового кода, следующего тем же соглашениям и архитектуре.
  • Будущие исследования: Ключевые направления включают оптимизацию сжатия промптов для снижения затрат, разработку лучших моделей поиска для нечёткого сопоставления TM и исследование пределов обучения в контексте по сравнению с дообучением по мере роста LLM. Интеграция этого с методами параметрически эффективного дообучения (PEFT), такими как LoRA, может дать ещё более сильные гибриды.
Конечное направление — создание Движков динамического контекста — систем, которые автоматически управляют, извлекают и форматируют наиболее релевантные контекстные знания (из TM, графов знаний, прошлых взаимодействий) для настройки LLM под любую задачу.

8. Ссылки

  1. Mu, Y., Reheman, A., Cao, Z., et al. (2023). Augmenting Large Language Model Translators via Translation Memories. arXiv preprint arXiv:2305.17367.
  2. Brown, T., Mann, B., Ryder, N., et al. (2020). Language Models are Few-Shot Learners. Advances in Neural Information Processing Systems, 33.
  3. Khandelwal, U., Levy, O., Jurafsky, D., et al. (2021). Generalization through Memorization: Nearest Neighbor Language Models. International Conference on Learning Representations (ICLR).
  4. Borgeaud, S., Mensch, A., Hoffmann, J., et al. (2022). Improving Language Models by Retrieving from Trillions of Tokens. International Conference on Machine Learning (ICML).
  5. Stanford Center for Research on Foundation Models (CRFM). (2023). On the Opportunities and Risks of Foundation Models. https://crfm.stanford.edu/.
  6. Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems, 30.