اختر اللغة

تعزيز نماذج اللغة الكبيرة في الترجمة باستخدام ذاكرة الترجمة

ورقة بحثية تستكشف كيف يمكن استخدام ذواكر الترجمة (TMs) كتوجيهات لتعزيز أداء نماذج اللغة الكبيرة (LLMs) في الترجمة بشكل كبير من خلال التعلم في السياق.
translation-service.org | PDF Size: 0.2 MB
التقييم: 4.5/5
تقييمك
لقد قيمت هذا المستند مسبقاً
غلاف مستند PDF - تعزيز نماذج اللغة الكبيرة في الترجمة باستخدام ذاكرة الترجمة

1. المقدمة

تستكشف هذه الورقة البحثية نهجًا جديدًا لتعزيز الترجمة الآلية (MT) من خلال الاستفادة من قدرات التعلم في السياق الناشئة لنماذج اللغة الكبيرة (LLMs). الفرضية الأساسية هي أن ذواكر الترجمة (TMs) - وهي قواعد بيانات للترجمات البشرية السابقة - يمكن أن تكون بمثابة توجيهات فعالة للغاية من نوع "القليل من الأمثلة" لنماذج اللغة الكبيرة، مما يوجهها لإنتاج ترجمات أكثر دقة وملاءمة للمجال دون الحاجة إلى تعديلات في البنية أو ضبط دقيق.

يضع هذا العمل نفسه في مواجهة الطرق السابقة التي كانت تتطلب إما تعديل بنية نماذج الترجمة الآلية العصبية (NMT) أو بناء قواعد معرفة ترجمة منفصلة. على النقيض من ذلك، فإن الطريقة المقترحة، التوجيه باستخدام ذاكرة الترجمة لنماذج اللغة الكبيرة (TMP-LM)، هي تقنية خفيفة الوزن تعتمد فقط على التوجيه، وتستفيد من القدرة الكامنة لنموذج اللغة الكبيرة على فهم واتباع التعليمات المعروضة في نافذة السياق الخاصة به.

2. المنهجية: التوجيه باستخدام ذاكرة الترجمة لنماذج اللغة الكبيرة (TMP-LM)

TMP-LM هو إطار عمل بسيط وقوي يحقن معرفة الترجمة في نموذج اللغة الكبيرة عن طريق إضافة أمثلة ذاكرة ترجمة ذات صلة إلى استعلام الترجمة. تتضمن العملية: 1) استرجاع جمل المصدر المماثلة وترجماتها من ذاكرة الترجمة لجملة إدخال معينة. 2) تنسيق هذه الأزواج (المصدر، الهدف) في توجيه متماسك يتبع قالبًا محددًا. 3) عرض هذا التوجيه، متبوعًا بجملة المصدر الجديدة، لنموذج اللغة الكبيرة للترجمة.

2.1. تصميم قالب التوجيه

تستكشف الورقة أنماطًا مختلفة للتوجيه لتوصيل مهمة الترجمة والأمثلة إلى نموذج اللغة الكبيرة بشكل فعال. يتم تسليط الضوء على قالبين أساسيين:

  • القالب التعليمي (INSTRUCTION): يستخدم تعليمات باللغة الطبيعية. على سبيل المثال: "إذا كانت ترجمة 'X1' من الإنجليزية إلى الفرنسية هي 'Y1' وترجمة 'X2' هي 'Y2'، فما هي ترجمة 'X_new'؟ مطلوب نتائج الترجمة فقط."
  • القالب المنظم (CODE): يستخدم بنية أكثر رسمية من نوع أزواج المفتاح-القيمة. على سبيل المثال: "[src-lang]=[X1] [tgt-lang]=[Y1] [src-lang]=[X2] [tgt-lang]=[Y2] [src-lang]=[X_new] [tgt-lang]="

يؤثر اختيار القالب بشكل كبير على أداء نموذج اللغة الكبيرة، حيث غالبًا ما تنتج القوالب المنظمة مخرجات أكثر اتساقًا عن طريق تقليل الغموض.

2.2. إطار عمل TMP-LM

يمكن تجريد الآلية الأساسية. بالنسبة لجملة الإدخال $x$، توجد دالة استرجاع ذاكرة الترجمة $R(x)$ التي تجد $k$ من أزواج المصدر-الهدف الأكثر تشابهًا $(x_i^{tm}, y_i^{tm})$. تقوم دالة منشئ التوجيه $C(\{(x_i^{tm}, y_i^{tm})\}_{i=1}^k, x)$ بتنسيق هذه الأزواج في توجيه نهائي $P$. ثم يقوم نموذج اللغة الكبيرة، المشار إليه بـ $M$، بتوليد الترجمة: $\hat{y} = M(P)$.

يعتمد الفعالية على قدرة نموذج اللغة الكبيرة على أداء الاستدلال القياسي في السياق - تحديد النمط في الأمثلة المقدمة وتطبيقه على الاستعلام الجديد.

3. الإعداد التجريبي والنتائج

3.1. مجموعات البيانات والمقارنات المرجعية

أُجريت التجارب على مهام ترجمة عبر لغات متعددة (مثل الإنجليزية-الألمانية، الإنجليزية-الصينية) ومجالات (قانونية، تقنية معلومات، طبية). كان نموذج اللغة الكبيرة الأساسي المستخدم هو text-davinci-003 من OpenAI. شملت المقارنات المرجعية أنظمة NMT قوية ومضبوطة جيدًا ومتخصصة في المجال، تم تدريبها على نصوص ثنائية اللغة كبيرة.

أبرز التجارب

  • النموذج: GPT-3.5 (text-davinci-003)
  • مقياس التقييم: درجة BLEU
  • المقارنة الرئيسية: TMP-LM مقابل أنظمة NMT المتطورة المضبوطة للمجال

3.2. النتائج الرئيسية والتحليل

كانت النتائج مذهلة:

  • مكاسب هائلة في BLEU: أدى استخدام توجيهات ذاكرة ترجمة عالية الجودة إلى تحسين أداء الترجمة من النوع "صفر-لقطة" لنموذج اللغة الكبيرة بمقدار 20 إلى 30 نقطة BLEU عبر مهام مختلفة. وهذا يحول نموذج اللغة الكبيرة من مترجم متوسط إلى مترجم ذي كفاءة عالية.
  • منافسة لأنظمة NMT المتطورة: كان أداء نموذج اللغة الكبيرة الموجه مماثلًا، وأحيانًا يتفوق، على أداء أنظمة NMT المتطورة التي تم تدريبها خصيصًا على بيانات واسعة النطاق داخل المجال. هذا اكتشاف مهم، لأنه يشير إلى أن نماذج اللغة الكبيرة مع التوجيه المناسب يمكن أن تضاهي أداء النماذج المتخصصة دون تدريب محدد للمهمة.
  • حساسية القالب: أنتج القالب المنظم (CODE) عمومًا ترجمات أكثر موثوقية وجودة من القالب بلغة طبيعية (INSTRUCTION)، مما يؤكد أهمية هندسة التوجيه الدقيقة.

وصف الرسم البياني (ضمني): سيظهر مخطط شريطي ثلاث مجموعات لكل زوج لغوي/مجال: 1) نموذج اللغة الكبيرة صفر-لقطة (درجة BLEU منخفضة)، 2) نموذج اللغة الكبيرة + TMP-LM (درجة BLEU عالية جدًا)، 3) خط الأساس لنظام NMT المتطور (درجة BLEU عالية، مشابهة للمجموعة 2). ستكون الأشرطة للمجموعتين 2 و3 متقاربة جدًا، وكلاهما يتفوقان بشكل كبير على المجموعة 1.

4. التحليل التقني والرؤى الأساسية

الرؤية الأساسية: الكشف الرائد للورقة هو أن قدرة الترجمة لنموذج اللغة الكبيرة ليست ثابتة ولكنها دالة لسياقه. النموذج الخام مترجم ضعيف، ولكن عندما يتم تزويد سياقه بأمثلة ترجمة ذات صلة ودقة عالية (TMs)، فإنه يطلق العنان لأداء ينافس أنظمة NMT المصممة خصيصًا. هذا يعيد صياغة نماذج اللغة الكبيرة بشكل أساسي من نماذج ثابتة إلى محركات ترجمة ديناميكية قابلة للبرمجة عبر السياق. يتوافق هذا مع تحول النموذج الأوسع الذي أبرزه الباحثون في مركز ستانفورد لأبحاث النماذج الأساسية، الذين يفترضون أن "معرفة" و"قدرات" النموذج يتم تعريفها بشكل متزايد من خلال التنشيط القائم على التوجيه بدلاً من الأوزان الثابتة وحدها.

التدفق المنطقي: الحجة أنيقة ومقنعة. 1) تمتلك نماذج اللغة الكبيرة قدرات قوية في التعلم في السياق واتباع التعليمات (كما هو موضح في أعمال مثل "تدريب نماذج اللغة على اتباع التعليمات مع التغذية الراجعة البشرية" بواسطة Ouyang وآخرون). 2) الترجمة هي مهمة محددة جيدًا يمكن وصفها عبر الأمثلة. 3) ذواكر الترجمة هي أزواج أمثلة عالية الجودة ومنتقاة. 4) لذلك، يجب أن يؤدي عرض ذواكر الترجمة كأمثلة في السياق، وقد أدى بالفعل، إلى تحسين جودة الترجمة بشكل كبير. المنطق محكم والأدلة التجريبية قوية.

نقاط القوة والضعف: القوة لا يمكن إنكارها: طريقة بسيطة غير تدخلية تحقق مكاسب هائلة. إنها تديم الترجمة الآلية عالية الجودة من خلال الاستفادة من أصول ذاكرة الترجمة الحالية ونماذج اللغة الكبيرة الجاهزة. ومع ذلك، تكمن العيوب في التبعيات. أولاً، تعتمد بشكل حاسم على جودة وملاءمة تطابقات ذاكرة الترجمة المسترجعة - إذا دخلت بيانات غير جيدة، ستخرج نتائج غير جيدة. ثانيًا، ترث جميع قيود نماذج اللغة الكبيرة: التكلفة، زمن الوصول، وقيود نافذة السياق (مثل مشكلة "الضياع في المنتصف" التي حددها Liu وآخرون). ثالثًا، كما تلمح الورقة، فإن الطريقة هشة؛ يمكن للقالب التوجيهي الخاطئ أن يقلل الأداء. إنها في هذه المرحلة أشبه بالكيمياء القديمة أكثر من كونها هندسة.

رؤى قابلة للتنفيذ: بالنسبة للممارسين، هذا نداء واضح للتوقف عن النظر إلى نماذج اللغة الكبيرة كمترجمين جاهزين للاستخدام والبدء في النظر إليها كـ أنظمة قابلة للتحسين عبر التوجيه. يجب أن يتحول الاستثمار من تدريب النماذج إلى بناء أنظمة استرجاع قوية لذواكر الترجمة وتطوير قوالب توجيهية موحدة ومحسنة لمجالات مختلفة (على غرار كيفية توحيد المجتمع لضبط BERT الدقيق). بالنسبة للباحثين، فإن الحدود التالية هي جعل هذه العملية أكثر قوة وكفاءة - استكشاف كيفية ضغط معرفة ذاكرة الترجمة في توجيهات أكثر كفاءة أو كيفية دمج التوجيه مع الضبط الدقيق الخفيف لتقليل طول السياق والتكلفة.

5. إطار التحليل: مثال غير برمجي

فكر في شركة ترجمة قانونية لديها ذاكرة ترجمة شاملة لبنود العقود. سابقًا، كان نظام NMT يحتاج إلى إعادة تدريب على بيانات قانونية جديدة للتحسين. مع TMP-LM:

  1. الإدخال: جملة المصدر الجديدة: "The indemnity clause shall survive termination of this Agreement."
  2. الاسترجاع: يبحث النظام في ذاكرة الترجمة القانونية ويجد بندين مماثلين تمت ترجمتهما سابقًا:
    • TM1: المصدر: "This confidentiality obligation shall survive the expiration of the contract." → الهدف: "La obligación de confidencialidad sobrevivirá a la expiración del contrato."
    • TM2: المصدر: "The warranty shall survive delivery and inspection." → الهدف: "La garantía sobrevivirá a la entrega y la inspección."
  3. بناء التوجيه (نمط CODE): يبني النظام هذا التوجيه لنموذج اللغة الكبيرة:
    [src-lang]=[This confidentiality obligation shall survive the expiration of the contract.] [tgt-lang]=[La obligación de confidencialidad sobrevivirá a la expiración del contrato.]
    [src-lang]=[The warranty shall survive delivery and inspection.] [tgt-lang]=[La garantía sobrevivirá a la entrega y la inspección.]
    [src-lang]=[The indemnity clause shall survive termination of this Agreement.] [tgt-lang]=
                    
  4. المخرج: يدرك نموذج اللغة الكبيرة النمط ("X shall survive Y" → "X sobrevivirá a Y")، ويولد ترجمة متناسقة أسلوبيًا ودقيقة قانونيًا: "La cláusula de indemnización sobrevivirá a la terminación de este Acuerdo."

يحول هذا الإطار نموذج اللغة الكبيرة إلى مساعد ترجمة واعي بالسياق يلتزم بالمصطلحات والأسلوب المقرر للشركة.

6. التطبيقات المستقبلية واتجاهات البحث

  • أنظمة هجينة ديناميكية: قد تنتقل أنظمة الترجمة الآلية المستقبلية بسلاسة بين NMT المضبوط دقيقًا للنص العام و TMP-LM للمجالات التي تحتوي على ذواكر ترجمة غنية (قانونية، طبية، تقنية)، لتحسين الجودة والتكلفة.
  • ما بعد ذواكر الترجمة ثنائية اللغة: توسيع المفهوم ليشمل ذواكر الترجمة متعددة اللغات، مما يتيح الترجمة المحورية من نوع "القليل من الأمثلة" أو تكييف الأسلوب عبر لغات متعددة.
  • التعلم النشط وانتقاء ذاكرة الترجمة: استخدام درجات الثقة لنموذج اللغة الكبيرة أو الاختلاف مع ذواكر الترجمة الحالية للإشارة إلى أخطاء محتملة في ذواكر الترجمة البشرية أو لاقتراح إدخالات جديدة للمحررين البشريين، مما يخلق حلقة ترجمة ذاتية التحسين.
  • التكامل مع نماذج لغة أصغر ومتخصصة: تطبيق TMP-LM على نماذج لغة كبيرة مفتوحة المصدر وأكثر كفاءة (مثل Llama أو Mistral) تم ضبطها دقيقًا خصيصًا لمهام الترجمة، مما يقلل الاعتماد على واجهات برمجة التطبيقات الكبيرة والعامة والغالية.
  • معايير توجيه موحدة: يحتاج المجتمع إلى معايير مثل "Prompt-MT" لتقييم استراتيجيات التوجيه المختلفة للترجمة عبر نماذج اللغة الكبيرة المتنوعة بشكل منهجي، على غرار دور WMT لـ NMT التقليدية.

7. المراجع

  1. Mu, Y., Reheman, A., Cao, Z., et al. (2023). Augmenting Large Language Model Translators via Translation Memories. arXiv preprint arXiv:2305.17367.
  2. Ouyang, L., Wu, J., Jiang, X., et al. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35.
  3. Khandelwal, U., Levy, O., Jurafsky, D., et al. (2021). Generalization through memorization: Nearest neighbor language models. International Conference on Learning Representations (ICLR).
  4. Bommasani, R., Hudson, D. A., Adeli, E., et al. (2021). On the opportunities and risks of foundation models. Stanford Center for Research on Foundation Models.
  5. Liu, N. F., Lin, K., Hewitt, J., et al. (2023). Lost in the middle: How language models use long contexts. arXiv preprint arXiv:2307.03172.
  6. Reheman, A., Cao, Z., Li, B., et al. (2023). One-shot learning for neural machine translation with translation memories. Findings of the Association for Computational Linguistics.