- #1Traduction Automatique Neuronale avec Mémoires de Traduction ContrastéesUn nouveau cadre NMT augmenté par récupération utilisant une récupération contrastée et un encodage hiérarchique pour exploiter des mémoires de traduction diverses et non redondantes afin d'améliorer la qualité de traduction.
- #2Apprentissage Contrefactuel pour la Traduction Automatique : Dégénérescences et SolutionsAnalyse des dégénérescences dans l'estimation par score de propension inverse pour l'apprentissage hors-ligne en traduction automatique à partir de journaux déterministes, avec des solutions proposées.
- #3L'avenir des dictionnaires et des bases terminologiques : une analyse comparativeUne analyse comparant les dictionnaires imprimés/en ligne et les bases terminologiques, axée sur leur évolution, leur fiabilité et leur avenir dans la technologie de la traduction.
- #4Premiers résultats en traduction automatique neuronale pour l'arabe : analyse et perspectivesAnalyse de la première application de la traduction automatique neuronale à l'arabe, comparaison avec les systèmes à base de phrases, exploration des effets du prétraitement et évaluation de la robustesse au changement de domaine.
- #5WOKIE : Traduction assistée par LLM de thésaurus SKOS pour les Humanités Numériques multilinguesPrésentation de WOKIE, un pipeline open-source pour la traduction automatisée de thésaurus SKOS, utilisant des services externes et un raffinement par LLM pour améliorer l'accessibilité et l'interopérabilité multilingue en Humanités Numériques.
- #6Amélioration des Traducteurs à Base de Grands Modèles de Langage via les Mémoires de TraductionRecherche sur l'amélioration de la traduction automatique par LLM via des prompts issus de Mémoires de Traduction, obtenant des gains significatifs du score BLEU sur plusieurs langues et domaines.
- #7Services de Traduction Locale pour Langues Négligées : Une Approche par Apprentissage ProfondRecherche sur des modèles d'apprentissage profond légers et locaux pour traduire des langues à faibles ressources, obscurcies et de niche, utilisant une architecture encodeur-décodeur LSTM-RNN.
- #8Systèmes de Traduction Automatique en Inde : Approches, Systèmes et Orientations FuturesUne analyse des systèmes de Traduction Automatique développés pour les langues indiennes, couvrant les approches directes, à base de règles et de corpus, les systèmes clés et les futures directions de recherche.
- #9Amorçage de parseurs sémantiques multilingues à l'aide de grands modèles de langage : Analyse et cadre méthodologiqueAnalyse de l'utilisation des LLM pour la traduction few-shot de jeux de données de parsing sémantique anglais afin d'entraîner des parseurs multilingues, surpassant les approches translate-train sur 50 langues.
- #10DGT-TM : Une mémoire de traduction multilingue à grande échelle de la Commission européenneAnalyse de DGT-TM, une mémoire de traduction libre d'accès couvrant 22 langues de l'UE et 231 paires linguistiques, sa création, ses applications en technologie linguistique et son impact futur.
- #11Traduction Automatique Multimodale avec Apprentissage par Renforcement : Une Nouvelle Approche A2CAnalyse d'un article de recherche proposant un nouveau modèle d'apprentissage par renforcement de type Advantage Actor-Critic (A2C) pour la traduction automatique multimodale, intégrant des données visuelles et textuelles.
- #12Traduction Automatique Neuronale Conseillée par la Traduction Automatique Statistique : Une Approche HybrideAnalyse d'un cadre hybride NMT-SMT qui intègre des recommandations de SMT dans le décodage NMT pour aborder les compromis fluidité-adéquation, avec des résultats expérimentaux sur la traduction chinois-anglais.
- #13Traduction Automatique Neuronale : Un Guide CompletUne analyse approfondie de la Traduction Automatique Neuronale (NMT) couvrant son histoire, les concepts fondamentaux des réseaux neuronaux, les architectures encodeur-décodeur, les améliorations et les défis actuels.
- #14Estimation de la Qualité Neuronale et Post-Édition Automatique pour la Traduction Assistée par OrdinateurUn cadre d'apprentissage profond de bout en bout intégrant l'estimation de la qualité et la post-édition automatique pour améliorer la traduction automatique et réduire la charge de travail des traducteurs humains.
- #15TM-LevT : Intégration de Mémoires de Traduction dans la Traduction Automatique Non AutoregressiveAnalyse de TM-LevT, une variante novatrice du Transformer de Levenshtein conçue pour éditer efficacement des traductions issues d'une Mémoire de Traduction, atteignant des performances comparables aux modèles autoregressifs.
- #16EuroTermBank Toolkit : Gestion ouverte de la terminologie pour bases de données fédéréesAnalyse de l'EuroTermBank Toolkit, une solution open source pour gérer et partager la terminologie au sein de bases de données fédérées, à destination des traducteurs, des applications TAL et des systèmes d'IA.
- #17Optimisation de la Sélection d'Exemples pour la Traduction Automatique Augmentée par Récupération avec Mémoires de TraductionAnalyse d'algorithmes basés sur des fonctions sous-modulaires pour la sélection optimale d'exemples en traduction neuronale augmentée par récupération, axée sur l'optimisation de la couverture.
- #18Spécialisation de domaine : une approche d'adaptation post-entraînement pour la traduction automatique neuronaleAnalyse d'une nouvelle méthode d'adaptation de domaine post-entraînement pour la TAN, explorant la spécialisation incrémentielle, les résultats expérimentaux et les applications futures.
- #19Professionnalisation de la formation des traducteurs juridiques : Perspectives et opportunitésAnalyse des défis et opportunités dans la formation des traducteurs juridiques, explorant des modèles actualisés, l'intégration technologique et le rôle évolutif des traducteurs comme médiateurs interculturels.
- #20Amélioration de la classification de textes courts par des méthodes d'augmentation globaleAnalyse des méthodes d'augmentation globale de texte (Word2Vec, WordNet, traduction aller-retour) et du mixup pour améliorer les performances et la robustesse des modèles de classification de textes courts.
- #21Test de l'invariance structurelle pour la traduction automatique : une nouvelle approche métamorphiquePrésente le Structure-Invariant Testing (SIT), une méthode de test métamorphique pour valider les logiciels de traduction automatique en analysant la cohérence structurelle des sorties traduites.
- #22Éthique de la traduction wikifiée : Codes professionnels vs Pratiques communautairesAnalyse de l'applicabilité des codes d'éthique professionnels de la traduction aux contextes non professionnels (crowdsourcing, fan translation, localisation FOSS), soulignant différences et innovations.
- #23Méthodes de Récupération en Mémoire de Traduction : Algorithmes, Évaluation et Perspectives FuturesUne analyse des algorithmes d'appariement flou pour les systèmes de Mémoire de Traduction, évaluant leur corrélation avec les jugements humains et proposant une nouvelle méthode de précision pondérée par n-grammes.
- #24Repenser la Traduction Automatique Neuronale Augmentée par Mémoire de Traduction : Une Perspective Variance-BiaisAnalyse de la TAN augmentée par MT sous l'angle probabiliste et de la décomposition variance-biais, expliquant les contradictions de performance et proposant une méthode d'ensemble efficace.
- #25Outils et processus d'évaluation de la qualité de traduction en relation avec les outils TAOAnalyse des outils QA modernes pour la traduction, leur intégration avec les outils TAO, les normes du secteur et l'évaluation pratique des résultats des logiciels QA autonomes.
- #26L'Évolution du Rôle des Traducteurs et Interprètes dans un Paysage Commercial MondialiséAnalyse de la manière dont la mondialisation et la technologie redéfinissent les besoins en traduction, positionnant les traducteurs comme médiateurs culturels et atouts stratégiques pour les entreprises.
- #27Traduction Automatique Neuronale Variationnelle : Un Cadre Probabiliste pour la Modélisation SémantiqueAnalyse d'un modèle encodeur-décodeur variationnel pour la TAN qui introduit des variables latentes continues pour modéliser explicitement la sémantique sous-jacente, améliorant la qualité de traduction.
- #28SM2 : Un modèle de parole multilingue en flux continu à supervision faible avec une capacité de zéro-shot véritableAnalyse de SM2, un modèle Transformer Transducer en flux pour la reconnaissance vocale multilingue et la traduction de la parole, doté d'une capacité de zéro-shot véritable et d'une supervision faible.
Dernière mise à jour: 2026-03-21 12:00:08