dimanche 20 juillet 2025

Traduction automatique : l'expérience Georgetown-IBM du 7 janvier 1954

page IA

IA inside

This post in English

Questo post in italiano

*

Lors de la préparation d'un billet sur l'IA, le TALN, les communications et la guerre, je suis tombé sur cette note, concernant l'expérience de Georgetown-IBM du 7 janvier 1954 :  

Il apparaît cependant que les énoncés en russe ont été choisis avec soin et que nombre des opérations effectuées pour la démonstration ont été adaptées à des mots et des phrases particuliers. De plus, il n'y a pas d'analyse relationnelle ou syntaxique permettant d'identifier la structure des phrases. La méthode employée est une méthode essentiellement lexicographique reposant sur un dictionnaire où un mot donné est relié à des règles et des démarches spécifiques.


La note décrit exactement, quand bien même partiellement, l'idée que je me suis fait de cette expérience anecdotique, tel qu'énoncé dans Federico Pucci censuré par Wikipedia :

... la première démonstration de l’histoire d’un système de traduction automatique à base de règles (RBMT, ou Rule-Based Machine Translation), est connue dans ses moindres détails : date, lieu, équipe, langues, déroulement, etc.

En fait, une anecdote plus qu’une véritable démonstration scientifique : nous sommes le 7 janvier 1954, à New York, au siège d’IBM, l’équipe est une collaboration entre la Georgetown University (M. Paul Garvin pour la partie linguistique) et IBM (M. Peter Sheridan pour la partie programmation), la paire de langues est le russe et l’anglais, un lexique de 250 mots choisis avec soin, quelques dizaines de phrases, 6 règles !

Le lendemain, IBM annonce dans un communiqué de presse :

And the giant computer, within a few seconds, turned the sentences into easily readable English. 
Ce même communiqué mentionnait cette phrase du professeur Leon Dostert, de l'Université de Georgetown, selon lequel, en l’espace de quelques années la traduction automatique aurait pu devenir réalité :
Doctor Dostert predicted that “five, perhaps three years hence, interlingual meaning conversion by electronic process in important functional areas of several languages may well be an accomplished fact.” 
Le ton optimiste de cette déclaration eut surtout pour effet d'inciter le gouvernement américain à mettre à disposition d’importantes sommes pour la recherche. De ce point de vue, l'objectif fut atteint ! Pour autant, dans la réalité, l'expérience « Georgetown University – IBM » fut suivie d’une décennie que tous les spécialistes de l'histoire de la TA s'accordent à définir comme « la grande désillusion ».

Je vais donc m'attarder sur la réalité de cette "expérience"...

*

Paul Garvin, mentionné plus haut, qui connaissait également le russe, était le principal responsable de la partie linguistique de la démonstration, qui visait essentiellement à tester la faisabilité de la traduction automatique avec des règles simples programmables.


Il se trouve qu'il a évalué cette démonstration dans un article de 1967, « The Georgetown-IBM Experiment of 1954: An Evaluation in Retrospect », publié dans Papers in linguistics in honor of Léon Dostert

Son évaluation met en lumière à la fois les contributions et les limites de l'expérience, en nous offrant une perspective critique sur son rôle dans le développement de la traduction automatique, et en observant que l'exécution sur l'ordinateur IBM 701 était un exercice intéressant, mais qu'il n'a rien montré de nouveau sur la traduction au-delà des règles verbales, sans démontrer une véritable capacité de traduction, mais plutôt une correspondance préétablie entre des mots et des règles.

De fait, le système était conçu pour fonctionner avec un vocabulaire restreint et des règles grammaticales minimales. Les opérations étaient adaptées pour traiter des mots et des phrases particuliers, ce qui réduisait sa généralisabilité. Par exemple, le vocabulaire était punché sur des cartes perforées, et les règles étaient spécifiques à des cas simples, limitant la flexibilité.



Dans le détail, le système utilisait 250 mots et six règles grammaticales simples, couvrant des domaines comme la politique et la chimie. L'algorithme utilisait cinq règles principales, appliquées via des diacritiques (symboles numériques), avec un vocabulaire de 250 mots (racines et suffixes) et des règles grammaticales limitées. Par exemple :
  • la règle 1 inversait l'ordre verbe-sujet dans certaines phrases (ex. : phrases 2, 7, 11, 13, 33-34, 45) ;
  • la règle 3 traduisait les suffixes de cas, comme les accusatifs animés (ex. : phrase 32) ;
  • la règle 5 sélectionnait l'article défini pour les constructions génitives (ex. : phrases 19, 20, 27-29) ;
  • une "règle hyphen" était également utilisée pour diviser les racines et les suffixes dans la recherche du glossaire ;
  • la routine de commande était limitée à deux équivalents pour la sélection et le réarrangement ;
  • des simplifications étaient faites, comme limiter la distance des indices à un mot et ignorer les décisions grammaticales de second ordre (par exemple, le choix de prépositions spécifiques) ; 
  • des entrées arbitraires étaient utilisées dans le glossaire pour les cas non résolus.
Pour conclure, Garvin reconnaît que l'expérience fut une "première étape significative" dans la recherche sur la traduction automatique, en formulant le problème comme un problème décisionnel impliquant la sélection (choix entre équivalents) et l'arrangement (réorganisation des éléments). Il critique cependant le fait que l'exécution du programme n'a montré aucune avancée au-delà des règles verbales déjà définies, suggérant que l'expérience était plus une démonstration de faisabilité qu'une avancée scientifique réelle.

Il mentionne en outre qu'elle était financée par le bureau de la recherche scientifique de l'US Air Force (AF Office of Scientific Research), ce qui montrait un intérêt gouvernemental probablement lié au contexte de la Guerre froide et a suscité un grand intérêt public tout en créant des attentes irréalistes...

Vu que « le principal responsable de la partie linguistique de la démonstration » est aussi la source de ces informations, il n'y a vraiment aucune raison de douter de son jugement !

*

Pour en revenir à l'article Wikipédia à l'origine de ce billet, il relate donc que « l'expérience Georgetown-IBM (...) comporte la traduction complètement automatique, en anglais, de plus de soixante phrases russes romanisées relatives aux domaines de la politique, du droit, des mathématiques et de la science », comme l'indique la note précédente (la 6)

Note qui précise également la source de cette citation : 

(en) John Hutchins, From first conception to first demonstration: the nascent years of machine translation, 1947-1954. A chronology, in Machine Translation, 12, pp. 195-252.

Chose extraordinaire, dans la version mise à jour de ce même document [Corrected version (2005) of paper in: Machine Translation, vol.12 no.3, 1997, p.195-252, From first conception to first demonstration: the nascent years of machine translation, 1947-1954. A chronology, by John Hutchins], l'auteur mentionne l'événement suivant :

         On 26 August 1949, the New York Times reported (page 9) from Salerno
Federico Pucci announced today that he had invented a machine that could translate copy from any language into any other language. He said that the machine was electrically operated, but refused to disclose details. He said that he would enter it in the Paris International Fair of Inventions next month.  
It is uncertain whether Pucci had any knowledge of Huskey’s proposals, and it seems most unlikely he knew about Weaver's memorandum or the British experiments. In any event, there is no trace of any demonstration at the Paris fair; and nothing more is known about Pucci. 

Or c'est justement de cet entrefilet que part ma découverte de Federico Pucci

*

Il est incroyable de constater que tout le peu qu'a pu produire le "cerveau électrique" d'IBM, n'est rien comparé au système qu'a inventé le "cerveau humain" de Federico Pucci un quart de siècle plus tôt ! 

Si, selon Garvin lui-même, l'expérience était fondamentalement limitée par son vocabulaire restreint, ses règles grammaticales simplifiées et son incapacité à gérer des traductions complexes, imaginons un instant qu'IBM ait pu travailler et mener sa démonstration en utilisant l'appareil théorique de Pucci, il n'est que de comparer le tableau de translittération d'IBM avec les tableaux de Pucci, sa maquette de fonctionnement ou leurs dictionnaires respectifs pour comprendre la distance intellectuelle considérable qui les sépare !



Un seul coup d'œil suffit à comprendre l'indigence conceptuelle d'IBM par rapport à clairvoyance invraisemblable et foisonnante de Pucci !

J'ai demandé à plusieurs IA de faire une comparaison entre les travaux de Federico Pucci dès 1929 et l'expérience de Georgetown-IBM du 7 janvier 1954. Les résultats sont très étonnants, d'autant plus que 25 ans les divisent...

Perplexity

Federico Pucci

Georgetown-IBM

Précurseur conceptuel en posant les bases des systèmes de traduction fondés sur des règles.

Première preuve expérimentale sur ordinateur de la traduction automatique, même si très limitée.

Propose la première approche structurée documentée pour la traduction automatique multilingue.

Puissante opération de communication scientifique, accélérant l’intérêt institutionnel et public pour le domaine.

Vision pionnière mais limitée par la technologie disponible et la difficulté à réaliser un prototype complet.

Méthodes bien plus rudimentaires, mais démonstration pratique réussie.


Conclusion
  • Federico Pucci est un précurseur visionnaire qui a posé un cadre conceptuel et méthodologique à la traduction automatique, anticipant des décennies d’innovation, mais sans la possibilité technique de concrétiser ni de diffuser à grande échelle ses idées.
  • L’expérience Georgetown-IBM a marqué le tournant de la traduction automatique : pour la première fois, un prototype informatique offre une démonstration pratique, aussi limitée soit-elle, déclenchant une vague internationale d’intérêt et de financements.
  • Leur différence fondamentale réside dans le passage du théorique (Pucci) à la preuve concrète par l’informatique (Georgetown-IBM), marquant deux étapes complémentaires et décisives de l’histoire du TALN.
J'ajouterais en outre comme différence fondamentale qu'à l'époque IBM est déjà une multinationale riche et puissante, alors que Pucci est seul et sans grandes ressources (il le déclare lui-même dans sa lettre au CNR et finira sa vie dans la pauvreté). 

*

ChatGPT

Federico Pucci

Georgetown-IBM (1954)

 

 

Italie d'après-guerre, recherche universitaire et linguistique expérimentale

Guerre froide, compétition technologique USA/URSS

Créer un système de TA multilingue basé sur la grammaire et la syntaxe

Démontrer la faisabilité de la TA anglais-russe à des fins scientifiques et militaires

Orientation fortement linguistique et grammaticale

Expérience principalement démonstrative, à but propagandiste/scientifique

Approche fondée sur des règles linguistiques formelles, analyse syntaxique et sémantique

Liste limitée de règles (statistiques simples), vocabulaire de 250 mots, 6 règles de grammaire

Italien ↔ d'autres langues européennes

Anglais → Russe

Système linguistiquement explicite basé sur la syntaxe, la morphologie et la traduction structurée

Prototype symbolique, très limité, pas généralisable sans amélioration

Volonté de créer une architecture complète de TA (précurseur des systèmes basés sur les règles)

Première démonstration publique, mais très contrôlée (phrases choisies à l’avance)

Contribution modeste mais fondée sur une réflexion linguistique profonde

Fort impact médiatique et politique (soutien du gouvernement américain)

Peu connu à l’international, faible diffusion, peu de moyens, mais pionnier dans sa vision d’intégration de la linguistique théorique à la TA

Résultats non généralisables, pas de compréhension du langage naturel


Conclusion :
  • L’expérience Georgetown-IBM marque le début médiatisé de la traduction automatique dans l’histoire de l’informatique. Elle a été le point de départ de nombreux financements, mais aussi de désillusions. 
  • En revanche, Federico Pucci, à travers ses travaux moins connus, s’inscrit dans une lignée plus théorique et linguistique, susceptible d'influencer les approches ultérieures dites "basées sur les règles".
  • Ces deux trajectoires illustrent deux visages fondateurs de la TA : l’un spectaculaire et politique, l’autre rigoureux et scientifique.
J'ai demandé ensuite à ChatGPT une fiche comparative plus technique :

Critère

Federico Pucci

Georgetown-IBM (1954)

Nature des travaux

Système de TA multilingue à base de règles linguistiques

Démonstration de traduction automatique anglais → russe

Type de TA

Symbolique / à base de règles (Rule-Based MT)

Symbolique / démonstratif (pré-TALN)

Langues concernées

Italien ↔ langues européennes (notamment français, anglais, allemand)

Anglais → russe uniquement

Volume lexical utilisé

Vocabulaire étendu et modulaire

250 mots environ

Grammaire / syntaxe

Analyse syntaxique profonde, arbres de dépendance, traitement des structures

6 règles grammaticales simples appliquées à des phrases sélectionnées

Analyse linguistique

Basée sur une réflexion linguistique formelle, intégration de la morphologie

Très limitée, centrée sur la substitution lexicale et l’ordre des mots

Traitement morphologique

OUI – Systèmes d’analyse morpho-syntaxique

NON – Morphologie très peu exploitée

Dictionnaires

Dictionnaires bilingues enrichis et couplés à des règles contextuelles

Dictionnaire simple, sans gestion du contexte

Gestion des ambiguïtés

Par règles de désambiguïsation syntaxique et morphologique

Aucune gestion des ambiguïtés – corpus contrôlé

Architecture logicielle

Système modulaire conçu pour être extensible

Programme ad hoc, non généralisable

Sortie / rendu

Phrase-cible générée par transformation syntaxique

Affichage de la traduction mot à mot sur imprimante

Exemples de traitement

Subordination, déclinaisons, accord sujet-verbe

Traductions simples de phrases scientifiques ex : "The oil is in the tank."

Objectif scientifique

Élaborer un modèle généralisable de TA à partir de modèles linguistiques

Montrer la faisabilité technique d’une TA en contexte militaire et scientifique

Accès aux données / corpus

Données textuelles linguistiquement annotées à la main

Corpus très restreint, sélectionné manuellement

Interaction avec la linguistique

Étroitement liée à la linguistique structurale et à la grammaire générative

Faible ; essentiellement démonstratif

Impact sur la recherche

Contributions reconnues localement ; peu diffusées hors Italie

Fort impact politique, financement massif de la TA dans les années 1950–60

Limites reconnues

Nécessité de plus de puissance de calcul et de données

Dépendance à un corpus fermé, absence de généralisation


Conclusion :
  • Federico Pucci a tenté d’inventer une grammaire universelle appliquée à la traduction, en s’appuyant sur la rigueur linguistique — une approche visionnaire mais limitée par les moyens techniques de son époque.
  • Georgetown-IBM a été un coup médiatique et politique, basé sur une performance sous contrôle, qui a lancé un âge d’or… suivi d’un âge de glace après le rapport ALPAC (1966), qui soulignait la faiblesse réelle des résultats.
*

Mistral

Aspect

Federico Pucci

Expérience Georgetown-IBM

Période

Années 1920-1930

7 janvier 1954

Contexte Technologique

Système mécanique

Ordinateur IBM 701

Méthode

Basée sur des règles

Basée sur des règles et vocabulaire limité

Reconnaissance

Peu reconnue de son vivant

Large reconnaissance immédiate

Impact

Redécouverte récente

Début de l'ère de la traduction automatique assistée par ordinateur

Federico Pucci et l'expérience Georgetown-IBM représentent deux moments clés dans l'histoire de la traduction automatique, mais ils diffèrent considérablement en termes de contexte, de technologie et de reconnaissance. Voici une comparaison détaillée :

Federico Pucci

  1. Contexte historique :
    • Période : Pucci a commencé ses travaux sur la traduction automatique dès les années 1920 et a publié ses idées dans les années 1930.
    • Contexte technologique : à cette époque, les ordinateurs modernes n'existaient pas encore. Pucci a donc dû concevoir un système mécanique pour effectuer la traduction.
  2. Innovations :
    • Méthode basée sur des règles : Pucci a développé le premier méthode documentée au monde de traduction automatique basée sur des règles. Il a décrit son système dans un opuscule publié en 1931 intitulé "Il traduttore meccanico ed il metodo per corrispondersi fra europei, conoscendo ciascuno solo la propria lingua: Parte I".
    • Macchina per tradurre : Il a conçu une "machine à traduire" qui, selon ses descriptions, aurait pu traduire des textes entre différentes langues. Ce concept était révolutionnaire pour l'époque, car il précédait l'avènement des ordinateurs modernes.
  3. Reconnaissance :
    • Manque de reconnaissance : malgré ses innovations, Pucci n'a pas reçu la reconnaissance qu'il méritait de son vivant. Ses travaux ont été largement ignorés jusqu'à ce qu'ils soient redécouverts récemment par des chercheurs comme Jean Marie Le Ray.

Expérience Georgetown-IBM

  1. Contexte historique :
    • Date : l'expérience Georgetown-IBM a eu lieu le 7 janvier 1954.
    • Contexte technologique : à cette époque, les ordinateurs commençaient à se développer, et l'expérience a utilisé un ordinateur IBM 701, l'un des premiers ordinateurs commerciaux.
  2. Innovations :
    • Démonstration publique : l'expérience a été la première démonstration publique de traduction automatique. Elle a traduit avec succès plus de soixante phrases du russe vers l'anglais, utilisant un vocabulaire de 250 mots et six règles grammaticales.
    • Utilisation de l'ordinateur : contrairement à Pucci, qui avait conçu un système mécanique, l'expérience Georgetown-IBM a utilisé un ordinateur, marquant ainsi le début de l'ère de la traduction automatique assistée par ordinateur.
  3. Reconnaissance :
    • Impact immédiat : l'expérience a eu un impact immédiat et a été largement médiatisée, attirant l'attention du public et des chercheurs sur le potentiel de la traduction automatique.
    • Développement continu : cette démonstration a marqué le début d'un développement continu dans le domaine de la traduction automatique, conduisant à des avancées significatives au fil des décennies.

Conclusion :

  • Federico Pucci a été un pionnier visionnaire qui a anticipé de nombreuses idées de la traduction automatique bien avant l'avènement des ordinateurs. Son travail, bien que peu reconnu à l'époque, a jeté des bases pour des développements futurs.
  • L'expérience Georgetown-IBM, en revanche, a marqué un tournant dans l'histoire de la traduction automatique en démontrant publiquement le potentiel des ordinateurs pour cette tâche, attirant ainsi l'attention et les ressources nécessaires pour des recherches ultérieures.

*
Gemini

Caractéristique

Federico Pucci (Années 1920-1940)

Expérience Georgetown-IBM (1954)

Période

Pré-informatique / début de l'ère électromécanique

Début de l'ère des ordinateurs numériques (mainframe)

Nature du projet

Conception théorique, brevets, publication de livres

Démonstration publique d'un système fonctionnel (sur ordinateur)

Portée

Vaste vision d'une "machine à traduire" polyvalente

Démonstration ciblée Russe-Anglais, vocabulaire et règles limitées

Technologie

Machines mécaniques, électriques, photoélectriques (conceptuel)

Ordinateur IBM 701 (réalisation concrète, bien que rudimentaire)

Langues

Vise une communication "entre européens" (généraliste)

Russe vers Anglais (contexte géopolitique de la Guerre Froide)

Impact immédiat

Très limité, quasi-oublié pendant des décennies

Énorme, déclencheur de financements et d'une vague d'optimisme

Contribution

Précurseur conceptuel de la TA basée sur des règles

Première démonstration publique influente et catalyseur de la recherche


Federico Pucci : le visionnaire oublié (Années 1920-1940)

Federico Pucci est un pionnier italien longtemps resté dans l'ombre, dont les travaux ont précédé de plusieurs décennies les développements américains et russes en traduction automatique.

  • Contexte historique : Pucci développe ses idées dès la fin des années 1920 et publie son ouvrage "Il traduttore meccanico" en 1931. C'est une période où l'informatique, telle que nous la connaissons, n'existe pas encore. Les concepts sont purement mécaniques, électro-mécaniques ou théoriques.
  • Approche :
    • Système basé sur des règles : Pucci a conceptualisé un système de traduction automatique fondé sur des règles linguistiques. Son approche impliquait de diviser le texte en unités de sens (morphèmes) et de les transposer dans la langue cible selon des règles prédéfinies, avec l'idée que le récepteur ajusterait l'ordre des mots.
    • Objectif de communication simplifiée : L'une de ses motivations principales était de permettre la communication entre des personnes ne connaissant que leur propre langue.
    • Théorique avant tout : Il n'a jamais construit de prototype fonctionnel de sa machine. Ses contributions sont restées au stade conceptuel et théorique, bien que détaillées.
    • Précocité : Son travail est antérieur aux brevets d'Artsrouni (France) et Trojanskij (Russie) de 1933, et de l'intuition de Warren Weaver de 1949.
  • Impact : L'impact initial de Pucci fut limité en raison de sa non-réalisation concrète et d'un manque de diffusion internationale de ses travaux. Sa reconnaissance est très récente, grâce à des efforts de recherche visant à réécrire l'histoire de la TA. Il est désormais vu comme un précurseur visionnaire.

L'expérience Georgetown-IBM : la démonstration fondatrice (7 Janvier 1954)

L'expérience Georgetown-IBM est souvent citée comme le point de départ public et médiatisé de la traduction automatique moderne.

  • Contexte historique : Elle a lieu en 1954, après la Seconde Guerre mondiale et au début de la Guerre Froide. Il y a un fort intérêt politique et militaire pour la traduction rapide de documents russes en anglais. Les premiers ordinateurs numériques programmables commencent à émerger (comme l'IBM 701 utilisé).
  • Approche :
    • Système basé sur des règles (avec dictionnaire) : Le système était conçu pour traduire automatiquement plus de soixante phrases du russe vers l'anglais. Il utilisait un vocabulaire limité (environ 250 mots-racines et des désinences) et seulement six règles grammaticales.
    • Approche lexicographique : Le système était principalement basé sur un dictionnaire où chaque mot russe était associé à des traductions anglaises possibles et à des règles de réorganisation ou d'omission.
    • Utilisation d'un ordinateur réel : Contrairement à Pucci, l'expérience a utilisé l'ordinateur mainframe IBM 701, montrant une faisabilité technique, même à petite échelle.
    • Domaine spécifique : Les phrases traduites provenaient principalement du domaine de la chimie organique et de sujets généraux limités.
  • Impact : L'expérience Georgetown-IBM eut un impact médiatique et institutionnel colossal.
    • Elle a généré un optimisme démesuré quant à la résolution rapide du problème de la traduction automatique ("trois à cinq ans" selon les prévisions de l'époque).
    • Elle a débloqué des financements massifs pour la recherche en traduction automatique et en linguistique computationnelle, principalement aux États-Unis.
    • Bien que très limitée en scope et utilisant des "règles dures" souvent adaptées aux phrases de démonstration, elle a prouvé la faisabilité conceptuelle et technique de la TA par ordinateur.


Conclusion :
  • En substance, Pucci a eu la vision remarquable et détaillée d'une machine à traduire bien avant que la technologie ne puisse la concrétiser. Il est le théoricien inaugural
  • L'expérience Georgetown-IBM, quant à elle, a été la première réalisation concrète et médiatisée de cette vision, même si elle était très rudimentaire. Elle a prouvé que la traduction automatique n'était pas seulement une idée folle, mais une possibilité tangible grâce aux ordinateurs, ouvrant ainsi la voie à des décennies de recherche et de développement, pour le meilleur et pour le pire.
  • L'histoire de la traduction automatique est donc celle de pionniers visionnaires comme Pucci, suivie par des démonstrations marquantes comme celle de Georgetown-IBM qui ont su capter l'attention et les ressources nécessaires pour transformer ces rêves en réalité, étape par étape.
*

Claude

L'approche de Federico Pucci (1931-1949)

Innovation conceptuelle précoce :

  • Pucci développa le concept d'une machine de traduction automatique dès 1931, soit plus de 20 ans avant Georgetown-IBM
  • Son invention fut présentée comme une machine électrique capable de traduire "de n'importe quelle langue vers n'importe quelle autre"
  • Il s'agissait d'une approche purement mécanique/électrique, sans ordinateur

Objectif universel :

  • L'ambition de Pucci était plus large : permettre la communication entre personnes "ne connaissant que leur propre langue"
  • Approche universelle dès le départ (toutes langues vers toutes langues)

L'expérience Georgetown-IBM (7 janvier 1954)

Première démonstration informatique : L'expérience Georgetown-IBM était une démonstration influente de traduction automatique, réalisée le 7 janvier 1954, développée conjointement par l'Université Georgetown et IBM, impliquant la traduction complètement automatique de plus de soixante phrases russes en anglais.

Caractéristiques techniques :

  • Bien qu'il s'agisse d'une expérience à petite échelle avec seulement 250 mots et six règles de "grammaire", elle utilisait un véritable ordinateur IBM
  • Focalisée spécifiquement sur la paire russe-anglais
  • Les déclarations portaient sur la politique, le droit, les mathématiques, la chimie, la métallurgie, les communications et les affaires militaires.

Différences fondamentales

Innovation vs. Réalisation :

  • Pucci : visionnaire conceptuel avec une approche mécanique/électrique
  • Georgetown-IBM : première implémentation informatique réussie

Portée :

  • Pucci : ambition universelle multilingue
  • Georgetown-IBM : démonstration ciblée d'une paire linguistique

Impact historique :

  • Pucci : largement oublié malgré sa priorité temporelle
  • Georgetown-IBM : causa un grand intérêt public et beaucoup de controverses, devenant le point de référence historique officiel

Technologies :

  • Pucci : machines électromécaniques des années 1930-1940
  • Georgetown-IBM : premiers ordinateurs IBM des années 1950

L'ironie historique est frappante : Pucci anticipa de deux décennies les concepts que Georgetown-IBM matérialisa, mais seule la seconde resta dans les mémoires comme le véritable début de la traduction automatique informatisée.

D'où la nécessité de réécrire l'histoire de la traduction automatique, ajouterais-je...

*

Grok

Note détaillée :

Federico Pucci et l'expérience Georgetown-IBM du 7 janvier 1954 représentent deux moments significatifs, mais distincts, dans l'histoire de la traduction automatique. Cette note vise à comparer leurs innovations et leur impact, en s'appuyant sur des recherches récentes et des sources historiques, tout en explorant les détails de leurs contributions respectives.

Contexte historique et innovations de Federico Pucci

Federico Pucci est aujourd'hui reconnu comme un pionnier méconnu de la traduction automatique, avec des travaux débutant dès décembre 1929, lorsqu'il a présenté son étude sur le "traducteur mécanique" à Salerne, en Italie. Sa méthode innovante consistait à diviser le texte en morphèmes (unités de sens minimales), à les transposer dans la langue cible, et à permettre au destinataire de réorganiser les mots dans sa langue maternelle. Pucci utilisait également des idéogrammes, des symboles universels basés sur l'espéranto, pour représenter des concepts de base et dérivés, anticipant des idées comme la simplification des langues et les traductions "suffisamment bonnes" pour une communication efficace.

Son travail a été exposé à plusieurs reprises lors d'expositions nationales et internationales, recevant une reconnaissance sous forme de médailles. Voici un tableau récapitulatif de ses participations et récompenses :

Année

Événement

Récompense

1930

Exposition Nationale de Bolzano

Médaille d'argent

1930

Foire de Cuneo

Médaille d'argent

1935

Concours International d'Inventions, Paris

Médaille d'argent

1950

Concours d'Inventions de Liège

Médaille d'argent

1934

Foire du Levant, Bari

Participation

1936

Leipzig

Participation

1949

Foire de Paris

Participation

Pucci a également publié dix livres entre 1931 et 1960, détaillant ses idées sur les machines à traduire. Parmi eux, on trouve :

  • 1931 : Il traduttore meccanico ed il metodo per corrispondersi fra europei conoscendo ciascuno solo la propria lingua: Parte I
  • 1949 : Serie delle grammatiche dinamiche, pratiche, ragionate, storico-comparate: Parte I. Per coloro che in pochi giorni desiderano acquistare una conoscenza elementare della lingua straniera. [fasc.] I. Inglese
  • 1949 (français) : Le traducteur dynamo-mécanique: L'invention pour traduire les langues de l'occident sans les connaitre presque sans dictionnaire. Op. I: anglais-francais
  • 1949 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle lingue dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 1. francese - italiano
  • 1949 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle lingue dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 2. Inglese - italiano
  • 1950 : Grammatica dinamica della Lingua tedesca: (linee fondamentali)
  • 1950 : Il traduttore dinamo-meccanico: Tipo libro macchina. Serie a. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario. [fasc.] 1. Italiano-Inglese
  • 1952 : Il traduttore dinamo-meccanico: Serie B. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 1. Italiano - Francese
  • 1958 : Vocabolario mobile italiano - francese: (parte Traduttore Meccanico)
  • 1960 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario... Tedesco – Italiano

Malgré ces efforts, son travail est resté conceptuel et n'a pas abouti à une machine fonctionnelle de son vivant. Son rôle a été redécouvert récemment, notamment grâce à des recherches menées en collaboration avec sa petite-fille, Oriana de Majo, et documentées dans des blogs comme Translation 2.0 et Adscriptor. Ces sources, datant de 2017 à 2019, soulignent que Pucci est le premier précurseur de la traduction automatique, antérieur à d'autres pionniers comme Georges Artsrouni et Petr Petrov-Smirnov Troyanskij, dont les brevets datent de 1933.

Détails de l'expérience Georgetown-IBM

L'expérience Georgetown-IBM, menée le 7 janvier 1954, est souvent citée comme la première démonstration publique de traduction automatique. Organisée par IBM et l'université de Georgetown, avec le soutien de la CIA et du département d'État américain, elle visait à traduire des phrases russes en anglais en temps réel. Un ordinateur IBM 701, programmé avec un vocabulaire de 250 mots et 6 règles grammaticales, a traduit 60 phrases, démontrant la faisabilité de la traduction automatique à l'aide de la technologie informatique.

Cet événement a été largement médiatisé et a marqué un tournant dans le domaine, stimulant des recherches ultérieures. Cependant, le système était limité, ne couvrant qu'un vocabulaire restreint et des phrases simples, et n'était pas conçu pour des traductions complexes. Malgré ces limitations, il est considéré comme le point de départ de la traduction automatique moderne, avec un impact immédiat sur la recherche et le développement technologique.

Comparaison détaillée :

Chronologie et antériorité

La principale différence réside dans la chronologie : Pucci a commencé ses travaux en 1929, soit plus de deux décennies avant l'expérience Georgetown-IBM en 1954. Cela fait de Pucci un précurseur bien antérieur, mais son travail n'a pas eu d'impact immédiat, restant dans l'ombre jusqu'à des recherches récentes. Georgetown-IBM, en revanche, a bénéficié d'une reconnaissance immédiate grâce à sa démonstration publique et à son contexte géopolitique, notamment pendant la Guerre froide, où la traduction automatique était vue comme un outil stratégique.

Approche technique

Les approches diffèrent également. Pucci proposait une méthode mécanique, basée sur des morphèmes et des idéogrammes, visant une traduction universelle entre les langues européennes, avec une vision de machines portables et peu coûteuses. Georgetown-IBM, en revanche, utilisait un ordinateur, marquant le début de l'utilisation de la technologie informatique pour la traduction, avec une approche basée sur des règles grammaticales et un vocabulaire limité.

Impact et reconnaissance

L'impact de Georgetown-IBM a été immédiat, lançant des recherches approfondies et établissant un jalon historique dans la traduction automatique. Pucci, bien que visionnaire, a vu son travail largement ignoré de son vivant. Des appels récents, notamment dans des publications comme Translation 2.0 (2019), suggèrent que son rôle devrait être davantage reconnu, avec des propositions pour que des universités ou des acteurs majeurs comme Google développent des prototypes basés sur ses idées. Cependant, à ce jour, aucune mise en œuvre pratique n'a été réalisée à partir de ses concepts.

Controverses et legacy

Une controverse subsiste autour de la reconnaissance historique : pourquoi Pucci a-t-il été oublié alors que Georgetown-IBM est célébré ? Les recherches récentes, notamment celles menées en 2018 et 2019, tentent de corriger cette omission, soulignant que Pucci a anticipé des concepts clés, comme la simplification linguistique, qui sont devenus centraux dans les systèmes modernes de traduction automatique, notamment avec l'émergence de la traduction neuronale.

Conclusion

En somme, Federico Pucci a posé les bases conceptuelles de la traduction automatique bien avant l'expérience Georgetown-IBM, mais son impact a été retardé par le manque de reconnaissance. Georgetown-IBM, bien que plus tardive, a marqué un moment charnière en démontrant la faisabilité d'une traduction automatique fonctionnelle, avec un effet immédiat sur la recherche. Les deux contributions sont importantes : Pucci pour sa vision pionnière et Georgetown-IBM pour son rôle dans le lancement de la traduction automatique moderne. Les efforts actuels pour redécouvrir Pucci soulignent l'importance de reconnaître les précurseurs oubliés dans l'histoire technologique.

*

Il faudra que je rédige un jour un billet entier pour raconter tout ce que cela m'inspire, et il y aura beaucoup à dire...

samedi 12 juillet 2025

Translational Supremacy

This post is not a translation of mine original into French, in which I define what translational supremacy is - as I see it -, but a more in-depth reflection on what this means, on what this does not mean, and what the consequences might be.

Translational supremacy is an AI's ability to perform "good enough" translations so quickly that no human translator, or even less group of translators — working with any traditional system — can match it within a reasonable timeframe.

For sure translational supremacy represents a significant shift in the field, offering both opportunities and challenges for translation in general and for translators in particular.

The concept of  “translational supremacy” refers to a threshold moment — when artificial intelligence (AI) systems like DeepL or GPT-based translators become so fast and efficient at producing usable (“good enough”) translations that no human or human team, no matter how skilled, can realistically match their speed and volume using traditional methods.

In practical terms:

  • AI can translate millions of words in seconds, whereas a human takes years.
  • The output is often acceptable for general comprehension, internal use, or public content with low risk.
  • It mirrors the concept of “quantum supremacy,” where a quantum machine achieves a computation that no classical system can feasibly replicate and reaches a point where comparison is such an asymmetry of scale and speed that it is no longer meaningful.

But it does not mean that AI always produces better or more accurate translations than humans, and even less does it mean that human translators are obsolete, or that machine translation is autonomous, especially when AI is grappling with nuance, cultural context, idioms, emotion, tone, and domain-specific knowledge.

In short, translational supremacy exists! So what are the consequences for translation in general?

  • Speed and cost expectations are being reset
  • Clients expect instantaneous delivery
  • Budgets are shrinking as "raw MT + light review" becomes the norm
  • Commoditization of translation
  • Translation becomes a logistical function, not a craft
  • The perceived value of nuance declines in favor of scalability
  • Massive expansion of translatable content, in volumes that were previously unthinkable

It's said that all of this isn’t about replacing humans — but about redefining the purpose of translation. In all cases, this new professional framework has far-reaching consequences for translators in particular:

  • Shift from creator to reviewer
  • Translators become post-editors of AI output, and even of a first automatic post-editing (!)
  • This work is often less paid, less respected, and more fatiguing.
  • Erosion of professional status
  • With machines doing the “first draft” and the “first editing,” clients may undervalue the remaining human contribution
  • Rise of hybrid roles
  • Translators are increasingly expected to be linguistic QA experts, localization engineers, or AI supervisors: soft skills (prompting, editing, evaluation) become more crucial than source-language mastery alone

To conclude, if the goal is pure speed and scalability, AI already wins. But if the goal is meaning or precision, humans remain essential — not because they’re faster, but because they understand what’s worth saying and how it’s said.

Probably translators may need to rebrand as consultants, not only as “language service providers”, the important thing is that they don't let the AI define their worth unless they passively let it take over their role without adapting.

AI can handle repetitive, low-context translations, it’s fast, cheap, and good enough for basic needs. But it often misses nuance, cultural depth, or specialized expertise, like legal, medical, or literary translation, where human judgment shines. The survival is through specialization.

The choice is ours: let AI commoditize our skills, or use it to amplify our expertise and carve out a premium space where human insight is irreplaceable. Not a binary opposition, but a division of labor: machines scale language, humans shape it.



P.S. I just read this old poll: Do you think DeepL is something for human translators to worry about?, and I'm quite surprised by the responses: 8 years ago, out of nearly 1,000 people, just over 80 thought that DeepL was something to worry about :

But now, in light of DeepL's prowess (translating the 59 million words of the Oxford English Dictionary in only two seconds!!), it's becoming difficult, if not impossible, to ignore that this is a reality that threatens the very existence of all freelancers in our field. Moreover, in the medium term, the competition will no longer be between freelancers and LSPs, but between freelancers, LSPs and AI-based MT systems or other AI fiction translation services (maybe this is good news for freelancers)...

*

I've been trying to figure out how to poll the profession on that matter, here is the result:

10 Poll Ideas for Translation & Localization Industry

Poll 1

Question: With AI translation achieving "supremacy" in speed and volume, what will be the primary value proposition for human translators in 2025?

Option 1: Cultural nuance and context understanding Option 2: Creative adaptation and transcreation Option 3: Quality assurance and post-editing expertise

Poll 2

Question: As AI and neural machine translation becomes more sophisticated, which skill should translation professionals prioritize developing?

Option 1: AI prompt engineering and optimization Option 2: Specialized domain expertise (legal, medical, technical) Option 3: Project management and client relationship skills

Poll 3

Question: What's the biggest threat to translation quality in the age of generative AI?

Option 1: Over-reliance on AI without human oversight Option 2: Clients expecting AI-speed delivery with human-quality results Option 3: Loss of linguistic diversity due to AI training bias

Poll 4

Question: For localization projects, which factor will become most critical as markets become increasingly globalized?

Option 1: Real-time adaptation to cultural trends Option 2: Hyper-personalization for micro-markets Option 3: Regulatory compliance across jurisdictions

Poll 5

Question: In your experience, what's the most effective way to price translation services in the AI era?

Option 1: Value-based pricing focused on outcomes Option 2: Hybrid model combining AI efficiency with human expertise Option 3: Traditional per-word pricing with AI discount adjustments

Poll 6

Question: Which technology will have the greatest impact on the translation industry in the next 3 years?

Option 1: Multimodal AI (text, audio, video integration) Option 2: Real-time neural translation with context memory Option 3: Blockchain-based translation verification systems

Poll 7

Question: As a translation professional, what's your biggest concern about AI integration in your workflow?

Option 1: Job displacement and reduced human involvement Option 2: Quality degradation due to speed pressure Option 3: Ethical implications of AI-generated content

Poll 8

Question: For complex localization projects, which approach delivers the best results?

Option 1: AI-first with human post-editing Option 2: Human-first with AI assistance Option 3: Collaborative human-AI real-time translation

Poll 9

Question: What's the most undervalued service in the translation industry that clients should invest more in?

Option 1: Terminology management and consistency Option 2: Cultural consulting and market research Option 3: Ongoing localization maintenance and updates

Poll 10

Question: Looking at the future of freelance translation, which business model will be most sustainable?

Option 1: Specialization in AI-resistant niches (poetry, legal, creative) Option 2: Evolution into AI trainer/supervisor roles Option 3: Expansion into broader language services (consulting, training, auditing)

*

If you wish, you can comment by letting me know which survey speaks to you the most and the answers you prefer. :)

vendredi 11 juillet 2025

L'IA supervisée par l'humain : le marketing trompeur des LSP

P.S. See my post in English 

*

Hier matin j'ai reçu une communication d'un grand groupe de traduction, et je ne décolère pas depuis ! En gros, le message est le suivant : 

Dorénavant ton travail ne sera plus payé qu'à 30% (voire moins...), quand bien même tu resteras responsable à 100% de la qualité du produit final, car ton expertise reste essentielle pour garantir le maintien du haut niveau qualitatif de nos standards linguistiques...

Bien. Tout est mensonger dans ce message ! Je vais vous expliquer pourquoi. Tout d'abord il y a le discours marketing global des LSP (ces fournisseurs de services linguistiques de faible qualité), censé séduire les clients. Tout le monde il est beau, tout le monde il est gentil. De vulgaires opérations de communication, qui produisent un écart grandissant entre discours et réalité.

De nos jours, la grande mode c'est de mettre en avant le binôme "IA + humain" :

  • une qualité garantie par des experts humains,
  • une responsabilité maîtrisée dans l’usage de l’IA,
  • une vision éthique du progrès technologique.

Or dans les faits, les LSP sont les Thénardier de la traduction : l’IA n'est utilisée que comme un levier de productivité pour imposer des raccourcissements de délais souvent injustifiés et une baisse considérable tout aussi injustifiée des tarifs versés aux traducteurs, relecteurs ou post-éditeurs. Je ne connais pas le côté "chefs de projets", mais j'imagine qu'ils sont logés à la même enseigne. 

Désormais, le véritable modèle n'est plus "IA + traducteur expert", mais "IA seule + humain exploité et sous-payé". J'ignore ce que ces groupes vendent à leurs clients, mais je doute qu'ils leur présentent les choses sous ce dernier angle...

Non, le vrai moteur c'est la maximisation des marges. Car derrière ce modèle hybride affiché se cache des actions moins honorables :
  • réduire les coûts de production en internalisant les tâches à bas coût (post-édition rapide),
  • accroître les marges sur les missions vendues au client final aux prix "classiques",
  • exercer une pression à la baisse sur les traducteurs, via des tarifs "IA-powered" imposés, ainsi que sur les délais de livraison.
En réalité, le produit IA nous est vendu avec un vice caché. Voire plusieurs… Et par définition, un vice caché est un défaut grave, non visible, existant avant la vente, qui compromet l’usage d’un bien ! Il peut même entraîner des conséquences pénales lorsqu'il est établi qu'il dépend de la mauvaise foi du vendeur, ou pire : d'une fraude, une tromperie, une escroquerie…  

Tout cela n'a plus rien à voir avec un progrès technologique au service de l’humain, qui devrait être l'objectif d'un LSP responsable, mais plutôt avec un transfert de profit en amont, au détriment des tâcherons sur le terrain.

Cette forme d'exploitation est très problématique (comme toutes les formes d'exploitation, du reste), en termes d'éthique (la promesse marketing sert de façade à une dévalorisation systématique du travail humain), de qualité (ce recours "abusif" à l’IA avec des relecteurs mal payés et sous pression détruit la qualité linguistique et culturelle des livrables, tout en nuisant profondément à la formation des traducteurs sur le long terme), de transparence vis-à-vis du client final (rarement informé du contexte professionnel de celles et ceux qui produisent réellement ce qu’il achète), ou encore d'économie du métier (en tirant constamment les conditions de travail vers le bas, en fragilisant, ou mieux, en précarisant les indépendants et en standardisant la médiocrité).

*

Mais il y a un autre aspect lié à la responsabilité à 100% : ce sont les conséquences légales, civiles ou pénales que cela peut entraîner en cas de problèmes ! Normalement, la rémunération devrait correspondre au niveau de risque et de responsabilité : responsable à 100% = tarif plein. Car en droit du travail ou dans une logique contractuelle, plus on est exposé à un risque juridique, plus la rémunération, les garanties ou les assurances doivent être à la hauteur.

Être payé 30 % pour assumer 100 % de la responsabilité, c’est une externalisation abusive du risque, un déséquilibre dû à un rapport de force défavorable pour l'indépendant, et favorable (voire très) pour le grand groupe. De fait, le droit ne protège pas très bien les indépendants ni les sous-traitants, dont certains acceptent un tel compromis par nécessité (ce qui peut rendre la chose « compréhensible », mais en aucun cas « justifiable »), mais ce n'est ni économiquement rationnel, ni moralement défendable.

L'analogie avec certaines tâches ubérisées ou plateformisées, où le donneur d'ordre se défausse de toute responsabilité bien qu'il capte la majeure partie de la valeur, est particulièrement pertinente. Par ailleurs, aucune négociation n'est prévue : c'est comme ça, et pas autrement. Impossible même de limiter sa responsabilité proportionnellement au tarif arbitrairement imposé.

Ce déséquilibre évident soulève plusieurs enjeux :
  • au plan économique : la rémunération ne reflète ni la complexité du travail réalisé, ni les risques assumés, ce qui crée une situation où le traducteur est manifestement sous-payé par rapport à sa contribution réelle ;
  • au plan juridique : l’engagement contractuel tel qu’il est formulé pourrait entraîner une responsabilité illimitée, sans garantie de protection juridique ni aucune couverture d’assurance proportionnée ;
  • aux plans éthique et professionnel : cette forme d'externalisation des risques transfère la charge sur un intervenant moins protégé, sans lui offrir les moyens (techniques, juridiques ou financiers) d’en assumer les conséquences en cas d’incident...
Donc, pour parvenir à une cohérence souhaitable entre responsabilité et rémunération, il faudrait notamment prendre en compte :
  • une meilleure valorisation financière de la prestation,
  • une limitation claire de la responsabilité contractuelle,
  • et une prise en charge partagée du risque entre les parties, proportionnée aux rémunérations respectives.
Sans corriger cette asymétrie, la situation devient injuste, instable et potentiellement dangereuse, tant pour la personne concernée que pour l’organisation dans son ensemble.

*

Irrité par un tel abus de pouvoir, j'ai décidé de rédiger un courrier (légèrement énervé) en français, en anglais et en italien, que vous pourrez utiliser comme bon vous semble si vous vous trouvez dans la même situation.

Français

Machin Chouette Trucmuche,

Je tiens à vous signaler un déséquilibre patent et problématique entre le niveau de responsabilité exigé et le montant de la rémunération proposée. Je suis actuellement tenu de livrer un produit/service dont la qualité finale m’est entièrement imputée, avec une responsabilité pleine et entière sur les plans juridiques, civils et techniques. Cette responsabilité inclut, de fait, toutes les conséquences en cas de litige, défaut ou préjudice.

Or, la rémunération fixée ne représente qu’une fraction (environ 30 %, voire moins) de la valeur réelle de la prestation, ce qui est inacceptable au regard du niveau de risque transféré. Ce type d’accord revient à faire porter à un prestataire indépendant :

  • les charges techniques, opérationnelles et légales,
  • sans garantie de protection ni juste contrepartie financière.

Pour mémoire, un prestataire freelance n’est ni un sous-traitant de complaisance, ni un assureur de vos responsabilités structurelles. Un tel déséquilibre contractuel n’est ni juridiquement équilibré, ni éthiquement défendable.

Je vous demande donc expressément :

  • de réajuster le niveau de rémunération à la hauteur des responsabilités portées,
  • à défaut, de limiter contractuellement ma responsabilité aux seuls éléments effectivement maîtrisables dans mon périmètre,
  • de clarifier les clauses juridiques permettant d'encadrer les responsabilités partagées entre les parties.

Formule de "politesse"...

Anglais

Dear Tom, Dick and Harry,

I wish to formally raise a clear and problematic imbalance between the level of responsibility required and the compensation being offered. I am currently expected to deliver a product/service for which I am held fully accountable for the final quality, bearing full legal, civil, and technical responsibility. This includes, indeed, all consequences in the event of disputes, defects, or damages.

However, the compensation proposed represents only a fraction (approximately 30%, even less) of the actual value of the service delivered — which is unacceptable given the level of risk transferred. Such an arrangement effectively shifts onto an independent service provider:

  • the technical, operational, and legal burdens,
  • without any guarantees of protection or fair financial counterpart.

Let me remind you that a freelance provider is neither a convenient subcontractor, nor an insurer of your structural responsibilities. Such a contractual imbalance is neither legally balanced nor ethically defensible.

I therefore formally request that you:

  • adjust the compensation to match the level of responsibility assumed;
  • failing that, contractually limit my liability to only those elements that are effectively within my control;
  • clarify the legal clauses to properly define the responsibilities shared between parties.

Courtesy formula...

Italiano

Tizio, Caio, Sempronio,

Con la presente segnalo formalmente un squilibrio evidente e problematico tra il livello di responsabilità richiesto e il compenso offerto. Attualmente mi si richiede di fornire un prodotto/servizio la cui qualità finale è interamente sotto la mia responsabilità, assumendomi piena e incondizionata responsabilità legale, civile e tecnica. Ciò include, di fatto, tutte le conseguenze in caso di controversie, difetti o danni.

Il compenso proposto, però, rappresenta solo una frazione (circa il 30%, anche meno) del valore effettivo del servizio fornito, il che è inaccettabile dato il livello di rischio che mi viene trasferito. Un simile accordo scarica di fatto su un fornitore indipendente:

  • gli oneri tecnici, operativi e legali,
  • senza alcuna garanzia di protezione o di una controparte finanziaria equa.

Vi ricordo che un freelance non è né un subappaltatore di comodo, né un assicuratore delle vostre responsabilità strutturali. Un tale squilibrio contrattuale non è né giuridicamente equilibrato né eticamente difendibile.

Vi chiedo pertanto espressamente:

  • di adeguare il livello del risarcimento in modo commisurato alle responsabilità assunte; 
  • in mancanza di ciò, che la mia responsabilità sia contrattualmente limitata ai soli elementi effettivamente sotto il mio controllo;
  • di chiarire le clausole legali che regolano le responsabilità condivise tra le parti.

Formula di cortesia

*

Pour conclure, je ne peux que me dire (en rêvant) qu'il suffirait qu'aucun traducteur n'accepte ce genre d'offre pour rapidement démasquer le "haut niveau qualitatif" absent des standards linguistiques de nos chers LSP, qui n'existe(nt) que grâce à notre travail (lorsqu'il est payé comme il se doit)...  




P.S. My post in English:

Human-Supervised AI: The Deceptive Marketing of LSPs

Yesterday morning, I received a communication from a major LSP, and I’ve been fuming ever since! The gist of their message was this: from now on, your work will only be paid at 30% (or even less...), even though you will remain 100% responsible for the quality of the final product, as your expertise remains essential to maintaining the high linguistic standards we uphold...

Well, this message is riddled with deceit! Let me explain why. First, there’s the broader marketing rhetoric of Language Service Providers—these purveyors of often subpar linguistic services—designed to woo clients. It’s all “everyone’s wonderful, everyone’s great.” Pure PR fluff, creating a growing gap between their polished promises and grim reality.

Nowadays, the big trend is hyping the “AI + human” duo:

  • Quality guaranteed by human experts,
  • Responsible use of AI,
  • An ethical vision of technological progress.

But in practice, LSPs are the Thénardiers of the translation world: AI is merely a productivity lever to impose unjustified tighter deadlines and drastically reduced rates for translators, proofreaders, or post-editors. I don’t know about the project manager side, but I suspect they’re in the same boat.

The real model isn’t “AI + expert translator” anymore—it’s “AI alone + exploited, underpaid human.” I don’t know what these LSPs are selling to their clients, but I doubt they’re framing it this way...

No, the true driver is profit maximization. Behind this so-called hybrid model lie less honorable practices:

  • Cutting production costs by internalizing low-cost tasks (like quick post-editing),
  • Increasing margins on projects sold to clients at “standard” rates,
  • Pressuring translators with “AI-powered” rates and shorter deadlines.

In reality, the AI product is sold with hidden flaws—multiple ones, even. By definition, a hidden flaw is a serious, non-visible defect that exists before the sale and compromises the product’s use. It can even lead to legal consequences if it stems from the provider’s bad faith, or worse, fraud, deception, or scams...

This has nothing to do with technological progress serving humanity, which should be the goal of a responsible LSP. Instead, it’s about siphoning profits upstream at the expense of the workers on the ground. 

This form of exploitation is deeply problematic (like all exploitation, for that matter) in terms of:

  • Ethics: the marketing promise masks a systematic devaluation of human work.
  • Quality: the “abusive” reliance on AI, paired with underpaid, pressured proofreaders, destroys the linguistic and cultural quality of deliverables while harming long-term translator training.
  • Transparency: clients are rarely informed about the professional context of those producing what they purchase.
  • Industry economics: constantly driving down working conditions, precarizing freelancers, and standardizing mediocrity.
But there’s another critical issue tied to 100% responsibility: the legal, civil, or even penal consequences it can entail! Normally, compensation should reflect the level of risk and responsibility: 100% responsibility = full pay. In labor law or contractual logic, the higher the legal exposure, the higher the compensation, guarantees, or insurance coverage should be.

Being paid 30% while bearing 100% of the responsibility is an abusive externalization of risk, a clear imbalance due to the unfavorable power dynamic for freelancers and the (very) favorable one for large LSP. In practice, legal protections for freelancers and subcontractors are weak. Some accept such terms out of necessity (which may be “understandable” but never “justifiable”), but this is neither economically rational nor morally defensible.

The analogy with certain “uberized” or platform-based tasks—where the platform offloads all responsibility while capturing most of the value—can be applied here. Moreover, there’s no room for negotiation: it’s take it or leave it. It’s even impossible to limit one’s responsibility proportional to the arbitrarily imposed rate.

This obvious imbalance raises several issues:

  • Economically: the pay does not reflect the complexity of the work or the risks assumed, leaving translators undercompensated for their actual contribution.
  • Legally: the contractual terms could lead to unlimited liability without adequate legal protection or insurance coverage.
  • Ethically and Professionally: this risk externalization places the burden on a less-protected party without providing the means (technical, legal, or financial) to handle potential consequences.

To achieve a fair balance between responsibility and compensation, the following should be considered:

  • Better financial valuation of the service,
  • Clear limitation of contractual liability,
  • Shared risk proportional to the respective compensation of the parties.

Without addressing this asymmetry, the situation becomes unjust, unstable, and potentially dangerous for both the individual and the organization as a whole.

JML