vendredi 29 août 2025

Towards a Translation Market Without Translators

page IA

IA inside

A Translator's Voice: a Position Paper on... 

*

AI has made remarkable progress, particularly with the development of Neural Machine Translation (NMT). Large Language Models (LLMs) can now handle huge volumes of text quickly and with a level of accuracy that was unimaginable just a decade ago.

For certain types of content, AI can provide a "good enough" translation instantly and at virtually no cost. I called it The Translational Supremacy. This efficiency has created a new, massive market for automated translation that didn't exist before, catering to a demand for speed—almost free of charge—and accessibility over perfect accuracy. 

No way than a human translator can compete with that. But despite this progress, there are many areas where human translators remain essential. AI-powered translation often struggles with cultural nuance, context and style, creativity and adaptability and, above all, specialist fields.

Therefore, the FUTURE of the translation market will likely be a hybrid model, with the emergence of AI as a powerful tool in a "two-tier" market: one for automated, low-cost translation for basic needs, and another for high-value human-led translation for content where accuracy, cultural relevance, technical expertise and style are paramount. 

By contrast, the PRESENT of the translation market is in the hands of LSPs (Low Service Providers), who are only tech companies driven by efficiency and profit, not quality… In fact, they are actively pursuing a business model that minimizes or eliminates human translators. For them, AI is just a way to scale their operations and reduce costs. They are increasingly adopting a "no-touch" workflow for projects where quality can be sacrificed for speed and price.

For clients and LSPs the advantages are clear: speed, scalability, and cost. Machines can translate thousands of words in seconds, operate 24/7, and cost a fraction of human labor. Businesses, especially those operating globally, have embraced MT to localize content, streamline customer support, and break into new markets. The global machine translation market was valued at about USD 978 million in 2022 and is forecast to reach USD 2.72 billion by 2030, with a compound annual growth rate of 13.5% (Grand View Research).

The Harsh Realities of the Translation Market in 2025: Beyond the Hybrid Model

The current landscape for many LSPs and translators feels far more precarious. For numerous professionals, the reality isn't seamless partnership but displacement, with roles shrinking to post-editing machine-generated content at rates that can be as low as 25% of traditional tariffs, coupled with aggressive volume demands and tight deadlines. This isn't just anecdotal: a CEPR study published in March 2025 analyzed U.S. labor markets post the 2010 launch of Google Translate's mobile app and found that areas with higher AI adoption saw a notable decline in translator employment—up to a 10-15% drop in roles—and stagnating wages.

This trend has intensified with generative AI, where entry-level and general translation jobs are evaporating as companies opt for "good enough" automated outputs. Industry surveys echo this. The Society of Authors' 2024 poll (with follow-ups into 2025) revealed that over 40% of translators reported income decreases due to AI, with 75% expecting further negative impacts on future earnings. In a recent survey, in particolar, over 70% of respondents reporting decreased work volumes. On platforms like X (formerly Twitter), translators share stories of zero work in entire months, with one Italian-English specialist noting a shift from 50-60 hours weekly to essentially working zero, or only some work in a very sporadic and unreliable way (Source). Moreover, surviving gigs increasingly involve machine translation post-editing (MTPE).

Currently the Hybrid Model Is Nothing but a Communication Language Element

MTPE is gaining traction every day, with translators refining AI-generated output, ensuring accuracy and cultural relevance while leveraging the speed of automation. But while AI is improving, it’s not infallible; errors in tone or context can still slip through, especially in low-resource languages with limited training data. This is where translators come in as finishers. 

A professional translation, like any professional-level product or service, is worthless unless it is 100% finished. And it is the human who ensures that finishing touch, certainly not the machine translation engine, and even less all the EPICs you could imagine, which at best produce bland, impersonal content, and at worst inaccurate texts.

In other words, clients are satisfied with this lower yet sufficient level of quality; indeed, they seem to accept it readily as long as they pay less for each translation. Behind the combination of increased productivity and lower prices, quality is relegated decisively to the background. The only problem is that the solution marketed as “ideal,” automated 100%, succeeds thanks only—and exclusively—to the finishing work of the translator.

This work is increasingly framed in terms of plain translation, modeled on plain language, in other words a simplified language where the goal is to use, as much as possible, short, clear, familiar words with as few syllables as possible, while avoiding jargon and technical terminology, transforming verbs into nouns or adjectives, so that the message is understood by everyone.

Plain translation—a translation that is “plain” in name only…

Moreover ethical pitfalls abound: overreliance on AI homogenizes language, erases dialects, and risks data breaches in cloud systems. Privacy concerns are rampant, with 2025 regulations like the EU's AI Act mandating human oversight for sensitive content. 

So the industry should consider the economic impact on translators and balance technological adoption with fair compensation for human expertise, but it is not doing so. In reality, this widespread underpayment stems from a flawed assumption: that AI handles 70-90% of the work, leaving translators with "easy fixes," but it seems that only translators are aware of the contrary. Many of them believe that the "no translators" scenario is already here.

To navigate this, LSPs must adopt a strategic, ethical, and collaborative approach in their relations with translators, ensuring mutual sustainability and positioning themselves as indispensable partners in a rapidly evolving ecosystem. Below are key behaviors LSPs should embrace, grounded in 2025 industry realities and the looming threat of client disintermediation.

1. Fair Pay and Transparent Pricing

One of the most pressing challenges in today’s translation industry is the growing gap between the real effort required for machine translation post-editing and the way it is compensated. Freelancers frequently report earning 40–70% less for MTPE compared to human translation, with rates dropping to as little as $0.02–$0.05 per word. Yet, correcting AI’s errors often requires just as much skill and effort as starting from scratch. A 2025 GTS survey revealed that 66% of translators believe MTPE is as demanding—or even more demanding—than full translation. Despite this, 87% of language service providers (LSPs) continue to apply outdated per-word pricing models (ALC 2025), failing to capture the complexity of post-editing. 

The solution lies in moving away from outdated per-word pricing and adopting edit-distance pricing, a model that ties compensation directly to the amount of text that must be rewritten or corrected. In practice, most AI-generated output requires 20–30% substantial rewriting—not merely light proofreading. Translation memory tools such as Trados or MemoQ already quantify these edit distances, providing an objective metric that both LSPs and freelancers can use to measure real effort. This shift would not only align compensation with actual cognitive workload but also reduce the frequent disputes between translators and agencies about “what counts” as light versus heavy editing.

Equally important is the establishment of minimum MTPE rates that reflect the professional expertise required. Current MTPE does not even approach a living wage in many markets and undervalues the skill required to correct nuanced errors in tone, register, or domain-specific terminology. By contrast, setting floor rates in the range of $0.07–$0.20 per word, or $25–$50 per hour, would better reflect the time and expertise involved. These benchmarks also bring MTPE closer to the standard range for human translation ($0.09–$0.35 per word), helping to restore fairness and sustainability in the profession.

From an economic perspective, the adoption of such models mirrors what has already taken place in other knowledge industries disrupted by automation. For example, in legal review and medical transcription, compensation models evolved from flat per-page or per-line fees to effort-based pricing that accounts for machine accuracy, human oversight, and the risk of errors.

The translation industry faces the same imperative: if human input is priced too low, quality collapses, clients lose trust, and LSPs accelerate their own disintermediation. Nimdzi (2025) warns that half of LSPs already report revenue erosion due to price wars—a direct signal that undervaluing human expertise undermines long-term business viability.

Ultimately, edit-distance pricing and minimum rates are not simply about fairness—they are about sustainability. Without them, experienced linguists will exit the profession, leaving only underqualified workers willing to accept unsustainable pay. For clients, this translates into higher risk, weaker cultural resonance, and potential reputational damage. For LSPs, it means being sidelined in favor of direct MT platforms, which can deliver “good enough” but lack the added human value that clients actually expect when they pay for professional services.

2. Training and Specialization

At the same time, the path forward requires more than fairer pay—it requires investment in training and specialization. Machine translation still fails in areas that demand cultural sensitivity, sector-specific knowledge, or creativity. Legal and medical content, for example, cannot be trusted to raw AI without risking serious errors. LSPs that fund training in MTPE standards (such as ISO 18587), adaptive MT tools, and domain-specific expertise will not only reduce risk but also open up higher-value opportunities: specialized work in these sectors pays 20–50% more.

The industry also needs to recognize specialization as a survival strategy; rather than treating translators as disposable editors, LSPs should position them as knowledge partners who actively shape AI quality. Unfortunately, sidelining translators or relegating them to low-paid post-editing roles, LSPs doesn’t just alienate talent; it threatens the entire translator training sector. Becoming a skilled translator, especially in specialized fields like legal, medical, or technical translation, requires years of education, mentorship, and hands-on experience. If the industry continues to devalue human translators, the pipeline for developing new talent could dry up, undermining the teaching of translation and, ultimately, the quality of language services.

The Training Pipeline at Risk

Translation programs, whether at universities like Middlebury (which is already in the process of concluding graduate programs in Monterey, California...), Kent State, or global institutions, rely on a vibrant industry to justify their existence. These programs combine linguistics, cultural studies, and domain-specific training (e.g., legal terminology or medical protocols), often requiring 2-4 years of academic study followed by 3-5 years of practical experience to produce a competent specialist.

The erosion of translator training has far-reaching consequences, highlighting a worrying trend: a catastrophic decline in formal language learning, compounded by economic realities. The fact that new translators struggle to earn a living wage, discourage graduates from entering the field. If fewer students enroll and fewer graduates stay, the training sector faces a death spiral: shrinking programs, fewer qualified instructors, and a dwindling pool of specialized talent.

Specialized fields like legal, medical, or technical translation require nuanced expertise that AI cannot reliably replicate. For example, MT output always contains errors, many of which can be classified as critical, such as incorrect drug dosages or procedural terms, which could be life-threatening without human intervention. Similarly, legal translations demand precision to avoid misinterpretations that could void contracts or trigger lawsuits. Without a robust training pipeline, the supply of such specialists will dwindle, leaving LSPs unable to meet client needs for high-stakes projects.

Clients, too, will feel the impact. Overreliance on raw MT, without skilled translators to refine it, leads to homogenized language, cultural missteps, and quality complaints. Many clients, attracted by the speed and low cost of AI-only translation, have experimented with it for a variety of tasks, but a significant portion of these clients discover that for important, client-facing, or nuanced content, AI-only solutions fail to deliver on quality. The errors, lack of cultural context, and unnatural phrasing become a business liability. They eventually return to LSPs that offer either human-in-the-loop services or traditional human translation.

3. Advocate for Ethical AI Use, LSPs and Clients Education

LSPs must address ethical concerns—data privacy, cultural homogenization, and quality risks—to maintain trust, but above all their responsibility to their own workforce—the translators. The very model of "AI as a co-pilot" is ethically hollow if it leads to the exploitation of the human professional. LSPs have a moral and professional obligation to their freelance and in-house translators, whose expertise is the true foundation of quality. A reliance on AI as a cost-cutting tool, without a corresponding ethical framework for human collaboration, is unsustainable. 

So, on these four dimensions, LSPs should adopt the following practices:
  • Offer a Human-First Option: For clients prioritizing accuracy and nuance, LSPs should explicitly position and promote a premium, human-centered service. Clear differentiation between low-cost, AI-only outputs and high-value, professionally curated translations allows for a sustainable model that preserves the craft of translation and affirms the centrality of human expertise.
  • Guarantee Data Security: Sensitive projects should be processed through secure, on-premise AI systems rather than cloud-based solutions vulnerable to breaches. Encryption protocols and systematic human oversight are also necessary to ensure compliance with regulatory frameworks such as the GDPR.
  • Educate Clients: LSPs must proactively communicate the limitations of raw machine translation—particularly in relation to idiomatic expressions, tone, and cultural nuance. Given that clients often overestimate AI’s accuracy by 20–30%, targeted education helps recalibrate expectations and underscores the enduring value of human intervention.
  • Advance Fair AI Governance: Collaboration with professional associations and industry bodies is essential to establish ethical standards for AI integration in translation workflows. Such policies help prevent the exploitation of post-editors and support collective advocacy by translators for equitable working conditions.

4. Diversify Services to Stay Relevant

To remain competitive in an environment where clients increasingly consider bypassing Language Service Providers in favor of direct access to AI tools, it is imperative for LSPs to broaden their service portfolios beyond traditional translation. One promising avenue is the integration of value-added services such as transcreation, cultural consulting, and localization strategy. These areas rely heavily on creativity, cultural sensitivity, and contextual awareness—dimensions of language use that remain resistant to full automation. As a result, they command significantly higher rates, with transcreation, reflecting the premium placed on human creativity and cultural expertise.

At the same time, LSPs can strengthen their relevance by investing in the development of custom AI solutions. Rather than relying on generic LLM platforms, LSPs can collaborate with translators to train domain-specific, client-tailored models. This approach not only reduces the limitations inherent in off-the-shelf AI systems but also creates a value proposition rooted in proprietary expertise.

Finally, focusing on niche markets represents another essential strategy for safeguarding long-term sustainability. Fields such as gaming, law, and medicine demand a high degree of domain-specific accuracy, contextual adaptation, and risk management that AI alone cannot reliably provide. Translators specialized in such domains are less vulnerable to AI-driven disruption, as human oversight remains indispensable to ensuring both quality and compliance.

In short, by diversifying their service offerings—blending creative, strategic, and technical expertise—LSPs can not only mitigate the risk of disintermediation but also position themselves as indispensable partners in a translation ecosystem increasingly shaped by artificial intelligence. Equally important, such diversification ensures that translators themselves are not relegated to low-paid, mechanical post-editing tasks, but are instead recognized as highly skilled professionals whose expertise commands fair compensation. In this way, the sustainability of the industry is tied not only to client satisfaction but also to the necessity of enabling translators to make a decent living.

Reality Check: A Translator-Less World?

The notion of a translator-less world remains, for the foreseeable future, more hypothetical than real. While machine translation has achieved impressive progress in processing large volumes of text at speed, it continues to fall short in dimensions requiring intuition, creativity, and ethical discernment. In high-stakes or culturally sensitive contexts, human translators remain indispensable. Yet, as artificial intelligence advances and begins to approximate near-human fluency in narrow domains, the distinction between technological potential and practical applicability becomes increasingly difficult to draw. The present challenge, therefore, is not one of replacing translators, but of reconfiguring their role within hybrid workflows where human and machine operate in tandem. In this evolving landscape, the most viable model is one of symbiosis: AI delivers efficiency and scale, while human translators contribute depth, nuance, and cultural resonance.

The future of translation is not a zero-sum game between human and machine. It's an evolving symbiosis where each side plays to its unique strengths. AI provides efficiency and scale, while human translators contribute the depth, nuance, and cultural resonance that remain indispensable. Language Service Providers (LSPs) must understand and embrace this reality. The future of the translation industry depends on them practicing what the most viable model preaches every day: a commitment to the powerful and necessary collaboration between human and machine.

And here lies the essential truth: no matter how advanced artificial intelligence becomes, the final responsibility, the ultimate act of refinement and completion, rests with human translators. They are—and will remain—the true finishers of every translation, ensuring that language is not merely transferred, but fully realized in meaning, tone, and cultural integrity.

*

About finition, have you ever heard a well-known joke, often told to illustrate the value of expertise and experience over the time spent on a task:
A huge, brand-new cruise ship grinds to a complete halt in the middle of the ocean. The captain is desperate. The crew can't find the problem. They call in the world's best engineers, who work for days, examining the engine room with state-of-the-art instruments, but nothing works: the ship remains motionless. The owner, at his wit's end, is willing to try anything. He contacts an old retired mechanic, a local legend, who arrives carrying nothing but a beat-up old toolbox. He doesn't say a word. He walks around the engine room, listening intently to every sound and every vibration. He stops in front of a massive valve, observes it for a long time, then pulls a small hammer from his toolbox. He gives the valve two or three sharp taps in a very specific spot. Immediately, with a loud clatter, the engines start up again. The ship begins to move. The crew cheers, and the captain is relieved. The old mechanic, calm, puts his hammer away and hands the owner a bill for $15,000. The owner is shocked. "$15,000?!", he exclaims. "You only spent a quarter of an hour and gave it a few taps with a hammer! It can't possibly be worth $15,000!" The old man looks at him, unfazed. "Sir," he says, "I've itemized the bill for you." He hands over a small piece of paper on which he has written:
• Tapping with the hammer: $100
• Knowing where to tap: $14,900

Well, this is not a joke! LSPs should know that. And Clients too.

dimanche 20 juillet 2025

Traduction automatique : l'expérience Georgetown-IBM du 7 janvier 1954

page IA

IA inside

This post in English

Questo post in italiano

*

Lors de la préparation d'un billet sur l'IA, le TALN, les communications et la guerre, je suis tombé sur cette note, concernant l'expérience de Georgetown-IBM du 7 janvier 1954 :  

Il apparaît cependant que les énoncés en russe ont été choisis avec soin et que nombre des opérations effectuées pour la démonstration ont été adaptées à des mots et des phrases particuliers. De plus, il n'y a pas d'analyse relationnelle ou syntaxique permettant d'identifier la structure des phrases. La méthode employée est une méthode essentiellement lexicographique reposant sur un dictionnaire où un mot donné est relié à des règles et des démarches spécifiques.


La note décrit exactement, quand bien même partiellement, l'idée que je me suis fait de cette expérience anecdotique, tel qu'énoncé dans Federico Pucci censuré par Wikipedia :

... la première démonstration de l’histoire d’un système de traduction automatique à base de règles (RBMT, ou Rule-Based Machine Translation), est connue dans ses moindres détails : date, lieu, équipe, langues, déroulement, etc.

En fait, une anecdote plus qu’une véritable démonstration scientifique : nous sommes le 7 janvier 1954, à New York, au siège d’IBM, l’équipe est une collaboration entre la Georgetown University (M. Paul Garvin pour la partie linguistique) et IBM (M. Peter Sheridan pour la partie programmation), la paire de langues est le russe et l’anglais, un lexique de 250 mots choisis avec soin, quelques dizaines de phrases, 6 règles !

Le lendemain, IBM annonce dans un communiqué de presse :

And the giant computer, within a few seconds, turned the sentences into easily readable English. 
Ce même communiqué mentionnait cette phrase du professeur Leon Dostert, de l'Université de Georgetown, selon lequel, en l’espace de quelques années la traduction automatique aurait pu devenir réalité :
Doctor Dostert predicted that “five, perhaps three years hence, interlingual meaning conversion by electronic process in important functional areas of several languages may well be an accomplished fact.” 
Le ton optimiste de cette déclaration eut surtout pour effet d'inciter le gouvernement américain à mettre à disposition d’importantes sommes pour la recherche. De ce point de vue, l'objectif fut atteint ! Pour autant, dans la réalité, l'expérience « Georgetown University – IBM » fut suivie d’une décennie que tous les spécialistes de l'histoire de la TA s'accordent à définir comme « la grande désillusion ».

Je vais donc m'attarder sur la réalité de cette "expérience"...

*

Paul Garvin, mentionné plus haut, qui connaissait également le russe, était le principal responsable de la partie linguistique de la démonstration, qui visait essentiellement à tester la faisabilité de la traduction automatique avec des règles simples programmables.


Il se trouve qu'il a évalué cette démonstration dans un article de 1967, « The Georgetown-IBM Experiment of 1954: An Evaluation in Retrospect », publié dans Papers in linguistics in honor of Léon Dostert

Son évaluation met en lumière à la fois les contributions et les limites de l'expérience, en nous offrant une perspective critique sur son rôle dans le développement de la traduction automatique, et en observant que l'exécution sur l'ordinateur IBM 701 était un exercice intéressant, mais qu'il n'a rien montré de nouveau sur la traduction au-delà des règles verbales, sans démontrer une véritable capacité de traduction, mais plutôt une correspondance préétablie entre des mots et des règles.

De fait, le système était conçu pour fonctionner avec un vocabulaire restreint et des règles grammaticales minimales. Les opérations étaient adaptées pour traiter des mots et des phrases particuliers, ce qui réduisait sa généralisabilité. Par exemple, le vocabulaire était punché sur des cartes perforées, et les règles étaient spécifiques à des cas simples, limitant la flexibilité.



Dans le détail, le système utilisait 250 mots et six règles grammaticales simples, couvrant des domaines comme la politique et la chimie. L'algorithme utilisait cinq règles principales, appliquées via des diacritiques (symboles numériques), avec un vocabulaire de 250 mots (racines et suffixes) et des règles grammaticales limitées. Par exemple :
  • la règle 1 inversait l'ordre verbe-sujet dans certaines phrases (ex. : phrases 2, 7, 11, 13, 33-34, 45) ;
  • la règle 3 traduisait les suffixes de cas, comme les accusatifs animés (ex. : phrase 32) ;
  • la règle 5 sélectionnait l'article défini pour les constructions génitives (ex. : phrases 19, 20, 27-29) ;
  • une "règle hyphen" était également utilisée pour diviser les racines et les suffixes dans la recherche du glossaire ;
  • la routine de commande était limitée à deux équivalents pour la sélection et le réarrangement ;
  • des simplifications étaient faites, comme limiter la distance des indices à un mot et ignorer les décisions grammaticales de second ordre (par exemple, le choix de prépositions spécifiques) ; 
  • des entrées arbitraires étaient utilisées dans le glossaire pour les cas non résolus.
Pour conclure, Garvin reconnaît que l'expérience fut une "première étape significative" dans la recherche sur la traduction automatique, en formulant le problème comme un problème décisionnel impliquant la sélection (choix entre équivalents) et l'arrangement (réorganisation des éléments). Il critique cependant le fait que l'exécution du programme n'a montré aucune avancée au-delà des règles verbales déjà définies, suggérant que l'expérience était plus une démonstration de faisabilité qu'une avancée scientifique réelle.

Il mentionne en outre qu'elle était financée par le bureau de la recherche scientifique de l'US Air Force (AF Office of Scientific Research), ce qui montrait un intérêt gouvernemental probablement lié au contexte de la Guerre froide et a suscité un grand intérêt public tout en créant des attentes irréalistes...

Vu que « le principal responsable de la partie linguistique de la démonstration » est aussi la source de ces informations, il n'y a vraiment aucune raison de douter de son jugement !

*

Pour en revenir à l'article Wikipédia à l'origine de ce billet, il relate donc que « l'expérience Georgetown-IBM (...) comporte la traduction complètement automatique, en anglais, de plus de soixante phrases russes romanisées relatives aux domaines de la politique, du droit, des mathématiques et de la science », comme l'indique la note précédente (la 6)

Note qui précise également la source de cette citation : 

(en) John Hutchins, From first conception to first demonstration: the nascent years of machine translation, 1947-1954. A chronology, in Machine Translation, 12, pp. 195-252.

Chose extraordinaire, dans la version mise à jour de ce même document [Corrected version (2005) of paper in: Machine Translation, vol.12 no.3, 1997, p.195-252, From first conception to first demonstration: the nascent years of machine translation, 1947-1954. A chronology, by John Hutchins], l'auteur mentionne l'événement suivant :

         On 26 August 1949, the New York Times reported (page 9) from Salerno
Federico Pucci announced today that he had invented a machine that could translate copy from any language into any other language. He said that the machine was electrically operated, but refused to disclose details. He said that he would enter it in the Paris International Fair of Inventions next month.  
It is uncertain whether Pucci had any knowledge of Huskey’s proposals, and it seems most unlikely he knew about Weaver's memorandum or the British experiments. In any event, there is no trace of any demonstration at the Paris fair; and nothing more is known about Pucci. 

Or c'est justement de cet entrefilet que part ma découverte de Federico Pucci

*

Il est incroyable de constater que tout le peu qu'a pu produire le "cerveau électrique" d'IBM, n'est rien comparé au système qu'a inventé le "cerveau humain" de Federico Pucci un quart de siècle plus tôt ! 

Si, selon Garvin lui-même, l'expérience était fondamentalement limitée par son vocabulaire restreint, ses règles grammaticales simplifiées et son incapacité à gérer des traductions complexes, imaginons un instant qu'IBM ait pu travailler et mener sa démonstration en utilisant l'appareil théorique de Pucci, il n'est que de comparer le tableau de translittération d'IBM avec les tableaux de Pucci, sa maquette de fonctionnement ou leurs dictionnaires respectifs pour comprendre la distance intellectuelle considérable qui les sépare !



Un seul coup d'œil suffit à comprendre l'indigence conceptuelle d'IBM par rapport à clairvoyance invraisemblable et foisonnante de Pucci !

J'ai demandé à plusieurs IA de faire une comparaison entre les travaux de Federico Pucci dès 1929 et l'expérience de Georgetown-IBM du 7 janvier 1954. Les résultats sont très étonnants, d'autant plus que 25 ans les divisent...

Perplexity

Federico Pucci

Georgetown-IBM

Précurseur conceptuel en posant les bases des systèmes de traduction fondés sur des règles.

Première preuve expérimentale sur ordinateur de la traduction automatique, même si très limitée.

Propose la première approche structurée documentée pour la traduction automatique multilingue.

Puissante opération de communication scientifique, accélérant l’intérêt institutionnel et public pour le domaine.

Vision pionnière mais limitée par la technologie disponible et la difficulté à réaliser un prototype complet.

Méthodes bien plus rudimentaires, mais démonstration pratique réussie.


Conclusion
  • Federico Pucci est un précurseur visionnaire qui a posé un cadre conceptuel et méthodologique à la traduction automatique, anticipant des décennies d’innovation, mais sans la possibilité technique de concrétiser ni de diffuser à grande échelle ses idées.
  • L’expérience Georgetown-IBM a marqué le tournant de la traduction automatique : pour la première fois, un prototype informatique offre une démonstration pratique, aussi limitée soit-elle, déclenchant une vague internationale d’intérêt et de financements.
  • Leur différence fondamentale réside dans le passage du théorique (Pucci) à la preuve concrète par l’informatique (Georgetown-IBM), marquant deux étapes complémentaires et décisives de l’histoire du TALN.
J'ajouterais en outre comme différence fondamentale qu'à l'époque IBM est déjà une multinationale riche et puissante, alors que Pucci est seul et sans grandes ressources (il le déclare lui-même dans sa lettre au CNR et finira sa vie dans la pauvreté). 

*

ChatGPT

Federico Pucci

Georgetown-IBM (1954)

 

 

Italie d'après-guerre, recherche universitaire et linguistique expérimentale

Guerre froide, compétition technologique USA/URSS

Créer un système de TA multilingue basé sur la grammaire et la syntaxe

Démontrer la faisabilité de la TA anglais-russe à des fins scientifiques et militaires

Orientation fortement linguistique et grammaticale

Expérience principalement démonstrative, à but propagandiste/scientifique

Approche fondée sur des règles linguistiques formelles, analyse syntaxique et sémantique

Liste limitée de règles (statistiques simples), vocabulaire de 250 mots, 6 règles de grammaire

Italien ↔ d'autres langues européennes

Anglais → Russe

Système linguistiquement explicite basé sur la syntaxe, la morphologie et la traduction structurée

Prototype symbolique, très limité, pas généralisable sans amélioration

Volonté de créer une architecture complète de TA (précurseur des systèmes basés sur les règles)

Première démonstration publique, mais très contrôlée (phrases choisies à l’avance)

Contribution modeste mais fondée sur une réflexion linguistique profonde

Fort impact médiatique et politique (soutien du gouvernement américain)

Peu connu à l’international, faible diffusion, peu de moyens, mais pionnier dans sa vision d’intégration de la linguistique théorique à la TA

Résultats non généralisables, pas de compréhension du langage naturel


Conclusion :
  • L’expérience Georgetown-IBM marque le début médiatisé de la traduction automatique dans l’histoire de l’informatique. Elle a été le point de départ de nombreux financements, mais aussi de désillusions. 
  • En revanche, Federico Pucci, à travers ses travaux moins connus, s’inscrit dans une lignée plus théorique et linguistique, susceptible d'influencer les approches ultérieures dites "basées sur les règles".
  • Ces deux trajectoires illustrent deux visages fondateurs de la TA : l’un spectaculaire et politique, l’autre rigoureux et scientifique.
J'ai demandé ensuite à ChatGPT une fiche comparative plus technique :

Critère

Federico Pucci

Georgetown-IBM (1954)

Nature des travaux

Système de TA multilingue à base de règles linguistiques

Démonstration de traduction automatique anglais → russe

Type de TA

Symbolique / à base de règles (Rule-Based MT)

Symbolique / démonstratif (pré-TALN)

Langues concernées

Italien ↔ langues européennes (notamment français, anglais, allemand)

Anglais → russe uniquement

Volume lexical utilisé

Vocabulaire étendu et modulaire

250 mots environ

Grammaire / syntaxe

Analyse syntaxique profonde, arbres de dépendance, traitement des structures

6 règles grammaticales simples appliquées à des phrases sélectionnées

Analyse linguistique

Basée sur une réflexion linguistique formelle, intégration de la morphologie

Très limitée, centrée sur la substitution lexicale et l’ordre des mots

Traitement morphologique

OUI – Systèmes d’analyse morpho-syntaxique

NON – Morphologie très peu exploitée

Dictionnaires

Dictionnaires bilingues enrichis et couplés à des règles contextuelles

Dictionnaire simple, sans gestion du contexte

Gestion des ambiguïtés

Par règles de désambiguïsation syntaxique et morphologique

Aucune gestion des ambiguïtés – corpus contrôlé

Architecture logicielle

Système modulaire conçu pour être extensible

Programme ad hoc, non généralisable

Sortie / rendu

Phrase-cible générée par transformation syntaxique

Affichage de la traduction mot à mot sur imprimante

Exemples de traitement

Subordination, déclinaisons, accord sujet-verbe

Traductions simples de phrases scientifiques ex : "The oil is in the tank."

Objectif scientifique

Élaborer un modèle généralisable de TA à partir de modèles linguistiques

Montrer la faisabilité technique d’une TA en contexte militaire et scientifique

Accès aux données / corpus

Données textuelles linguistiquement annotées à la main

Corpus très restreint, sélectionné manuellement

Interaction avec la linguistique

Étroitement liée à la linguistique structurale et à la grammaire générative

Faible ; essentiellement démonstratif

Impact sur la recherche

Contributions reconnues localement ; peu diffusées hors Italie

Fort impact politique, financement massif de la TA dans les années 1950–60

Limites reconnues

Nécessité de plus de puissance de calcul et de données

Dépendance à un corpus fermé, absence de généralisation


Conclusion :
  • Federico Pucci a tenté d’inventer une grammaire universelle appliquée à la traduction, en s’appuyant sur la rigueur linguistique — une approche visionnaire mais limitée par les moyens techniques de son époque.
  • Georgetown-IBM a été un coup médiatique et politique, basé sur une performance sous contrôle, qui a lancé un âge d’or… suivi d’un âge de glace après le rapport ALPAC (1966), qui soulignait la faiblesse réelle des résultats.
*

Mistral

Aspect

Federico Pucci

Expérience Georgetown-IBM

Période

Années 1920-1930

7 janvier 1954

Contexte Technologique

Système mécanique

Ordinateur IBM 701

Méthode

Basée sur des règles

Basée sur des règles et vocabulaire limité

Reconnaissance

Peu reconnue de son vivant

Large reconnaissance immédiate

Impact

Redécouverte récente

Début de l'ère de la traduction automatique assistée par ordinateur

Federico Pucci et l'expérience Georgetown-IBM représentent deux moments clés dans l'histoire de la traduction automatique, mais ils diffèrent considérablement en termes de contexte, de technologie et de reconnaissance. Voici une comparaison détaillée :

Federico Pucci

  1. Contexte historique :
    • Période : Pucci a commencé ses travaux sur la traduction automatique dès les années 1920 et a publié ses idées dans les années 1930.
    • Contexte technologique : à cette époque, les ordinateurs modernes n'existaient pas encore. Pucci a donc dû concevoir un système mécanique pour effectuer la traduction.
  2. Innovations :
    • Méthode basée sur des règles : Pucci a développé le premier méthode documentée au monde de traduction automatique basée sur des règles. Il a décrit son système dans un opuscule publié en 1931 intitulé "Il traduttore meccanico ed il metodo per corrispondersi fra europei, conoscendo ciascuno solo la propria lingua: Parte I".
    • Macchina per tradurre : Il a conçu une "machine à traduire" qui, selon ses descriptions, aurait pu traduire des textes entre différentes langues. Ce concept était révolutionnaire pour l'époque, car il précédait l'avènement des ordinateurs modernes.
  3. Reconnaissance :
    • Manque de reconnaissance : malgré ses innovations, Pucci n'a pas reçu la reconnaissance qu'il méritait de son vivant. Ses travaux ont été largement ignorés jusqu'à ce qu'ils soient redécouverts récemment par des chercheurs comme Jean Marie Le Ray.

Expérience Georgetown-IBM

  1. Contexte historique :
    • Date : l'expérience Georgetown-IBM a eu lieu le 7 janvier 1954.
    • Contexte technologique : à cette époque, les ordinateurs commençaient à se développer, et l'expérience a utilisé un ordinateur IBM 701, l'un des premiers ordinateurs commerciaux.
  2. Innovations :
    • Démonstration publique : l'expérience a été la première démonstration publique de traduction automatique. Elle a traduit avec succès plus de soixante phrases du russe vers l'anglais, utilisant un vocabulaire de 250 mots et six règles grammaticales.
    • Utilisation de l'ordinateur : contrairement à Pucci, qui avait conçu un système mécanique, l'expérience Georgetown-IBM a utilisé un ordinateur, marquant ainsi le début de l'ère de la traduction automatique assistée par ordinateur.
  3. Reconnaissance :
    • Impact immédiat : l'expérience a eu un impact immédiat et a été largement médiatisée, attirant l'attention du public et des chercheurs sur le potentiel de la traduction automatique.
    • Développement continu : cette démonstration a marqué le début d'un développement continu dans le domaine de la traduction automatique, conduisant à des avancées significatives au fil des décennies.

Conclusion :

  • Federico Pucci a été un pionnier visionnaire qui a anticipé de nombreuses idées de la traduction automatique bien avant l'avènement des ordinateurs. Son travail, bien que peu reconnu à l'époque, a jeté des bases pour des développements futurs.
  • L'expérience Georgetown-IBM, en revanche, a marqué un tournant dans l'histoire de la traduction automatique en démontrant publiquement le potentiel des ordinateurs pour cette tâche, attirant ainsi l'attention et les ressources nécessaires pour des recherches ultérieures.

*
Gemini

Caractéristique

Federico Pucci (Années 1920-1940)

Expérience Georgetown-IBM (1954)

Période

Pré-informatique / début de l'ère électromécanique

Début de l'ère des ordinateurs numériques (mainframe)

Nature du projet

Conception théorique, brevets, publication de livres

Démonstration publique d'un système fonctionnel (sur ordinateur)

Portée

Vaste vision d'une "machine à traduire" polyvalente

Démonstration ciblée Russe-Anglais, vocabulaire et règles limitées

Technologie

Machines mécaniques, électriques, photoélectriques (conceptuel)

Ordinateur IBM 701 (réalisation concrète, bien que rudimentaire)

Langues

Vise une communication "entre européens" (généraliste)

Russe vers Anglais (contexte géopolitique de la Guerre Froide)

Impact immédiat

Très limité, quasi-oublié pendant des décennies

Énorme, déclencheur de financements et d'une vague d'optimisme

Contribution

Précurseur conceptuel de la TA basée sur des règles

Première démonstration publique influente et catalyseur de la recherche


Federico Pucci : le visionnaire oublié (Années 1920-1940)

Federico Pucci est un pionnier italien longtemps resté dans l'ombre, dont les travaux ont précédé de plusieurs décennies les développements américains et russes en traduction automatique.

  • Contexte historique : Pucci développe ses idées dès la fin des années 1920 et publie son ouvrage "Il traduttore meccanico" en 1931. C'est une période où l'informatique, telle que nous la connaissons, n'existe pas encore. Les concepts sont purement mécaniques, électro-mécaniques ou théoriques.
  • Approche :
    • Système basé sur des règles : Pucci a conceptualisé un système de traduction automatique fondé sur des règles linguistiques. Son approche impliquait de diviser le texte en unités de sens (morphèmes) et de les transposer dans la langue cible selon des règles prédéfinies, avec l'idée que le récepteur ajusterait l'ordre des mots.
    • Objectif de communication simplifiée : L'une de ses motivations principales était de permettre la communication entre des personnes ne connaissant que leur propre langue.
    • Théorique avant tout : Il n'a jamais construit de prototype fonctionnel de sa machine. Ses contributions sont restées au stade conceptuel et théorique, bien que détaillées.
    • Précocité : Son travail est antérieur aux brevets d'Artsrouni (France) et Trojanskij (Russie) de 1933, et de l'intuition de Warren Weaver de 1949.
  • Impact : L'impact initial de Pucci fut limité en raison de sa non-réalisation concrète et d'un manque de diffusion internationale de ses travaux. Sa reconnaissance est très récente, grâce à des efforts de recherche visant à réécrire l'histoire de la TA. Il est désormais vu comme un précurseur visionnaire.

L'expérience Georgetown-IBM : la démonstration fondatrice (7 Janvier 1954)

L'expérience Georgetown-IBM est souvent citée comme le point de départ public et médiatisé de la traduction automatique moderne.

  • Contexte historique : Elle a lieu en 1954, après la Seconde Guerre mondiale et au début de la Guerre Froide. Il y a un fort intérêt politique et militaire pour la traduction rapide de documents russes en anglais. Les premiers ordinateurs numériques programmables commencent à émerger (comme l'IBM 701 utilisé).
  • Approche :
    • Système basé sur des règles (avec dictionnaire) : Le système était conçu pour traduire automatiquement plus de soixante phrases du russe vers l'anglais. Il utilisait un vocabulaire limité (environ 250 mots-racines et des désinences) et seulement six règles grammaticales.
    • Approche lexicographique : Le système était principalement basé sur un dictionnaire où chaque mot russe était associé à des traductions anglaises possibles et à des règles de réorganisation ou d'omission.
    • Utilisation d'un ordinateur réel : Contrairement à Pucci, l'expérience a utilisé l'ordinateur mainframe IBM 701, montrant une faisabilité technique, même à petite échelle.
    • Domaine spécifique : Les phrases traduites provenaient principalement du domaine de la chimie organique et de sujets généraux limités.
  • Impact : L'expérience Georgetown-IBM eut un impact médiatique et institutionnel colossal.
    • Elle a généré un optimisme démesuré quant à la résolution rapide du problème de la traduction automatique ("trois à cinq ans" selon les prévisions de l'époque).
    • Elle a débloqué des financements massifs pour la recherche en traduction automatique et en linguistique computationnelle, principalement aux États-Unis.
    • Bien que très limitée en scope et utilisant des "règles dures" souvent adaptées aux phrases de démonstration, elle a prouvé la faisabilité conceptuelle et technique de la TA par ordinateur.


Conclusion :
  • En substance, Pucci a eu la vision remarquable et détaillée d'une machine à traduire bien avant que la technologie ne puisse la concrétiser. Il est le théoricien inaugural
  • L'expérience Georgetown-IBM, quant à elle, a été la première réalisation concrète et médiatisée de cette vision, même si elle était très rudimentaire. Elle a prouvé que la traduction automatique n'était pas seulement une idée folle, mais une possibilité tangible grâce aux ordinateurs, ouvrant ainsi la voie à des décennies de recherche et de développement, pour le meilleur et pour le pire.
  • L'histoire de la traduction automatique est donc celle de pionniers visionnaires comme Pucci, suivie par des démonstrations marquantes comme celle de Georgetown-IBM qui ont su capter l'attention et les ressources nécessaires pour transformer ces rêves en réalité, étape par étape.
*

Claude

L'approche de Federico Pucci (1931-1949)

Innovation conceptuelle précoce :

  • Pucci développa le concept d'une machine de traduction automatique dès 1931, soit plus de 20 ans avant Georgetown-IBM
  • Son invention fut présentée comme une machine électrique capable de traduire "de n'importe quelle langue vers n'importe quelle autre"
  • Il s'agissait d'une approche purement mécanique/électrique, sans ordinateur

Objectif universel :

  • L'ambition de Pucci était plus large : permettre la communication entre personnes "ne connaissant que leur propre langue"
  • Approche universelle dès le départ (toutes langues vers toutes langues)

L'expérience Georgetown-IBM (7 janvier 1954)

Première démonstration informatique : L'expérience Georgetown-IBM était une démonstration influente de traduction automatique, réalisée le 7 janvier 1954, développée conjointement par l'Université Georgetown et IBM, impliquant la traduction complètement automatique de plus de soixante phrases russes en anglais.

Caractéristiques techniques :

  • Bien qu'il s'agisse d'une expérience à petite échelle avec seulement 250 mots et six règles de "grammaire", elle utilisait un véritable ordinateur IBM
  • Focalisée spécifiquement sur la paire russe-anglais
  • Les déclarations portaient sur la politique, le droit, les mathématiques, la chimie, la métallurgie, les communications et les affaires militaires.

Différences fondamentales

Innovation vs. Réalisation :

  • Pucci : visionnaire conceptuel avec une approche mécanique/électrique
  • Georgetown-IBM : première implémentation informatique réussie

Portée :

  • Pucci : ambition universelle multilingue
  • Georgetown-IBM : démonstration ciblée d'une paire linguistique

Impact historique :

  • Pucci : largement oublié malgré sa priorité temporelle
  • Georgetown-IBM : causa un grand intérêt public et beaucoup de controverses, devenant le point de référence historique officiel

Technologies :

  • Pucci : machines électromécaniques des années 1930-1940
  • Georgetown-IBM : premiers ordinateurs IBM des années 1950

L'ironie historique est frappante : Pucci anticipa de deux décennies les concepts que Georgetown-IBM matérialisa, mais seule la seconde resta dans les mémoires comme le véritable début de la traduction automatique informatisée.

D'où la nécessité de réécrire l'histoire de la traduction automatique, ajouterais-je...

*

Grok

Note détaillée :

Federico Pucci et l'expérience Georgetown-IBM du 7 janvier 1954 représentent deux moments significatifs, mais distincts, dans l'histoire de la traduction automatique. Cette note vise à comparer leurs innovations et leur impact, en s'appuyant sur des recherches récentes et des sources historiques, tout en explorant les détails de leurs contributions respectives.

Contexte historique et innovations de Federico Pucci

Federico Pucci est aujourd'hui reconnu comme un pionnier méconnu de la traduction automatique, avec des travaux débutant dès décembre 1929, lorsqu'il a présenté son étude sur le "traducteur mécanique" à Salerne, en Italie. Sa méthode innovante consistait à diviser le texte en morphèmes (unités de sens minimales), à les transposer dans la langue cible, et à permettre au destinataire de réorganiser les mots dans sa langue maternelle. Pucci utilisait également des idéogrammes, des symboles universels basés sur l'espéranto, pour représenter des concepts de base et dérivés, anticipant des idées comme la simplification des langues et les traductions "suffisamment bonnes" pour une communication efficace.

Son travail a été exposé à plusieurs reprises lors d'expositions nationales et internationales, recevant une reconnaissance sous forme de médailles. Voici un tableau récapitulatif de ses participations et récompenses :

Année

Événement

Récompense

1930

Exposition Nationale de Bolzano

Médaille d'argent

1930

Foire de Cuneo

Médaille d'argent

1935

Concours International d'Inventions, Paris

Médaille d'argent

1950

Concours d'Inventions de Liège

Médaille d'argent

1934

Foire du Levant, Bari

Participation

1936

Leipzig

Participation

1949

Foire de Paris

Participation

Pucci a également publié dix livres entre 1931 et 1960, détaillant ses idées sur les machines à traduire. Parmi eux, on trouve :

  • 1931 : Il traduttore meccanico ed il metodo per corrispondersi fra europei conoscendo ciascuno solo la propria lingua: Parte I
  • 1949 : Serie delle grammatiche dinamiche, pratiche, ragionate, storico-comparate: Parte I. Per coloro che in pochi giorni desiderano acquistare una conoscenza elementare della lingua straniera. [fasc.] I. Inglese
  • 1949 (français) : Le traducteur dynamo-mécanique: L'invention pour traduire les langues de l'occident sans les connaitre presque sans dictionnaire. Op. I: anglais-francais
  • 1949 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle lingue dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 1. francese - italiano
  • 1949 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle lingue dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 2. Inglese - italiano
  • 1950 : Grammatica dinamica della Lingua tedesca: (linee fondamentali)
  • 1950 : Il traduttore dinamo-meccanico: Tipo libro macchina. Serie a. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario. [fasc.] 1. Italiano-Inglese
  • 1952 : Il traduttore dinamo-meccanico: Serie B. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario... [fasc.] 1. Italiano - Francese
  • 1958 : Vocabolario mobile italiano - francese: (parte Traduttore Meccanico)
  • 1960 : Il traduttore dinamo-meccanico: Serie A. L'invenzione per la traduzione immediata e rapida nelle langues dell'Occidente senza conoscerle e quasi senza vocabolario... Tedesco – Italiano

Malgré ces efforts, son travail est resté conceptuel et n'a pas abouti à une machine fonctionnelle de son vivant. Son rôle a été redécouvert récemment, notamment grâce à des recherches menées en collaboration avec sa petite-fille, Oriana de Majo, et documentées dans des blogs comme Translation 2.0 et Adscriptor. Ces sources, datant de 2017 à 2019, soulignent que Pucci est le premier précurseur de la traduction automatique, antérieur à d'autres pionniers comme Georges Artsrouni et Petr Petrov-Smirnov Troyanskij, dont les brevets datent de 1933.

Détails de l'expérience Georgetown-IBM

L'expérience Georgetown-IBM, menée le 7 janvier 1954, est souvent citée comme la première démonstration publique de traduction automatique. Organisée par IBM et l'université de Georgetown, avec le soutien de la CIA et du département d'État américain, elle visait à traduire des phrases russes en anglais en temps réel. Un ordinateur IBM 701, programmé avec un vocabulaire de 250 mots et 6 règles grammaticales, a traduit 60 phrases, démontrant la faisabilité de la traduction automatique à l'aide de la technologie informatique.

Cet événement a été largement médiatisé et a marqué un tournant dans le domaine, stimulant des recherches ultérieures. Cependant, le système était limité, ne couvrant qu'un vocabulaire restreint et des phrases simples, et n'était pas conçu pour des traductions complexes. Malgré ces limitations, il est considéré comme le point de départ de la traduction automatique moderne, avec un impact immédiat sur la recherche et le développement technologique.

Comparaison détaillée :

Chronologie et antériorité

La principale différence réside dans la chronologie : Pucci a commencé ses travaux en 1929, soit plus de deux décennies avant l'expérience Georgetown-IBM en 1954. Cela fait de Pucci un précurseur bien antérieur, mais son travail n'a pas eu d'impact immédiat, restant dans l'ombre jusqu'à des recherches récentes. Georgetown-IBM, en revanche, a bénéficié d'une reconnaissance immédiate grâce à sa démonstration publique et à son contexte géopolitique, notamment pendant la Guerre froide, où la traduction automatique était vue comme un outil stratégique.

Approche technique

Les approches diffèrent également. Pucci proposait une méthode mécanique, basée sur des morphèmes et des idéogrammes, visant une traduction universelle entre les langues européennes, avec une vision de machines portables et peu coûteuses. Georgetown-IBM, en revanche, utilisait un ordinateur, marquant le début de l'utilisation de la technologie informatique pour la traduction, avec une approche basée sur des règles grammaticales et un vocabulaire limité.

Impact et reconnaissance

L'impact de Georgetown-IBM a été immédiat, lançant des recherches approfondies et établissant un jalon historique dans la traduction automatique. Pucci, bien que visionnaire, a vu son travail largement ignoré de son vivant. Des appels récents, notamment dans des publications comme Translation 2.0 (2019), suggèrent que son rôle devrait être davantage reconnu, avec des propositions pour que des universités ou des acteurs majeurs comme Google développent des prototypes basés sur ses idées. Cependant, à ce jour, aucune mise en œuvre pratique n'a été réalisée à partir de ses concepts.

Controverses et legacy

Une controverse subsiste autour de la reconnaissance historique : pourquoi Pucci a-t-il été oublié alors que Georgetown-IBM est célébré ? Les recherches récentes, notamment celles menées en 2018 et 2019, tentent de corriger cette omission, soulignant que Pucci a anticipé des concepts clés, comme la simplification linguistique, qui sont devenus centraux dans les systèmes modernes de traduction automatique, notamment avec l'émergence de la traduction neuronale.

Conclusion

En somme, Federico Pucci a posé les bases conceptuelles de la traduction automatique bien avant l'expérience Georgetown-IBM, mais son impact a été retardé par le manque de reconnaissance. Georgetown-IBM, bien que plus tardive, a marqué un moment charnière en démontrant la faisabilité d'une traduction automatique fonctionnelle, avec un effet immédiat sur la recherche. Les deux contributions sont importantes : Pucci pour sa vision pionnière et Georgetown-IBM pour son rôle dans le lancement de la traduction automatique moderne. Les efforts actuels pour redécouvrir Pucci soulignent l'importance de reconnaître les précurseurs oubliés dans l'histoire technologique.

*

Il faudra que je rédige un jour un billet entier pour raconter tout ce que cela m'inspire, et il y aura beaucoup à dire...

samedi 12 juillet 2025

Translational Supremacy

This post is not a translation of mine original into French, in which I define what translational supremacy is - as I see it -, but a more in-depth reflection on what this means, on what this does not mean, and what the consequences might be.

Translational supremacy is an AI's ability to perform "good enough" translations so quickly that no human translator, or even less group of translators — working with any traditional system — can match it within a reasonable timeframe.

For sure translational supremacy represents a significant shift in the field, offering both opportunities and challenges for translation in general and for translators in particular.

The concept of  “translational supremacy” refers to a threshold moment — when artificial intelligence (AI) systems like DeepL or GPT-based translators become so fast and efficient at producing usable (“good enough”) translations that no human or human team, no matter how skilled, can realistically match their speed and volume using traditional methods.

In practical terms:

  • AI can translate millions of words in seconds, whereas a human takes years.
  • The output is often acceptable for general comprehension, internal use, or public content with low risk.
  • It mirrors the concept of “quantum supremacy,” where a quantum machine achieves a computation that no classical system can feasibly replicate and reaches a point where comparison is such an asymmetry of scale and speed that it is no longer meaningful.

But it does not mean that AI always produces better or more accurate translations than humans, and even less does it mean that human translators are obsolete, or that machine translation is autonomous, especially when AI is grappling with nuance, cultural context, idioms, emotion, tone, and domain-specific knowledge.

In short, translational supremacy exists! So what are the consequences for translation in general?

  • Speed and cost expectations are being reset
  • Clients expect instantaneous delivery
  • Budgets are shrinking as "raw MT + light review" becomes the norm
  • Commoditization of translation
  • Translation becomes a logistical function, not a craft
  • The perceived value of nuance declines in favor of scalability
  • Massive expansion of translatable content, in volumes that were previously unthinkable

It's said that all of this isn’t about replacing humans — but about redefining the purpose of translation. In all cases, this new professional framework has far-reaching consequences for translators in particular:

  • Shift from creator to reviewer
  • Translators become post-editors of AI output, and even of a first automatic post-editing (!)
  • This work is often less paid, less respected, and more fatiguing.
  • Erosion of professional status
  • With machines doing the “first draft” and the “first editing,” clients may undervalue the remaining human contribution
  • Rise of hybrid roles
  • Translators are increasingly expected to be linguistic QA experts, localization engineers, or AI supervisors: soft skills (prompting, editing, evaluation) become more crucial than source-language mastery alone

To conclude, if the goal is pure speed and scalability, AI already wins. But if the goal is meaning or precision, humans remain essential — not because they’re faster, but because they understand what’s worth saying and how it’s said.

Probably translators may need to rebrand as consultants, not only as “language service providers”, the important thing is that they don't let the AI define their worth unless they passively let it take over their role without adapting.

AI can handle repetitive, low-context translations, it’s fast, cheap, and good enough for basic needs. But it often misses nuance, cultural depth, or specialized expertise, like legal, medical, or literary translation, where human judgment shines. The survival is through specialization.

The choice is ours: let AI commoditize our skills, or use it to amplify our expertise and carve out a premium space where human insight is irreplaceable. Not a binary opposition, but a division of labor: machines scale language, humans shape it.



P.S. I just read this old poll: Do you think DeepL is something for human translators to worry about?, and I'm quite surprised by the responses: 8 years ago, out of nearly 1,000 people, just over 80 thought that DeepL was something to worry about :

But now, in light of DeepL's prowess (translating the 59 million words of the Oxford English Dictionary in only two seconds!!), it's becoming difficult, if not impossible, to ignore that this is a reality that threatens the very existence of all freelancers in our field. Moreover, in the medium term, the competition will no longer be between freelancers and LSPs, but between freelancers, LSPs and AI-based MT systems or other AI fiction translation services (maybe this is good news for freelancers)...

*

I've been trying to figure out how to poll the profession on that matter, here is the result:

10 Poll Ideas for Translation & Localization Industry

Poll 1

Question: With AI translation achieving "supremacy" in speed and volume, what will be the primary value proposition for human translators in 2025?

Option 1: Cultural nuance and context understanding Option 2: Creative adaptation and transcreation Option 3: Quality assurance and post-editing expertise

Poll 2

Question: As AI and neural machine translation becomes more sophisticated, which skill should translation professionals prioritize developing?

Option 1: AI prompt engineering and optimization Option 2: Specialized domain expertise (legal, medical, technical) Option 3: Project management and client relationship skills

Poll 3

Question: What's the biggest threat to translation quality in the age of generative AI?

Option 1: Over-reliance on AI without human oversight Option 2: Clients expecting AI-speed delivery with human-quality results Option 3: Loss of linguistic diversity due to AI training bias

Poll 4

Question: For localization projects, which factor will become most critical as markets become increasingly globalized?

Option 1: Real-time adaptation to cultural trends Option 2: Hyper-personalization for micro-markets Option 3: Regulatory compliance across jurisdictions

Poll 5

Question: In your experience, what's the most effective way to price translation services in the AI era?

Option 1: Value-based pricing focused on outcomes Option 2: Hybrid model combining AI efficiency with human expertise Option 3: Traditional per-word pricing with AI discount adjustments

Poll 6

Question: Which technology will have the greatest impact on the translation industry in the next 3 years?

Option 1: Multimodal AI (text, audio, video integration) Option 2: Real-time neural translation with context memory Option 3: Blockchain-based translation verification systems

Poll 7

Question: As a translation professional, what's your biggest concern about AI integration in your workflow?

Option 1: Job displacement and reduced human involvement Option 2: Quality degradation due to speed pressure Option 3: Ethical implications of AI-generated content

Poll 8

Question: For complex localization projects, which approach delivers the best results?

Option 1: AI-first with human post-editing Option 2: Human-first with AI assistance Option 3: Collaborative human-AI real-time translation

Poll 9

Question: What's the most undervalued service in the translation industry that clients should invest more in?

Option 1: Terminology management and consistency Option 2: Cultural consulting and market research Option 3: Ongoing localization maintenance and updates

Poll 10

Question: Looking at the future of freelance translation, which business model will be most sustainable?

Option 1: Specialization in AI-resistant niches (poetry, legal, creative) Option 2: Evolution into AI trainer/supervisor roles Option 3: Expansion into broader language services (consulting, training, auditing)

*

If you wish, you can comment by letting me know which survey speaks to you the most and the answers you prefer. :)