Post-editing: opportunità o minaccia? (2)

 Categoria: Attività legate alla traduzione

< Prima parte di questo articolo

Breve storia della traduzione automatica
La traduzione automatica è nata negli anni ’50 a partire dai progressi nel campo della crittografia compiuti durante la seconda guerra mondiale. Il successo dell’esperimento di Georgetown, che consistette nella traduzione automatica di sessanta frasi dal russo all’inglese, portò a una stagione di ingenti finanziamenti alla ricerca.

I primi motori di traduzione automatica si basavano sulla codificazione di un elevato numero di regole di tipo linguistico e sull’impiego di dizionari bilingui: si trattava della “rule-based machine translation” (RBMT).

Negli anni ’80, complice il successo limitato del precedente approccio e grazie all’aumento della potenza di calcolo dei computer e alla riduzione dei relativi costi, si fecero strada i primi metodi di tipo “statistico”. Mentre la RBMT richiede un grande sforzo umano di codifica e aggiornamento di regole linguistiche e risorse terminologiche, i sistemi di traduzione automatica di tipo statistico (“statistical machine translation”, SMT) analizzano un grande corpus di traduzioni allineate e apprendono le relazioni statistiche tra i dati nella lingua di partenza e quelli nella lingua di arrivo; quando viene impiegato per produrre una nuova traduzione il sistema suddivide quindi il testo in stringhe più corte, va alla ricerca delle traduzioni statisticamente più frequenti presenti nel proprio database e individua l’ordine delle parole più utilizzato. Negli anni ’90 la SMT fu al centro di grandi sforzi di ricerca e sviluppo e dei primi impieghi “reali” da parte di enti pubblici come il ministero della difesa USA e la Commissione europea e di aziende come Google, Microsoft e IBM.

Sebbene per un certo numero di anni la SMT rimase il principale sistema di traduzione automatica impiegato a livello commerciale, diverse aziende avevano già iniziato a lavorare a nuove soluzioni. Nel 2016 Google annunciò lo sviluppo di un sistema di traduzione automatica neurale (“neural machine translation”, NMT) ed entro la fine dell’anno la NMT sostituì la SMT come tecnologia alla base del celebre servizio Google Translate, in uso dal 2007.

I sistemi di NMT si basano, come quelli di SMT, sull’analisi di un corpus bilingue, ma restituiscono traduzioni di maggiore qualità perché basati su un sistema di apprendimento più efficiente. Mentre i motori di tipo statistico si limitano in gran parte ad associare sintagmi nella lingua di partenza e nella lingua di arrivo, la NMT punta a cogliere in modo più preciso possibile il significato di frasi complete e a formare un’interlingua, le cui frasi vengono poi riconvertite in frasi nella lingua di arrivo. In altre parole il testo di partenza viene analizzato nel suo complesso e viene poi creato un “altro” testo, nella lingua di arrivo, che abbia lo stesso contenuto. Le traduzioni effettuate da sistemi di NMT risultano quindi non solo il più delle volte terminologicamente corrette ma anche stilisticamente fluide e naturali. A differenza dei motori di SMT, inoltre, quelli di NMT sono in grado di migliorare i propri stessi meccanismi di apprendimento.

Terza parte di questo articolo >

Articolo scritto da:
Emanuele Vacca
Traduttore e revisore di documenti legali e finanziari
Inglese > italiano
Roma