Silvia Pareschi

Forse non è vero che mi restano cinqu1e anni per continuare a svolgere il mio mestiere, la traduzione letteraria, prima di venire sostituita da una macchina che sarà in grado di tradurre esattamente come me. L’avevo scritto mesi fa, in un arti- colo che ha suscitato una certa attenzione, visto che oggi l’intelligenza artificiale è un argomento “caldo” di cui si scrive tanto, anche troppo. Dal momento in cui è stato coniato il suo nome, nel lontano 1955, l’intelligenza artificiale ha attraver- sato momenti di grande popolarità – le cosiddette “estati” –, seguiti da momenti di calo, in cui l’attenzione degli investitori e del pubblico si è rivolta altrove.

Un anno fa, con il lancio di ChatGPT, un software progettato per simulare una conversazione con un essere umano, il lungo “inverno” dell’IA è finito, e quasi ogni giorno arrivano notizie sui mirabolanti sviluppi della nuova tecnologia. Di pochi giorni fa è la notizia che OpenAI, la società che ha sviluppato ChatGPT, starebbe sviluppando un “progetto Q*”, riguardante un’IA con capacità di ra- gionamento e calcolo matematico pari a quelle di uno studente delle elementari. Non si tratterebbe solo di raccogliere dati dall’oceano del web e rielaborarli senza aggiungere niente di nuovo, come ha fatto finora anche l’IA più evoluta, ma addirittura di saper ragionare e calcolare, un passo avanti impressionante, so- prattutto per la velocità con cui ci si è arrivati. Tuttavia, non si sa nulla di questo progetto, perciò è presto per gridare alla catastrofe e alla fine dell’umanità, come fanno spesso i mass media e chi li sa manipolare a proprio vantaggio.

Il vero rischio di questa tecnologia, in questo momento, sta proprio nella velo- cità con cui si sta sviluppando, perché tutte le nuove tecnologie possono essere pericolose se non governate bene. Di solito, in passato, la società aveva il tempo di assorbire le novità, e se fin dai tempi della Rivoluzione industriale la moder- nizzazione dei mezzi di produzione ha creato la perdita di posti di lavoro, oggi la velocità con cui l’IA produce nuovi strumenti avrà ripercussioni maggiori sulla società, perché le persone potrebbero non avere il tempo di aggiornarsi.

Un altro problema che sorge dalla sempre maggiore diffusione dell’IA nella vita quotidiana è naturalmente quello delle notizie false, e riguarda non solo i mezzi d’informazione. Un tempo per fare ricerche si doveva andare in biblioteca, poi si è cominciato a usare internet, mentre oggi gli studenti si rivolgono diretta- mente a ChatGPT. Ma se in biblioteca si consultavano direttamente le fonti e su internet l’accuratezza delle informazioni si poteva comunque verificare, le informazioni fornite da ChatGPT non sono verificabili e possono essere false (e spesso lo sono, tanto che è stato coniato un termine apposito per definire gli errori di questi programmi: “allucinazioni”, un termine fuorviante perché tende a umanizzare l’intelligenza artificiale. In realtà non si dovrebbe neppure parlare di intelligenza, ma piuttosto di “estrazione di modelli statistici da grandi insiemi di dati”). Inoltre, c’è un grosso problema di trasparenza, perché le ricerche sull’IA sono condotte da aziende private che non rendono pubblici i loro dati: infatti si parla di “scatola nera”, nel senso che nessuno conosce gli algoritmi in base ai quali funzionano questi programmi.

Nel mio articolo, uscito pochi mesi fa, scrivevo che cinque anni sono un’era geologica nel mondo in rapidissimo sviluppo dell’IA, e che se oggi sembra che le macchine non potranno mai dotarsi delle doti squisitamente umane neces-

sarie per tradurre testi letterari – cioè testi ai quali è possibile attribuire diverse interpretazioni, e la cui resa in un’altra lingua, lungi dall’essere una trasposizione parola per parola, consiste nel compromesso fra il contenuto e la lettura critica di chi lo traduce – è anche vero che è difficile immaginare davvero cosa potrà succedere anche solo di qui a pochi mesi. Per come stanno oggi le cose, tuttavia, il superamento dell’intelligenza umana da parte di quella artificiale è qualcosa di molto improbabile o comunque molto lontano nel futuro, e dunque chi come me traduce letteratura dovrebbe sentirsi relativamente al sicuro. Il pericolo più immediato, tuttavia, è che passi il principio della good enough quality, ovvero del- la qualità accettabile: tradurre un libro con l’IA sarà più veloce e costerà meno, e se la qualità ne risentirà pazienza. Si può già prevedere una divisione del mer- cato della traduzione in tre fasce, una fascia “bassa” in cui le traduzioni saranno completamente generate dalle macchine, una fascia “media” in cui le traduzioni verranno fatte dalle macchine e riviste dagli umani, e una fascia “alta” in cui le traduzioni saranno fatte solo da umani. E in parte funziona già così. Nel campo delle traduzioni tecniche, infatti, la sostituzione sta già avvenendo: agli uma- ni viene chiesto sempre più spesso di lavorare su testi pre-tradotti, apportando correzioni a un contenuto generato dalla macchina. Più efficiente, più veloce, più economico. Quando questa feticizzazione dell’efficienza si applica ai lavori creativi, però, si rischia di dimenticare che efficienza e creatività non sono due cose commensurabili, che l’arte non si misura in base alla velocità e all’efficienza dell’artista. Se poi esisterà un mercato per l’arte generata dalle macchine, quello è un altro discorso. Ma nessuno può venirmi a dire che la letteratura creata dagli esseri umani, con tutta la sua complessità, le sue stratificazioni di idee, ricordi, voli di fantasia, serendipità, può essere tradotta da una macchina. Lo so per certo, perché l’ho provato. Chi pensa che una macchina possa tradurre la letteratura non capisce niente di traduzione e non capisce niente di letteratura.


Silvia Pareschi vive sul Lago Maggiore e a San Francisco. Ha tradotto numerose opere di autori di lingua inglese, fra cui Nathan Englander, Jonathan Franzen, Don DeLillo, Cormac McCarthy, Zadie Smith, Shirley Jackson, Annie Proulx, Junot Díaz. È autrice del libro di racconti I jeans di Bruce Springsteen e altri sogni americani (Giunti 2016).