Scenari

Una “filigrana” per bloccare,
o almeno segnalare, i testi scritti
con l’intelligenza artificiale

Lunedì 8 aprile 2024 circa 6 minuti di lettura
(Immagine dell’agenzia Shutterstock generata con un sistema di intelligenza artificiale)
(Immagine dell’agenzia Shutterstock generata con un sistema di intelligenza artificiale)

La proposta parte da Emily Bender, docente all’Università di Washington ed esperta di fama internazionale sull’argomento, che è stata invitata dall’USI a Lugano per parlare dei rischi legati ai “testi sintetici”
di Simone Pengue

Spesso, e siamo un po’ tutti “colpevoli”, l’autore di certe e-mail o di altri testi firmati da noi è, almeno in parte, ChatGPT. E quegli stessi testi vengono letti - ad esempio negli uffici dell’assistenza clienti o delle risorse umane di molte aziende - da altri sistemi di intelligenza artificiale, che poi prendono una decisione e scrivono una risposta. Noi utenti abbiamo l’impressione di entrare in relazione con una persona, ma quello che manca dall’altra parte dello schermo sono proprio le persone. Uno scenario paradossale, ma assolutamente realistico nel 2024 e non privo di rischi. 

Per parlare della diffusione incontrollata dei “testi sintetici” scritti (e letti) dall’intelligenza artificiale, Emily Bender, professoressa di linguistica all’Università di Washington (USA) ed esperta di fama internazionale su questi temi,  ha tenuto una lezione a Lugano per i dottorandi dell’Università della Svizzera italiana (USI) il 5 aprile. Un seminario dai ritmi sostenuti e denso di idee, che ha coinvolto tanto i ricercatori del mondo umanistico quanto quelli dell’ambiente più tecnico, provenienti dalla Facoltà di scienze informaiche e dall’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA). Nonostante di intelligenza artificiale si parli in abbondanza da oltre un anno (da quando, cioè, hanno fatto la loro comparsa su larga scala sistemi come ChatGPT, appunto), ora che se ne cominciano a vedere i danni, i pericoli e i limiti, la voglia di discuterne tra esperti è tanta. Lo scetticismo è alimentato non dalla potenzialità dell’intelligenza artificiale e nemmeno dai suoi limiti, ma per quello che, subdolamente, sembra fare, ma non fa. 

Ingrandisci la foto Ingrandisci la foto Emily Bender Ingrandisci la foto

Il problema, infatti, è che i testi generati dall’intelligenza artificiale, o più precisamente dai modelli di linguaggio di grandi dimensioni sono così fluidi da sembrare sempre perfettamente plausibili e degni di piena autorevolezza. Affidarcisi, però, presenta molti rischi. Ad esempio, si può incorrere in informazioni completamente inventate che, pur suonando realistiche, sono prive di ogni fondamento. Oppure, i siti web e i motori di ricerca possono produrre automaticamente contenuti offensivi nei confronti di particolari gruppi etnici o nazionalità, senza che i gestori della piattaforma ne siano al corrente. 

L’aspetto in comune di questi e altri problemi simili è l’assenza del tocco umano, unita all’ingannevole sensazione che invece il testo sia prodotto da una persona. Questo può avere conseguenze concrete per cittadini e aziende, come è successo nel 2022 al canadese Jake Moffatt. L’uomo, che doveva recarsi a un funerale, è stato erroneamente informato da una chat online della compagnia aerea Air Canada che era prevista una tariffa speciale proprio per chi doveva prenotare un viaggio “last minute” in seguito a un lutto familiare. Moffatt ha così prenotato e pagato un biglietto da quasi 600 dollari, contando sul successivo recupero di una parte di questo prezzo, come promesso dalla chat online. Ma l’offerta è poi risultata inesistente e, nonostante Air Canada abbia declinato ogni responsabilità, il 21 febbraio 2024 un giudice del British Columbia Civil Resolution Tribunal si è pronunciato in favore di Jake Moffatt, condannando la compagnia a pagare circa 800 dollari come risarcimento. La sentenza, destinata a fare giurisprudenza in Canada e probabilmente a costituire un caso modello anche in Svizzera, ha infatti stabilito che la compagnia è responsabile per le informazioni fornite sul suo sito, indipendentemente se siano scritte in modo statico da un dipendente o create in tempo reale da un computer

Nonostante il consumatore sia effettivamente stato tratto in inganno, non di frode si può parlare, perché, spiega Emily Bender, «la frode è attuata da qualcuno che cerca deliberatamente di ingannare, mentre il testo sintetico che proviene da ChatGPT e da altri modelli linguistici di grandi dimensioni non cerca di fare nulla». Ovvero, alla macchina manca l’intenzione, nonostante trasmetta al lettore la sicurezza di averla. Una sottigliezza che porta gli utenti alla confusione, perché «la maggioranza di noi - continua Bender - non è mai stata esposta a testi scritti senza un intento comunicativo prima d’ora». 

A pensarci bene, in effetti, tutti i testi circolanti fino a pochi anni fa erano scritti da persone con l’intento di trasmettere qualcosa al lettore, sia che il mezzo  fosse un SMS, una serie di istruzioni o una poesia, ma anche uno  scontrino, i siti web o persino i semplici cartelli stradali. Un sistema interpretativo, questo, con millenni di cultura alle spalle che crolla se lo scrivente (un’intelligenza artificiale) di intenzioni non ne ha e semplicemente associa le parole una alle altre in maniera matematica, per costruire qualcosa che sembra prodotto dagli umani. 

Per tutelare le persone, Emily Bender suggerisce di creare una procedura che indichi chiaramente quali contenuti sono stati scritti da umani e quali da macchine. Ad esempio, richiedendo alle persone che usano i modelli di linguaggio di grandi dimensioni di utilizzare delle filigrane (in inglese “watermarks”) digitali indelebili per identificare la provenienza del testo. «Si potrebbe anche immaginare di avere - continua Bender - un’estensione per il browser (come Google Chrome, Microsoft Edge o Safari, ndr) che nasconda qualsiasi testo sintetico contrassegnato da una filigrana. Così questo materiale non avrebbe più tanta importanza». 

Anche l’utente, però, deve navigare su internet con maggiore diffidenza e «sviluppare - dice Bender - un’alfabetizzazione informatica». In particolare, è importante saper capire da dove provengono le informazioni che ci vengono fornite e metterle nel loro contesto, restando scettici anche quando pensiamo di star interagendo con un umano. Nonostante questi rischi, sempre più aziende continuano ad affidare il proprio servizio clienti, o alcuni prodotti, ai modelli di linguaggio di grandi dimensioni. «Si sono tutti buttati su quel carro - spiega Bender - perché pensano che ci sia molto denaro dietro, ma in realtà non è così. Non credo che ci sia vero guadagno da ottenere, perché in questo modo non si crea valore ma, al contrario, un disastro».

È pur vero, comunque, che l’intelligenza artificiale stia dando una grossa mano a generare testi per professionisti e semplici utenti che non possono dedicare molto tempo alla scrittura di e-mail, didascalie o lettere commerciali. Chi ha l’occhio allenato, comunque, riesce a individuare rapidamente la presenza di strutture sintattiche o lessicali tipiche di ChatGPT. 

Un altro aspetto da considerare è che la nostra esposizione a tanti testi simili tra loro potrà forse influenzare in futuro il modo in cui parliamo e scriviamo, proprio come succede viaggiando in zone italofone differenti dalla nostra. Secondo la linguista statunitense, ci sono due possibili scenari, opposti: «Potrà accadere - dice - che raccoglieremo modi di dire comuni nei modelli di linguaggio di grosse dimensioni. Questo renderebbe il linguaggio meno variabile, perché persone di molti luoghi diversi vedrebbero le stesse frasi. Alternativamente, potremo, invece, iniziare a parlare in modo più diversificato, proprio per “suonare” differenti da ChatGPT. E quindi potremo finire con un’esplosione di creatività e variazione nel linguaggio!».
Le predizioni, le osservazioni e gli allarmi lanciati dalla professoressa Emily Bender, in fondo, vanno tutti nella stessa direzione: l’intelligenza artificiale è nel nostro mondo, ma per trarne davvero benefici dovremo sfruttare al massimo le nostre qualità di esseri umani.