lingua madre

Luca Gambardella: la storia
e la filosofia ci salveranno
dal potere delle macchine

Lunedì 10 maggio 2021 circa 5 minuti di lettura In deutscher Sprache
 

di Paolo Rossi Castelli

I sistemi di intelligenza artificiale, sempre più perfezionati e potenti, prenderanno il controllo della nostra vita e tenteranno di annientarci, come nel meraviglioso “2001 Odissea nello spazio”, il film di Stanley Kubrick in cui il supercomputer Hal 9000 decide di uccidere uno a uno gli astronauti di una navicella spaziale, sentendosi minacciato da loro? Il rischio non c’è (almeno per il momento), secondo Luca Gambardella, prorettore all’innovazione dell’Università della Svizzera italiana e protagonista di una videoconferenza su questi temi, nell’ambito del progetto Lingua Madre, realizzata dal LAC in collaborazione con Ticino Scienza. Il titolo da lui scelto, infatti (“Umani, noi non vi distruggeremo”), ha un che di rassicurante. Anche se, a ben guardare, è anche il titolo (scelto volutamente da Gambardella) di un articolo uscito nel 2020 sul quotidiano britannico “The Guardian”, e scritto interamente, per la prima volta, proprio da un sistema di intelligenza artificiale, scavalcando gli uomini. Grande progresso, potremmo dire, ma anche fonte di inquietudine (almeno per i giornalisti classici...).

Ingrandisci la foto Ingrandisci la foto Luca Gambardella Ingrandisci la foto

«L’autore di quel testo - spiega Gambardella - è il nuovo sistema GPT-3 (Generative Pre-trained Transformer 3), una specie di mostro tecnico (in senso buono...), il più potente sistema che esista oggi, con 175 miliardi di connessioni (di “pesi”, in termine tecnico). È stato creato da una società che si chiama Open AI, fondata nel 2015 da Elon Musk (l’imprenditore che ha creato anche le automobili Tesla). All’inizio doveva essere open source e no profit, però recentemente è stata ceduta a Microsoft. GPT-3 va molto oltre i sistemi automatici, sempre più sofisticati, che permettono, ad esempio, di tradurre bene un testo da una lingua a un’altra. GPT-3 sa generare automaticamente un testo, con caratteristiche del tutto simili a quelle di un articolo scritto da un giornalista in carne e ossa».

Ma davvero questo sistema di intelligenza artificiale ha fatto tutto da solo?
«In realtà un giornalista (umano) ha fornito poche righe di “incipit” a GPT-3, come d’altronde avrebbe potuto fare un direttore con un suo redattore. Poi il computer ha scritto il resto (otto diverse versioni sul tema richiesto!), con estrema velocità e qualità, andando ad attingere, e rielaborando, un’enorme quantità di dati che gli erano stati forniti».

Allora possiamo davvero parlare di intelligenza...
«Il tema è complesso, e da decenni si scatenano le discussioni fra informatici, filosofi, matematici, esperti di neurobiologia. L’intelligenza umana è sempre accompagnata dalla consapevolezza: in altre parole, un uomo è cosciente di quello che fa e di quello che dice. La domanda è se anche la macchina che ha generato quel testo - un testo assolutamente credibile - sia cosciente, perché questo la porterebbe su un altro livello». 

Lei che opinione ha?
«Penso che la macchina non fosse cosciente di quello che stava scrivendo, a meno che non decidiamo di definire coscienza una capacità veloce di calcolo, come fanno alcuni filosofi, a partire dall’americano Daniel Dennett. Secondo lui tutto è calcolabile, anche l’aspetto mentale. Quindi una macchina che è in grado di fare conti complessi, in tempi molto rapidi, è capace di avere in qualche modo coscienza. Altri filosofi, come John Searle, sono invece di tutt’altra opinione e pensano che la mente - quindi la parte dell’autocoscienza e della creatività - pur essendo generata dai calcoli del cervello (riproducibili per molti aspetti dalle macchine), sia così soggettiva da non poter essere replicabile. Dunque Searle afferma che non ci sarà mai una macchina con la stessa intelligenza dell’uomo, mentre Dennet dice che questo potrebbe accadere».

Ancora un volta riemerge la distinzione fra mente e cervello.
«Sì, anche su questa divisione c’è un dibattito storico... Per molti (e per me) il cervello è la parte che fa i calcoli, e invece la mente si trova su un livello superiore. Ma torniamo all’articolo del Guardian: la “macchina” GPT-3 si è resa conto, quando ha scritto quel testo, che stava rincuorando il genere umano, con le parole “Umani, non vi distruggeremo”? La risposta è no. Stava solo generando una serie di frasi». 

Ma è poi così necessario pretendere che una macchina abbia questo livello di coscienza? 
«No... Forse dobbiamo soltanto essere soddisfatti che una macchina sia riuscita a risolvere quei problemi così bene»

Che cos’è, in pratica, GPT-3?
«È una grossa rete neuronale, cioè una replica di come è fatto il nostro cervello (ma in scala ancora molto ridotta, rispetto alla complessità del nostro sistema nervoso): quindi connessioni, neuroni... che poi alla fine sono soglie, numeri, moltiplicazioni. Queste macchine sono in grado di apprendere, e diventano sempre più efficienti, potenti. Hanno però un difetto, che chiamiamo “the black box”: sono, cioè, scatole nere. Se le apri, non le capisci, con il linguaggio umano. Se chiedi alla macchina perché ha dato una certa risposta, la macchina non lo sa.  Certo, anche se guardi dentro il cervello umano, però, non è che trovi scritta una regola, tipo: se c’è il semaforo rosso, fermati...»

Dobbiamo avere paura di questi sistemi di intelligenza artificiale sempre più “forti”?
«Noi esseri umani siamo abituati a convivere con persone che hanno intelligenze e giudizi diversi, e dunque non mi preoccupa l’idea di dovermi confrontare anche con una o più macchine che diano il loro parere. Il vero rischio è un altro: la tendenza, crescente, a delegare troppe funzioni alle macchine. È invece fondamentale che gli uomini, e soprattutto le persone più giovani, mantengano e rinforzino il loro senso critico, dunque la capacità di ascoltare tutti e poi decidere. Io incoraggio sempre gli studenti a non essere solo dei supertecnici, ma a studiare materie come l’italiano, la filosofia, la storia, perché avere cultura ti permette di possedere una capacità di giudizio diversa, facendo riferimento anche a quello che è successo in passato. Noi non abbiamo bisogno di umani-macchine (umani che diventano specializzati in conoscenze “verticali”). Abbiamo bisogno di umani che sappiano prendere decisioni da informazioni eterogenee, incluse quelle che arrivano da una macchina».

Tags:
intelligenza artificiale