Intelligenza artificiale, la sfida
difficile fra le università
pubbliche e i super-big privati

Un’analisi di Barbara Caputo, docente di informatica al Politecnico di Torino, premiata a Lugano con il Grand Prix Möbius dall’omonima fondazione. Sempre più delicati i temi legati a sicurezza e trasparenzadi Simone Pengue
Sembra che non si smetta mai di parlare di intelligenza artificiale (AI, nella sigla inglese). Quando, dopo la presentazione di ChatGPT nel 2022, questa tecnologia è entrata nel dibattito quotidiano spalancando la porta, ci siamo meravigliati tutti delle sue potenzialità. Oggi, invece, si sta radicando una sorta di assuefazione alla generazione di testi, immagini e video da parte dell’AI, e il dibattito si sposta sempre più spesso sui suoi limiti e sulle possibili minacce che vengono con essa. Tra annunci di chi è in posizioni di potere e il rilascio di nuovi software da parte di criptiche aziende private, non c’è discussione che non intrecci l’intelligenza artificiale alla geopolitica e all’economia, prima ancora che alla scienza. Questi temi hanno portato a Lugano il 17 febbraio Barbara Caputo, professoressa del Dipartimento di Automatica e Informatica del Politecnico di Torino, premiata con il Grand Prix Möbius dall’omonima Fondazione. La cerimonia di consegna, nella Sala polivalente del Campus Est USI-SUPSI di Viganello, ha visto la partecipazione del direttore dell’IDSIA Andrea Rizzoli, che ha pronunciato la laudatio per la professoressa. La Fondazione Möbius, nata nel 2015 con lo scopo di promuovere una diffusione consapevole dell’informatica, assegna ogni anno il Grand Prix a studiosi dell’informatica che si sono distinti per il proprio impegno sociale.
Barbara Caputo Guarda la gallery (2 foto)
Coinvolta anche nelle attività di grandi aziende e piccole startup, Barbara Caputo siede a cavallo tra le ricerche universitarie e le applicazioni commerciali: due mondi (quello pubblico e quello privato) che portano interessi divergenti, con un dialogo che si fa sempre più complesso, man mano che la collettività e le attività produttive diventano permeabili a questa tecnologia. Se da una parte si cerca di tutelare i cittadini e di sostenere la libera ricerca universitaria, dall’altra si agisce secondo logiche di mercato, proteggendo in primo luogo gli interessi economici di ermetiche aziende private, spesso dalle dimensioni molto elevate come Google, Microsoft o Meta (Facebook). Le forze in campo, sia come risorse computazionali che economiche e umane, sono sproporzionate: «Dal punto di vista della ricerca - conferma Caputo - oggi nessuna università o istituto pubblico riesce a competere con quello che possono offrire i laboratori privati». È difficile per un Paese capire l’evoluzione dei sistemi commerciali introdotti dai colossi di Internet e dai big dell’intelligenza artificiale. E si stanno delineando crepe in temi di sicurezza e trasparenza. «Non tanto tempo fa - continua Caputo - i più grandi atenei statunitensi hanno scritto un appello congiunto all’allora presidente degli Stati Uniti Joe Biden, dove spiegavano che se tutti gli accademici unissero le forze in termini di potere economico, capacità computazionale e cervelli, non sarebbero comunque in grado di replicare i risultati di OpenAI (l’azienda che ha sviluppato ChatGPT, ndr) o dei laboratori di Google. È stato un modo per dare l’allarme: questo settore sta veramente sfuggendo di mano, con rischi anche pesanti, se la conoscenza e la comprensione tecnica di questa tecnologia diventeranno appannaggio esclusivo di pochi».
I possibili danni sono sia a breve che a lungo termine. Nell’immediato, in particolare, non si può garantire il rispetto della privacy degli utenti, mentre sul lungo periodo si potrebbero creare situazioni di dipendenza dagli erogatori dei servizi. Secondo Caputo, «se un Paese decide di adottare un algoritmo creato altrove, dovrebbero intervenire équipe di esperti in grado di eseguire un’analisi tecnica riga per riga di quel software», così da assicurare sia la sicurezza che la capacità di intervento.
Per cercare di tutelare la popolazione, nel marzo 2024 l’Unione Europea ha approvato una pionieristica legge per tutelare i diritti umani chiamata AI Act, con un insieme di linee-guida alle quali anche il Consiglio Federale svizzero ha intenzione di aderire. Nonostante gli entusiasmi della stampa, Barbara Caputo si dice «molto scettica nei confronti degli sforzi della UE di regolamentare l’intelligenza artificiale». Il timore principale è che l’AI Act venga recepito in modi diversi nei vari Paesi». L’applicazione all’interno dell’Europa potrebbe diventare eterogenea, spingendo le aziende a rivolgersi maggiormente verso il mercato statunitense, più uniforme e meno caotico. Allo stesso modo, i prodotti americani o cinesi potrebbero avere difficoltà a inserirsi nel mercato del nostro continente e questo porterebbe l’Europa a una situazione di isolamento tecnologico».
In ambito privato, Barbara Caputo (che è co-fondatrice della startup Focoos AI e membro di diversi consigli di amministrazione) sottolinea l’importanza della rete infrastrutturale per la diffusione capillare dell’intelligenza artificiale nelle realtà imprenditoriali. Per le industrie, questo significa prima di tutto un alto tasso di digitalizzazione dei processi produttivi, ma anche disponibilità dei computer sui quali svolgere i calcoli per addestrare i sistemi. L’investimento per introdurre mezzi informatici nel processo produttivo può essere molto importante, soprattutto per chi opera nel settore primario e secondario (agricoltura e industria). Eppure, secondo Barbara Caputo il vero determinante tra chi introdurrà con successo l’intelligenza artificiale nella propria azienda e chi no non è il capitale, ma «il livello di maturità digitale e il livello di digitalizzazione intrinseca di un’azienda», ovvero la capacità di essere ricettivi verso le proposte tecnologiche. Come a ricordare che, nonostante i timori di una polarizzazione tecnologica, siamo ancora noi, cittadini e utenti, a dare una direzione allo sviluppo dell’intelligenza artificiale.