Dal Libano a Lugano
per studiare le "oscurità"
dell’intelligenza artificiale
Intervista a Fatima Ezzeddine, ricercatrice alla Facoltà di scienze informatiche USI e all’Istituto sistemi informativi SUPSI. Per la seconda volta ha ottenuto la Borsa di eccellenza ESKAS della Confederazionedi Valeria Camia
Dal Libano al Canton Ticino per approfondire lo studio dell’intelligenza artificiale e per cercare risposte a una domanda: quanto possiamo fidarci delle decisioni prese dagli algoritmi complessi, se non comprendiamo come funzionano? Questo è il “viaggio” personale e di ricerca di Fatima Ezzeddine, giovanissima ricercatrice (ha “solo” 23 anni), dottoranda di ricerca presso la Facoltà di scienze informatiche dell’USI e presso l’Istituto sistemi informativi e networking (ISIN) del Dipartimento tecnologie innovative della SUPSI.
Un viaggio che sembra destinato a portare Fatima “in alto” dal punto di vista accademico e che già conta tappe e riconoscimenti molto importanti, come conferma la professoressa della SUPSI Silvia Giordano, uno dei supervisor della studentessa che abbiamo raggiunto al telefono. Gli altri supervisori della ricerca della studentessa sono il dottor Omran Ayoub (SUPSI) e il professor Marc Langheinrich, decano della Facoltà di scienze informatiche dell’USI. Premiata per la miglior proposta di dottorato presso la World Conference on Explainable AI, il più importante evento internazionale del settore, Ezzeddine è già stata due volte vincitrice della prestigiosa Borsa d’eccellenza ESKAS per la ricerca in Svizzera (il secondo riconoscimento è arrivato nelle settimane scorse), conferita annualmente dalla Confederazione per promuovere gli scambi internazionali e la cooperazione in materia di ricerca tra la Svizzera e oltre 180 Paesi. «Fatima è una studentessa eccellente, dall’acuta curiosità intellettuale e indiscussi risultati accademici» - commenta la professoressa Giordano, che anticipa anche come «tra poche settimane la giovane avvierà una collaborazione di alcuni mesi con l’ETH a Zurigo, che le permetterà di approfondire la dimensione “sociale” dell’uso degli algoritmi».
In Canton Ticino Fatima Ezzeddine è giunta nel periodo immediatamente seguente alle restrizioni imposte per contenere la pandemia Covid-19. Qui la sua ricerca si è concentrata sulla comprensione del processo decisionale del Machine Learning (algoritmi e modelli che permettono ai computer di apprendere dai dati e migliorare le proprie prestazioni nel tempo) e la preservazione della privacy, per affrontare una questione cruciale, ovvero il fatto che, spiega la giovane ricercatrice, «i sistemi di intelligenza artificiale (AI) portano con sé il rischio di perpetuare o amplificare gli stereotipi sociali a causa di dati di formazione distorti o di pregiudizi nella progettazione algoritmica». In un mondo sempre più connesso - continua Ezzeddine - l’intelligenza artificiale è diventata uno strumento potente, ma non privo di rischi. Le piattaforme social, ad esempio, sono terreno fertile per la diffusione di fake news, manipolate spesso dai cosiddetti “troll”, utenti che partecipano a discussioni su piattaforme digitali con l’intento deliberato di provocare, disturbare o creare conflitti e disinformazione, con inferenze anche nella nostra privacy».
Per rilevare comportamenti anomali sul social network X, Fatima Ezzeddine aveva partecipato, quando era ancora in Libano, a uno studio condotto in collaborazione interdisciplinare con ricercatori svizzeri: «Analizzavamo i comportamenti degli utenti che diffondevano notizie false - racconta, - cercando di identificare questi “troll” usando tecniche di intelligenza artificiale. Ed è stato proprio grazie a questa collaborazione che ho avuto l’opportunità di approfondire poi l’idea di un’intelligenza artificiale esplicabile (cioè di un sistema che mira a rendere trasparente il funzionamento e i risultati dell’intelligenza artificiale, ndr) e di farne l’oggetto della mia ricerca di dottorato qui a Lugano».
Conferma la professoressa Giordano: «Ho avuto modo di conoscere Fatima proprio in occasione del suo percorso di laurea alla Lebanese University (purtroppo attualmente chiusa in seguito alla drammatica situazione geopolitica circostante), e già in occasione di quella prima collaborazione avevo inteso la sua eccellenza accademica».
L’attuale ricerca di Ezzedine ha un nome lungo e difficile, per i non-addetti ai lavori: Privacy Implications of Explainable AI in Data-Driven Systems. In pratica, spiega la dottoranda, «la mia tesi si concentra sull’Explainable AI, una metodologia che mira a superare la percezione dell’intelligenza artificiale come una scatola nera, con l’obiettivo di migliorare le prestazioni degli algoritmi e, al tempo stesso, di garantire trasparenza e comprensibilità nelle decisioni che essi prendono. Si tratta, questo, di un passo essenziale per costruire fiducia nell’IA e per rendere più democratico l’uso di questa tecnologia nella società: per spiegare, cioè, come funziona l’intelligenza artificiale, come si comporta, come viene implementata e come viene utilizzata dalle persone. Tutto ciò - continua Ezzeddine - mi ha portata ad approfondire gli aspetti legati alla privacy, soprattutto quando si afferma che fornire troppe informazioni nell’ambito dell’IA esplicabile può essere problematico poiché, ad esempio, rivela dettagli sui dati personali».
In questo senso, la curiosità accademica di Ezzedine nei confronti dell’IA è connotata da una forte dimensione etica. Se da un lato si vogliono spiegare i modelli di IA in modo chiaro e trasparente, dall’altro è necessario stare attenti a non esporre informazioni sensibili, soprattutto in ambiti come quello sanitario: «È in gioco un delicato equilibrio tra fornire spiegazioni dettagliate e proteggere la privacy degli individui - conclude Ezzeddine. - Questa riflessione mi ha portato a concentrarmi sulla dimensione sociale dell’IA e su come ciò influisca sui diritti umani. Credo sia essenziale trovare un equilibrio fra trasparenza e protezione dei dati. Questi aspetti, tra l’altro, sono centrali anche nel contesto del Regolamento europeo sull’Intelligenza artificiale, un importante passo avanti per rendere l’IA più trasparente e responsabile».