IDSIA

Così l’intelligenza artificiale
aiuta i robot a capire gli stati
d’animo degli esseri umani

Lunedì 22 gennaio 2024 circa 5 minuti di lettura
All’IDSIA vengono studiati robot che, grazie a una telecamera e a specifici algoritmi, riescono a "leggere" i movimenti del viso e degli occhi delle persone che hanno di fronte, per interpretare i loro stati d’animo (foto di Chiara Micci / Garbani)
All’IDSIA vengono studiati robot che, grazie a una telecamera e a specifici algoritmi, riescono a "leggere" i movimenti del viso e degli occhi delle persone che hanno di fronte, per interpretare i loro stati d’animo (foto di Chiara Micci / Garbani)

Studi avanzati del gruppo guidato da Antonio Paolillo, nell’ambito del grande progetto europeo SERMAS. Psicologi ed esperti di scienze sociali vengono coinvolti, accanto agli informatici, per istruire le macchine
di Elisa Buson

“Prime tensioni tra macchine e uomini: robot receptionist distrutto con una mazza”. Era questo il tenore dei titoli di giornale che la scorsa primavera annunciavano il video di una donna cinese ripresa mentre aggrediva fisicamente un robot, impiegato per il check-in dei pazienti in un ospedale di Xuzhou. Una scena che forse ci saremmo aspettati di vedere in un film distopico al cinema, e che invece fa già tristemente parte della cronaca, almeno in un Paese come la Cina, dove l’uso delle nuove tecnologie è sempre più pervasivo. Non è chiaro perché la donna ce l’avesse tanto con quell’automa, ma di certo la vicenda ha portato alla ribalta un tema cruciale: come rendere i robot ben accetti agli umani per una pacifica e fruttuosa convivenza?

All’Istituto Dalle Molle di Studi sull’Intelligenza Artificiale (IDSIA USI-SUPSI) di Lugano si sta cercando di rispondere a questa domanda applicando le più avanzate tecnologie di intelligenza artificiale e machine learning, ma non solo. «Il nostro obiettivo è superare i confini della robotica, avvalendoci della collaborazione di psicologi ed esperti di scienze sociali per valutare al meglio l’impatto che i robot possono avere sull’uomo», ci racconta Antonio Paolillo, responsabile del gruppo di ricerca in interazione sociale uomo-robot all’interno dell’area di Robotica Autonoma di IDSIA. «Fino a una decina di anni fa, tutti gli sforzi erano concentrati sullo sviluppo di algoritmi che potessero permettere ai robot di svolgere compiti come camminare, aprire una bottiglia e versarne il contenuto in un bicchiere. Ora che i robot iniziano a farsi strada anche in contesti non industriali, come ad esempio negli ospedali, nei ristoranti e nelle scuole, si è capito che non serve solo la funzionalità tecnica: bisogna curare anche gli algoritmi che regolano le interazioni con gli umani, in modo che i robot vengano percepiti come un aiuto e non una minaccia».

Guarda la gallery Guarda la gallery Guarda la gallery (5 foto)

Per questo nei laboratori dell’IDSIA si stanno conducendo dei casi-studio per contesti specifici, come quello degli hotel. Un robot receptionist impegnato quotidianamente nell’accoglienza potrebbe trovarsi di fronte a un cliente un po’ timido e spaesato in cerca di aiuto, oppure a una persona che sa esattamente quello che deve fare e non vuole essere disturbata. È dunque fondamentale che l’automa riesca a interpretare le azioni e gli atteggiamenti degli umani per poter scegliere la cosa più giusta da fare. «Grazie a una telecamera e agli algoritmi di machine learning, abbiamo studiato come le persone si muovono nello spazio, ad esempio in prossimità di una macchinetta del caffè, a seconda che siano intenzionate o meno a usarla. Osservando le loro traiettorie – spiega Paolillo – abbiamo provato a valutare la probabilità di interazione tra l’uomo e la macchina, realizzando un modulo di percezione che permetta al robot di intuire se l’umano che gli sta davanti ha intenzione di chiedere qualcosa. Se la probabilità di interazione è alta, allora il robot può decidere di fare il primo passo e assumere un comportamento proattivo, offrendo un servizio in modo anticipatorio».

Queste ricerche rientrano nell’ambito del grande progetto europeo SERMAS (Socially Acceptable Extended Reality Models and Systems), coordinato dall’Università di Modena e Reggio Emilia e finanziato dal programma Horizon Europe. L’obiettivo è sviluppare nuove soluzioni e metodologie per migliorare la relazione tra utenti e sistemi automatici, non solo robot, ma anche avatar e oggetti virtuali. Il progetto, avviato nel 2022, ha ricevuto un finanziamento complessivo di oltre 4,4 milioni di euro e avrà una durata complessiva di 36 mesi. «Al momento stiamo lavorando per creare dei modelli che permettano di intuire dal comportamento della persona se ha avuto un’interazione positiva o negativa con il robot - precisa Paolillo. - Sono diverse le sfide che ci troviamo ad affrontare. Innanzitutto dobbiamo capire quali sono i comportamenti robotici considerati socialmente accettabili da parte degli umani. Stabilirlo non è facile, perché la valutazione è molto soggettiva e condizionata da fattori culturali: per questo avremmo bisogno di fare test su un ampio campione di persone, possibilmente fuori dal laboratorio e direttamente nel mondo reale, in contesti di vita quotidiana».

Simili studi producono grandi quantità di dati complessi da analizzare e per questo è fondamentale l’uso dell’intelligenza artificiale (AI, nella sigla inglese), una delle punte di diamante dell’IDSIA. «In istituto - spiega Paolillo - l’AI viene applicata in ambiti multidisciplinari attraverso un dialogo costante tra persone con competenze diverse: questo è proprio uno dei fattori che nel 2020 mi hanno portato qui a Lugano, dopo aver studiato e lavorato tra Italia, Svezia, Giappone e Francia». L’IDSIA non offre soltanto tecniche e tecnologie all’avanguardia, ma anche un ambiente molto dinamico e stimolante dal punto di vista scientifico».

Riuscirà dunque questo crogiuolo di cervelli a trasformare i robot da ammassi di microchip e circuiti in fidati compagni di vita? Paolillo si dice fiducioso: «Le tecnologie necessarie per instaurare un buon rapporto tra uomo e macchina ci sono già. Credo che in meno di dieci anni i robot saranno capaci di interazioni fluide e naturali con gli umani. La strada è segnata, anche se non è facile dire fra quanto potremo avere davvero questi robot in mezzo a noi: molto dipenderà dal contesto socio-culturale dei singoli Paesi».