progresso

Intelligenza artificiale e problemi etici: cosa si fa alla Fbk di Povo

Parla Maurizio Napolitano: dalle «app» che ci stupiscono al lavoro dei ricercatori, per le «correzioni umane» necessarie

LA PROVA Abbiamo intervistato l'applicazione che sa scrivere articoli 
OPINIONE Il pedagogista: «Cellulare in classe? Più coinvolgimento e meno repressione» 
FENOMENO Solo 7 giovani italiani su 100 si sono “immersi” nel Metaverso


Gigi Zoppello


TRENTO. Il grande pubblico ha scoperto il volto user friendly e "facile" dell'intelligenza artificiale. Ma qual’è lo scenario del futuro prossimo? Lo abbiamo chiesto a chi - in Trentino - se ne occupa: il gruppo di ricercatori che alla FBK - Fondazione Bruno Kessler - da anni lavora in questo campo. Ci ha risposto Maurizio Napolitano.

Napolitano, con le nuove «app» il futuro dell’AI sembra molto meno spaventoso delle allarmistiche previsioni di "potere dei computer"; è così?

Sono quasi 70 anni che si studia l'intelligenza artificiale e tutto quello che abbiamo immaginato, studiato, cercato di realizzare in questi anni sta cominciando a prendere una forma sempre più concreta e più vicina alle persone. Sin dagli anni ’60 il mondo della fantascienza ci ha accompagnato, tra racconti (Isaac Asimov ne scriveva già nel 1955), cinema ("2001: Odissea nello spazio" di Stanley Kubrick usciva nel 1968) e innumerevoli serie tv che ci disegnavano un futuro possibile con tutte le distopie del caso. Questo, sicuramente, ha dato un contributo ad una immagine allarmistica. Ora assistiamo ad una accelerazione improvvisa: interroghiamo un chat bot (un "robot" con cui possiamo "chattare") come ChatGPT-3 e ci stupiamo del modo con cui ci risponde, con la capacità di contenuti che crea ed anche se spesso gli errori sono evidenti, ne rimaniamo affascinati.

Con quali conseguenze?

Questo da una parte ci affascina e ci fa immaginare scenari in cui le macchine saranno sempre di più al nostro servizio; dall'altra parte alimenta dubbi, timori, perplessità su come la società si evolverà.

Dal vostro punto di vista?

Chi sta lavorando nel settore dell'AI sa benissimo come mettere in discussione la magia dei prodotti dell'intelligenza artificiale. Ne conosce a fondo i limiti. Molto banalmente, le risposte di un chatbot non sono altro che imitazioni dei testi creati dalle persone, assemblati in maniera puramente statistica. La conseguenza è quindi che ciò che si ottiene, anche se può apparire convincente, non necessariamente ha contenuti corretti. Inoltre, ciò che viene dato all'addestramento di una intelligenza artificiale ne definisce poi il comportamento e può causare anche tutta una serie di pregiudizi legati al contesto in cui è stato creato. In questo caso si parla di "pregiudizio algoritmico" (ChatGPT-3, ad esempio, ha dimostrato di assumere posizioni di pregiudizi razzisti e sessisti).

Insomma, va «controllato».

Tutta la fiducia nell'AI deve essere a sua volta ponderata con quello che ne sono le sue conseguenze e chi si occupa di questo non fa altro che metterlo in luce: la stessa Commissione Europea, nel 2018, ha elaborato un codice etico e dal 2021 un regolamento sull'intelligenza artificiale. Le tecnologie che cambiano radicalmente la società portano sempre vantaggi e svantaggi. Prima dell'invenzione del treno o dell'aereo non esisteva il relativo incidente, e nonostante questi accadano ancora, nessuno ha smesso di portare avanti queste innovazioni, anzi, si è sempre lavorato e si lavora tuttora per migliorarle e ridurre i rischi.

Chi lavora in questo settore ne ha sempre più consapevolezza, avendo presenti le conseguenze etiche.

Queste app sono l’inizio: cosa c’è in arrivo?

Questo è solo l'inizio e il fatto che questi strumenti escano dai laboratori, dal cerchio degli esperti e comincino a diventare popolari, farà sì che si vedranno sempre più usi e riusi che cambieranno il modo di lavorare ed anche la società. Il ruolo della divulgazione scientifica e quella educativa saranno centrali. Anche se i risultati che si vedono attualmente sono sbalorditivi, il percorso è ancora lungo, perché serve lavorare nell'evitare che troppa fiducia nasconda malfunzionamenti.

Lei crede che questi esempi di AI "apprendente" entreranno anche negli smartphone?

In realtà lo sono già da tempo, magari in una forma non così stupefacente come può esserlo nel vedere un software che risponde a delle domande. Allo stato attuale, l'app di turno mi suggerisce il ristorante, dove parcheggiare, cosa visitare, chi c'è intorno a me ... e spesso lo fa in maniera efficace. Questo perché ci sta profilando, e quindi sta apprendendo qualcosa sulle nostre abitudini relazionate a quelle degli altri. Allo stesso tempo ci ricorda che le macchine, per poter essere efficienti nel risponderci, hanno bisogno ancora di noi.

Una domanda: le chatbot sono il nuovo Google?

Un motore di ricerca (Google) e un chatbot (ChatGPT-3) sono due oggetti diversi: il primo è progettato per fornire risultati di ricerca il più precisi e completi consultando il web; il secondo, invece, è uno strumento pensato per dialogare con un utente attraverso il linguaggio naturale.

Lo scenario che si può immaginare è quello per cui un chatbot potrebbe diventare una interfaccia ad un motore di ricerca, ma difficilmente lo potrà sostituire in toto. Allo stato attuale, però, anche il fatto che Microsoft abbia annunciato l'intenzione di integrare ChatGPT-3 nei suoi strumenti (si parla di Microsoft Word, Outlook e il motore di ricerca Bing), ha portato Google a richiamare i suoi fondatori (Larry Page e Sergey Brin) per capire come rinnovarsi.

Queste app sono molto "influenzabili” dall'utente: è un pericolo?

ChatGPT-3 parte rispondendo sulla base dei contenuti con cui è stato addestrato e già questo può creare una prima bolla "cognitiva" sul piano ideologico. Inoltre, essendo un chatbot, lo scopo è quello di essere in grado di dialogare e di apprendere dall'interazione con l'utente. La progettazione attuale cerca di fare in modo che il chatbot rispetti dei principi etici. Non va dimenticato che quando tecnologie come queste diventano pervasive all'interno della società, poi scatta una sorta di "patto sociale" per cui, se sbagliano qualcosa, perdono credibilità e finiscono per non essere più utilizzate.

C’è un problema etico, quindi?

Una questione etica esiste, senza dubbio, ed ogni ricercatore che lavora in questo settore si pone il problema e trova soluzioni.

Oltre ai pregiudizi che le macchine possono fare nel loro replicare e riassemblare conoscenza che può avere già di suo un filtro (proviamo ad immaginare quali sarebbero le risposte di ChatGPT-3 se addestrato con i soli testi del medioevo) e quindi portare a fare scelte sbagliate, ci sono anche questioni di proprietà intellettuale, di sfruttamento delle persone o ambientali o pericoli che possono minare alle scelte democratiche.

Il software ha bisogno di hardware e questo alla fine consuma energia, inquina, ha bisogno di materie prime e contribuisce quindi al cambiamento ambientale.

E, non per ultimo, è importante chiedersi se ci possono essere pericolo nelle scelte democratiche: dove finiscono questi dati, chi è in grado di controllare e cambiare questi sistemi? Sono molti i problemi etici ma quello che è importante sottolineare è che, questo tema, è molto più attuale di quanto si creda. L'Europa non è la sola a porsi il problema e sempre di più sono le realtà che se ne occupano anche in altre discipline.

Che cosa fa FBK nel campo dell'AI e quanto contribuisce a questi progressi?

La storia di FBK nasce dall'Istituto Trentino di Cultura voluta da Bruno Kessler che, negli anni '60, guardava lontano chiedendo di investire nella società della conoscenza. Un percorso che ha portato negli anni '80 alla creazione dell'IRST (Istituto ricerca scientifica e tecnologica), che attualmente corrisponde al polo scientifico di FBK sulla collina di Povo.

Negli anni '80 l'IRST nasceva proprio per studiare l'intelligenza artificiale ed il progetto di punta era M.A.I.A - Modello Avanzato di Intelligenza Artificiale. Un robot in grado di muoversi da solo all'interno dell'edificio, riconoscere comandi vocali, rispondere a questa parlando, interrogare un catalogo ed altro ancora. Tutte funzionalità che ora sono alla portata di tutti e che, al tempo, erano pionieristiche.

Se però ora, i nostri smartphone (e non solo) sono in grado di "parlare", riconoscere un messaggio vocale, tradurlo in altra lingua ed altro ancora, lo devono sicuramente al contributo che i ricercatori e le ricercatrici di M.A.I.A. hanno dato all'intelligenza artificiale. Sono molte le persone che si sono formate in FBK e che ora stanno lavorando per quelle multinazionali che ci stanno stupendo nel mondo dell'intelligenza artificiale, e ancora di più lo sono quelle che ancora operano a Trento.

Fra questi vale la pena citare Oliviero Stock e Paolo Traverso - fra i pionieri di M.A.I.A. - il cui contributo alla ricerca scientifica sull'intelligenza artificiale continua ad esserci (entrambi sono anche consulenti del ministero dell'istruzione e della ricerca per il governo tedesco .

Questa eredità si è sviluppata sempre di più in FBK, andando poi a specializzarsi in settori disciplinari sempre più precisi (società, salute, sicurezza, industria, energia...) ed andando anche oltre quello che è il mondo del software e dell'hardware. I temi dell'intelligenza artificiale e del suo impatto nella società sono anche argomento di ricerca del polo umanistico. Il contributo quindi di FBK all'intelligenza artificiale è nella sua strategia da sempre e lo fa con tutti gli attori del territorio con cui è in stretto contratto. Quello che sta accadendo è un interesse sempre più crescente sul tema in ogni settore della società e, allo stesso tempo, l'offerta educativa che si occupa di questo (l'università di Trento offre un corso di laurea magistrale in sistemi di intelligenza artificiale) ed è solo creando sempre più figure che si occupano di questo, che potremmo accompagnare la società nella giusta direzione. Da questo punto di vista, Trento, con FBK e con l'università, è uno dei territori in grado di guardare lontano e di contribuire in maniera importante nello sviluppo dell'intelligenza artificiale e della sua etica.

 













Scuola & Ricerca

In primo piano