Il 2023 è quasi giunto al termine e la tecnologia che più ha attirato su di sé le attenzioni del mondo è senza dubbio quella delle intelligenze artificiali. In particolare ChatGPT di casa Microsoft, al momento il modello più avanzato disponibile sul mercato, ha guadagnato una notorietà immensa. Oltre agli evidenti aspetti positivi che lo sviluppo di una simile tecnologia porta in dote e di cui si è ampiamente già discusso in questi mesi, sono emerse anche delle possibili criticità. Prima tra tutte la questione riguardante la regolamentazione di una tecnologia che tanto più si svilupperà e si potenzierà tanto più accrescerà in scala la sua pericolosità, quantomeno potenziale. Per discutere di ciò abbiamo invitato a parlare con noi Marinella Belluati e Guido Boella, due professori dell’Università di Torino e tra i fondatori del progetto AI-Aware.

I PROTAGONISTI:
Guido Boella:
 professore ordiario di informatica e vice-rettore dell’Università degli studi di Torino. Esperto di blockchain, di cui tutt’ora si occupa, di recente ha iniziato a lavorare anche nel campo delle intelligenze artificiali.
Marinella Belluati: professoressa associata di sociologia per l’Università degli studi di Torino. Si occupa in particolare di sociologia dei media e della comunicazione e ha aderito più volte in passato a progetti dell’Unione Europea volti a rafforzare l’integrazione tra gli Stati Membri.

DC: Per iniziare, oltre a ringraziarvi per il tempo che dedicherete all’intervista, parliamo del progetto AI Aware.

GB: Prenderò la parola per primo. Un paio di anni fa proprio per riflettere sul tema delle intelligenze artificiali è stata fondata SIPEIA, Società Italiana per l’Etica dell’Intelligenza Artificiale, e ho avuto il piacere di essere chiamato a farne parte; tutt’ora ricopro il ruolo di responsabile della comunicazione. In seguito dialogando con Marinella abbiamo deciso di provare ad alzare ulteriormente il tiro ed abbiamo applicato un bando pubblico, nello specifico il bando Public Engagement dell’Ateneo di Torino, con l’obiettivo di rafforzare le nostre operazioni di divulgazione raggiungendo un pubblico più ampio, ma non per questo rinunciando alla qualità dei contenuti, piuttosto talvolta semplificandoli, senza banalizzarli, per includere quanti più interessati possibile. Così nasce AI Aware, un sito pensato per commentare tutti i vari temi legati al mondo delle intelligenze artificiali.

MB: In passato avevo già proposto, quando si era parlato di Torino come sede per un polo dedicato agli studi sulle IA, che presto dopo alterne vicende dovrebbe vedere la luce, di dare vita ad un osservatorio sulle intelligenze artificiali da un punto di vista non solo meramente tecnologico. La mia idea era fondare una sorta di hub per far crescere dibattito non solo dal punto di vista accademico, ma anche per aiutare anche aziende e startup che devono muovere i primi passi in questo mondo. Sfortunatamente questa mia prima proposta fu bocciata, ma pochi anni dopo ho potuto riproporre queste idee proprio grazie al progetto IA Aware in cui ho avuto il piacere di essere stata coinvolta da Guido. Il nostro primo obiettivo al momento è quello di creare public engagement, selezionando ed organizzando informazioni e notizie sull’intelligenza artificiale da punto di vista divulgativo. Una delle ragioni che più mi hanno motivato da questo punto di vista è l’ampiezza dello spazio semantico per quanto riguarda il tema della intelligenze artificiali, oltre alle svariate ricadute che queste hanno sul mondo reale e sul pubblico. Oltre al sito abbiamo dato il via a una serie di iniziative aperte a tutti per aggiornare e riflettere sul tema a partire dallo scorso maggio in collaborazione col Circolo dei Lettori che ci mette a disposizione i suoi spazi. Questo ciclo di eventi ha decisamente avuto successo e tutt’ora la collaborazione procede con nuovi dialoghi e seminari.

DC: Spostandoci su un tema decisamente più tecnico, abbiamo assistito negli ultimi 5 anni ad una vera e propria rivoluzione per questo tipo di tecnologie. Nel 2019 GPT 2, l’antenato di GPT 4.0, non riusciva ad eseguire una semplice operazione logica come contare fino a 10; oggi ChatGPT è in grado di scrivere agevolmente in pochi secondi il codice per un programma informatico basilare. L’evoluzione è stata evidentemente esponenziale, ma ora cosa dobbiamo aspettarci? Le possibilità offerte da questa tecnologia sono destinate a crescere così vorticosamente o assisteremo ad un fisiologico rallentamento? Manca davvero così poco ai replicanti (i robot di Blade Runner NdR)?

GB: Questa in effetti è una bella domanda e la risposta non è scontata. Innanzitutto mi sembra importante osservare che al momento le limitazioni anche nelle nuove versioni di questo software continuano ad essere tante, così come le allucinazioni, ovvero le informazioni che talvolta ChatGPT inventa, e gli errori di matematica banali. Il modello attuale infatti non guarda tanto al significato quanto al significante, le parole stesse con cui dovrà rispondere: prende tonnellate di materiale da web, ma non ne coglie appieno il significato si limita rimasticarlo e sputarlo fuori. L’algoritmo di addestramento è in effetti piuttosto banale: vengono tolte alcune parole da una frase e si mettono le IA a replicarle finché non ci azzeccano. Non è quindi semplice capire dove questa tecnologia possa quindi arrivare, soprattutto a partire da questo tipo di addestramento. Al momento non mi aspetto grandi operazioni di innovazione dal punto di vista delle capacità di questo programma quanto piuttosto sul raffinamento di quelle esistenti. Aumentare la stabilità, ridurre gli errori e l’efficientamento degli enormi consumi energetici che attualmente questi neuroni virtuali comportano sarà la priorità nei prossimi anni.

MB: Vorrei aggiungere, per chiarificare ulteriormente la questione, che dopo questo scatto non penso avremo per molto tempo un simile balzo in avanti. Concordo con il mio collega da questo punto di vista anche se sono un po’ più pessimista di lui sulle tempistiche. Insomma se dovessimo tracciare un grafico non vedremmo un aumento esponenziale, ma un ritmo che procede a bruschi balzi; ora che se ne è da poco consumato uno dovremo aspettare diversi anni prima di vederne un altro.

DC: Abbiamo visto le prime applicazioni di uno strumento ancora incompleto che già ci lasciano a bocca aperta, ma non dobbiamo dimenticarci dei rischi che una tecnologia tanto potente e potenzialmente pervasiva porta con sé. A che punto siamo dal punto di vista di una regolamentazione che permetta di approcciarsi a questo strumento senza perdere di vista l’etica e la morale e soprattutto senza recare danni alla società?

MB: Dopo la grande fiammata dell’ultimo anno, che ci ha mostrato definitivamente la potenza di questo “giocattolo”, ora anche nel sentimento comune si sta accrescendo il senso di pericolo per le possibili distorsioni che potrebbero intaccare il sistema politico e pubblico. Va detto che le IA per il cittadino medio sono per il momento uno strumento applicato per lo più alla sfera ludica e dell’intrattenimento, ma questo potrebbe cambiare a breve. Il che di per sé non è assolutamente un problema, le criticità infatti sorgono da un uso deregolamentato di questo potenziale. La possibilità di fabbricare false notizie e metterle in bocca a personaggi pubblici di rilievo è in effetti uno degli aspetti più preoccupanti che vengono subito alla mente, ma in generale i rischi sono enormi. Da ciò nasce una necessità forte di fare pressione affinché coloro che sono preposti a legiferare e regolamentare agiscano al più presto. Invero i primi passi in questo senso sono già stati mossi ed è stata proprio l’UE la prima istituzione sovranazionale a tentare di inquadrare questo fenomeno in un ambito istituzionale. È recente inoltre la notizia per cui gli stessi USA, notoriamente uno Stato poco propenso alla regolamentazione del mercato, hanno iniziato ad emanare leggi per tenere sotto controllo il fenomeno. Non possiamo andare avanti con la mentalità del ‘basta che funzioni’, è necessario lavorare profondamente sulla semantica; il problema di fondo che mi rende pessimista a riguardo è la lunghezza dei tempi, infatti l’innovazione tecnologica viaggia molto più spedita di quella legislativa.

DC: A proposito di legislazione, nel mese scorso Giuliano Amato, uno dei più celebri volti della Prima Repubblica, è stato nominato alla veneranda età di 85 anni Presidente della Commissione sulle AI per l’editoria. La scelta ha acceso immediatamente un vivace dibattito: da un lato taluni fanno notare come l’esperienza di questo giurista sia pressoché impareggiabile e potrebbe giovare dal punto di vista delle regolamentazioni, dall’altro è anche vero che Amato è di una generazione ancora “analogica” ed è difficile pensare che si intenda di algoritmi e computer (non che questa sia una colpa, beninteso) e stona parecchio il confronto con il pari ruolo britannico che ha meno della metà dei suoi anni (39) ed è tra i massimi esperti al mondo di algoritmi. Cosa ne pensano due addetti ai lavori?

GB: Al momento non sono pienamente informato sulla vicenda e prima di dare un parere secco sulla questione dovrei sapere chi fa parte di questa commissione oltre a colui che la presiede. Va comunque ribadito per spezzare una lancia in suo favore che Amato ha una conoscenza del diritto e del mondo dell’editoria senza pari in Italia e quindi di per sé, se supportato da altri tecnici competenti, la decisione non mi sembra ingiusta.

MB: Risponderò con una provocazione: sarebbe stato meglio un 39enne esperto di diritto ed informatica. Si è puntato invece su un nome altisonante e di successo. Come diceva Guido poi, è chiaro che diventa fondamentale capire come è composta la commissione prima di lanciarsi in giudizi, ma vorrei aggiungere un altro dato. 3 anni fa fui nominata come uno dei 15 membri della commissione che doveva occuparsi della transizione digitale, un argomento di primaria importanza per il Paese, ma la commissione non si riunì mai e fu lasciata cadere con il cambio di Governo. Bisogna quindi vedere cosa accadrà rispetto anche all’effettiva operatività di questa commissione, sperando non si tratti anche in questo caso di un bluff.

DC: Siete ambedue professori universitari, uno nel campo delle scienze esatte, l’altra in quello delle scienze umane, ed ovviamente avrete a che fare con un gran numero di tesi dei vostri studenti. Ora è evidente quanto ChatGPT possa essere uno strumento di grande utilità per rendere più agevole la compilazione delle tesi, tanto che l’Università di Delft in Olanda (un’eccellenza internazionale) ha non solo comunicato la possibilità per gli studenti di avvalersi di questo chatbot, ma ne incoraggia l’uso in fase di revisione formale. Aldilà di eventuali policy dell’Università di Torino, che ignoro come si sia espressa in merito, qual è il vostro parere in proposito?

MB: Da quanto so non c’è ancora una policy formale della nostra università a riguardo. È stata inoltrata una richiesta formale per dare inizio ad un dibattito su come regolamentare ChatGPT nei lavori di scrittura, ma ancora non si è discusso di nulla. Va comunque detto che io stessa utilizzo questo strumento per aiutarmi in un lavoro intellettuale che spesso finisce con l’essere frenetico. Non mi sognerei mai ovviamente di domandargli una verità universale, mi limito ad usarlo solo su argomenti che già conosco; lo potremmo infatti definire al momento come un semplificatore che va utilizzato con attenzione. Talvolta mi è capitato per tradurre i miei papers di ricorrere all’IA di DeepL e devo dire che in questo ambito il livello raggiunto dalle macchine è impressionante, traduce tutto alla perfezione e senza errori. E ho potuto risparmiare i soldi che avrei dovuto pagare ad un traduttore. L’integrazione di questo strumento è quindi utile secondo me, ma richiede che questi strumenti vengano illustrati e spiegati per evitare che invece di migliorare la situazione la peggiori.

GB: Si tratta di strumenti decisamente complessi da fruire con consapevolezza in effetti perché in sostanza è come avere a fianco una persona esperta di tutto che però potrebbe improvvisare o mentire improvvisamente e senza un vero e proprio scopo. Se questa tecnologia verrà accettata in università quel che è certo è che i docenti si dovranno sobbarcare un lavoro molto più complesso per insegnare ad utilizzare questo strumento con efficacia. D’altronde potrebbero non esserci alternative giacché non esiste uno strumento per verificare che un testo non sia stato prodotto con l’aiutino di un IA. Praticamente sarebbe anche realizzabile, ma le case delle IA sono ben contrarie a condividere le informazioni necessarie e manca una forte volontà legislativa in tal senso che non potrà arrivare a breve.

MB: Aggiungo solo un’ultima considerazione: è fondamentale che gli studenti non diventino troppo “viziati” da questi strumenti e perdano la loro capacità critica. Sarebbe un disastro senza precedenti per il mondo dell’istruzione e comporterebbe un altissimo rischio di perdere quelle sfumature che arricchiscono immensamente qualsiasi percorso accademico, senza dimenticare il rischio di un appiattimento su un livello la cui asticella non è nemmeno decisa da noi ma da un entità a base di silicio.