Intelligenza artificiale e fake news

Una chiacchierata con il prof. Riccardo Zecchina

A novembre si terrà l’evento della Fondazione Veronesi Science For Peace and Health.  A noi di BUTAC è stata offerta la possibilità di fare due chiacchiere con il prof. Riccardo Zecchina, esperto di intelligenza artificiale che ho collegato all’ambito di cui ci occupiamo da queste parti: le fake news. Perché capire dalle parole dell’esperto se dobbiamo temere il progressivo migliorarsi dell’intelligenza artificiale o se invece potrà essere un’alleata nel contrastare la disinformazione è importante.

 BUTAC: Si parla tanto di algoritmi per contrastare le fake news, Mark Zuckerberg durante la sua audizione al Senato americano ha citato l’intelligenza artificiale svariate volte, sostenendo che nei prossimi dieci anni vedremo le AI risolvere la maggioranza dei problemi legati al diffondersi di fake news. Lei cosa ne pensa? Avremo un futuro in cui l’intelligenza artificiale potrà contrastare il dilagare dell’information disorder?

  • Prof.Zecchina: Chi di voi utilizza la posta elettronica sa che ci sono molti messaggi, che si chiamano spam, fatti a scopo pubblicitario che vengono filtrati automaticamente dal sistema di posta elettronica. Questo sistema oggi si basa sull’intelligenza artificiale. Ora, è evidente che Facebook in particolare, ma tutti i social media, e quindi i ricercatori che lavorano per queste società hanno a disposizione una grande quantità di dati per cui sono in grado di identificare con certezza tutta una serie di sorgenti di dati inaffidabili. Sicuramente ci sarà la possibilità di identificare account falsi, trovare connessioni tra chi produce notizie false, e quindi esisterà tutta una serie di cose che potranno essere messe in pratica. Però è anche necessario chiarire che ci vuole un’etica. L’uso dell’intelligenza artificiale deve essere regolamentato come anche l’uso degli strumenti digitali dell’internet e tutta una serie di operazioni tra loro connesse. Le fake news sono sempre esistite, solo che oggi vengono amplificate dal web e quindi è necessario da un lato regolamentare l’utilizzo del web stesso, e dall’altro certamente utilizzare strumenti di intelligenza artificiale per risolvere tutta una serie di problemi concreti. Non credo che sia una panacea, ovvero l’intelligenza artificiale da sola non basterà, c’è bisogno che tutti gli attori sociali si mettono d’accordo per regolamentare l’utilizzo di questi sistemi. In Europa lo si fa più che negli Stati Uniti ed è una cosa che andrà fatta sempre di più in futuro.

BUTAC: Tra le critiche che sento spesso fare nei confronti dell’intelligenza artificiale una che ho sentito ripetere è legata alla programmazione della stessa AI. L’ho trovata in riferimento ad AI specifiche (quella di Google e di Facebook, Perspective e Deeptalk) progettate per contrastare l’odio e il bullismo in rete. Il sospetto è che essendo istruite da esseri umani con i loro personali pregiudizi possano generare un vasto numero di falsi positivi basati sui pregiudizi assorbiti in fase di programmazione. Le cose stanno veramente così, o esistono sistemi per superare il bias di programmazione?

  • Prof.Zecchina: Il problema di quello che è chiamato il bias negli algoritmi, ovvero il fatto che gli algoritmi tendono a dare in maniera sistematica delle risposte in qualche modo orientate, concedetemi la semplificazione, in maniera non onesta, non obiettiva, è legato al tipo di dati su cui vengono addestrati i sistemi di intelligenza artificiale. Abbiamo discusso il fatto che questi sono algoritmi che imparano da esempi e modificano se stessi sulla base di esempi. Quindi è chiaro che se noi forniamo degli esempi unilaterali in cui diciamo, per esempio, che gli uomini hanno sempre successo e le donne non hanno mai successo allora è chiaro che in questo modo introduciamo un gender bias falso, perché non c’è nessuna ragione per cui debba essere così. Quindi passivamente questi strumenti rifletteranno il bias che c’è nei dati. Dunque ci sono vari aspetti che sono estremamente importanti su cui fare attenzione.Da un lato dobbiamo fare attenzione al tipo di dati su cui addestriamo sistemi e curare l’eventuale sbilanciamento che può produrre predizioni viziate, dall’altro bisogna essere sempre attenti a preservare la privacy dei dati stessi. Cosa che si può fare dal punto di vista tecnico-modellistico: si tratta pian piano di mettere le cose insieme. Ora se c’è un vantaggio nell’utilizzare questi sistemi è che sappiamo qual è l’origine del bias e quindi siamo in grado di curarne gli effetti.Quindi siamo in grado, ad esempio, di evitare che ci siano delle distorsioni. È famoso l’episodio in cui era stato sviluppato un sistema di riconoscimento facciale straordinario, peccato che applicato su persone di colore non funzionasse per niente perché nel dataset non c’erano esempi di questo gruppo etnico. Quindi è chiaro che bisogna che ci sia una forma di “etica digitale” in cui noi produciamo sistemi che, a priori, non hanno difetti di questo tipo. Ma più che a errori nella programmazione bisogna stare attenti al bias che può essere indotto dai dati stessi, visto che gli strumenti basati sull’intelligenza artificiale imparano dai dati.

BUTAC: Il presente che stiamo vivendo in compenso è popolato da AI così avanzate da realizzare e gestire finti profili social con immagini profilo non tracciabili e con post che sembrano scritti da una persona reale: la preoccupazione è che sia molto più facile insegnare a mentire che insegnare a riconoscere la verità.

  • Prof.Zecchina: Il fatto che si riescano a comporre dei testi che sembrano reali è una cosa veramente interessante e potenzialmente anche utile. Però attenzione, perché queste reti funzionano sempre sulla base degli input umani. Quindi in realtà si tratta di sistemi fragili. Bisogna sempre distinguere tra quella che è la cosmesi, cioè come vengono presentati sui media i risultati, e la sostanza. Noi spesso vediamo scene con robot che fanno piroette incredibili oppure sentiamo un chatbot dire tutta una serie di cose che ci sorprendono. Ma questi sono sistemi che messi di fronte a una piccola variante non sono in grado di reagire in maniera appropriata. Siamo, logicamente, infinitamente distanti da un’intelligenza di tipo umano, ed è possibile identificare quelli che sono degli account falsi o delle attività prodotte in maniera seriale partendo da una serie di input. Quindi non mi spaventerei più di tanto. Certo, il fenomeno è quantitativo, ci sono una marea di dati, una marea di informazioni generate in questo modo, quindi questo può diventare un problema. È chiaro che noi viviamo in un mercato in cui la nostra attenzione è diventata un bene primario, quindi i social media tendono in continuazione ad attirare la nostra attenzione e dunque a fornirci una serie di input che in qualche modo ci stimolano a stare in continuazione sul web e a interagire con questi sistemi. Di nuovo, qual è la soluzione? La soluzione è prima di tutto quella di non stare troppo sul web, ma anche quella di avere l’alfabetizzazione e gli strumenti per poter riconoscere questi sistemi. Ancora una volta, sicuramente, c’è bisogno anche di regolamentare l’utilizzo dei sistemi stessi.

BUTAC: Una delle applicazioni per le AI è di essere usate come amici virtuali. Durante il lockdown c’è stata un’impennata nell’uso di app che simulano rapporti interpersonali. Si sta studiando come renderle il meno rischiose possibile per quegli utenti così suggestionabili da non rendersi conto che l’AI (per ora?) non “capisce” veramente quello che stiamo dicendo e le sue implicazioni? Ad esempio, il mese scorso è diventata virale la notizia che l’AI dell’app Replika avesse istigato all’omicidio di più persone. Repubblica titolava: Replika, l’app di intelligenza artificiale che mi ha convinto a uccidere tre persone. Leggendo appare chiaro che il chatbot non abbia fatto altro che assecondare utenti che sapevano, maliziosamente, come manipolarne il comportamento. Ma sicuramente ci sono soggetti che potrebbero incappare negli stessi percorsi logici in maniera non maliziosa, e trovarsi in quella situazione.

  • Prof.Zecchina: Ancora una volta dobbiamo capire bene qual è il tipo di intelligenza che sta dietro a queste app a questi sistemi che simulano le relazioni interpersonali. Ripeto di nuovo: non è intelligenza di tipo umano. Si tratta di sistemi automatici che hanno bisogno di input per funzionare. Certamente sono presentati in una forma accattivante sul web, ma di per sé sono scarsamente intelligenti, anzi, vorrei dire che non lo sono per nulla. Ancora una volta, c’è molta cosmesi: le frasi che scrivono possono essere corrette dal punto di vista linguistico, possono sembrare sensate, ma se provate a dialogare alla fine non ne cavate fuori molto. È chiaro che persone facilmente influenzabili possono cadere in trappole di questo tipo. I giovani vanno preservati da questo flusso enorme di informazioni inutili, se non fuorvianti. Si tratta ancora una volta di regolamentare e di educare. La cosa migliore è che i giovani abbiano gli strumenti critici per capire quello che hanno di fronte. Non c’è dubbio però che l’aspetto etico vada affrontato. Attenzione agli articoli e ai titoli degli articoli dei giornali perché sono spesso molto molto fuorvianti. Invito poi a verificare l’effettivo funzionamento degli strumenti che utilizziamo. Non voglio assolutamente sottovalutare il problema, anzi al contrario penso che sia molto importante evitare lo strabordare di questo tipo di tecnologie. Però va tenuto presente che si tratta di strumenti passivi e, anche se estremamente sofisticati, per il momento sono facili da identificare da parte di chi ha un minimo di background. Questo non risolve il problema sociale che invece, effettivamente, può essere grave o diventarlo ancora di più in futuro.

L’intervista termina qui, ma avremo altre occasioni di parlare con gli ospiti della Fondazione Veronesi e dell’evento Science for peace and health.

Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un  caffè!