Intelligenza artificiale e fake news

A novembre si terrà l’evento della Fondazione Veronesi Science For Peace and Health.  A noi di BUTAC è stata offerta la possibilità di fare due chiacchiere con il prof. Riccardo Zecchina, esperto di intelligenza artificiale che ho collegato all’ambito di cui ci occupiamo da queste parti: le fake news. Perché capire dalle parole dell’esperto se dobbiamo temere il progressivo migliorarsi dell’intelligenza artificiale o se invece potrà essere un’alleata nel contrastare la disinformazione è importante.



 BUTAC: Si parla tanto di algoritmi per contrastare le fake news, Mark Zuckerberg durante la sua audizione al Senato americano ha citato l’intelligenza artificiale svariate volte, sostenendo che nei prossimi dieci anni vedremo le AI risolvere la maggioranza dei problemi legati al diffondersi di fake news. Lei cosa ne pensa? Avremo un futuro in cui l’intelligenza artificiale potrà contrastare il dilagare dell’information disorder?

BUTAC: Tra le critiche che sento spesso fare nei confronti dell’intelligenza artificiale una che ho sentito ripetere è legata alla programmazione della stessa AI. L’ho trovata in riferimento ad AI specifiche (quella di Google e di Facebook, Perspective e Deeptalk) progettate per contrastare l’odio e il bullismo in rete. Il sospetto è che essendo istruite da esseri umani con i loro personali pregiudizi possano generare un vasto numero di falsi positivi basati sui pregiudizi assorbiti in fase di programmazione. Le cose stanno veramente così, o esistono sistemi per superare il bias di programmazione?



BUTAC: Il presente che stiamo vivendo in compenso è popolato da AI così avanzate da realizzare e gestire finti profili social con immagini profilo non tracciabili e con post che sembrano scritti da una persona reale: la preoccupazione è che sia molto più facile insegnare a mentire che insegnare a riconoscere la verità.

BUTAC: Una delle applicazioni per le AI è di essere usate come amici virtuali. Durante il lockdown c’è stata un’impennata nell’uso di app che simulano rapporti interpersonali. Si sta studiando come renderle il meno rischiose possibile per quegli utenti così suggestionabili da non rendersi conto che l’AI (per ora?) non “capisce” veramente quello che stiamo dicendo e le sue implicazioni? Ad esempio, il mese scorso è diventata virale la notizia che l’AI dell’app Replika avesse istigato all’omicidio di più persone. Repubblica titolava: Replika, l’app di intelligenza artificiale che mi ha convinto a uccidere tre persone. Leggendo appare chiaro che il chatbot non abbia fatto altro che assecondare utenti che sapevano, maliziosamente, come manipolarne il comportamento. Ma sicuramente ci sono soggetti che potrebbero incappare negli stessi percorsi logici in maniera non maliziosa, e trovarsi in quella situazione.



L’intervista termina qui, ma avremo altre occasioni di parlare con gli ospiti della Fondazione Veronesi e dell’evento Science for peace and health.

Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un  caffè!