Elezioni e disinformazione

Come lavorano i bot alimentati dall'AI e come proteggersi dalla loro influenza

Nelle prossime righe andiamo ad offrire, soprattutto a quella fetta del pubblico italiano disabituato alla lingua inglese, la traduzione di un interessante articolo di The Conversation dedicato a un tema decisamente caldo e delicato. Tra meno di un mese si terranno le elezioni europee, per cui invitiamo i nostri lettori a porre particolare attenzione ai contenuti disinformativi a esse legati che stanno circolando (e circoleranno) sul web e, con questo contributo, speriamo di aiutare tutti a districarsi meglio nel groviglio disinformativo diffuso negli ambienti social.

Alcune tematiche legate a quella qui affrontata sono già state trattate da BUTAC: il pensiero criticole tattiche della disinformazionedeep fake audio e una breve guida di qualche tempo fa, ma sempre valida, su come difendersi dalle bufale.

Buona lettura.


Disinformazione elettorale: come funzionano i bot alimentati da intelligenza artificiale e come puoi proteggerti dalla loro influenza

Le piattaforme dei social media sono diventate più che semplici strumenti di comunicazione. Esse si sono evolute in vivaci arene dove verità e menzogne si scontrano: tra queste piattaforme, X si distingue come campo di battaglia privilegiato. È un luogo dove le campagne di disinformazione prosperano, perpetuate da eserciti di bot alimentati da intelligenza artificiale programmati per influenzare l’opinione pubblica e manipolare le narrazioni.

Questi bot sono account automatizzati progettati per mimare il comportamento umano. I bot sui social media, sulle piattaforme di chat e negli strumenti di AI conversazionale sono fondamentali per la vita moderna: ad esempio, essi sono necessari per far funzionare efficacemente le applicazioni di intelligenza artificiale.

Alcuni bot sono però creati con intenti malevoli. Sorprendentemente, questi costituiscono una parte significativa della base utenti di X: nel 2017 si stimava che ci fossero circa 23 milioni di bot social, pari all’8,5% degli utenti totali. Più di due terzi dei tweet provenivano da questi account automatizzati, con la conseguenza di amplificare la diffusione della disinformazione e inquinare le acque del discorso pubblico.

Come funzionano i bot

L’influenza sui social è divenuta una vera e propria merce, che può essere acquisita indirettamente acquistando dei bot. Alcune aziende vendono falsi follower per aumentare artificialmente la popolarità degli account e questi follower sono disponibili a prezzi sorprendentemente bassi. Tra gli acquirenti vi sono anche molti personaggi famosi.

Nel corso della sua ricerca, ad esempio, Laura Hood e i suoi colleghi hanno individuato un bot che aveva pubblicato 100 tweet coi quali offriva follower in vendita.

Utilizzando metodologie legate all’intelligenza artificiale e un approccio teorico chiamato teoria dell’attore-rete, Hood e colleghi hanno analizzato come i bot sociali maliziosi manipolino i social media, influenzando ciò che le persone pensano e come agiscono con una sorprendente efficacia. Possiamo distinguere se una notizia falsa è stata generata da un umano o da un bot con un tasso di precisione del 79,7%. A tal proposito, è essenziale comprendere come sia gli esseri umani che l’intelligenza artificiale diffondono la disinformazione al fine di capire i modi in cui viene utilizzata l’AI per diffondere informazioni errate.

Per fare un esempio, abbiamo esaminato l’attività di un account chiamato “True Trumpers” su Twitter.

L’account è stato creato nell’agosto 2017, non ha follower e nessuna immagine del profilo, ma aveva, al momento della ricerca, pubblicato 4.423 tweet: tra di essi, una serie di storie completamente inventate. È importante notare che questo bot ha avuto origine da un Paese dell’Europa orientale.

Ricerche come questa hanno portato X a limitare le attività dei bot social. In risposta alla minaccia della manipolazione dei social media, X ha implementato limiti temporanei di lettura per arginare gli effetti negativi della condivisione di queste informazioni e la manipolazione dell’utenza. In particolare, gli account verificati hanno un limite di lettura di 6.000 post al giorno, mentre gli account non verificati possono leggerne 600. Si tratta comunque di un aggiornamento recente, sulla cui efficacia non è ancora possibile esprimersi.

Possiamo proteggerci?

Quando si parla di protezione, la responsabilità maggiore ricade sugli utenti, ai quali si richiede una certa cautela per discernere la verità dalla menzogna, specialmente durante i periodi elettorali. Valutando criticamente le informazioni e verificando le fonti, gli utenti possono contribuire a proteggere l’integrità dei processi democratici dall’assalto dei bot e delle campagne di disinformazione su X. Ogni utente è, infatti, in prima linea nella battaglia a difesa della verità e della democrazia: la vigilanza, il pensiero critico e una sana dose di scetticismo sono armi essenziali.

Sui social media, inoltre, è importante che gli utenti comprendano le strategie utilizzate dagli account malevoli.

Gli “attori malevoli” spesso utilizzano reti di bot per amplificare narrazioni false, manipolare tendenze e diffondere rapidamente disinformazione. Gli utenti dovrebbero prestare attenzione quando si trovano di fronte ad account che mostrano comportamenti sospetti, come una pubblicazione eccessiva o messaggi ripetitivi.

La disinformazione è anche frequentemente propagata attraverso siti web appositamente progettati per imitare fonti di notizie credibili e, in realtà, diffondere notizie false. Invitiamo sempre gli utenti a verificare l’autenticità delle notizie incrociando le informazioni da fonti affidabili e consultando organizzazioni di fact-checking.

La consapevolezza di sé è un’altra forma di protezione, specialmente dalle tattiche di ingegneria sociale. La manipolazione psicologica viene spesso utilizzata per ingannare gli utenti e farli credere a menzogne o per portarli a compiere determinate azioni. Gli utenti dovrebbero invece mantenere alta la vigilanza e valutare criticamente i contenuti che incontrano, specialmente durante periodi “caldi” come quelli elettorali.

Rimanendo informati, partecipando al dibattito civile e sostenendo la trasparenza e la responsabilità, possiamo plasmare collettivamente un ecosistema digitale che favorisca la fiducia, la trasparenza e la presa di decisioni informate.

RC

Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.

BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti e il gruppo di discussione, segnalazione e quattro chiacchiere con la nostra community.


Foto di Christian Lue su Unsplash