Esperimento “perfettamente” riuscito
Due post pubblicati su Facebook hanno fatto emergere chiaramente quale sia la tipologia che l'algoritmo preferisce spingere...

Lunedì 2 febbraio ho fatto un piccolo esperimento social: ho fatto un post, scritto da ChatGPT, e l’ho pubblicato su Facebook. Il post cominciava proprio con le parole:
ChatGPT e la foto della nostra premier in visita al poliziotto in ospedale
A seguire un elenco che rispondeva al prompt: “Cosa vedi in questa foto?”. A fondo post, 30 minuti dopo la sua pubblicazione, avevo scritto:
EDIT: deprimente notare come un contenuto dichiaratamente fatto con IA abbia ricevuto in meno di mezz’ora tante interazioni mentre il post precedente in oltre un’ora, pur essendo stato scritto da me con un po’ di ricerca e lavoro alle spalle fatichi a fare 20 interazioni. Molto deprimente, è a mio avviso la dimostrazione di come funzionano ormai gli algoritmi. Detto ciò ci tengo, questo post non rappresenta un fact checking, per quello ci sono gli esseri umani, ma appunto un esperimento, la mia chatgpt vede quanto descritto nell’immagine che tanti stan facendo circolare tratta credo da un video, ma non ci ho messo mano, non ho fatto alcuna verifica, è solo quanto scrive la mia chatgpt alla domanda “cosa vedi in questa foto”.
Ma, anche dopo che avevo chiaramente scritto che io su quel testo non avevo fatto nessuna successiva verifica, tanti hanno continuato imperterriti a condividerlo, in certi casi anche copiando il testo ed eliminando quelle ultime righe aggiunte da me.
Questo è un problema grave.
Oltretutto, subito qualcuno aveva evidenziato che il testo di ChatGPT presentava problemi e quindi non era un fact-checking da condividere. Anche in quel caso ho fatto rispondere (dichiarandolo) sempre a GPT. Risultato? L’IA ha difeso la propria posizione, cadendo in contraddizione. Esattamente ciò che succede quando un modello linguistico cerca di “non deludere” chi lo interroga invece di fermarsi.
Ripetiamolo per l’ennesima volta, sperando che prima o poi resti appiccicato da qualche parte:
le intelligenze artificiali non sono affidabili.
Un testo può essere scritto bene, sembrare credibile, usare il tono giusto; ma questo non significa che sia corretto. Condividere contenuti generati da IA senza verificarli porta a errori, figuracce e, nei casi peggiori, a disinformazione involontaria.
Ma la cosa non è finita qui, perché il mio esperimento non si limitava a quel post. A distanza di poco (30 minuti circa), prima del post scritto da ChatGPT avevo condiviso un altro contenuto, stavolta scritto e redatto da me, un post che parlava sempre di IA senza però fare specifico riferimento a ChatGPT. Nel testo cercavo di spiegare perché certi articoli che leggiamo, anche pubblicati su testate registrate, sono molto sensazionalistici e a caccia di click senza reale approfondimento. Anche quello era un post lunghetto, con anche un’immagine di accompagnamento. Ma Meta a quel post non ha dato alcuna visibilità. Come mai? Beh, la risposta che mi sono dato – ma, non essendo programmatore Meta, potrebbe essere errata – è che gli algoritmi che gestiscono la piattaforma, pur non avendo modo di capire cosa dicano i post, sono in grado di valutare quanto un testo possa far reagire il pubblico della piattaforma.
Il post scritto da ChatGPT aveva tutto quello che oggi piace:
- riferimento esplicito a ChatGPT (parola magica del momento)
- tono assertivo, facile da leggere
- nessuna fatica cognitiva richiesta
- possibilità immediata di dire “oddio”, “è gravissimo”, “lo sapevo”
Il post scritto da me invece era un filo più complesso: le frasi in italiano erano fatte di periodi più lunghi, con una punteggiatura meno anglofona, richiedeva più tempo per comprenderlo e non scatenava alcuna reazione immediata. Anche questo a mio avviso è un problema, grave. Sia chiaro, nulla che non sapessimo già, ma vederlo succedere tra gente che mi segue mi ha fatto una discreta impressione.
Il vero punto importante
Il problema non è che l’IA sbaglia, o che la gente si fida dell’IA: il vero problema è che alla gente non gliene importa nulla delle verifiche se qualcosa “suona giusto”. Basta che vada a colpire i nostri pregiudizi, che siamo subito pronti a condividere indignati. Poco conta se quel testo l’ha generato una intelligenza artificiale o è stato scritto con fatica e sudore da un essere umano. Basta che coincida col nostro pensiero e che possa essere sfruttato per generare indignazione, che subito trova spazio sulle piattaforme social.
Concludendo, depresso
Quanto fatto mi ha dimostrato purtroppo che oggi un contenuto dichiaratamente non verificato, se scritto bene e pubblicato al momento giusto, ha molto più valore di un fact-checking fatto come si deve. Chi fa il nostro mestiere già da prima combatteva contro i mulini a vento, ora, come se non bastasse, ci tocca farlo pure in salita.
Mi sento di dire che il vero problema però non sono le IA, ma siamo noi…
maicolengel at butac punto it
Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.
BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti.