Esperimento “perfettamente” riuscito

Due post pubblicati su Facebook hanno fatto emergere chiaramente quale sia la tipologia che l'algoritmo preferisce spingere...

maicolengel butac 6 Feb 2026
article-post

Lunedì 2 febbraio ho fatto un piccolo esperimento social: ho fatto un post, scritto da ChatGPT, e l’ho pubblicato su Facebook. Il post cominciava proprio con le parole:

ChatGPT e la foto della nostra premier in visita al poliziotto in ospedale

A seguire un elenco che rispondeva al prompt: “Cosa vedi in questa foto?”. A fondo post, 30 minuti dopo la sua pubblicazione, avevo scritto:

EDIT: deprimente notare come un contenuto dichiaratamente fatto con IA abbia ricevuto in meno di mezz’ora tante interazioni mentre il post precedente in oltre un’ora, pur essendo stato scritto da me con un po’ di ricerca e lavoro alle spalle fatichi a fare 20 interazioni. Molto deprimente, è a mio avviso la dimostrazione di come funzionano ormai gli algoritmi. Detto ciò ci tengo, questo post non rappresenta un fact checking, per quello ci sono gli esseri umani, ma appunto un esperimento, la mia chatgpt vede quanto descritto nell’immagine che tanti stan facendo circolare tratta credo da un video, ma non ci ho messo mano, non ho fatto alcuna verifica, è solo quanto scrive la mia chatgpt alla domanda “cosa vedi in questa foto”.

Ma, anche dopo che avevo chiaramente scritto che io su quel testo non avevo fatto nessuna successiva verifica, tanti hanno continuato imperterriti a condividerlo, in certi casi anche copiando il testo ed eliminando quelle ultime righe aggiunte da me.

Questo è un problema grave.

Oltretutto, subito qualcuno aveva evidenziato che il testo di ChatGPT presentava problemi e quindi non era un fact-checking da condividere. Anche in quel caso ho fatto rispondere (dichiarandolo) sempre a GPT. Risultato? L’IA ha difeso la propria posizione, cadendo in contraddizione. Esattamente ciò che succede quando un modello linguistico cerca di “non deludere” chi lo interroga invece di fermarsi.

Ripetiamolo per l’ennesima volta, sperando che prima o poi resti appiccicato da qualche parte:

le intelligenze artificiali non sono affidabili.

Un testo può essere scritto bene, sembrare credibile, usare il tono giusto; ma questo non significa che sia corretto. Condividere contenuti generati da IA senza verificarli porta a errori, figuracce e, nei casi peggiori, a disinformazione involontaria.

Ma la cosa non è finita qui, perché il mio esperimento non si limitava a quel post. A distanza di poco (30 minuti circa), prima del post scritto da ChatGPT avevo condiviso un altro contenuto, stavolta scritto e redatto da me, un post che parlava sempre di IA senza però fare specifico riferimento a ChatGPT. Nel testo cercavo di spiegare perché certi articoli che leggiamo, anche pubblicati su testate registrate, sono molto sensazionalistici e a caccia di click senza reale approfondimento. Anche quello era un post lunghetto, con anche un’immagine di accompagnamento. Ma Meta a quel post non ha dato alcuna visibilità. Come mai? Beh, la risposta che mi sono dato – ma, non essendo programmatore Meta, potrebbe essere errata – è che gli algoritmi che gestiscono la piattaforma, pur non avendo modo di capire cosa dicano i post, sono in grado di valutare quanto un testo possa far reagire il pubblico della piattaforma.

Il post scritto da ChatGPT aveva tutto quello che oggi piace:

  • riferimento esplicito a ChatGPT (parola magica del momento)
  • tono assertivo, facile da leggere
  • nessuna fatica cognitiva richiesta
  • possibilità immediata di dire “oddio”, “è gravissimo”, “lo sapevo”

Il post scritto da me invece era un filo più complesso: le frasi in italiano erano fatte di periodi più lunghi, con una punteggiatura meno anglofona, richiedeva più tempo per comprenderlo e non scatenava alcuna reazione immediata. Anche questo a mio avviso è un problema, grave. Sia chiaro, nulla che non sapessimo già, ma vederlo succedere tra gente che mi segue mi ha fatto una discreta impressione.

Il vero punto importante

Il problema non è che l’IA sbaglia, o che la gente si fida dell’IA: il vero problema è che alla gente non gliene importa nulla delle verifiche se qualcosa “suona giusto”. Basta che vada a colpire i nostri pregiudizi, che siamo subito pronti a condividere indignati. Poco conta se quel testo l’ha generato una intelligenza artificiale o è stato scritto con fatica e sudore da un essere umano. Basta che coincida col nostro pensiero e che possa essere sfruttato per generare indignazione, che subito trova spazio sulle piattaforme social.

Concludendo, depresso

Quanto fatto mi ha dimostrato purtroppo che oggi un contenuto dichiaratamente non verificato, se scritto bene e pubblicato al momento giusto, ha molto più valore di un fact-checking fatto come si deve. Chi fa il nostro mestiere già da prima combatteva contro i mulini a vento, ora, come se non bastasse, ci tocca farlo pure in salita.

Mi sento di dire che il vero problema però non sono le IA, ma siamo noi…

maicolengel at butac punto it

Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!

Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.

BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti.

Oggi non trattiamo propriamente una bufala, ma vorremmo fare chiarezza su una narrazione che vediamo circolare sempre più insistentemente. Un lettore ci ha scritto: I complottisti già stanno difendendo Trump dicendo che sotto Obama e Biden l’ICE era già quella di oggi, praticamente fino al giorno prima li accusavano di essere stati lascivi e fomentanti […]

maicolengel butac | 02 feb 2026

No, qui nessun fact checking, ma credo che – visto il momento storico che stiamo vivendo – ci siano notizie che, proprio perché sulla stampa italiana trovano pochissimo spazio, meritino di essere rilanciate come possibile. Parliamo sempre della morte del 37enne Alex Pretti, morte in seguito alla quale l’Homeland Security ha pubblicato questo comunicato: At […]

maicolengel butac | 27 gen 2026

Gomiti e polsi articolati per simulare lo stimming, cuffie antirumore, occhi leggermente inclinati che evitano il contatto visivo diretto. Sono solo alcune delle caratteristiche della bambola più divisiva del web. Ormai lo saprete tutti: pochi giorni fa la nota azienda di giocattoli Mattel ha lanciato sul mercato la sua prima bambola autistica, inserendola all’interno della […]

Beatrice | 21 gen 2026

Abbiamo pubblicato ieri un articolo dove vi raccontiamo come un giornalista irlandese abbia smentito pubblicamente un disinformatore americano. Nell’articolo abbiamo linkato nostri vecchi pezzi del periodo pandemico per mostrarvi come la propaganda funzioni tutta alla stessa identica maniera, e come da anni vengano fatti test per capire come ottimizzarla al meglio. Ma prima ancora che […]

maicolengel butac | 14 gen 2026