Information disorder, fake news ed Epstein Files
Stiamo creando un rumore di fondo talmente denso che diventa impossibile distinguere i fatti dalle bufale...

Stanno diventando virali – senza nemmeno fare lo sforzo di togliere la filigrana col logo di chi le ha pubblicate per primo – una serie di immagini che dovrebbero arrivare dagli Epstein Files. Immagini che mostrano Jeffrey Epstein in compagnia di Mark Zuckerberg e Reid Hoffman, fondatore di Linkedln.
La prima immagine che ci avete segnalato è questa:

Nell’immagine vediamo Mark Zuckerberg, Jeffrey Epstein e Reid Hoffman mentre mangiano Sushi che è stato disposto sul corpo di una ragazza. (la foto è credibile, di gente coi soldi che fa cose assurde se ne è vista anche in passato: https://www.dailymail.co.uk/video/news/video-1475245/Sushi-model-attacks-customer-allegedly-groped-her.html l’attacco nel caso del video del Daily Mail poi risultò essere tutto una messa in scena)
Seguita da questa:

La filigrana qui si nota meno, ma c’è sempre DFF (Dumb Fuck Finder) stessi protagonisti, ma qui la modella non è sdraiata sul tavolo ma seduta su Zuckerberg.
E infine da quest’altra:

Questa è ovviamente quella chiaramente generata da IA, stessi protagonisti, ma qui è Epstein a fare da vassoio per il sushi.
Il problema è che – mentre la terza è ovviamente un’immagine generata da IA – le altre due sono per l’appunto non immediatamente riconoscibili come tali, e circolano come se fossero vere. Ma sono tutte immagini generate da intelligenza artificiale e messe in rete appunto da DFF, Dumb Fuck Finder, account parodistico che potete trovare su X e che posta da tempo immagini simili. Qui le trovate salvate su Archive: 1, 2 e 3.
DFF il giorno dopo aver pubblicato quelle immagini ha ricondiviso il suo post con queste parole:
People actually think this shit is real ☠️🤣
Ma ormai le immagini avevano preso il largo, e nulla si potrà fare per evitare che qualcuno le ricondivida pensando che siano reali.
Negli “Epstein Files” non c’è nessuna foto del genere. I documenti pubblicati finora riguardano nomi, contatti, deposizioni, riferimenti incrociati finalizzati a un’indagine giudiziaria. Non sono album fotografici di sushi bondage tra miliardari. Se esistessero immagini del genere in atti giudiziari ufficiali, le vedremmo citate ovunque, e non solo in un thread ironico sui social. Il punto serio, quello che fa meno ridere, è un altro.
Epstein era un criminale vero, le sue vittime sono vere, le reti di potere intorno a lui sono un tema reale e delicato. Ma quando buttiamo dentro al calderone immagini generate con IA, parodie e meme, succede una cosa pericolosa: avveleniamo il terreno, così quando emergono prove autentiche metà del pubblico – quella che non riesce a concepire un orrore del genere – potrà reagire con “Vabbè, sarà un’altra foto fake fatta con l’IA”. Stiamo creando un rumore di fondo talmente denso che diventa impossibile distinguere i fatti dalle bufale; e questo non aiuta le vittime, non aiuta la verità, al massimo può finire per aiutare i colpevoli, e questo, spero sia chiaro, è grave e pericoloso.
Più materiale falso circola, più tutto diventa “fake news”, e quando tutto è fake news, nessuno paga davvero. Ho scelto di usare il termine fake news perché è quello che abbiamo sentito spesso in bocca a Donald Trump, per accusare chi poneva dubbi sulle sue affermazioni. Ho scelto di usarlo per ricordare a chi ci legge che sono circa dieci anni che è stato consigliato di smettere di usarlo, proprio perché inadeguato. Il termine più corretto da usare è Information Disorder, disturbo dell’informazione. Che è esattamente quello che fanno queste immagini: disturbano l’informazione, rendendo sempre più difficile distinguere tra fatti e falsità.
maicolengel at butac punto it
Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.
BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti.