L’invasione complottista
Tra corsi miracolosi e intelligenza artificiale

Nell’ultimo periodo stiamo assistendo a un fenomeno curioso e preoccupante sui social: un crescendo di contenuti complottisti. Non solo in termini di quantità, ma anche di incoerenza. Infatti si moltiplicano video che abbracciano teorie tra loro incompatibili, spesso creati dalle stesse persone, senza che nessuno sembri farci caso.
Giusto ieri mi sono imbattuto nei contenuti di un influencer con oltre mezzo milione di follower, che in un video sostiene la teoria della Terra concava (sì, la Terra cava ma al contrario); mentre poco dopo, parlando di scie chimiche, utilizza tranquillamente un mappamondo tradizionale. Nessuno dei suoi follower sembra notare o contestare il cambio di paradigma. Nessuno che chieda: “Scusa, ma non era concava? Perché stai usando un mappamondo?”.
Silenzio assoluto.
Ma non è di lui che voglio parlare oggi, e per questo non lo nomineremo o mostreremo i suoi contenuti. Voglio parlare di ciò che rappresenta: un sintomo di qualcosa di più grande. Una crescita esponenziale di video complottisti, spesso realizzati da persone che, come si intuisce spesso, non credono affatto a ciò che stanno raccontando. Sembrano recitare un copione. E, molto probabilmente, è proprio così.
Complottismo come strategia comunicativa
Fino a poco tempo fa ero convinto che questi “nuovi profeti” fossero semplicemente eredi della vecchia guardia del complottismo online, nostalgici della controinformazione da tastiera. Figli e nipoti dei ByoBlu e dei Mazzucco, pensavo che fossero stati spinti in alto da qualche algoritmo compiacente o da una community particolarmente attiva e compatta.
Ma mi sbagliavo: oggi siamo nell’era dei videocorsi, i videocorsi a pagamento che insegnano come diventare uno youtuber o un tiktoker di successo, o comunque come realizzare contenuti video che raggiungano la viralità. E indovinate quale viene indicata come categoria più facile e veloce per raggiungere questo obiettivo? Esatto: proprio il cospirazionismo – o complottismo che dir si voglia – seguito dalla cosiddetta “finanza creativa“.
Se ne è accorto anche un giovane youtuber che seguo sempre con attenzione per il suo sguardo disincantato sul web, Poldo, che qualche giorno fa ha pubblicato il video dal titolo Ho Comprato il CORSO che sta ROVINANDO YouTube di cui suggerisco caldamente la visione:
Quindi, anche se tu vuoi aprire un canale di cucina fusion italo-svedese ti verrebbe comunque suggerito di produrre qualche video su misteri, cospirazioni o “verità scomode”, per attirare traffico sul tuo canale.
La logica è semplice quanto spiazzante (e drammatica, se si pensa alle conseguenze a lungo termine): aggancia l’utente con il complotto, poi, forse, riuscirai a trattenerlo per altro. Anche perché nella maggior parte dei casi l’utente non si ricorderà nemmeno perché ha messo like o si è iscritto, e tu nel frattempo avrai fatto numeri che permetteranno al tuo canale di crescere senza troppo sforzo.
L’intelligenza artificiale al servizio della spazzatura virale
Questi corsi non si limitano a suggerire i contenuti da usare per crescere. Ci insegnano anche come sfruttare le nuove tecnologie basate sull’IA per produrre a costo e sforzo quasi nullo qualsiasi contenuto ci venga in mente. La parola chiave in questo caso è IA generative, che permettono di scrivere i testi, nonché creare le voci, le immagini e le animazioni. Al novello videomaker basta premere Pubblica o poco più, ed ecco che nasce il mostro.
In pratica siamo di fronte a soggetti che insegnano ad altri a far girare la macchina delle scemenze (sì, lo so, suonava meglio “cazzate”) per ottenere click facili sfruttando l’attrattiva delle teorie del complotto.
Una fucina industriale che genera tonnellate di spazzatura video, spazzatura che però fa leva sulle emozioni dei più facilmente suggestionabili: paura, indignazione, stupore, perché è su questo genere di emozioni che si basa l’engagement social.
L’idea alla base dei suggerimenti dati in questi corsi è: “L’utente medio non controlla niente, quindi spariamo pure sciocchezze purché siano affascinanti”. Un modello di business decisamente cinico, ma che purtroppo al momento riscuote un grande successo.
Chi paga il prezzo?
Voi che seguite BUTAC penserete che non è poi così importante, visto che a voi questi contenuti non vi attirano; voi che siete dotati di spirito critico e razionalità non rischiate nulla, anzi probabilmente vi siete pure annoiati a leggere fino a qui. Il problema invece è che a farne le spese siamo tutti, perché questa montagna di merd… scusate, questa montagna di contenuti spazzatura abbassa il livello del dibattito online (e di conseguenza offline), mina la fiducia collettiva nelle informazioni verificate, ma per andare ancora più nel pratico questa spazzatura inquina il pianeta.
Voltarsi dall’altra parte convinti che tanto noi siamo superiori è sbagliato: BUTAC nasce proprio dall’idea che tutti possiamo cascare nella disinformazione, e che tutti dovrebbero essere aiutati a imparare a evitarlo.
Chi è il colpevole?
Alcuni pensano che la colpa sia dei fantomatici “algoritmi” che indirizzerebbero i creatori di contenuti verso questo genere di disinformazione. Ma gli algoritmi non sono un’entità maligna e senziente, sono pezzi di codice che si limitano a mostrarci quello che funziona meglio su di noi, in base alle nostre scelte precedenti, in base ai nostri like, in base a quanto tempo ci siamo soffermati ad ascoltare l’ex soubrette e ballerina da Hong Kong parlare di vaccini e libertà personali. L’algoritmo si limita a fare quello per cui l’abbiamo addestrato; il problema siamo noi stessi.
Il successo dei contenuti complottisti, delle “rivelazioni shock”, delle pillole video in cui in pochissimo tempo ci spiegano come gli Annunaki siano realmente esistiti non è un’anomalia, è colpa nostra. La scarsa attenzione degli utenti, l’attrazione per le emozioni forti e veloci, l’assenza di spirito critico, sono questi i fattori che decretano il successo di questi contenuti.
L’algoritmo si limita a fare quello per cui è stato programmato: dare agli utenti quello che vogliono. Colpevolizzarlo come se fosse il cattivo di un film è profondamente sbagliato, anche perché così facendo non ci accorgiamo che i veri colpevoli continuano nella loro opera disinformativa. Non ci riferiamo solo a quelle legioni di ragazzini in cerca di follower che hanno invaso la rete con contenuti realizzati partendo dall’IA, bensì a quegli imprenditori della fuffa che hanno capito che vendere bugie in confezioni accattivanti premia. Accusare la tecnologia è comodo: è sempre facile – e funziona – dare a intendere che la responsabilità è fuori dal nostro controllo. E finché noi, come società, continueremo a cliccare, guardare e condividere questi contenuti (anche solo per dire ai nostri amici che “noi siamo superiori e non ci caschiamo”) staremo solo alimentando “la bestia”.
Concludendo
Il complottismo e la disinformazione automatizzati non sono effetti collaterali dell’evoluzione tecnologica, sono sintomi di un ecosistema dove l’emozione batte la ragione, la velocità batte l’approfondimento, e finché non ce ne renderemo conto a nulla serviranno nuove regole, nuove piattaforme: il problema siamo noi come collettività, e finché non decidiamo di affrontare la cosa il problema crescerà sempre di più.
Non credo di poter aggiungere altro.
maicolengel at butac punto it
Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.
BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti e il gruppo di discussione, segnalazione e quattro chiacchiere con la nostra community.