Oggi trattiamo una materia importantissima, ovvero i deep fake audio. Perché ne parliamo? Ne parliamo perché ad oggi risulta che le tecnologie in atto per riconoscere questo tipo di falsità siano ancora lontane da un risultato ottimale. Questo fa sì che i rischi di truffe o di diffusione di disinformazione siano molti. Pertanto bisogna cercare di imparare piccole accortezze per evitare di cascare nei tranelli legati agli audio fasulli.
Ne parlavano su Poynter qualche giorno fa riportando, tra le altre cose, un esempio di grande impatto di come il fenomeno si stia evolvendo. Un abile “mago” di strada di New Orleans ha impiegato solo venti minuti e 1$ per pagare un’intelligenza artificiale e realizzare un deep fake di Joe Biden, presidente degli Stati Uniti, assolutamente credibile.
I deep fake audio sono più facili ed economici da realizzare rispetto alle loro controparti video. Se fatti nella maniera corretta possono diventare così convincenti da fregare tante persone. Una delle cose da imparare e da mettere in pratica per difendersi dai deep fake audio è iniziare a utilizzare delle tecniche di base per difendersi in generale da questo genere di pericolosi trabocchetti. I consigli sono abbastanza semplici.
Lo scetticismo deve essere sempre giustificato in questi casi, visto quanto realistica è diventata la tecnologia dei deep fake e i rischi immensi che può portare.
Poynter nel suo articolo, segnala quattro strumenti, per ora gratuiti, per riconoscere le voci generate dalle macchine.
Sperando che suggerimenti e strumenti possano essere utili a voi che ci leggete.
maicolengel at butac punto it
Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.
BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti e il gruppo di discussione, segnalazione e quattro chiacchiere con la nostra community.