Ultimamente internet è stato invaso da immagini assurde. Il Papa in giacca a vento e Vladimir Putin in ginocchio che bacia la mano a Xi Jinping. Il problema? Nessuno di questi eventi è realmente accaduto. Sono il prodotto di una avanzata tecnologia di intelligenza artificiale nota come deepfake.
Foto fake di Papa Francesco che indossa un grosso piumino bianco, creata con un generatore di immagini AI, ha ingannato gli utenti online.
Un’immagine generata dall’intelligenza artificiale del presidente russo Vladimir Putin che si inginocchia e bacia la mano a Xi Jinping è circolata sui social media durante la visita di Stato del leader cinese in Russia, e alcuni hanno creduto che la fantomatica scena fosse reale.
Questi falsi basati sul deep learning mostrano la facilità con cui l’intelligenza artificiale può sfumare i confini tra realtà e finzione, con implicazioni significative e di vasta portata.
[Proteggi la tua attività online e mantieni la riservatezza delle tue informazioni personali con una VPN].
Scopriamo in che modo l’intelligenza artificiale sta cambiando i nostri ricordi e come i deepfake possano potenzialmente contribuire al fenomeno noto come Effetto Mandela. Preparati a mettere in discussione tutto ciò che pensavi di sapere.
Che cos’è l’effetto Mandela?
Questo termine prende il nome da Nelson Mandela, rivoluzionario e politico sudafricano anti-apartheid. Molte persone credevano che fosse morto in prigione negli anni ’80, sebbene ci fossero numerose prove che non fosse così. In realtà, fu rilasciato nel 1990, divenne presidente del Paese dell’Africa meridionale e infine morì nel 2013.
Da allora, il termine “effetto Mandela” è stato utilizzato per descrivere una serie di eventi o dettagli memorizzati in modo errato, tra cui l’ortografia dei nomi di marchi, i testi di canzoni, la trama di film o programmi televisivi e i dettagli di eventi storici.
Un esempio dell’Effetto Mandela è rappresentato dal popolare comico degli anni ’90, Sinbad. Molte persone affermano di ricordare un film intitolato Shazaam (da non confondere con il film di supereroi del 2019, Shazam!), in cui Sinbad interpreta un genio che aiuta due bambini. Tuttavia, non è mai stato realizzato un film del genere. La cosa più simile era un film intitolato Kazaam, che aveva come protagonista Shaquille O’Neal nei panni di un genio.
Nonostante la mancanza di prove dell’esistenza di Shazaam, molte persone restano convinte di averlo visto e ricordano i dettagli della trama, dei personaggi e persino l’aspetto della locandina del film. Anche se lo stesso Sinbad ha confermato di non aver mai interpretato un genio, l’idea del film si è talmente radicata nella memoria delle persone che sono assolutamente certe che esista.
Quali sono le cause dell’Effetto Mandela?
Sebbene le cause dell’Effetto Mandela non siano del tutto note, esistono diverse teorie che tentano di spiegarlo. Una suggerisce che sia il risultato di falsi ricordi, in cui le persone ricordano eventi o fatti in modo errato a causa di informazioni errate, interpretazioni sbagliate o del potere della suggestione. Un’altra teoria di più ampia portata è che sia dovuto a un’anomalia nella matrice o a un universo parallelo, in cui le persone potrebbero aver sperimentato una versione diversa della realtà.
Gli psicologi pensano che l’Effetto Mandela possa essere causato dal modo in cui il nostro cervello è cablato. In particolare, la nostra mente può essere influenzata da cose come ciò che dicono gli altri o le nostre convinzioni preesistenti, il che può portarci a ricordare le cose in modo errato. Questo fenomeno è detto pregiudizio cognitivo. Ad esempio, se molte persone sui social media affermano che una cosa è accaduta in un certo modo, questo può farci credere che sia davvero accaduta in quel modo, anche se non è così.
Sebbene l’Effetto Mandela non sia un fenomeno così recente e riguardi soprattutto la cultura pop, l’ascesa dei deepfake consente di diffondere informazioni false in modo ancora più rapido e semplice, facendo sì che un numero sempre maggiore di persone inizi a ricordare cose che in realtà non sono mai accadute.
Ciò solleva importanti interrogativi sulla possibilità di fidarsi delle informazioni che vediamo online, sull’opportunità di utilizzare l’intelligenza artificiale per manipolare immagini e video, e sul potere che la tecnologia dovrebbe avere nel plasmare i nostri ricordi e le nostre convinzioni.
Il pericolo dei ricordi derivati dai deepfake
I deepfake utilizzano l’intelligenza artificiale per creare video e immagini dall’aspetto realistico di persone che dicono e fanno cose che in realtà non hanno mai detto o fatto. La tecnologia si basa sul deep learning, un tipo di apprendimento automatico che prevede la formazione di reti neurali artificiali su grandi quantità di dati.
Nel 2019 sono stati individuati circa 15.000 deepfake online. Oggi il numero si aggira intorno ai milioni, con il numero di deepfake creati da esperti che continua a crescere a un tasso annuo del 900%, secondo il World Economic Forum.
Uno degli aspetti più preoccupanti dei deepfake è il loro potenziale utilizzo per scopi malevoli, come la creazione di notizie false o di propaganda, o l’impersonificazione di qualcuno a scopo di lucro. La tecnologia viene utilizzata anche per creare pornografia deepfake, il che ha sollevato preoccupazioni circa lo sfruttamento degli individui e il potenziale abuso.
I deepfake hanno anche il potere di far credere alle persone di aver visto qualcosa che in realtà non è mai accaduto, grazie alla natura altamente realistica della tecnologia utilizzata. Questo potrebbe far sì che le persone ricordino erroneamente uno scenario non veritiero considerandolo un dato di fatto.
Ecco alcuni esempi di come i deepfake possono contribuire ad alimentare l’Effetto Mandela e i pericoli che ne derivano:
Creare notizie false
I deepfake potrebbero essere utilizzati per creare notizie false che sembrano così realistiche da indurre le persone a crederle vere, anche se sono completamente inventate. Ad esempio, notizie false come attentati terroristici o disastri naturali, create con l’unico scopo di guidare determinate agende socio-politiche. Se queste storie vengono create con i deepfake, possono assomigliare a veri servizi giornalistici, con tanto di video e audio convincenti. Questo potrebbe creare una visione distorta della storia e degli eventi per le generazioni a venire.
Orientare l’opinione politica
Pochi mesi prima delle elezioni di midterm del 2018, è diventato virale un video deepfake di Barack Obama che insultava l’allora presidente Donald Trump. È stato creato dal regista premio Oscar Jordan Peele per mettere in guardia gli utenti dal fidarsi del materiale che trovano online. Ironia della sorte, il video si è ritorto contro dopo che molti sostenitori di Trump hanno creduto che fosse reale, e orde di loro si sono riversate sui social media per esprimere il loro sdegno.
Se un simile video fake di un candidato politico o di un personaggio pubblico che dice o fa qualcosa che in realtà non è mai accaduto fosse abbastanza convincente, potrebbe avere effetti dannosi sul funzionamento della democrazia e sulla fiducia dei cittadini nelle istituzioni.
Ad esempio, se un numero sempre maggiore di persone fosse esposto a un video deepfake potenzialmente convincente dei candidati politici del proprio Paese sui social media o attraverso vari organi di informazione, potrebbero diffondersi dei falsi ricordi che verrebbero accettati come veri. Questo può influenzare chi vota alle elezioni e chi viene nominato leader.
Guidare le campagne di propaganda
Le campagne di propaganda create con i deepfake possono essere utilizzate per manipolare l’opinione pubblica e diffondere disinformazione sui gruppi sponsorizzati dallo Stato, portando infine a una visione distorta della realtà. Ad esempio, in riferimento al conflitto in corso con la Russia, l’intelligence ucraina ha recentemente denunciato la diffusione di un deepfake del Presidente ucraino Volodymyr Zelenskyy, in cui si vede che invita gli ucraini ad arrendersi.
Nonostante la rimozione del video da parte di molte piattaforme, il video continua a comparire su diversi social media come Facebook, Reddit e TikTok, seminando discordia tra il pubblico e rendendo più difficile distinguere la verità.
Alterare i filmati storici
I deepfake potrebbero essere utilizzati per alterare filmati storici, come quelli di discorsi politici o importanti eventi, in modo da modificare i ricordi delle persone su ciò che è realmente accaduto. Questo potrebbe portare a confusione e incertezza su ciò che è realmente accaduto in passato, erodendo la fiducia del pubblico nei documenti storici e nei media, e alimentando così le teorie complottiste.
Prendiamo ad esempio lo sbarco sulla Luna. Ancora oggi, alcuni sostengono che sia stato falsificato e che non sia mai avvenuto. I deepfake potrebbero essere utilizzati per fabbricare video e registrazioni audio convincenti che avvalorino questa falsa storia, intensificando lo scetticismo e la sfiducia nell’autenticità dell’evento storico.
Manipolare i contenuti dei social media
Grazie alla facilità di accesso alle piattaforme dei social media, i deepfake potrebbero essere utilizzati per creare post falsi che lasciano intendere che celebrità, personaggi pubblici o influencer siano presenti a un evento o stiano sostenendo un particolare prodotto, mentre in realtà non lo sono. Consentendo la diffusione incontrollata di false notizie, i deepfake possono polarizzare ulteriormente la società e creare terreno fertile per le campagne di disinformazione. Questo, a sua volta, mina la credibilità dei social media come strumento di comunicazione, fondamentale per la democrazia e la coesione sociale.
Inventare prove scientifiche
Dalle origini di un virus alle scoperte mediche, i deepfake possono essere usati per creare false prove scientifiche a sostegno di un’affermazione o di un’ipotesi non vera. Per esempio, alcune persone cercano di diffondere disinformazione sui cambiamenti climatici nonostante le prove scientifiche schiaccianti che sono causati dall’attività umana. Ciò rappresenta una minaccia per questioni importanti come il riscaldamento globale.
I deepfake possono creare false prove scientifiche che affermano che il cambiamento climatico è causato da fattori esterni, il che può comportare gravi implicazioni; i politici potrebbero essere meno propensi ad agire per affrontare il cambiamento climatico se c’è un diffuso scetticismo sulle sue cause. Questo potrebbe dividere ulteriormente l’opinione pubblica e rendere più difficile raggiungere un consenso su come affrontare questo problema urgente.
Creare falsi alibi
Inoltre, i deepfake potrebbero essere utilizzati per creare confessioni o dichiarazioni false nei casi giudiziari o per manipolare i filmati di sicurezza per creare alibi per i criminali. Ciò potrebbe portare alla creazione di storie false intorno alle vicende criminali, facendo credere alle persone a) che il colpevole non abbia commesso il crimine o b) che sia stata una persona innocente. Con il tempo, queste versioni falsificate potrebbero radicarsi nella memoria collettiva delle persone coinvolte nel caso, facendole credere che si tratti di un dato di fatto.
Per ipotesi, diciamo che c’è un caso penale di alto profilo in cui il team di difesa crea un video deepfake altamente realistico che mostra l’imputato in un luogo diverso al momento del crimine. Il video viene diffuso su larga scala e molte persone arrivano a credere che l’imputato non possa aver commesso l’omicidio. Anche se in seguito si dimostra che il video è un falso e l’imputato viene dichiarato colpevole, alcune persone potrebbero continuare a credere che l’imputato sia innocente grazie al ricordo legato al video.
10 modi per riconoscere un deepfake
Per dirla con le “sagge parole” di Abramo Lincoln: “Non fidarti mai di ciò che vedi su Internet”. Per combattere il problema dei deepfake che creano falsi ricordi, è essenziale che tutti noi restiamo critici e scettici nei confronti delle informazioni che consultiamo e che le aziende tecnologiche e i governi collaborino allo sviluppo di soluzioni per rilevare e prevenire la diffusione di video deepfake.
Nel frattempo, impara a riconoscere un deepfake per proteggerti dalla diffusione di disinformazione e falsi ricordi:
- Distorsioni e trasformazioni facciali
- Cerca distorsioni di illuminazione e di conversione 3D nel volto
- Verifica la presenza di incongruenze nella texture, in particolare nelle guance, nella fronte, nelle sopracciglia e nei peli del viso
- Movimenti realistici degli occhi e delle labbra
- Verifica che le ombre, il colore degli occhi e i movimenti dei nei del viso e delle palpebre siano realistici
- Verifica se le labbra del soggetto hanno un aspetto naturale e appartengono a quel viso
- Movimenti e gesti del soggetto
- Presta attenzione ai movimenti e ai gesti del soggetto nel video
- Osserva se appaiono goffi o troppo perfetti
- Analisi audio
- Ascolta attentamente l’audio del video
- Verifica se la voce ha un suono artificiale o presenta distorsioni, poiché potrebbe utilizzare voci generate dall’intelligenza artificiale o alterate
- Incoerenze nell’illuminazione e nei riflessi
- Cerca incongruenze nell’illuminazione e nei riflessi che potrebbero non corrispondere all’ambiente o alla posizione della persona nel video o nell’immagine
- Verifica il contenuto del video
- Trova il video originale o cerca altri esempi per verificarne il contenuto
- Utilizza la ricerca inversa di immagini con strumenti come Google Image Search, TinEye, SauceNAO o Bing Visual Search
- Analisi contestuale
- Valuta il contesto in cui il video è stato postato o condiviso, in quanto può indicare se è autentico o meno (ad esempio, perché il Papa si sarebbe improvvisamente allontanato dalla tipica veste indossata spesso nella casa pontificia)
- Controlla la fonte originale del video, sia che si tratti di un’organizzazione giornalistica affidabile, sia che si tratti di una persona a caso sui social media o di un individuo con un’agenda discutibile
- Situazioni innaturali o insolite
- Sii scettico nei confronti dei video che mostrano situazioni insolite o improbabili, come un personaggio famoso che fa qualcosa di insolito o una figura politica che dice qualcosa di controverso
- Verifica i metadati
- Controlla i metadati del video per vedere se corrispondono alle affermazioni fatte nel video, come ad esempio l’ora e il luogo della registrazione
- Tieni presente che i metadati possono essere facilmente alterati, quindi non dovrebbero essere l’unica base per determinare l’autenticità di un video
- Rimani aggiornato
- Sappi che la tecnologia utilizzata per creare i deepfake è in costante miglioramento e che in futuro potrebbe diventare più difficile individuarli
- Assicurati di rimanere aggiornato al meglio sui nuovi sviluppi in questo settore e sii cauto quando condividi o reagisci a video che sembrano sospetti o estremamente interessanti per la stampa.