• HOME
  • Blog
  • Deepfake: il confine tra umanità e macchine

Deepfake: il confine tra umanità e macchine

Il Deepfake rappresenta una forma avanzata di manipolazione digitale attraverso l’utilizzo di software di intelligenza artificiale. Partendo da materiale autentico come immagini, video e audio, è in grado di modificare o addirittura ricreare in modo estremamente realistico le caratteristiche e i movimenti di un volto o di un corpo, oltre a replicare fedelmente una specifica voce.

La locuzione "deepfake" ha visto la sua genesi alla fine del 2017 ad opera di un utente denominato deepfakes su Reddit, una piattaforma di social news e intrattenimento. Insieme ad altri membri della comunità presente nella sezione r/deepfakes, si dedicava alla produzione e condivisione di deepfake. All'interno di molteplici video, si assisteva alla sostituzione dei volti di celebrità con quelli di attrici in contesti pornografici; mentre, le produzioni non a carattere pornografico, comprendevano diverse sequenze in cui il volto dell'attore Nicolas Cage veniva inserito in vari film. Nel dicembre 2017, la giornalista americana Samantha Cole pubblicò un articolo sulla rivista Vice, focalizzando l'attenzione sulla comunità r/deepfakes e i suoi contributi nel panorama delle produzioni online di deepfake. Sei settimane più tardi la stessa Cole, mediante un ulteriore articolo, denunciò l'accresciuto fenomeno di pornografia contraffatta assistita dall'intelligenza artificiale. Nel febbraio 2018, r/deepfakes fu bannato da Reddit in ragione della condivisione di materiale pornografico involontario. Tale provvedimento fu replicato su altri siti web tra cui Twitter e Pornhub, che bandirono a loro volta l'utilizzo dei deepfake a fini di pornografia involontaria.

 Se all'inizio il pericolo sembrava riguardare solo VIP e politici a livello globale, negli ultimi anni il fenomeno ha assunto connotati ben più insidiosi: i deepfake sono un rischio per tutti.

Oltre a essere impiegata per la creazione di falsi video pornografici e azioni di revenge porn, questa tecnologia è sfruttata per diffondere fake news, bufale e truffe. La sua versatilità ne consente l'impiego anche in atti di cyberbullismo e allo stesso modo può minacciare ogni aspetto della società, dalla politica alla sicurezza, dalla privacy alla reputazione. I deepfake possono incitare disordini civili, sfruttando paure e pregiudizi per alimentare violenza tra gruppi sociali, etnici o religiosi; oppure, violare la privacy e il consenso delle persone, utilizzando immagini o voci senza autorizzazione..

In questo contesto emerge una dimensione più filosofica, che invita a riflettere sulla responsabilità etica legata all'uso delle tecnologie avanzate, sottolineando la necessità di sviluppare strumenti di rilevamento e consapevolezza pubblica rivolti a preservare l'integrità dell'informazione e la dignità individuale.

Una problematica, quella della disinformazione, così rilevante da spingere le autorità e le istituzioni a normare il settore, oltre che a informare il grande pubblico della Rete.

Personalità di spicco come Barack Obama, Nicolas Cage ed Emma Watson (su YouTube ci sono molti video che mostrano come questi personaggi siano stati vittime di deepfaking) sono notoriamente celebri e godono di una credibilità tale che, sebbene possano essere bersaglio di deepfake criminale, la loro autenticità rimane pressoché intatta, in quanto trascende la potenza degli algoritmi di deep learning e delle intricate reti neurali. Al contrario, la situazione assume fattezze differenti quando i protagonisti inconsapevoli dei video contraffatti sono individui comuni e non i vari VIP o i potenti della Terra. Se Andrea Bianchi si ritrovasse al centro di un video deepfake nel quale si autoaccusa di un crimine o diffama altri individui, e questo video venisse divulgato sui social media, la questione diventerebbe assai complessa e Andrea Bianchi avrebbe un bel problema da risolvere. Spetterà a lui dimostrare la falsità del video, poiché la maggior parte delle persone, nell’immediato, sarà incline a credere a quel deepfake.

Sorge spontanea la domanda: quale potrebbe essere il motivo per cui qualcuno investirebbe risorse considerevoli nella produzione di un video deepfake contro Andrea Bianchi? Purtroppo, la risposta è semplice e risiede nel fatto che non è più necessario disporre di ingenti capitali per generare contenuti contraffatti. La tecnologia ha compiuto progressi straordinari, dando vita a numerose app amatoriali per la creazione di video fake, alcune delle quali addirittura gratuite.
Reface, Face Swap Live e Deepswap sono solo alcuni esempi. Indubbiamente, i video prodotti attraverso queste applicazioni risultano notevolmente meno sofisticati e credibili rispetto a quelli generati da motion designer o team specializzati; basta però trovare il giusto equilibrio tra le tecnologie amatoriali e quelle professionali per raggiungere un risultato verosimile (soprattutto per la massa) e, di conseguenza, potenzialmente pericoloso.

Nel 2019, il CEO di un'azienda energetica con sede nel Regno Unito è stato vittima di un raggiro da 243.000 dollari attraverso l'uso di un Deepfake vocale. Il malcapitato credeva di parlare al telefono con l’amministratore delegato e capo della società madre tedesca, quando ha ricevuto da quest’ultimo l'ordine di effettuare un bonifico immediato sul conto corrente di un fornitore in Ungheria. Il truffatore ha utilizzato un software di imitazione vocale così avanzato da non suscitare alcun sospetto, nonostante le coordinate indicate non fossero nemmeno quelle della sede centrale. Presentimento di truffa che ha assalito la vittima solo quando il cybercriminale, tentando nuovamente la frode, ha contattato l’azienda da un numero di telefono austriaco. A quel punto è scattato l'allarme, ma ormai era troppo tardi per recuperare i fondi trasferiti. Il denaro era già stato spostato da un conto bancario ungherese a uno in Messico, e quindi disperso in altre località. Rüdiger Kirsch di Euler Hermes Group SA, la compagnia assicurativa dell'azienda che ha condiviso le informazioni con il Wall Street Journal, ha spiegato che il CEO riconosceva persino il sottile accento tedesco nella voce del suo capo.

Eliminato il lato accademico e di studio, dove gli esperti creano questi video allo scopo di analizzarne il fenomeno e approfondirne la comprensione, possiamo sintetizzare l'universo dei deepfake in tre distinti filoni: quello goliardico, caratterizzato da chi si dedica alla creazione di deepfake per intrattenimento personale; quello criminale, di chi li usa per scopi illeciti e fraudolenti; e infine quello giornalistico, che si focalizza sull'utilizzo dei deepfake da parte dei media per sensibilizzare l'opinione pubblica sui rischi associati a tale fenomeno. In quest'ultimo caso, i deepfake fungono da strumento di divulgazione per mettere in guardia il mondo sulle potenziali minacce legate alla manipolazione digitale.

La capacità di discernere l’autenticità dei contenuti assume un ruolo cruciale per contrastare la disinformazione e assicurare la verità. Con l'avanzare della tecnologia, emerge però una riflessione inerente la fiducia, ovvero il dilemma tra la credibilità delle decisioni umane e quelle guidate dalle macchine: di chi ci si può fidare?

Il rilevamento dei deepfake è una questione complessa proprio a causa della natura sofisticata della tecnologia impiegata per crearli. Nel tempo, diventeranno sempre più realistici e convincenti; proprio per questo motivo, è necessario accrescere la conoscenza sull’argomento applicando sia le dovute attenzioni che i corretti strumenti per la loro identificazione. In primis, comprendendo come funzionano gli algoritmi di AI e di deep learning su cui si basano le reti neurali che creano i deepfake. Affinché un deepfake sia credibile, infatti, è necessario addestrare l'algoritmo e questo richiede il processamento di materiale audio e video raffigurante il soggetto inconsapevole del video contraffatto. Disporre di una rilevante quantità di materiale di questo tipo contribuisce considerevolmente alla qualità del risultato finale. E qui i social rappresentano una fonte inesauribile di contenuti gratuiti per l'allenamento degli algoritmi: le dirette e i reel di Instagram, le challenge o i video su TikTok, dove milioni di utenti eseguono movimenti simili come ballare e cantare la stessa canzone, non fanno altro che accrescere un database audio/video standardizzato, aprendo le porte a un deep learning su vasta scala.

Come riconoscere un video deepfake?

Allo stato attuale, la maggior parte dei video contraffatti con l’intelligenza artificiale, sono ancora a un livello tale da consentirne il riconoscimento. Concentrati sulle seguenti caratteristiche:

  1. Occhi ed espressioni del volto. I deepfake potrebbero presentare lievi incoerenze nel movimento degli occhi e nelle espressioni facciali.
  2. Piedi, mani e denti. Sono tre elementi che l’intelligenza artificiale ancora fatica a riprodurre alla perfezione. Ingrandisci la parte da analizzare e valuta unghie e forma.
  3. Movimenti sincronizzati. Osserva se i movimenti delle labbra sono sincronizzati in modo naturale con l'audio. Accertati che i movimenti del corpo siano appropriati e coerenti con il contesto e soprattutto che non ci siano scatti.
  4. Errori di rendering. Cerca artefatti visivi o distorsioni nell'immagine che potrebbero indicare manipolazione digitale.
  5. Incoerenza nella risoluzione. Verifica se la risoluzione del volto è uniforme rispetto al resto del video.
  6. Anomalie nell'illuminazione e nelle ombre. Assicurati che l'illuminazione delle guance e della fronte sia coerente con quella dell'ambiente circostante. Fai attenzione alla peluria, ai nei e alle sopracciglia perché su questi elementi i deepfake potrebbero non rispettare la naturale illuminazione. Rileva ombre irreali o incoerenti ed eventuali cambiamenti di tonalità della pelle.
  7. Anomalie nella scena. Identifica elementi anomali o incoerenti al contesto della scena.
  8. Verifica delle informazioni. Conferma l'autenticità del video consultando fonti attendibili. Utilizza strumenti di verifica delle immagini, come Google Image Search, per cercare versioni simili dell’immagine in questione.

Molti big player stanno studiando e sviluppando diversi strumenti antideepfake. Alcune di queste tecnologie emergenti, utilizzano tecniche di analisi avanzata e algoritmi di apprendimento automatico, per individuare anomalie nei video o nelle immagini che potrebbero indicare manipolazioni digitali. Come detto, la piaga dei deepfake è in continua evoluzione e i programmi, atti a contrastarli, dovranno essere costantemente aggiornati per rimanere efficaci. Nessun software è sicuro al 100% e la consapevolezza umana rimane l’elemento chiave nel riconoscere eventuali segni di manipolazione. Quando le AI saranno così avanzate da creare deepfake impossibili da riconoscere, allora occorrerà lavorare in sinergia con le macchine stesse, sia sull'integrazione di maggiori strumenti di difesa e analisi automatizzati, sia sulla messa in sicurezza dei processi.

0
Shares
0
Shares