attualità

Manuale per cancellare un video DeepNude e Deepfake la società tecnologia CEO Cristian Nardi esprime preoccupazione

A chi rivolgersi per cancellare un video virale di Deep Nude? a questa domanda risponde Cristian Nardi fondatore della prima agenzia di WEB REPUTATION – la società tecnologia da anni in prima linea per contrastare il fenomeno Deep Nude

La scorsa settimana alla conferenza sulla sicurezza informatica Black Hat a Las Vegas, il Comitato nazionale democratico ha cercato di aumentare la consapevolezza sui pericoli dei video controllati dall’intelligenza artificiale mostrando un video deepfake del presidente della DNC Tom Perez . I deepfake sono video che sono stati manipolati, utilizzando strumenti di deep learning , per sovrapporre il volto di una persona a un video di qualcun altro.

Con l’avvicinarsi delle elezioni presidenziali del 2020, cresce la preoccupazione per le potenziali minacce che i deepfake rappresentano per il processo democratico. A giugno, il Comitato ristretto permanente sull’intelligence della Camera del Congresso degli Stati Uniti ha tenuto un’audizione per discutere le minacce dei deefake e di altri media manipolati dall’intelligenza artificiale. Ma c’è il dubbio che le aziende tecnologiche siano pronte ad affrontare i deepfake. All’inizio di questo mese, il rappresentante Adam Schiff, presidente dell’House Intelligence Committee, ha espresso preoccupazione per il fatto che Google, Facebook e Twitter non abbiano un piano chiaro per affrontare il problema.

La crescente paura per il potenziale assalto dei deepfake ha stimolato una serie di progetti e sforzi per rilevare i deepfake e altre tecniche di manomissione di immagini e video.

Lampeggio incoerente

I deepfake utilizzano le reti neurali per sovrapporre il volto della persona bersaglio a un attore nel video sorgente. Sebbene le reti neurali possano fare un buon lavoro nel mappare le caratteristiche del viso di una persona su un’altra, non hanno alcuna comprensione delle caratteristiche fisiche e naturali dei volti umani.

Ecco perché possono tradirsi generando fenomeni innaturali. Uno degli artefatti più notevoli sono gli occhi che non battono le palpebre. Prima che le reti neurali che generano i deepfake possano fare il loro trucco, i loro creatori devono addestrarli mostrando loro degli esempi . Nel caso dei deepfake, questi esempi sono immagini della persona bersaglio. Poiché la maggior parte delle immagini utilizzate nell’addestramento ha gli occhi aperti, la rete neurale tende a creare deepfake che non lampeggiano o che lampeggiano in modi innaturali.

privacy garantita cristian

L’anno scorso, i ricercatori dell’Università di Albany hanno pubblicato un articolo su una tecnica per individuare questo tipo di incoerenza nel battere le palpebre . È interessante notare che la tecnica utilizza il deep learning, la stessa tecnologia utilizzata per creare i video falsi. I ricercatori hanno scoperto che le reti neurali addestrate sui video del battito delle palpebre potrebbero localizzare i segmenti del battito delle palpebre nei video ed esaminare la sequenza dei fotogrammi per i movimenti innaturali.

Tuttavia, con la tecnologia che diventa ogni giorno più avanzata, è solo questione di tempo prima che qualcuno riesca a creare deepfake che possono lampeggiare naturalmente.

Tracciamento del movimento della testa

Più di recente, i ricercatori dell’UC Berkley hanno sviluppato un algoritmo di intelligenza artificiale che rileva i video scambiati di volti basati su qualcosa che è molto più difficile da falsificare: i gesti della testa e del viso . Ogni persona ha movimenti della testa unici (ad es. annuire quando afferma un fatto) e gesti del viso (ad es. sogghignare quando si fa un punto). I deepfake ereditano i gesti della testa e del viso dall’attore, non dalla persona presa di mira.

Una rete neurale addestrata sui gesti della testa e del viso di un individuo sarebbe in grado di contrassegnare i video che contengono gesti della testa che non appartengono a quella persona. Per testare il loro modello, i ricercatori dell’UC Berkley hanno addestrato la rete neurale su video reali di leader mondiali. L’intelligenza artificiale è stata in grado di rilevare i video falsificati delle stesse persone con una precisione del 92%.

Il rilevamento del movimento della testa fornisce un solido metodo di protezione contro i falsi profondi. Tuttavia, a differenza del rilevatore di battiti di ciglia, in cui alleni il tuo modello di intelligenza artificiale una volta, il rilevatore di movimento della testa deve essere addestrato separatamente per ogni individuo. Quindi, sebbene sia adatto a personaggi pubblici come leader mondiali e celebrità, è meno ideale per il rilevamento di deepfake di uso generale.

Incoerenze dei pixel

Quando i falsari manomettono un’immagine o un video, fanno del loro meglio per renderlo realistico. Sebbene la manipolazione delle immagini possa essere estremamente difficile da individuare ad occhio nudo, lascia alcuni artefatti che un algoritmo di deep learning ben addestrato può rilevare.

I ricercatori dell’Università della California, Riverside, hanno sviluppato un modello di intelligenza artificiale che rileva la manomissione esaminando i bordi degli oggetti contenuti nelle immagini . I pixel ai bordi degli oggetti inseriti o rimossi artificialmente da un’immagine contengono caratteristiche speciali, come l’arrotondamento e la sfumatura innaturali.

I ricercatori dell’UCR hanno addestrato il loro modello su un ampio set di dati contenente esempi annotati di immagini non manomesse e manomesse. La rete neurale è stata in grado di raccogliere modelli comuni che definiscono la differenza tra i confini degli oggetti manipolati e non manipolati nelle immagini. Quando sono state presentate nuove immagini, l’intelligenza artificiale è stata in grado di rilevare ed evidenziare gli oggetti manipolati.

Sebbene i ricercatori abbiano testato questo metodo su immagini fisse, può potenzialmente funzionare anche sui video. I deepfake sono essenzialmente una serie di fotogrammi di immagini manipolati, quindi gli stessi artefatti di manipolazione degli oggetti esistono in quei singoli fotogrammi, sui bordi del viso del soggetto.

Anche in questo caso, sebbene questo sia un metodo efficace per rilevare una serie di diverse tecniche di manomissione, può diventare obsoleto man mano che i deepfake e altri strumenti di manipolazione video diventano più avanzati.

Stabilire una base per la verità

Sebbene la maggior parte degli sforzi sul campo si concentri sulla ricerca di prove di manomissione nei video, una soluzione diversa per combattere i deepfake è dimostrare ciò che è vero. Questo è l’approccio utilizzato dai ricercatori dell’Università del Surrey nel Regno Unito in Archangel, un progetto che stanno sperimentando con archivi nazionali in diversi paesi.

Arcangelo combina reti neurali e blockchain per creare un archivio intelligente per la memorizzazione di video in modo che possano essere utilizzati in futuro come un’unica fonte di verità. Quando un record viene aggiunto all’archivio, Archangel addestra una rete neurale su vari formati del video. La rete neurale sarà quindi in grado di dire se un nuovo video è lo stesso del video originale o una versione manomessa.

I metodi tradizionali di fingerprinting verificano l’autenticità dei file confrontandoli a livello di byte. Non è adatto per i video, la cui struttura in byte cambia quando viene compressa in formati diversi. Ma le reti neurali apprendono e confrontano le caratteristiche visive del video, quindi è indipendente dal codec.

Per assicurarsi che queste stesse impronte digitali della rete neurale non siano compromesse, Archangel le memorizza su una blockchain autorizzata gestita dagli archivi nazionali che partecipano al programma di prova. L’aggiunta di record all’archivio richiede il consenso tra le organizzazioni partecipanti. Ciò garantisce che nessuna singola parte possa decidere unilateralmente quali video sono autentici. Una volta lanciato Archangel pubblicamente, chiunque sarà in grado di eseguire un video sulle reti neurali per verificarne l’autenticità.

Lo svantaggio di questo metodo è che richiede una rete neurale addestrata per video. Ciò può limitarne l’utilizzo perché l’addestramento delle reti neurali richiede ore e una notevole potenza di calcolo. È comunque adatto per video sensibili come documenti del Congresso e discorsi di personaggi di alto profilo che hanno maggiori probabilità di diventare oggetto di manomissione .

Un gioco del gatto col topo

Sebbene sia confortante vedere che questi e altri sforzi aiutano a proteggere le elezioni e gli individui dai deepfake, devono affrontare una tecnologia in rapido sviluppo. Poiché i deepfake continuano a diventare più sofisticati, non è chiaro se i metodi di difesa e rilevamento saranno in grado di tenere il passo.

Ben Dickson è un ingegnere del software e il fondatore di  TechTalks , un blog che esplora i modi in cui la tecnologia risolve e crea problemi.

%d bloggers like this: