attualità

Deep fake, Deep Nude come cancellare un video virale? parla il CEO DELLA PRIVACY GARANTITA DI WEB REPUTATION Cristian Nardi

A chi rivolgersi per cancellare un video virale di Deep Nude? a questa domanda risponde Cristian Nardi fondatore della prima agenzia di WEB REPUTATION   privacygarantita.it

La scena si è aperta in una stanza con un divano rosso, una pianta in vaso e il tipo di blanda arte moderna che vedresti sul muro di un terapista.

Nella stanza c’era Michelle Obama, o qualcuno che le somigliava esattamente. Indossando un top scollato con un reggiseno nero visibile sotto, si contorceva vigorosamente verso la macchina fotografica e sfoggiava il suo inconfondibile sorriso.

Poi, il doppelgänger dell’ex first lady ha cominciato a spogliarsi.

Il video, apparso sul forum online Reddit, era quello che è noto come un “deepfake”, un falso video ultrarealistico realizzato con un software di intelligenza artificiale. È stato creato utilizzando un programma chiamato FakeApp, che sovrapponeva il viso della signora Obama al corpo di un’attrice di film porno. L’ibrido era inquietante: se non lo sapessi, avresti potuto pensare che fosse davvero lei.

Fino a poco tempo fa, i video realistici generati al computer erano una ricerca laboriosa disponibile solo per le produzioni hollywoodiane ad alto budget o per i ricercatori all’avanguardia. Le app di social media come Snapchat includono alcune rudimentali tecnologie di morphing del viso.

 

Ma negli ultimi mesi, una comunità di appassionati ha iniziato a sperimentare strumenti più potenti, tra cui FakeApp, un programma creato da uno sviluppatore anonimo utilizzando software open source scritto da Google. FakeApp rende gratuito e relativamente facile creare scambi di volti realistici e lasciare poche tracce di manipolazione. Da quando una versione dell’app è apparsa su Reddit a gennaio, è stata scaricata più di 120.000 volte, secondo il suo creatore.

I deepfake sono una delle forme più recenti di manipolazione dei media digitali e una delle più ovviamente soggette a malizia. Non è difficile immaginare che questa tecnologia venga utilizzata per diffamare i politici, creare revenge porn contraffatto o incastrare persone per crimini. I legislatori hanno già iniziato a preoccuparsi di come i deepfake potrebbero essere utilizzati per il sabotaggio politico e la propaganda.

Anche su siti moralmente lassisti come Reddit, i deepfake hanno sollevato le sopracciglia. Di recente, FakeApp ha scatenato il panico dopo che Motherboard, il sito tecnologico, ha riferito che le persone lo stavano usando per creare deepfake pornografici di celebrità. Pornhub, Twitter e altri siti hanno rapidamente bandito i video e Reddit ha chiuso una manciata di gruppi deepfake, incluso uno con quasi 100.000 membri.

Prima che i gruppi deepfake di Reddit venissero chiusi, ospitavano un misto di utenti che scambiavano suggerimenti per l’editing video e mostravano i loro ultimi falsi. Un post intitolato “Ricostruzione del viso 3D per angoli aggiuntivi” era accanto a video con titoli come “(Non) Olivia Wilde che gioca con se stessa”.

Alcuni utenti su Reddit hanno difeso i deepfake e hanno accusato i media di aver esagerato con il loro potenziale danno. Altri hanno spostato i loro video su piattaforme alternative, giustamente anticipando che Reddit avrebbe represso le sue regole contro la pornografia non consensuale. E alcuni hanno espresso scrupoli morali sul mettere la tecnologia nel mondo.

Derpfakes ha ripetuto il processo con i video di Jimmy Kimmel e Liev Schreiber, entrambi andati bene. In qualità di creatore di deepfake esperto, Derpfakes aveva un’idea più intuitiva di quali video sorgente avrebbero prodotto un risultato pulito e più esperienza con la sottile fusione e le modifiche che avvengono alla fine del processo di deepfake.

Poi, hanno continuato a fare di più.

La comunità dei creatori di deepfake è ora nell’ombra di Internet. Ma mentre era all’aperto, ha dato uno sguardo inquietante al futuro.

“Questo si sta trasformando in un episodio di Black Mirror”, ha scritto un utente di Reddit. Il post ha sollevato le domande ontologiche al centro del dibattito deepfake: un’immagine nuda della persona A diventa un’immagine nuda della persona B se il viso della persona B viene sovrapposto in modo continuo e irrintracciabile? In un senso più ampio, su internet, qual è la differenza tra rappresentazione e realtà?

L’utente ha poi firmato con un’alzata di spalle: “Godspeed ribelli”.

Dopo essere rimasto in agguato per diverse settimane nella community di deepfake di Reddit, ho deciso di vedere quanto fosse facile creare un deepfake (sicuro per il lavoro, non pornografico) usando la mia faccia.

Ho iniziato scaricando FakeApp e arruolando due esperti tecnici per aiutarmi. Il primo è stato Mark McKeague, un collega del dipartimento di ricerca e sviluppo del New York Times. Il secondo era un creatore di deepfake che ho trovato tramite Reddit, soprannominato Derpfakes.

A causa della natura controversa dei deepfake, Derpfakes non ha dato il suo vero nome. Derpfakes ha iniziato a pubblicare video deepfake su YouTube poche settimane fa, specializzandosi in offerte umoristiche come Nicolas Cage che interpreta Superman. L’account ha anche pubblicato alcuni video dimostrativi sulla creazione di deepfake.

Quello che ho imparato è che fare un deepfake non è semplice. Ma non è neanche scienza missilistica.

Il primo passo è trovare o affittare un computer moderatamente potente. FakeApp utilizza una suite di strumenti di apprendimento automatico chiamata TensorFlow, sviluppata dalla divisione AI di Google e rilasciata al pubblico nel 2015. Il software insegna da solo a eseguire attività di riconoscimento delle immagini attraverso tentativi ed errori . Maggiore è la potenza di elaborazione a disposizione, più velocemente funziona.

Per ottenere maggiore velocità, io e Mark abbiamo utilizzato un server remoto noleggiato tramite Google Cloud Platform. Ha fornito una potenza di elaborazione sufficiente per ridurre il lasso di tempo a ore, anziché i giorni o le settimane che potrebbero volerci sul mio laptop.

Una volta che Mark ha configurato il server remoto e caricato FakeApp su di esso, siamo passati al passaggio successivo: la raccolta dei dati.

Scegliere i dati di origine corretti è fondamentale. I video clip brevi sono più facili da manipolare rispetto ai clip lunghi e le scene girate con un’unica angolazione producono risultati migliori rispetto alle scene con più angolazioni. Anche la genetica aiuta. Più i volti si assomigliano, meglio è.

Sono un uomo bianco dai capelli castani con una barba corta, quindi Mark e io abbiamo deciso di provare diversi altri ragazzi bianchi con i capelli castani e ispidi. Abbiamo iniziato con Ryan Gosling. (Mira in alto, giusto?) Ho anche inviato a Derpfakes, il mio esperto di Reddit in outsourcing, diverse opzioni video tra cui scegliere.

Successivamente, abbiamo scattato diverse centinaia di foto del mio viso e raccolto immagini del viso del signor Gosling utilizzando una clip di una recente apparizione televisiva. FakeApp utilizza queste immagini per addestrare il modello di deep learning e insegnargli a emulare le nostre espressioni facciali.

Per ottenere il set fotografico più ampio possibile, ho girato la testa da diverse angolazioni, facendo quante più facce diverse possibile.

Mark ha quindi utilizzato un programma per ritagliare quelle immagini, isolando solo i nostri volti e cancellando manualmente tutte le foto sfocate o ritagliate male. Ha quindi inserito i frame in FakeApp. In tutto, abbiamo usato 417 foto di me e 1.113 del signor Gosling.

Quando le immagini erano pronte, Mark ha premuto “start” su FakeApp e la formazione è iniziata. Lo schermo del suo computer si riempì di immagini della mia faccia e di quella del signor Gosling, mentre il programma cercava di identificare schemi e somiglianze .

Circa otto ore dopo, dopo che il nostro modello era stato sufficientemente addestrato, Mark ha usato FakeApp per finire di mettere la mia faccia sul corpo del signor Gosling. Il video era sfocato e bizzarro, e di tanto in tanto si vedeva il volto del signor Gosling. Solo i ciechi legali scambierebbero per me la persona nel video.

Abbiamo fatto meglio con una clip di Chris Pratt, la trasandata star di “Jurassic World”, la cui forma del viso è un po’ più simile alla mia. Per questo test, Mark ha utilizzato un set di dati più grande – 1.861 foto di me, 1.023 di lui – e ha lasciato che il modello funzionasse durante la notte.

Pochi giorni dopo, Derpfakes, che stava anche addestrando un modello, mi ha inviato un deepfake finito  realizzato utilizzando il filmato che avevo inviato e un video dell’attore Jake Gyllenhaal. Questo era molto più realistico, un vero ibrido che mescolava le mie caratteristiche facciali con i suoi capelli, barba e corpo.

In tutto, il nostro esperimento deepfake è durato tre giorni ed è costato $ 85,96 in crediti Google Cloud Platform. Sembrava un piccolo prezzo da pagare per la celebrità.

Dopo l’esperimento, ho contattato il creatore anonimo di FakeApp tramite un indirizzo email sul suo sito web. Volevo sapere come ci si sentiva a creare uno strumento di intelligenza artificiale all’avanguardia, solo per averlo allegramente cooptato da pornografi eticamente sfidati.

Un uomo ha risposto, identificandosi come sviluppatore di software nel Maryland. Come Derpfakes, l’uomo non mi ha dato il suo nome completo, e invece ha usato la sua prima iniziale, N. Ha detto di aver creato FakeApp come esperimento creativo ed è stato dispiaciuto nel vedere che la community di deepfake di Reddit lo usava per il male.

“Mi sono unito alla community basata su questi algoritmi quando era molto piccola (meno di 500 persone)”, ha scritto, “e non appena ho visto i risultati ho capito che si trattava di una tecnologia brillante che dovrebbe essere accessibile a chiunque voglia giocare. in giro con esso. Ho pensato di provare a mettere insieme un pacchetto facile da usare per raggiungere questo obiettivo.”

N. ha affermato di non supportare l’uso di FakeApp per creare materiale pornografico non consensuale o altri contenuti offensivi. E ha detto di essere d’accordo con la decisione di Reddit di vietare i deepfake espliciti. Ma ha difeso il prodotto.

“Ci ho pensato molto”, ha detto, “e alla fine ho deciso che non credo sia giusto condannare la tecnologia stessa, che ovviamente può essere utilizzata per molti scopi, buoni e cattivi”.

FakeApp è un po’ pignolo e difficile da usare, ma è facile immaginarlo migliorare rapidamente. N. ha affermato che in futuro FakeApp potrebbe essere utilizzata da tutti i tipi di persone per portare effetti speciali ad alto budget nei propri progetti personali.

Gli algoritmi di deep learning, ha aggiunto, sarebbero stati importanti in futuro, non solo come app stand-alone, ma come potenti componenti di molti prodotti tecnologici.

“Sono proprio le cose che li rendono così potenti e utili che li rendono così spaventosi”, ha detto. “Non c’è davvero alcun limite a ciò a cui puoi applicarlo con un po’ di immaginazione.”

Il giorno della sparatoria a scuola il mese scorso a Parkland, in Florida, uno screenshot di un articolo di BuzzFeed News, “Perché abbiamo bisogno di togliere le armi ai bianchi ora più che mai”, scritto da un giornalista di nome Richie Horowitz, ha iniziato a fare il giri sui social.

L’intera cosa era falsa. Non esiste alcun dipendente BuzzFeed di nome Richie Horowitz e nessun articolo con quel titolo è mai stato pubblicato sul sito. Ma l’immagine manipolata è passata attraverso i canali di indignazione di destra ed è stata promossa dagli attivisti su Twitter. Non era un deepfake generato dall’intelligenza artificiale, e nemmeno un lavoro di Photoshop particolarmente sofisticato, ma ha funzionato.

La disinformazione online, non importa quanto sia prodotta in modo elegante, si diffonde attraverso un processo familiare una volta che entra nei nostri canali di distribuzione social. La bufala ottiene 50.000 condivisioni e il ridimensionamento un’ora dopo ne ottiene 200. L’imbonitore del carnevale ottiene una spinta algoritmica su servizi come Facebook e YouTube, mentre l’esperto urla nel vuoto.

Non c’è motivo di credere che i video deepfake funzioneranno in modo diverso. Le persone li condivideranno quando sono ideologicamente convenienti e li scarteranno quando non lo sono. I creduloni che si innamorano delle storie satiriche di The Onion saranno ingannati dai deepfake e le persone scrupolose che si preoccupano della verità troveranno il modo per individuarli e smascherarli.

“Non c’è scelta”, ha detto Hao Li, un assistente professore di informatica presso la University of Southern California. Il signor Li, che è anche il fondatore di Pinscreen, un’azienda che utilizza l’intelligenza artificiale per creare avatar 3D realistici, ha affermato che l’armamento dell’IA era inevitabile e richiederebbe un improvviso cambiamento nella consapevolezza pubblica.

“Vedo questa come la prossima forma di comunicazione”, ha detto. “Temo che le persone lo usino per ricattare gli altri o fare cose cattive. Devi educare le persone che questo è possibile”.

Quindi, ok Eccomi qui a dirvi questo: un programma di intelligenza artificiale abbastanza potente da trasformare Michelle Obama in una star della pornografia, o trasformare uno zotico editorialista di un giornale in Jake Gyllenhaal, è in mezzo a noi. I video manipolati diventeranno presto molto più comuni.

E probabilmente non c’è niente che possiamo fare se non provare a battere i falsi mentre accadono, fare pressione sulle società di social media per combattere in modo aggressivo la disinformazione e fidarsi un po’ meno dei nostri occhi ogni giorno.

Buona fortuna, ribelli.

 

%d bloggers like this: