(foto: Unsplash)
Sebbene non sia una minaccia ancora così attuale Facebook sta continuando a investire per migliorare i sistemi di riconoscimento di deepfake sulle sue piattaforma. I deepfake sono immagini o video in cui i volti, ma anche le voci, sono sovrapposti e combinati a scene già esistenti, grazie all’intelligenza artificiale (Ai), creando così dei veri e propri falsi.
L’ultimo lavoro sponsorizzato da Facebook è frutto della collaborazione con gli studiosi della Michigan State University (Msu) e ha permesso di creare un metodo per decodificare i deepfake con tecniche di reverse engineering. Grazie a questo nuovo modello si possono analizzare le immagini generate da una Ai e, per mezzo di alcuni parametri, identificare le caratteristiche presenti generate dai modelli di apprendimento automatico, anche quelli sconosciuti. Con questo metodo c’è la possibilità di individuare una sorta di impronta digitale che consente di indicare se un filmato è vero o falso.
In questo momento, il lavoro è ancora in fase di ricerca e non è pronto per essere distribuito. La ricerca però potrebbe aiutare Facebook a individuare i deepfake condivisi sui propri social in fturo. Questi contenuti possono includere disinformazione ma anche pornografia non consensuale, un uso molto comune della tecnologia deepfake. In questo caso i volti degli attori e delle attrici vengono sostituiti con quelli celebrità o di persone conosciute.
Il funzionamento del nuovo metodo è spiegato bene a The Verge dal ricercatore di Facebook, Tal Hassner. “Supponiamo che un malintenzionato stia generando molti deepfake diversi e li carichi su piattaforme diverse per utenti diversi”, afferma Hassner. “Se questo è un nuovo modello di intelligenza artificiale che nessuno ha visto prima, allora c’è ben poco che avremmo potuto dire al riguardo in passato”. Ora siamo invece in grado di dire: “Guarda, l’immagine che è stata caricata qui, l’immagine che è stata caricata lì, provengono tutte dallo stesso modello”, in quel caso potremo dire: “Questo è il colpevole”, ha spiegato Hassner.
Dalle informazioni preliminari su questa ricerca si notano sicuramente dei passi avanti negli sforzi di scoprire i deepfake, ma bisogna sottolineare però che questi modelli sono ancora lontani dell’infallibilità. Quando Facebook ha organizzato un concorso di rilevamento deepfake lo scorso anno, l’algoritmo migliore ha rilevato solo il 65,18% dei video manipolati dall’intelligenza artificiale.
Questa difficoltà è dovuta principalmente al fatto che il campo dell’Ai generativa è estremamente attivo e progredisce velocemente. Ogni giorno vengono pubblicate nuove tecniche ed è quasi impossibile per qualsiasi filtro tenere il passo, come ha confermato lo stesso Hassner.
The post Facebook studia un nuovo metodo per riconoscere i deepfake appeared first on Wired.
Grazie a un sistema di ingegneria inversa, ancora in fase di ricerca, potranno essere rilevati i video falsi a partire dai tratti comuni della Ai che li hanno generati
The post Facebook studia un nuovo metodo per riconoscere i deepfake appeared first on Wired.
Wired (Read More)