Deepfake innocui o dannosi? Un metodo per riconoscerli e smascherarli

Una nuova tecnica, altamente discussa e che divide la critica, che sfrutta l’intelligenza artificiale per sovrapporre il volto di una persona ad un’altra ripresa in un video, in modo tale che un video fasullo viene reso indistinguibile da quello autentico. I deepfake possono essere usati in mille modi, tanti innocui e divertenti, altrettanti dannosi.

Deepfake, lo studio di Facebook e della Michigan University (Adobe Stock)
Deepfake, lo studio di Facebook e della Michigan University (Adobe Stock)

Purtroppo, o per fortuna, dipende dai casi, la tecnologia alla base dei deepfake continua a migliorare, con tutto ciò che ne consegue. Per cercare di contrastare i deepfake, i ricercatori di Facebook e della Michigan University State hanno annunciato di aver creato un nuovo metodo per rilevare i deepfake e quale modello generativo è stato utilizzato per crearli.

Lo studio di Facebook e della Michigan University sui deepfake. Il nuovo metodo di approccio

Deepfake, l'utilizzo di Facebook della reverse engineering (Adobe Stock)
Deepfake, l’utilizzo di Facebook della reverse engineering (Adobe Stock)

Il team statunitense spera che il suo metodo fornirà a ricercatori e professionisti “strumenti per indagare meglio sugli incidenti di disinformazione coordinata utilizzando i deepfake e aprire nuove direzioni per la ricerca futura“.

LEGGI ANCHE >>> Tim Cook lancia l’allarme: “Così, sicurezza iPhone a serie rischio, sarebbe gravissimo”

Esistono già sistemi di rilevamento dei deepfake, ma poiché questi sono solitamente validi per rilevare modelli generativi specifici, non appena appare un modello diverso, uno su cui il sistema non è stato preparato, il sistema non riesce a capire da dove provenga il deepfake.

LEGGI ANCHE >>> Questo asteroide vale una fortuna ma per gli esperti rimane un mistero

Il team di Facebook e della Michigan University hanno deciso di fare un ulteriore passo avanti ed estendere l’attribuzione dell’immagine oltre il set limitato di modelli presentati durante la formazione. Si riduce principalmente tutto al reverse engineering, letteralmente un’ingegneria inversa consiste nell’analisi delle funzioni, degli impieghi, della collocazione, dell’aspetto progettuale, geometrico e materiale di un manufatto o di un oggetto che è stato rinvenuto.

Il nostro metodo di reverse engineering si basa sulla scoperta dei modelli unici dietro il modello di intelligenza artificiale utilizzato per generare una singola immagine deepfake”, ha affermato Hassner di Facebook. “Con l’analisi del modello unico – continua il team di Facebook e della Michigan University – possiamo stimare le proprietà dei modelli generativi utilizzati per creare ciascun deepfake e persino associarne di più al modello che li ha eventualmente prodotti. Ciò fornisce informazioni su ciascun deepfake, anche su quelli in cui non esistevano informazioni precedenti”.

I ricercatori in questione hanno studiato il suo sistema utilizzando un set di immagini fake con 100.000 immagini sintetiche generate da 100 diversi modelli generativi, disponibili pubblicamente. I loro risultati sono stati sostanzialmente migliori rispetto ai precedenti modelli di rilevamento.

Questo tipo di modello di rilevamento dei deepfake potrebbe tornare utile soprattutto per le agenzie governative, la polizia e i siti di social media che stanno cercando disperatamente di impedire che tali informazioni false circolino sulle loro piattaforme. Non è stata condivisa, per il momento, nessuna data su quando verrà attivato il modello studiato, ma già che c’è qualcuno che ci sta lavorando su, è un buon punto di partenza.

Gestione cookie