La nuova frontiera della Sicurezza Video: difendersi dai deepfake con l’intelligenza artificiale
Con il proliferare di prodotti per la generazione di video basati sull’intelligenza artificiale (IA) come Sora e Luma, ci troviamo sull’orlo di un’esplosione di contenuti video generati da IA. Tuttavia, nonostante le promesse innovative di queste tecnologie, sorgono preoccupazioni tra decisori politici, figure pubbliche e ingegneri del software riguardo alla diffusione dei deepfake.
Fortunatamente, sembra che l’IA stessa possa essere la nostra migliore difesa contro la falsificazione di contenuti generati da IA, grazie a un algoritmo in grado di rilevare i segni distintivi dei video generati con una precisione superiore al 98%.
Come l’IA combatte i deepfake: il ruolo cruciale di MISLnet
L’ironia di affidarsi all’IA per proteggerci dai contenuti creati dall’IA è evidente, come sottolineato da Matthew Stamm, professore associato di ingegneria presso l’Università di Drexel
“È alquanto inquietante che i video generati da IA possano essere diffusi prima che esista un buon sistema per rilevare le falsificazioni create da attori malevoli”.
Fino ad ora, i programmi di rilevamento forense sono stati efficaci nel contrastare i video modificati semplicemente trattandoli come una serie di immagini e applicando lo stesso processo di rilevamento. Tuttavia, con i video generati da IA, non vi è alcuna evidenza di manipolazione delle immagini frame per frame. Pertanto, per essere efficace, un programma di rilevamento dovrà identificare le nuove tracce lasciate dal modo in cui i programmi generativi di IA costruiscono i loro video.
Il progresso, delineato in uno studio pubblicato il 24 aprile sul server pre-print arXiv, consiste in un algoritmo che rappresenta un importante traguardo nel rilevamento di immagini e contenuti video falsi. Questo perché molti dei “bricchi digitali” cercati dai sistemi esistenti nei media digitalmente editati non sono presenti nei media completamente generati da IA.
Deepfake e Intelligenza Artificiale: Sicurezza Video Avanzata con MISLnet
Lo strumento innovativo sviluppato dal progetto di ricerca, chiamato “MISLnet“, ha evoluto da anni di dati derivati dal rilevamento di immagini e video falsi con strumenti che individuano cambiamenti apportati a video o immagini digitali. Questi possono includere l’aggiunta o lo spostamento di pixel tra i frame, la manipolazione della velocità del clip o la rimozione di frame.
Tali strumenti funzionano perché l’elaborazione algoritmica di una fotocamera digitale crea relazioni tra i valori dei colori dei pixel. Tuttavia, poiché i video generati da IA non sono prodotti da una telecamera che cattura una scena reale o un’immagine, non contengono quelle disparità caratteristiche tra i valori dei pixel.
Gli strumenti del team di Drexel, inclusi MISLnet, apprendono utilizzando un metodo chiamato rete neurale vincolata, in grado di differenziare tra valori normali e insoliti a livello sub-pixel di immagini o clip video, anziché cercare gli indicatori comuni di manipolazione delle immagini menzionati in precedenza.
MISL ha superato altri sette sistemi di rilevamento di video AI falsi, identificando correttamente i video generati da IA nel 98,3% dei casi, battendo gli altri otto sistemi che hanno ottenuto almeno il 93%.
“Abbiamo già visto i video generati da IA essere utilizzati per creare disinformazione“, ha aggiunto Stamm nella dichiarazione. “Con l’aumentare dell’ubiquità di questi programmi e della loro facilità d’uso, è ragionevole aspettarsi di essere sommersi da video sintetici.”
Questo nuovo strumento rappresenta quindi non solo un avanzamento tecnologico significativo nel campo del rilevamento dei deepfake, ma anche una barriera cruciale nella difesa contro la diffusione di contenuti manipolati che potrebbero minare la fiducia pubblica e la verità mediatica.