Quali sono alcune tattiche per riconoscere i media realizzati artificialmente?


12

Con la crescente capacità di creare immagini false, morsi di suoni falsi e video falsi, diventa sempre più difficile riconoscere ciò che è reale e ciò che non lo è. Anche ora vediamo una serie di esempi di applicazioni che creano supporti falsi a costi contenuti (vedi Deepfake , FaceApp , ecc.).

Ovviamente, se queste applicazioni vengono utilizzate nel modo sbagliato, potrebbero essere utilizzate per offuscare l'immagine di un'altra persona. Deepfake potrebbe essere usato per rendere una persona infedele al proprio partner. Un'altra applicazione potrebbe essere utilizzata per far sembrare che un politico abbia detto qualcosa di controverso.

Quali sono alcune tecniche che possono essere utilizzate per riconoscere e proteggere dai media artificialmente realizzati?

Risposte:


2

Il campo Digital Media Forensics (DMF) mira a sviluppare tecnologie per la valutazione automatizzata dell'integrità di un'immagine o di un video, quindi DMF è il campo che stai cercando. Esistono diversi approcci nel DMF: ad esempio quelli basati sulle tecniche di machine learning (ML), in particolare le reti neurali convoluzionali (CNN).

Ad esempio, nel documento Deepfake video rilevazione Uso recidivante Neural Networks (2018), David GUera e Edward J. Delp propongono un'analisi a due stadi composto da un CNN per estrarre caratteristiche a livello di frame seguito da un RNN temporalmente consapevole di cattura incongruenze temporali tra i frame introdotti dallo strumento deepfake. Più specificamente, usano un'architettura LSTM convoluzionale (CNN combinata con un LSTM), che è addestrata end-to-end, in modo che la CNN apprenda le funzionalità nei video, che vengono passate alla RNN, che tenta di prevedere la probabilità di quelle funzionalità appartenenti a un video falso o meno. La sezione 3 spiega la creazione di video deepfake, che porta a incoerenze tra i frame video (che sono sfruttati nel metodo proposto) a causa dell'uso di immagini con diverse condizioni di visualizzazione e illuminazione.

Altre opere simili sono state proposte. Vedi questo elenco curato https://github.com/aerophile/awesome-deepfakes per altri documenti correlati.


1

Penso che il contesto sia importante qui. Usare tattiche come quelle usate da Scotland Yard per oltre un secolo è probabilmente il modo migliore. Stabilire alibi, linee del tempo realistiche, motivi. Per un'impostazione legale, sarebbe possibile dimostrare che queste immagini erano false usando metodi come questo. Dal punto di vista IT, potrebbe essere possibile individuare un'origine per queste immagini. Se migliaia di immagini duplicate provengono da un'unica origine, tutte le immagini di questa origine sono sospette.

Penso, in generale, che dovremmo riqualificarci per non credere a tutto ciò che vediamo. Ci sono così tanti metodi per falsificare le immagini, che la fotografia non può più essere considerata la migliore prova di un evento. Non dovremmo ignorare tutte le immagini, ma piuttosto cercare la concorrenza esterna ai fatti prima di saltare alle conclusioni. Se tutti i fatti indicano che sta accadendo un evento, è probabile che quella fotografia sia reale.


0

Supponendo che manufatti ed elementi innaturali non esistano nei media in questione e che i media non siano distinguibili dall'occhio umano, l'unico modo per essere in grado di farlo è risalire alla fonte delle immagini.

Un'analogia può essere tracciata sull'attacco DoS (Denial of Service), in cui un numero assurdo di richieste viene inviato da un singolo IP a un singolo server causandone l'arresto anomalo - Una soluzione comune è un honeypot, in cui un elevato numero di richieste da uno L'IP viene reindirizzato a un server di richiamo in cui, anche se si blocca, il tempo di attività non viene compromesso. Alcune ricerche sono state condotte su queste linee in cui questo documento parlava della verifica della firma digitale di un'immagine o di quella in cui proponevano il rilevamento di immagini manomesse e l'identificazione della telecamera di origine.

Una volta risalita a una fonte, se un numero assurdo di immagini potenzialmente false proviene da una fonte singolare, deve essere messo in discussione.

La paura comune sorge quando abbiamo a che fare con qualcosa, sulla base dell'analogia, come un attacco DDoS (Distributed Denial of Service) in cui ogni falsa richiesta proviene da una fonte distribuita - Network Security ha trovato il modo di gestirlo, ma la sicurezza e il rilevamento delle frodi in termini di IA non è quello stabilito.

Essenzialmente per un media artificiale ben congegnato per uno specifico scopo dannoso, oggi, è abbastanza difficile essere colti - Ma attualmente si sta lavorando sulla sicurezza nell'intelligenza artificiale. Se stai pensando di utilizzare supporti artificiali per scopi dannosi, direi che probabilmente è il momento migliore.

Questa sicurezza è stata una preoccupazione da un po 'ora. Un articolo scritto da uno scienziato dei dati cita

Deepfakes è già stato usato per cercare di molestare e umiliare le donne attraverso falsi video porno. Il termine deriva in realtà dal nome utente di un utente Reddit che stava creando questi video creando reti generative contraddittorie (GAN) utilizzando TensorFlow. Ora, i funzionari dell'intelligence stanno parlando della possibilità che Vladimir Putin utilizzi video falsi per influenzare le elezioni presidenziali del 2020. Sono in corso ulteriori ricerche sui deepfake come una minaccia alla democrazia e alla sicurezza nazionale, nonché su come rilevarli.

Nota: sono abbastanza all'oscuro della sicurezza della rete, tutte le mie conoscenze provengono da una conversazione con un amico e ho pensato che sarebbe stata una buona analogia da usare qui. Perdona tutti gli errori nell'analogia e correggi se possibile!


Sarebbe bello se potessi fare qualche ricerca e fornire un link ad almeno 1 lavoro di ricerca / documento basato su qualcosa del genere (ovvero che sfrutta la fonte dei video potenzialmente falsi).
nbro

A parte i documenti che parlano dei potenziali danni e quelli che generalmente cercano di rilevare artefatti, meno documenti fanno ciò che è stato dichiarato nella risposta come questo o questo - Come detto, non sono state condotte ricerche approfondite su queste linee, ma è essere esplorato. Spero che questi link abbiano aiutato!
ashenoy,

-1

Le tecniche che menzioni usano i GAN. L'idea chiave dei GAN è che hai un generatore e un discriminatore. Il generatore genera nuovo contenuto, il discriminatore deve dire se il contenuto proviene dai dati reali o se è stato generato.

Il discriminatore è molto più potente. Non dovrebbe essere troppo difficile addestrare un discriminatore a rilevare i falsi. La formazione di un modello in grado di individuare la manipolazione e la comprensione di ciò è una prova della manipolazione più difficile. È impossibile ottenere una prova che qualcosa non è manipolato.

A proposito della domanda su come gestisci le immagini photoshopped: osservi le differenze nei livelli di compressione nell'immagine. La parola chiave da cercare è forensics delle immagini: http://fotoforensics.com/tutorial-estq.php

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.