Supponendo che manufatti ed elementi innaturali non esistano nei media in questione e che i media non siano distinguibili dall'occhio umano, l'unico modo per essere in grado di farlo è risalire alla fonte delle immagini.
Un'analogia può essere tracciata sull'attacco DoS (Denial of Service), in cui un numero assurdo di richieste viene inviato da un singolo IP a un singolo server causandone l'arresto anomalo - Una soluzione comune è un honeypot, in cui un elevato numero di richieste da uno L'IP viene reindirizzato a un server di richiamo in cui, anche se si blocca, il tempo di attività non viene compromesso. Alcune ricerche sono state condotte su queste linee in cui questo documento parlava della verifica della firma digitale di un'immagine o di quella in cui proponevano il rilevamento di immagini manomesse e l'identificazione della telecamera di origine.
Una volta risalita a una fonte, se un numero assurdo di immagini potenzialmente false proviene da una fonte singolare, deve essere messo in discussione.
La paura comune sorge quando abbiamo a che fare con qualcosa, sulla base dell'analogia, come un attacco DDoS (Distributed Denial of Service) in cui ogni falsa richiesta proviene da una fonte distribuita - Network Security ha trovato il modo di gestirlo, ma la sicurezza e il rilevamento delle frodi in termini di IA non è quello stabilito.
Essenzialmente per un media artificiale ben congegnato per uno specifico scopo dannoso, oggi, è abbastanza difficile essere colti - Ma attualmente si sta lavorando sulla sicurezza nell'intelligenza artificiale. Se stai pensando di utilizzare supporti artificiali per scopi dannosi, direi che probabilmente è il momento migliore.
Questa sicurezza è stata una preoccupazione da un po 'ora. Un articolo scritto da uno scienziato dei dati cita
Deepfakes è già stato usato per cercare di molestare e umiliare le donne attraverso falsi video porno. Il termine deriva in realtà dal nome utente di un utente Reddit che stava creando questi video creando reti generative contraddittorie (GAN) utilizzando TensorFlow. Ora, i funzionari dell'intelligence stanno parlando della possibilità che Vladimir Putin utilizzi video falsi per influenzare le elezioni presidenziali del 2020. Sono in corso ulteriori ricerche sui deepfake come una minaccia alla democrazia e alla sicurezza nazionale, nonché su come rilevarli.
Nota: sono abbastanza all'oscuro della sicurezza della rete, tutte le mie conoscenze provengono da una conversazione con un amico e ho pensato che sarebbe stata una buona analogia da usare qui. Perdona tutti gli errori nell'analogia e correggi se possibile!