Cosa sta succedendo?
L’invenzione della tecnologia AI solleva segnali d’allarme in tutti i campi, compreso il giornalismo, e i media sintetici stanno peggiorando le cose. Questa guida è incentrata sulla definizione di media sintetici, tecniche e, cosa più sorprendente, segnali di allarme per il giornalismo.
Perché è importante:
Le varie forme di dati che compongono i contenuti delle notizie sono sull’orlo della duplicità, poiché i media sintetici – un algoritmo in grado di manipolare testi, immagini e audiovisivi – sono attualmente a disposizione di coloro che li cercano.
Con questo modello basato sull'intelligenza artificiale, "è possibile creare" volti e luoghi che non esistono e persino creare un avatar vocale digitale che imiti il linguaggio umano. "( Aldana Vales 2019)
Immaginate un mondo in cui sia piuttosto difficile distinguere tra notizie false e notizie vere, dal momento che i divulgatori di notizie false possono alterare le “prove” per adattarle ai propri scopi. Ad esempio; nessuno cesserebbe di credere che la Terza Guerra Mondiale sia iniziata, se i video di Trump, Putin e Kim che dichiarano guerra fossero diffusi online a livello globale. Anche se tali notizie potrebbero essere smentite dai governi coinvolti, il panico psicologico ed economico che causerebbe potrebbe essere maggiore dell’effetto di un missile.
Scavando più a fondo
I media sintetici possono essere creati tramite tre forme di intelligenza artificiale generativa, vale a dire; Reti generative avversarie (GAN), autocodificatori variazionali e reti neurali ricorrenti. Questi GAI sopra menzionati vengono utilizzati rispettivamente per la generazione di foto, video e testo. Si usa la parola generazione perché la maggior parte dei contenuti multimediali creati con questi algoritmi non esistono; tuttavia, per la duplicazione è possibile utilizzare anche i supporti sintetici.
Secondo Aldana Vales, "Le reti generative contraddittorie utilizzano due reti neurali (una rete neurale è un sistema informatico in grado di prevedere e modellare relazioni e modelli complessi) che competono l'una contro l'altra".
La prima e la seconda rete agiscono singolarmente come generatore e discriminatore. Il discriminatore supervisiona il generatore, garantendo che nulla venga lasciato di intentato. Dopo alcune revisioni "avanti e indietro" da parte del duo, il contenuto prodotto somiglierebbe all'originale.
A differenza delle reti generative avversarie, le reti neurali negli autoencoder variazionali sono chiamate codificatore e decodificatore, poiché la tecnica prevede la compressione e la ricostruzione del contenuto video. "Il decodificatore include un modello di probabilità che identifica le probabili differenze tra i due in modo da poter ricostruire elementi che altrimenti andrebbero persi durante il processo di codifica-decodifica." (Aldana Vales 2019)
Le reti neurali ricorrenti funzionano "riconoscendo la struttura di un ampio insieme di testo". Questo è il metodo utilizzato nell'apk del telefono per la correzione automatica del testo.
Queste tecniche sono applicate in vari progetti come; GauGAN, Face2Face e GPT-2. L'applicazione più recente dei media sintetici si trova in Siri o Alexa. Questi assistenti virtuali ora hanno la capacità di "trasformare il testo in audio e imitare il linguaggio umano".
In un articolo del 2017, intitolato "Il porno assistito dall'intelligenza artificiale è qui e siamo tutti fottuti", Vice ha denunciato la circolazione di un video porno falso, il che non è un problema perché la maggior parte delle trame rappresentate nei film porno sono false (LoL); tranne che l'attore aveva il volto di una popolare attrice non pornografica, Gal Gadot (Wonder Woman). Inoltre, nel 2018, è stato diffuso su Buzzfeed "un video che mostrava il presidente Barack Obama parlare dei rischi dei video manipolati". La cosa strana di questo video è che il soggetto generato dall'intelligenza artificiale ha il volto di Obama e la voce di Jordan Peele, grazie ai media sintetici.
Contenuti dei nostri partner
È in corso una campagna contro il potenziale danno dei media sintetici all'autenticità delle notizie; tuttavia, "oltre alla cronaca... le redazioni si stanno concentrando sul rilevamento dei media sintetici e sulla convalida delle informazioni". Il Wall Street Journal, ad esempio, ha creato una guida e un comitato per individuare i deepfake. Il New York Times ha recentemente annunciato che sta esplorando un sistema basato su blockchain per combattere la disinformazione online.' (Aldana Vales 2019)
In conclusione
I media sintetici potrebbero aiutare le agenzie di stampa a superare senza problemi le barriere linguistiche. Inoltre, potrebbe incoraggiare la circolazione di notizie false. Sebbene sia impossibile impedire alle grandi aziende tecnologiche di immergersi nella ricerca sull’intelligenza artificiale, i giornalisti possono imparare come controllare il danno causato dai media sintetici.