Was passiert?
Die Erfindung der KI-Technologie löst in allen Bereichen Alarm aus, auch im Journalismus, und synthetische Medien machen die Sache noch schlimmer. Dieser Leitfaden konzentriert sich auf die Definition synthetischer Medien, Techniken und, was am schockierendsten ist, auf Warnsignale für den Journalismus.
Warum es wichtig ist:
Die verschiedenen Formen von Daten, aus denen sich Nachrichteninhalte zusammensetzen, stehen kurz vor der Duplizität, da synthetische Medien – ein Algorithmus, der Texte, Bilder und audiovisuelle Medien manipulieren kann – derzeit für diejenigen verfügbar sind, die danach suchen.
Mit diesem KI-basierten Modell „ist es möglich, Gesichter und Orte zu erstellen, die es nicht gibt, und sogar einen digitalen Sprach-Avatar zu erstellen, der die menschliche Sprache nachahmt.“ ( Aldana Vales 2019)
Stellen Sie sich eine Welt vor, in der es ziemlich schwierig ist, zwischen gefälschten und echten Nachrichten zu unterscheiden, da die Verbreiter gefälschter Nachrichten „Beweise“ entsprechend ihrer Agenda ändern können. Zum Beispiel; Niemand würde aufhören zu glauben, dass der Dritte Weltkrieg begonnen hat, wenn weltweit online Videos verbreitet würden, in denen Trump, Putin und Kim den Krieg erklären. Obwohl solche Nachrichten von den beteiligten Regierungen möglicherweise entlarvt werden, könnte die psychologische und wirtschaftliche Panik, die sie auslösen würde, größer sein als die Wirkung einer Rakete.
Tiefer Graben
Synthetische Medien können über drei Formen generativer künstlicher Intelligenz erstellt werden, nämlich: Generative Adversarial Networks (GAN), Variational Autoencoder und Recurrent Neural Networks. Diese oben genannten GAIs werden jeweils für die Foto-, Video- und Texterstellung verwendet. Das Wort Generierung wird verwendet, weil die meisten mit diesen Algorithmen erstellten Medieninhalte nicht existieren; Für die Vervielfältigung können jedoch auch synthetische Medien verwendet werden.
Laut Aldana Vales „nutzen Generative Adversarial Networks zwei neuronale Netzwerke (ein neuronales Netzwerk ist ein Computersystem, das komplexe Beziehungen und Muster vorhersagen und modellieren kann), die miteinander konkurrieren.“
Das erste und das zweite Netzwerk fungieren einzeln als Generator und Diskriminator. Der Diskriminator überwacht den Generator und stellt sicher, dass kein Stein auf dem anderen bleibt. Nach einigen hin und hergehenden Überarbeitungen durch das Duo ähnelte der produzierte Inhalt dem Original.
Im Gegensatz zu Generative Adversarial Networks werden neuronale Netze in Variational Autoencodern als Encoder und Decoder bezeichnet, da die Technik die Komprimierung und Rekonstruktion von Videoinhalten umfasst. „Der Decoder verfügt über eine Wahrscheinlichkeitsmodellierung, die wahrscheinliche Unterschiede zwischen den beiden identifiziert, sodass er Elemente rekonstruieren kann, die andernfalls durch den Kodierungs-Dekodierungsprozess verloren gehen würden.“ (Aldana Vales 2019)
Rekurrente neuronale Netze funktionieren, indem sie „die Struktur einer großen Textmenge erkennen“. Dies ist die Methode, die in der Text-Autokorrektur-Telefon-APK verwendet wird.
Diese Techniken werden in verschiedenen Projekten angewendet, z. GauGAN, Face2Face und GPT-2-Modell. Die neueste Anwendung synthetischer Medien findet sich in Siri oder Alexa. Diese virtuellen Assistenten verfügen nun über die Fähigkeit, „Text in Audio umzuwandeln und menschliche Sprache nachzuahmen“.
In einem Artikel aus dem Jahr 2017 mit dem Titel „KI-gestützter Porno ist da und wir sind alle am Arsch“ deckte Vice die Verbreitung eines gefälschten Pornovideos auf, was kein Problem darstellt, da die meisten Handlungsstränge in Pornofilmen gefälscht sind (LoL); außer dass der Schauspieler das Gesicht einer beliebten nicht-pornografischen Schauspielerin, Gal Gadot (Wonder Woman), hatte. Außerdem wurde 2018 auf Buzzfeed „ein Video verbreitet, in dem Präsident Barack Obama über die Risiken manipulierter Videos spricht“. Das Seltsame an diesem Video ist, dass das von der KI generierte Motiv dank synthetischer Medien ein Obama-Gesicht und die Stimme von Jordan Peele hat.
Inhalte unserer Partner
Es gibt eine laufende Kampagne gegen den potenziellen Schaden synthetischer Medien für die Authentizität von Nachrichten. Allerdings: „Über die Berichterstattung hinaus konzentrieren sich die Nachrichtenredaktionen auf die Erkennung synthetischer Medien und die Validierung von Informationen.“ Das Wall Street Journal hat beispielsweise einen Leitfaden und ein Komitee zur Erkennung von Deepfakes eingerichtet. Die New York Times gab kürzlich bekannt , dass sie ein Blockchain-basiertes System zur Bekämpfung von Fehlinformationen im Internet erforscht. (Aldana Vales 2019)
Endeffekt
Synthetische Medien könnten Nachrichtenagenturen dabei helfen, Sprachbarrieren nahtlos zu überwinden. Außerdem könnte es die Verbreitung gefälschter Nachrichten fördern. Während es unmöglich ist, riesige Technologieunternehmen davon abzuhalten, in die KI-Technologie-Forschung einzutauchen, können Journalisten lernen, wie sie den durch synthetische Medien verursachten Schaden kontrollieren können.