¿Lo que está sucediendo?
La invención de la tecnología AI genera señales de alerta en todos los campos, incluido el periodismo, y los medios sintéticos están empeorando las cosas. Esta guía se centra en la definición de medios sintéticos, técnicas y, lo que es más sorprendente, señales de alerta para el periodismo.
Por qué importa:
Las diversas formas de datos que componen el contenido de las noticias están al borde de la duplicidad, ya que los medios sintéticos –un algoritmo que puede manipular textos, imágenes y audiovisuales– están actualmente disponibles para quienes los buscan.
Con este modelo basado en IA, "es posible crear" caras y lugares que no existen e incluso crear un avatar de voz digital que imite el habla humana ". ( Aldana Vales 2019)
Imaginemos un mundo en el que sea bastante difícil diferenciar entre noticias falsas y reales, ya que los difusores de noticias falsas pueden alterar la "evidencia" para adaptarla a su agenda. Por ejemplo; Nadie dejaría de creer que la Tercera Guerra Mundial ha comenzado si circularan globalmente en línea vídeos de Trump, Putin y Kim declarando la guerra. Aunque los gobiernos involucrados podrían desacreditar esas noticias, el pánico psicológico y económico que causaría podría ser mayor que el efecto de un misil.
Cavar más profundo
Los medios sintéticos se pueden crear mediante tres formas de inteligencia artificial generativa, a saber; Redes generativas adversarias (GAN), codificadores automáticos variacionales y redes neuronales recurrentes. Estos GAI antes mencionados se utilizan para la generación de fotografías, vídeos y texto, respectivamente. La palabra generación se utiliza porque la mayoría de los contenidos multimedia creados con estos algoritmos no existen; sin embargo, también se pueden utilizar medios sintéticos para la duplicación.
Según Aldana Vales, "las redes generativas adversas utilizan dos redes neuronales (una red neuronal es un sistema informático que puede predecir y modelar relaciones y patrones complejos) que compiten entre sí".
La primera y segunda redes actúan como generador y discriminador individualmente. El discriminador supervisa el generador, asegurándose de que no quede piedra sin remover. Después de algunas revisiones de ida y vuelta por parte del dúo, el contenido producido se parecería al original.
A diferencia de las redes generativas adversarias, las redes neuronales en los codificadores automáticos variacionales se denominan codificadores y decodificadores, ya que la técnica implica la compresión y reconstrucción de contenido de video. "El decodificador incluye modelos de probabilidad que identifican posibles diferencias entre los dos para poder reconstruir elementos que de otro modo se perderían durante el proceso de codificación-decodificación". (Aldana Vales 2019)
Las redes neuronales recurrentes funcionan "reconociendo la estructura de un gran conjunto de texto". Este es el método utilizado en la aplicación de autocorrección de texto del teléfono.
Estas técnicas se aplican en diversos proyectos como; GauGAN, Face2Face y GPT-2. La aplicación más reciente de medios sintéticos se puede encontrar en Siri o Alexa. Estos asistentes virtuales ahora tienen la capacidad de "convertir texto en audio e imitar el habla humana".
En un artículo de 2017, titulado 'La pornografía asistida por IA está aquí y todos estamos jodidos', Vice expuso la circulación de un video porno falso, lo cual no es un problema porque la mayoría de las tramas retratadas en películas porno son falsas (LoL); salvo que el actor tenía el rostro de una popular actriz no pornográfica, Gal Gadot (La Mujer Maravilla). Además, en 2018, circuló en Buzzfeed "un vídeo que muestra al presidente Barack Obama hablando sobre los riesgos de los vídeos manipulados". Lo raro de este vídeo es que el sujeto generado por IA tiene la cara de Obama y la voz de Jordan Peele, gracias a Synthetic media.
Contenido de nuestros socios
Hay una campaña en curso contra el daño potencial de los medios sintéticos a la autenticidad de las noticias; sin embargo, 'Más allá de informar... las redacciones se están centrando en la detección de medios sintéticos y la validación de información. El Wall Street Journal, por ejemplo, creó una guía y un comité para detectar deepfakes. El New York Times anunció que está explorando un sistema basado en blockchain para combatir la desinformación en línea.' (Aldana Vales 2019)
Línea de fondo
Los medios sintéticos podrían ayudar a las agencias de noticias a romper la barrera del idioma sin problemas. Además, podría fomentar la circulación de noticias falsas. Si bien es imposible impedir que las empresas tecnológicas gigantes se sumerjan en la investigación de tecnología de inteligencia artificial, los periodistas pueden aprender cómo controlar el daño que representan los medios sintéticos.