O que está acontecendo?
A invenção da IA-Tech levanta sinais de alerta em todos os campos, incluindo o jornalismo, e os meios de comunicação sintéticos estão a piorar a situação. Este guia centra-se na definição de mídia sintética, técnicas e, o mais chocante, nos sinais de alerta para o jornalismo.
Por que é importante:
As diversas formas de dados que compõem o conteúdo noticioso estão à beira da duplicidade, pois a mídia sintética – algoritmo que pode manipular textos, imagens e audiovisuais – está atualmente disponível para quem a procura.
Com este modelo baseado em IA, 'é possível criar' rostos e lugares que não existem e até criar um avatar de voz digital que imita a fala humana.'( Aldana Vales 2019)
Imagine um mundo onde seja muito difícil diferenciar entre notícias falsas e reais, uma vez que os disseminadores de notícias falsas podem alterar as “evidências” para se adequarem à sua agenda. Por exemplo; ninguém deixaria de acreditar que a Terceira Guerra Mundial começou, se vídeos de Trump, Putin e Kim declarando guerra circulassem globalmente online. Embora tais notícias possam ser desmentidas pelos governos envolvidos, o pânico psicológico e económico que causariam poderá ser maior do que o efeito de um míssil.
Indo mais fundo
A mídia sintética pode ser criada por meio de três formas de inteligência artificial generativa, a saber; Redes Adversariais Gerativas (GAN), Autoencodificadores Variacionais e Redes Neurais Recorrentes. Esses GAIs mencionados acima são usados para geração de fotos, vídeos e textos, respectivamente. A geração de palavras é utilizada porque a maior parte dos conteúdos de mídia criados com esses algoritmos não existe; entretanto, a mídia sintética também pode ser usada para duplicação.
De acordo com Aldana Vales, 'Redes Adversariais Generativas usam duas redes neurais (uma rede neural é um sistema de computação que pode prever e modelar relações e padrões complexos) que competem entre si.'
A primeira e a segunda redes atuam como gerador e discriminador individualmente. O discriminador supervisiona o gerador, garantindo que nenhuma pedra seja deixada de lado. Depois de algumas revisões ‘para lá e para cá’ da dupla, o conteúdo produzido ficaria parecido com o original.
Ao contrário das Redes Adversariais Generativas, as redes neurais nos Autoencodificadores Variacionais são chamadas de codificador e decodificador, uma vez que a técnica envolve compressão e reconstrução do conteúdo de vídeo. 'O decodificador inclui modelagem de probabilidade que identifica prováveis diferenças entre os dois para que possa reconstruir elementos que de outra forma se perderiam no processo de codificação-decodificação.' (Aldana Vales 2019)
As redes neurais recorrentes funcionam “reconhecendo a estrutura de um grande conjunto de texto”. Este é o método usado no apk de telefone com correção automática de texto.
Essas técnicas são aplicadas em diversos projetos como; GauGAN, Face2Face e GPT-2. A aplicação mais recente de mídia sintética pode ser encontrada no Siri ou Alexa. Esses assistentes virtuais agora têm a capacidade de ‘transformar texto em áudio e imitar a fala humana’.
Em um artigo de 2017, intitulado ‘A pornografia assistida por IA está aqui e estamos todos fodidos’, Vice expôs a circulação de um vídeo pornô falso, o que não é um problema porque a maioria dos enredos retratados em filmes pornográficos são falsos (LoL); exceto que o ator tinha o rosto de uma popular atriz não pornográfica, Gal Gadot (Mulher Maravilha). Além disso, em 2018, “um vídeo mostrando o presidente Barack Obama falando sobre os riscos dos vídeos manipulados” circulou no Buzzfeed. O estranho neste vídeo é que o assunto gerado pela IA tem o rosto de Obama e a voz de Jordan Peele, graças à mídia sintética.
Conteúdo de nossos parceiros
Há uma campanha em andamento contra os possíveis danos da mídia sintética à autenticidade das notícias; no entanto, “Além da reportagem…as redações estão se concentrando na detecção de mídia sintética e na validação de informações. O Wall Street Journal, por exemplo, criou um guia e um comitê de redação para detectar deepfakes. O New York Times anunciou que está explorando um sistema baseado em blockchain para combater a desinformação online. (Aldana Vales 2019)
Resultado final
A mídia sintética poderia ajudar as agências de notícias a quebrar a barreira linguística de maneira transparente. Além disso, poderia incentivar a circulação de notícias falsas. Embora seja impossível impedir que as gigantescas empresas tecnológicas mergulhem na investigação da IA-Tech, os jornalistas podem aprender como controlar os danos causados pelos meios de comunicação sintéticos.