Governos e observadores em todo o mundo levantaram repetidamente preocupações sobre o poder de monopólio das grandes empresas tecnológicas e o papel que as empresas desempenham na disseminação de desinformação. Em resposta, as grandes empresas tecnológicas tentaram antecipar-se às regulamentações regulando-se a si próprias .
Com o anúncio do Facebook de que seu Conselho de Supervisão tomará uma decisão sobre se o ex-presidente Donald Trump poderá recuperar o acesso à sua conta depois que a empresa a suspendeu, esta e outras medidas de alto perfil das empresas de tecnologia para lidar com a desinformação reacenderam o debate sobre o que é autoresponsabilidade. -regulação por parte de empresas de tecnologia deveria ser.
A pesquisa mostra três maneiras principais pelas quais a autorregulação das mídias sociais pode funcionar: despriorizar o engajamento, rotular a desinformação e verificar a precisão do crowdsourcing.
Despriorize o engajamento
As plataformas de mídia social são construídas para interação constante , e as empresas projetam os algoritmos que escolhem quais postagens as pessoas veem para manter seus usuários engajados. Estudos mostram que as falsidades se espalham mais rapidamente do que a verdade nas redes sociais , muitas vezes porque as pessoas consideram as notícias que desencadeiam emoções mais envolventes , o que aumenta a probabilidade de lerem, reagirem e partilharem essas notícias. Este efeito é amplificado por meio de recomendações algorítmicas. Meu próprio trabalho mostra que as pessoas se envolvem com mais frequência com vídeos do YouTube sobre diabetes quando os vídeos são menos informativos.
A maioria das plataformas de Big Tech também opera sem os guardiões ou filtros que regem as fontes tradicionais de notícias e informações. Seu vasto acervo de dados demográficos detalhados e refinados lhes dá a capacidade de “microssegmentar” pequenos números de usuários . Isto, combinado com a amplificação algorítmica de conteúdos concebidos para aumentar o envolvimento, pode ter uma série de consequências negativas para a sociedade, incluindo a supressão digital dos eleitores , a segmentação de minorias para fins de desinformação e a segmentação discriminatória de anúncios .
Despriorizar o envolvimento nas recomendações de conteúdo deve diminuir o efeito “toca do coelho” das mídias sociais , onde as pessoas olham postagem após postagem, vídeo após vídeo. O design algorítmico das plataformas Big Tech prioriza conteúdos novos e microdirecionados, o que promove uma proliferação quase desenfreada de desinformação. O CEO da Apple, Tim Cook, resumiu recentemente o problema : “Num momento de desinformação desenfreada e teorias de conspiração alimentadas por algoritmos, não podemos mais fechar os olhos a uma teoria da tecnologia que diz que todo envolvimento é um bom envolvimento – quanto mais tempo, melhor – e tudo com o objetivo de coletar o máximo de dados possível.”
Desinformação do rótulo
As empresas de tecnologia poderiam adotar um sistema de rotulagem de conteúdo para identificar se uma notícia é verificada ou não. Durante a eleição, o Twitter anunciou uma política de integridade cívica segundo a qual tweets rotulados como contestados ou enganosos não seriam recomendados por seus algoritmos . A pesquisa mostra que a rotulagem funciona. Estudos sugerem que a aplicação de rótulos a publicações de meios de comunicação social controlados pelo Estado , como o canal de comunicação social russo RT, poderia mitigar os efeitos da desinformação.
Numa experiência, os investigadores contrataram trabalhadores temporários anónimos para rotular postos de confiança . As postagens foram posteriormente exibidas no Facebook com rótulos anotados pelos trabalhadores do crowdsource. Nessa experiência, os trabalhadores das multidões de todo o espectro político foram capazes de distinguir entre fontes convencionais e fontes de notícias hiperpartidárias ou falsas, sugerindo que as multidões muitas vezes fazem um bom trabalho ao distinguir entre notícias reais e falsas.
As experiências também mostram que os indivíduos com alguma exposição a fontes de notícias conseguem geralmente distinguir entre notícias reais e falsas. Outros experimentos descobriram que fornecer um lembrete sobre a precisão de uma postagem aumentava a probabilidade de os participantes compartilharem mais postagens precisas do que postagens imprecisas.
No meu próprio trabalho, estudei como combinações de anotadores humanos, ou moderadores de conteúdo, e algoritmos de inteligência artificial – o que é conhecido como inteligência humana no circuito – podem ser usadas para classificar vídeos relacionados com cuidados de saúde no YouTube . Embora não seja viável que profissionais médicos assistam a todos os vídeos do YouTube sobre diabetes, é possível ter um método de classificação humano. Por exemplo, meus colegas e eu recrutamos especialistas no assunto para dar feedback aos algoritmos de IA, o que resulta em melhores avaliações do conteúdo de postagens e vídeos.
As empresas de tecnologia já empregaram essas abordagens. O Facebook usa uma combinação de verificadores de fatos e algoritmos de detecção de similaridades para rastrear informações incorretas relacionadas ao COVID-19. Os algoritmos detectam duplicações e fecham cópias de postagens enganosas.
Aplicação baseada na comunidade
O Twitter anunciou recentemente que está lançando um fórum comunitário, Birdwatch , para combater a desinformação. Embora o Twitter não tenha fornecido detalhes sobre como isso será implementado, um mecanismo de verificação baseado na multidão, somando votos positivos ou negativos a postagens populares e usando algoritmos de feed de notícias para classificar conteúdo de fontes não confiáveis, poderia ajudar a reduzir a desinformação.
A ideia básica é semelhante ao sistema de contribuição de conteúdo da Wikipedia , onde voluntários classificam se as postagens populares são reais ou falsas. O desafio é impedir que as pessoas votem positivamente em conteúdos interessantes e atraentes, mas não verificados, especialmente quando há esforços deliberados para manipular a votação . As pessoas podem manipular os sistemas através de ações coordenadas , como no recente episódio de aumento de estoque da GameStop .
Outro problema é como motivar as pessoas a participarem voluntariamente num esforço colaborativo, como a detecção de notícias falsas por crowdsourcing. Tais esforços, no entanto, dependem de voluntários que anotam a precisão dos artigos de notícias , semelhante à Wikipédia, e também exigem a participação de organizações terceirizadas de verificação de fatos que podem ser usadas para detectar se uma notícia é enganosa.
No entanto, um modelo ao estilo da Wikipédia necessita de mecanismos robustos de governação comunitária para garantir que os voluntários individuais sigam directrizes consistentes quando autenticam e verificam as publicações. A Wikipédia atualizou recentemente seus padrões comunitários especificamente para conter a disseminação de desinformação . Se as grandes empresas de tecnologia permitirão voluntariamente que as suas políticas de moderação de conteúdo sejam revistas de forma tão transparente é outra questão.
[ Obtenha nossas melhores histórias de ciência, saúde e tecnologia. Inscreva-se no boletim informativo científico do The Conversation .]
As responsabilidades da Big Tech
Em última análise, as empresas de redes sociais poderiam usar uma combinação de despriorização do envolvimento, parceria com organizações de notícias e IA e detecção de desinformação por crowdsourcing. É pouco provável que estas abordagens funcionem isoladamente e terão de ser concebidas para funcionarem em conjunto.
As ações coordenadas facilitadas pelas redes sociais podem perturbar a sociedade, desde os mercados financeiros até à política . As plataformas tecnológicas desempenham um papel extraordinariamente importante na formação da opinião pública, o que significa que têm a responsabilidade perante o público de se governarem eficazmente.
Os apelos à regulamentação governamental das grandes tecnologias estão a crescer em todo o mundo, incluindo nos EUA, onde uma recente sondagem Gallup mostrou uma piora das atitudes em relação às empresas tecnológicas e um maior apoio à regulamentação governamental. alemãs sobre moderação de conteúdos impõem maior responsabilidade às empresas tecnológicas pelo conteúdo partilhado nas suas plataformas. Uma série de regulamentações na Europa destinadas a reduzir as proteções de responsabilidade de que gozam estas plataformas e regulamentações propostas nos EUA destinadas a reestruturar as leis da Internet trarão um maior escrutínio às políticas de moderação de conteúdos das empresas tecnológicas.
É provável que exista alguma forma de regulamentação governamental nos EUA. As grandes empresas tecnológicas ainda têm a oportunidade de se envolverem numa auto-regulação responsável – antes que as empresas sejam obrigadas a agir pelos legisladores.
Anjana Susarla , professora Omura-Saxena de IA responsável, Michigan State University
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original .