Los gobiernos y observadores de todo el mundo han expresado reiteradamente su preocupación por el poder de monopolio de las grandes empresas tecnológicas y el papel que desempeñan en la difusión de información errónea. En respuesta, las grandes empresas tecnológicas han tratado de adelantarse a las regulaciones regulándose a sí mismas .
Con el anuncio de Facebook de que su Junta de Supervisión tomará una decisión sobre si el expresidente Donald Trump puede recuperar el acceso a su cuenta después de que la empresa la suspendiera, esta y otras medidas de alto perfil de las empresas de tecnología para abordar la desinformación han reavivado el debate sobre lo que es ser responsable. -La regulación por parte de las empresas de tecnología debería ser.
La investigación muestra tres formas clave en que la autorregulación de las redes sociales puede funcionar: quitarle prioridad al compromiso, etiquetar la información errónea y verificar la precisión de la colaboración colectiva.
Despriorizar el compromiso
Las plataformas de redes sociales están diseñadas para una interacción constante , y las empresas diseñan los algoritmos que eligen qué publicaciones ven las personas para mantener a sus usuarios interesados. Los estudios muestran que las falsedades se propagan más rápido que la verdad en las redes sociales , a menudo porque las personas encuentran que las noticias que desencadenan emociones son más atractivas , lo que hace que sea más probable que lean, reaccionen y compartan dichas noticias. Este efecto se amplifica a través de recomendaciones algorítmicas. Mi propio trabajo muestra que las personas interactúan con videos de YouTube sobre diabetes con más frecuencia cuando los videos son menos informativos.
La mayoría de las plataformas de Big Tech también operan sin los guardianes o filtros que gobiernan las fuentes tradicionales de noticias e información. Sus vastos tesoros de datos demográficos detallados y granulares les dan la capacidad de "microobjetivo" para un pequeño número de usuarios . Esto, combinado con la amplificación algorítmica del contenido diseñado para impulsar la participación, puede tener una serie de consecuencias negativas para la sociedad, incluida la supresión de votantes digitales , la desinformación dirigida a las minorías y la orientación discriminatoria de los anuncios .
Dejar de priorizar la participación en las recomendaciones de contenido debería disminuir el efecto de "agujero de conejo" de las redes sociales , donde las personas miran publicación tras publicación, video tras video. El diseño algorítmico de las plataformas Big Tech prioriza el contenido nuevo y microdirigido, lo que fomenta una proliferación casi incontrolada de información errónea. El CEO de Apple, Tim Cook, resumió recientemente el problema : “En un momento de desinformación desenfrenada y teorías de conspiración impulsadas por algoritmos, ya no podemos hacernos de la vista gorda ante una teoría de la tecnología que dice que todo compromiso es un buen compromiso, cuanto más tiempo, mejor. y todo con el objetivo de recopilar la mayor cantidad de datos posible”.
Etiquetar información errónea
Las empresas de tecnología podrían adoptar un sistema de etiquetado de contenidos para identificar si una noticia está verificada o no. Durante las elecciones, Twitter anunció una política de integridad cívica sus algoritmos no recomendarían los tweets etiquetados como controvertidos o engañosos . Las investigaciones muestran que el etiquetado funciona. Los estudios sugieren que aplicar etiquetas a publicaciones de medios de comunicación controlados por el estado , como el canal de medios ruso RT, podría mitigar los efectos de la desinformación.
En un experimento, los investigadores contrataron trabajadores temporales anónimos para etiquetar publicaciones confiables . Posteriormente, las publicaciones se mostraron en Facebook con etiquetas anotadas por los trabajadores de crowdsourcing. En ese experimento, los trabajadores de la multitud de todo el espectro político pudieron distinguir entre las fuentes principales y las fuentes de noticias hiperpartidarias o falsas, lo que sugiere que las multitudes a menudo hacen un buen trabajo al diferenciar entre noticias reales y falsas.
Los experimentos también muestran que las personas con cierta exposición a las fuentes de noticias generalmente pueden distinguir entre noticias reales y falsas. Otros experimentos encontraron que proporcionar un recordatorio sobre la precisión de una publicación aumentaba la probabilidad de que los participantes compartieran publicaciones precisas más que publicaciones inexactas.
En mi propio trabajo, he estudiado cómo se pueden utilizar combinaciones de anotadores humanos, o moderadores de contenido, y algoritmos de inteligencia artificial (lo que se conoce como inteligencia humana en el circuito) para clasificar videos relacionados con la atención médica en YouTube . Si bien no es factible que los profesionales médicos vean todos los videos de YouTube sobre la diabetes, es posible tener un método de clasificación integrado por humanos. Por ejemplo, mis colegas y yo contratamos a expertos en la materia para que dieran retroalimentación a los algoritmos de IA, lo que resulta en mejores evaluaciones del contenido de publicaciones y videos.
Las empresas tecnológicas ya han empleado tales enfoques. Facebook utiliza una combinación de verificadores de hechos y algoritmos de detección de similitudes para filtrar la información errónea relacionada con COVID-19. Los algoritmos detectan duplicaciones y copias cercanas de publicaciones engañosas.
Cumplimiento basado en la comunidad
Twitter anunció recientemente que lanzará un foro comunitario, Birdwatch , para combatir la desinformación. Si bien Twitter no ha proporcionado detalles sobre cómo se implementará esto, un mecanismo de verificación basado en la multitud que agrega votos positivos o negativos a las publicaciones de tendencia y usa algoritmos de suministro de noticias para clasificar contenido de fuentes no confiables podría ayudar a reducir la información errónea.
La idea básica es similar al sistema de contribución de contenido de Wikipedia , donde los voluntarios clasifican si las publicaciones de tendencia son reales o falsas. El desafío es evitar que las personas voten a favor de contenido interesante y convincente pero no verificado, particularmente cuando hay esfuerzos deliberados para manipular la votación . La gente puede jugar con los sistemas mediante acciones coordinadas , como en el reciente episodio de aumento de acciones de GameStop .
Otro problema es cómo motivar a las personas para que participen voluntariamente en un esfuerzo de colaboración, como la detección de noticias falsas de colaboración colectiva. Dichos esfuerzos, sin embargo, dependen de voluntarios que anotan la precisión de los artículos de noticias , similar a Wikipedia, y también requieren la participación de organizaciones de verificación de hechos de terceros que pueden usarse para detectar si una noticia es engañosa.
Sin embargo, un modelo al estilo de Wikipedia necesita mecanismos sólidos de gobierno comunitario para garantizar que los voluntarios individuales sigan pautas coherentes cuando autentiquen y verifiquen las publicaciones. Wikipedia actualizó recientemente sus estándares comunitarios específicamente para detener la propagación de información errónea . Si las grandes empresas de tecnología permitirán voluntariamente que sus políticas de moderación de contenido se revisen de manera tan transparente es otra cuestión.
[ Obtenga nuestras mejores historias de ciencia, salud y tecnología. Regístrese para recibir el boletín científico de The Conversation .]
Las responsabilidades de las grandes tecnológicas
En última instancia, las empresas de redes sociales podrían usar una combinación de despriorizar el compromiso, asociarse con organizaciones de noticias e inteligencia artificial y detección de información errónea de colaboración colectiva. Es poco probable que estos enfoques funcionen de forma aislada y deberán diseñarse para trabajar juntos.
Las acciones coordinadas facilitadas por las redes sociales pueden alterar la sociedad, desde los mercados financieros hasta la política . Las plataformas tecnológicas desempeñan un papel extraordinariamente importante en la formación de la opinión pública, lo que significa que tienen la responsabilidad ante el público de gobernarse a sí mismas de manera efectiva.
Los llamados a la regulación gubernamental de Big Tech están creciendo en todo el mundo, incluso en los EE. UU., donde una encuesta reciente de Gallup mostró un empeoramiento de las actitudes hacia las empresas de tecnología y un mayor apoyo a la regulación gubernamental. nuevas leyes de Alemania imponen una mayor responsabilidad a las empresas tecnológicas por el contenido compartido en sus plataformas. Una gran cantidad de regulaciones en Europa destinadas a reducir las protecciones de responsabilidad que disfrutan estas plataformas y las regulaciones propuestas en los EE. UU. destinadas a reestructurar las leyes de Internet traerán un mayor escrutinio a las políticas de moderación de contenido de las empresas tecnológicas.
Es probable que alguna forma de regulación gubernamental en los EE. UU. Big Tech todavía tenga la oportunidad de participar en una autorregulación responsable, antes de que los legisladores obliguen a las empresas a actuar.
Anjana Susarla , profesora Omura-Saxena de IA responsable, Universidad Estatal de Michigan
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original .