Les gouvernements et les observateurs du monde entier ont exprimé à plusieurs reprises leurs inquiétudes quant au pouvoir monopolistique des grandes entreprises technologiques et au rôle que jouent ces entreprises dans la diffusion de fausses informations. En réponse, les grandes entreprises technologiques ont tenté d’anticiper les réglementations en s’autoréglementant .
Avec l'annonce de Facebook selon laquelle son conseil de surveillance prendra une décision quant à savoir si l'ancien président Donald Trump peut retrouver l'accès à son compte après que l'entreprise l'a suspendu, cette décision et d'autres mesures très médiatisées prises par des entreprises technologiques pour lutter contre la désinformation ont relancé le débat sur ce qu'est l'autonomie responsable. -à quoi devrait ressembler la réglementation par les entreprises technologiques.
La recherche montre trois façons principales dont l'autorégulation des médias sociaux peut fonctionner : déprioriser l'engagement, étiqueter la désinformation et vérifier l'exactitude du crowdsourcing.
Déprioriser l’engagement
Les plateformes de médias sociaux sont conçues pour une interaction constante , et les entreprises conçoivent des algorithmes qui choisissent les publications que les gens voient pour maintenir l'engagement de leurs utilisateurs. Des études montrent que les mensonges se propagent plus rapidement que la vérité sur les réseaux sociaux , souvent parce que les gens trouvent les nouvelles qui déclenchent des émotions plus engageantes , ce qui les rend plus susceptibles de lire, de réagir et de partager ces nouvelles. Cet effet est amplifié par les recommandations algorithmiques. Mon propre travail montre que les gens interagissent plus souvent avec les vidéos YouTube sur le diabète lorsque les vidéos sont moins informatives.
La plupart des plateformes Big Tech fonctionnent également sans les gardiens ou les filtres qui régissent les sources traditionnelles d’actualités et d’informations. Leurs vastes réserves de données démographiques fines et détaillées leur donnent la possibilité de « micro-cibler » un petit nombre d’utilisateurs . Ceci, combiné à l'amplification algorithmique du contenu conçu pour stimuler l'engagement, peut avoir de nombreuses conséquences négatives pour la société, notamment la suppression des électeurs numériques , le ciblage des minorités à des fins de désinformation et le ciblage publicitaire discriminatoire .
Ne pas donner la priorité à l'engagement dans les recommandations de contenu devrait atténuer l' effet « terrier du lapin » des médias sociaux , où les gens regardent publication après publication, vidéo après vidéo. La conception algorithmique des plateformes Big Tech donne la priorité aux contenus nouveaux et micro-ciblés, ce qui favorise une prolifération presque incontrôlée de désinformation. Le PDG d’Apple, Tim Cook, a récemment résumé le problème : « À une époque de désinformation généralisée et de théories du complot alimentées par les algorithmes, nous ne pouvons plus fermer les yeux sur une théorie de la technologie qui dit que tout engagement est un bon engagement – le plus longtemps sera le mieux – et tout cela dans le but de collecter autant de données que possible.
Désinformation sur les étiquettes
Les entreprises technologiques pourraient adopter un système d’étiquetage du contenu pour déterminer si une actualité est vérifiée ou non. Lors de l'élection, Twitter a annoncé une politique d'intégrité civique selon laquelle les tweets qualifiés de contestés ou trompeurs ne seraient pas recommandés par leurs algorithmes . La recherche montre que l’étiquetage fonctionne. Des études suggèrent que l’application d’étiquettes aux publications des médias contrôlés par l’État , comme la chaîne médiatique russe RT, pourrait atténuer les effets de la désinformation.
Dans le cadre d'une expérience, des chercheurs ont embauché des travailleurs temporaires anonymes pour étiqueter les publications dignes de confiance . Les publications ont ensuite été affichées sur Facebook avec des étiquettes annotées par les travailleurs du crowdsourcing. Dans cette expérience, des travailleurs de tous bords politiques ont pu faire la distinction entre les sources traditionnelles et les sources d’informations hyperpartisanes ou fausses, ce qui suggère que les foules font souvent du bon travail pour faire la différence entre les vraies et les fausses informations.
Les expériences montrent également que les individus ayant une certaine exposition aux sources d’information peuvent généralement faire la distinction entre les vraies et les fausses nouvelles. D'autres expériences ont montré que le fait de rappeler l'exactitude d'une publication augmentait la probabilité que les participants partagent davantage des publications exactes que des publications inexactes.
Dans mon propre travail, j'ai étudié comment des combinaisons d'annotateurs humains, ou modérateurs de contenu, et d'algorithmes d'intelligence artificielle – ce que l'on appelle l'intelligence humaine dans la boucle – peuvent être utilisées pour classer les vidéos liées aux soins de santé sur YouTube . Bien qu’il ne soit pas possible de demander aux professionnels de la santé de regarder chaque vidéo YouTube sur le diabète, il est possible d’avoir une méthode de classification humaine. Par exemple, mes collègues et moi avons recruté des experts en la matière pour donner leur avis sur les algorithmes d’IA, ce qui permet de meilleures évaluations du contenu des publications et des vidéos.
Les entreprises technologiques ont déjà eu recours à de telles approches. Facebook utilise une combinaison de vérificateurs de faits et d’algorithmes de détection de similarités pour détecter les informations erronées liées au COVID-19. Les algorithmes détectent les duplications et ferment les copies des publications trompeuses.
Application communautaire
Twitter a récemment annoncé le lancement d'un forum communautaire, Birdwatch , pour lutter contre la désinformation. Bien que Twitter n'ait pas fourni de détails sur la façon dont cela sera mis en œuvre, un mécanisme de vérification basé sur la foule additionnant ou diminuant les votes aux publications tendances et utilisant des algorithmes de fil d'actualité pour déclasser le contenu provenant de sources non fiables pourrait aider à réduire la désinformation.
L'idée de base est similaire au système de contribution de contenu de Wikipédia , dans lequel des bénévoles classent si les publications tendances sont réelles ou fausses. Le défi consiste à empêcher les gens de voter pour un contenu intéressant et convaincant mais non vérifié, en particulier lorsqu'il y a des efforts délibérés pour manipuler le vote . Les gens peuvent jouer avec les systèmes grâce à une action coordonnée , comme dans le récent épisode de pompage des stocks de GameStop .
Un autre problème est de savoir comment motiver les gens à participer volontairement à un effort de collaboration tel que la détection participative des fausses nouvelles. De tels efforts, cependant, reposent sur des bénévoles annotant l'exactitude des articles de presse , à l'instar de Wikipédia, et nécessitent également la participation d' organisations tierces de vérification des faits qui peuvent être utilisées pour détecter si une nouvelle est trompeuse.
Cependant, un modèle de type Wikipédia nécessite des mécanismes robustes de gouvernance communautaire pour garantir que les bénévoles individuels suivent des directives cohérentes lorsqu'ils authentifient et vérifient les publications. Wikipédia a récemment mis à jour ses normes communautaires spécifiquement pour endiguer la propagation de la désinformation . Que les grandes entreprises technologiques autorisent volontairement que leurs politiques de modération de contenu soient révisées de manière aussi transparente est une autre question.
[ Obtenez nos meilleures histoires sur la science, la santé et la technologie. Inscrivez-vous à la newsletter scientifique de The Conversation .]
Les responsabilités des Big Tech
En fin de compte, les entreprises de médias sociaux pourraient recourir à une combinaison de dépriorisation de l’engagement, de partenariats avec des agences de presse et de détection de la désinformation par l’IA et le crowdsourcing. Il est peu probable que ces approches fonctionnent de manière isolée et devront être conçues pour fonctionner ensemble.
Les actions coordonnées facilitées par les médias sociaux peuvent perturber la société, des marchés financiers à la politique . Les plateformes technologiques jouent un rôle extrêmement important dans la formation de l’opinion publique, ce qui signifie qu’elles ont la responsabilité envers le public de se gouverner efficacement.
Les appels à une réglementation gouvernementale des Big Tech se multiplient partout dans le monde, y compris aux États-Unis, où un récent sondage Gallup a montré une détérioration des attitudes à l’égard des entreprises technologiques et un soutien accru à la réglementation gouvernementale. allemandes sur la modération des contenus imposent une plus grande responsabilité aux entreprises technologiques quant au contenu partagé sur leurs plateformes. Une série de réglementations en Europe visant à réduire les protections en matière de responsabilité dont bénéficient ces plateformes et des propositions de réglementations aux États-Unis visant à restructurer les lois sur Internet amèneront un examen plus minutieux des politiques de modération de contenu des entreprises technologiques.
Aux États-Unis, une certaine forme de réglementation gouvernementale est probable. Les grandes entreprises technologiques ont encore la possibilité de s’engager dans une autoréglementation responsable – avant que les entreprises ne soient contraintes d’agir par les législateurs.
Anjana Susarla , professeure Omura-Saxena d'IA responsable, Michigan State University
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l' article d'origine .