Les applications de médias sociaux présentent régulièrement aux adolescents du contenu sélectionné de manière algorithmique, souvent décrit comme « pour vous », suggérant implicitement que le contenu organisé n'est pas seulement « pour vous » mais aussi « à propos de vous » – un miroir reflétant des signaux importants sur la personne que vous sont.
Tous les utilisateurs des médias sociaux sont exposés à ces signaux, mais les chercheurs comprennent que les adolescents se trouvent à une étape particulièrement malléable dans la formation de leur identité personnelle. Les chercheurs ont commencé à démontrer que la technologie a des effets déterminants sur les générations , non seulement dans la manière dont elle influence les perspectives culturelles, le comportement et la vie privée, mais aussi dans la manière dont elle peut façonner la personnalité des personnes élevées sur les réseaux sociaux.
La prédominance du message « pour vous » soulève d’importantes questions sur l’impact de ces algorithmes sur la façon dont les adolescents se perçoivent et voient le monde, ainsi que sur l’érosion subtile de leur vie privée, qu’ils acceptent en échange de ce point de vue.
Les adolescents aiment leur réflexion algorithmique
Inspirés par ces questions, mes collègues John Seberger et Afsaneh Razi de l'Université Drexel et moi-même avons demandé : comment les adolescents naviguent-ils dans ce milieu généré par des algorithmes et comment se reconnaissent-ils dans le miroir qu'il présente ?
Dans notre étude qualitative par entretien auprès d'adolescents de 13 à 17 ans, nous avons constaté que le contenu algorithmique personnalisé semble présenter ce que les adolescents interprètent comme une image miroir fiable d'eux-mêmes , et qu'ils aiment beaucoup l'expérience de voir ce reflet sur les réseaux sociaux.
Les adolescents avec qui nous avons parlé disent préférer un réseau social entièrement personnalisé pour eux, décrivant ce avec quoi ils sont d'accord, ce qu'ils veulent voir et, par conséquent, qui ils sont.
Si je recherche quelque chose qui est important pour moi, cela apparaîtra parmi les meilleurs messages [et] cela montrera, par exemple, des gens [comme moi] qui ont une discussion agréable.
Il s'avère que les adolescents que nous avons interviewés pensent que les algorithmes des médias sociaux comme celui de TikTok sont devenus si performants qu'ils considèrent que leurs reflets dans les médias sociaux sont assez précis. À tel point que les adolescents sont prompts à attribuer les incohérences du contenu avec leur image d’eux-mêmes comme des anomalies – par exemple, le résultat d’un engagement par inadvertance avec un contenu passé, ou simplement un problème.
À un moment donné, j’ai vu quelque chose à propos de cette émission, peut-être sur TikTok, et j’ai interagi avec sans m’en rendre compte.
Lorsqu’un contenu personnalisé n’est pas agréable ou conforme à l’image qu’ils ont d’eux-mêmes, les adolescents que nous avons interrogés disent qu’ils le défilent, dans l’espoir de ne plus jamais le revoir. Même lorsque ces anomalies perçues prennent la forme d’un contenu hypermasculin extrême ou « méchant », les adolescents n’attribuent pas cela à quelque chose qui les concerne spécifiquement, et ne prétendent pas non plus chercher une explication dans leurs propres comportements. Selon les adolescents interrogés lors de nos entretiens, le miroir des médias sociaux ne les rend pas plus réfléchis et ne remet pas en question leur estime de soi.
Une chose qui nous a surpris est que même si les adolescents étaient conscients que ce qu'ils voient dans leur flux « pour vous » est le produit de leurs habitudes de défilement sur les plateformes de médias sociaux, ils ignorent en grande partie ou ne se soucient pas du fait que les données capturées dans les applications contribuent à cet auto-défense. -image. Quoi qu'il en soit, ils ne voient pas leur flux « pour vous » comme un défi pour leur estime de soi, et encore moins comme un risque pour leur identité – ni, d'ailleurs, comme une quelconque raison de s'inquiéter.
Façonner l’identité
La recherche sur l'identité a parcouru un long chemin depuis que le sociologue Erving Goffman a proposé la « présentation de soi » en 1959. Il postulait que les gens gèrent leur identité à travers la performance sociale afin de maintenir un équilibre entre ce qu'ils pensent être et la façon dont les autres les perçoivent.
Lorsque Goffman a proposé sa théorie pour la première fois, il n’existait pas d’interface de médias sociaux permettant de présenter un miroir pratique de soi tel que vécu par les autres. Les gens étaient obligés de créer leur propre image en mosaïque, dérivée de multiples sources, rencontres et impressions. Ces dernières années, les algorithmes de recommandation des réseaux sociaux se sont insérés dans ce qui est désormais une négociation à trois entre soi, le public et les algorithmes des réseaux sociaux.
Les offres « Pour vous » créent un espace privé-public à travers lequel les adolescents peuvent accéder à ce qu'ils considèrent comme un test largement précis de leur image d'eux-mêmes. En même temps, ils affirment qu’ils peuvent facilement l’ignorer s’il semble en désaccord avec l’image qu’ils ont d’eux-mêmes.
Le pacte que les adolescents concluent avec les médias sociaux, en échangeant des données personnelles et en renonçant à leur vie privée pour sécuriser l’accès à ce miroir algorithmique, leur semble être une bonne affaire. Ils se présentent comme étant capables en toute confiance de se déconnecter ou de faire défiler le contenu recommandé qui semble contredire leur estime de soi, mais les recherches montrent le contraire .
En fait, ils se sont révélés très vulnérables à la distorsion de l’image de soi et à d’autres problèmes de santé mentale basés sur des algorithmes de médias sociaux explicitement conçus pour créer et récompenser des hypersensibilités, des fixations et une dysmorphie – un trouble de santé mentale dans lequel les gens se concentrent sur leur apparence.
Compte tenu de ce que les chercheurs savent du cerveau des adolescents et de ce stade de développement social – et compte tenu de ce que l’on peut raisonnablement supposer sur la malléabilité de l’image de soi basée sur les réactions sociales – les adolescents ont tort de croire qu’ils peuvent surmonter les risques liés à leur identité. algorithmes.
Contenu de nos partenaires
Interventions
Une partie du remède pourrait consister à créer de nouveaux outils utilisant l’intelligence artificielle pour détecter les interactions dangereuses tout en protégeant la vie privée. Une autre approche consiste à aider les adolescents à réfléchir sur ces « doubles de données » qu’ils ont construits.
Mes collègues et moi explorons maintenant plus en profondeur la façon dont les adolescents vivent le contenu algorithmique et quels types d'interventions peuvent les aider à y réfléchir. Nous encourageons les chercheurs dans notre domaine à concevoir des moyens de remettre en question l’exactitude des algorithmes et de les exposer comme reflétant un comportement et non comme étant. Une autre partie du remède pourrait consister à doter les adolescents d'outils permettant de restreindre l'accès à leurs données, notamment en limitant les cookies, en ayant différents profils de recherche et en désactivant la localisation lors de l'utilisation de certaines applications.
Nous pensons que toutes ces étapes sont susceptibles de réduire la précision des algorithmes, créant ainsi des frictions indispensables entre l’algorithme et soi, même si les adolescents ne sont pas nécessairement satisfaits des résultats.
Faire participer les enfants
Récemment, mes collègues et moi avons organisé un atelier sur la génération Z avec des jeunes d' Encode Justice , une organisation mondiale d'étudiants du secondaire et de l'université qui plaident pour une IA sûre et équitable. L’objectif était de mieux comprendre comment ils envisagent leur vie sous les algorithmes et l’IA. Les membres de la génération Z se disent inquiets, mais également désireux de participer à l’élaboration de leur avenir, notamment en atténuant les dommages causés par les algorithmes. Une partie de l’objectif de notre atelier était d’attirer l’attention et de favoriser la nécessité d’enquêtes menées par les adolescents sur les algorithmes et leurs effets.
Les chercheurs sont également confrontés au fait que nous ne savons pas réellement ce que signifie négocier constamment une identité avec un algorithme. Beaucoup d’entre nous qui étudions les adolescents sont trop vieux pour avoir grandi dans un monde modéré par des algorithmes. Pour les adolescents que nous étudions, il n’y a pas d’« avant l’IA ».
Je pense qu’il est périlleux d’ignorer ce que font les algorithmes. L’avenir des adolescents peut être celui dans lequel la société reconnaît la relation unique entre les adolescents et les médias sociaux. Cela signifie les impliquer dans les solutions, tout en leur fournissant des conseils.
Nora McDonald, professeure adjointe de technologie de l'information, Université George Mason .
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l' article original .