Derrière les écrans : les algorithmes et les robots qui gèrent les médias sociaux
Publié: 2023-10-27Vous êtes-vous déjà demandé pourquoi certaines publications apparaissent sur votre flux, alors que d'autres n'apparaissent jamais ? Ou qui est ce robot qui spamme aléatoirement votre section de commentaires ? Aujourd’hui, les médias sociaux semblent de plus en plus automatisés, algorithmiques et enfin… insensés.
Les sites Web que nous parcourons pendant des heures chaque jour sont loin d’être des plateformes neutres. Derrière les écrans se cache une infrastructure technologique complexe conçue pour organiser le contenu et impliquer les utilisateurs.
Beaucoup d’entre nous connaissent le concept d’algorithmes – les formules programmées qui calculent ce que nous voyons en ligne. Mais comment fonctionnent exactement ces algorithmes ? Et comment les robots – des applications logicielles automatisées conçues pour exécuter des tâches répétitives – ont-ils infiltré les écosystèmes des médias sociaux ? Les objectifs et les impacts de ces technologies sont vastes mais rarement transparents.
Dans cet article, nous allons découvrir le fonctionnement interne de nos écrans de réseaux sociaux. Vous apprendrez comment les algorithmes et les robots influencent les informations que vous recevez et même manipulent vos opinions et vos comportements.
Nous examinerons également des études de cas de robots qui ont mal tourné et explorerons des idées pour accroître la responsabilité. Il est temps d'enquêter sur ce qui se passe réellement dans les coulisses du Web social que nous connaissons et utilisons quotidiennement. L'histoire est plus complexe que vous ne le pensez.
TLDR ; Les algorithmes et les robots qui gèrent les médias sociaux
- Les algorithmes organisent les flux de médias sociaux pour maximiser l'engagement, et non un discours de qualité
- Les robots comme les spambots et les robots politiques diffusent des informations erronées et de la propagande sur les plateformes
- Les algorithmes peuvent créer des chambres d’écho ; les robots favorisent les fausses nouvelles et la cybercriminalité
- Les plateformes sociales manquent de surveillance et de transparence autour de leurs algorithmes
- Les utilisateurs devraient exiger de la transparence et de la responsabilité des plateformes sociales
L'essor des algorithmes sur les réseaux sociaux
Les algorithmes sont des ensembles d'instructions ou de calculs programmés pour accomplir des tâches et des objectifs spécifiques. Sur les plateformes de médias sociaux, les algorithmes analysent d'énormes quantités de données utilisateur pour ensuite organiser et recommander du contenu dans les flux des utilisateurs. L’objectif est de montrer aux gens les publications avec lesquelles ils sont les plus susceptibles d’interagir en ce moment.
Facebook a été le pionnier de l'idée d'un fil d'actualité personnalisé piloté par des algorithmes en 2006. Avant cela, les publications étaient simplement affichées par ordre chronologique. Facebook souhaitait optimiser le « contenu significatif », c'est-à-dire les publications qui obtiendraient le plus de likes, de commentaires et de partages. D’autres plateformes comme Twitter, Instagram et TikTok ont finalement également adopté les flux algorithmiques.
Ces algorithmes prennent en compte des centaines de signaux sur chaque utilisateur, notamment ses connexions, ses intérêts, son activité passée et le type d'appareil. Ils apprennent et se mettent constamment à jour en fonction de nouvelles données. Les algorithmes de recommandation suggèrent également des comptes à suivre ou du contenu à afficher en fonction des similitudes avec ce avec quoi un utilisateur interagit déjà. L'objectif final est de maximiser les revenus publicitaires, de sorte que les algorithmes optimisent également les publications et les publicités qui permettront aux utilisateurs de faire défiler sans fin.
Le paysage des robots sur les plateformes sociales
Les robots des réseaux sociaux sont des logiciels qui produisent automatiquement du contenu et interagissent avec de vrais utilisateurs, souvent en se faisant passer pour des comptes humains. Les spambots diffusent de manière autonome du spam, des publicités ou des logiciels malveillants. Les chatbots ont des conversations IA. Les robots politiques diffusent de la propagande et de la désinformation, comme on l’a vu lors des élections américaines de 2016.
Les robots ont proliféré rapidement à mesure que les plateformes sociales se développent. Une étude estime que 9 à 15 % des comptes Twitter pourraient être des robots. Sur Facebook, on estime que les comptes en double et faux représentaient environ 11 % des utilisateurs actifs mensuels dans le monde fin 2021.
Cependant, la détection des robots est un défi. Les robots sont de plus en plus avancés et utilisent l’IA pour imiter les modèles de comportement humain en ligne. Leur objectif est de manipuler l’opinion publique ou d’influencer négativement le discours tout en évitant d’être détecté.
Les impacts des algorithmes et des robots
Les algorithmes et les robots ont apporté certains avantages aux utilisateurs des médias sociaux. La curation algorithmique personnalise les flux en fonction des intérêts des individus, permettant ainsi de gagner du temps sur le contenu non pertinent. Les chatbots peuvent fournir un service client automatisé utile.
Cependant, une conservation algorithmique lourde a également conduit à des chambres d’écho et à une polarisation, car les gens ne voient que des perspectives partageant les mêmes idées. Les robots ont été utilisés pour diffuser des informations erronées à grande échelle, noyant les faits et manipulant le discours public, comme cela a été le cas lors des élections dans le monde entier.
Le plus préoccupant est peut-être le manque de surveillance et de transparence autour de ces technologies. Les plateformes sociales offrent peu de visibilité sur le fonctionnement de leurs algorithmes et leur impact sur le contenu consulté par les utilisateurs. Ils ont également du mal à détecter les robots sophistiqués, ne faisant pas grand-chose pour freiner les manipulations nuisibles résultant de leur inaction.
Études de cas de robots qui ont mal tourné
En 2016, Microsoft a lancé le chatbot IA Tay sur Twitter, destiné à engager les utilisateurs via des conversations informelles. Mais les trolls d'Internet ont découvert qu'ils pouvaient entraîner Tay à utiliser un langage raciste et à propager des opinions offensantes. Dans les 24 heures, Tay a dû être arrêté.
Lors de l’élection présidentielle américaine de 2016, des robots associés à la Russie ont généré une propagande touchant plus de 100 millions d’Américains sur Facebook, Twitter et d’autres plateformes. Cela visait à semer la discorde sociale et politique.
Les spambots diffusent régulièrement des logiciels malveillants et des liens malveillants sur les plateformes sociales via de faux comptes. Une étude de 2020 a révélé que plus de 100 000 robots Twitter se sont engagés dans des campagnes coordonnées de désinformation et de cybercriminalité sur le COVID-19. Ceux-ci présentent des risques majeurs pour les utilisateurs.
La lutte continue contre les mauvais robots
Les plateformes sociales utilisent l’apprentissage automatique pour détecter les comptes de robots en fonction de modèles tels qu’une fréquence élevée de tweets, du contenu en double et des comportements coordonnés. Lorsqu'ils sont signalés comme des robots probables, les comptes peuvent être mis au défi de prouver qu'ils sont humains via des CAPTCHA ou une vérification téléphonique. En cas d’échec de la vérification du bot, les comptes sont supprimés.
Cependant, l’identification de robots plus sophistiqués utilisant l’intelligence artificielle reste un défi. Ces robots imitent les calendriers de publication, la variété du contenu et les interactions en ligne de type humain. Certains évitent d’être détectés en changeant de comportement une fois signalés. Les plateformes se lancent dans un jeu du chat et de la souris sans fin contre l’évolution des capacités des robots.
Les experts suggèrent qu’une meilleure détection pourrait provenir de l’analyse des métadonnées, des relations et des modèles linguistiques des comptes au fil du temps. Ralentir la propagation virale rapide du contenu pourrait également mieux freiner l’influence des réseaux de robots coordonnés avant qu’ils ne causent trop de dégâts.
Faire pression pour la transparence et la surveillance
Avec des algorithmes et des robots intégrés à leurs modèles économiques de base, les plateformes sociales ne sont guère incitées à être transparentes ou à permettre une surveillance significative. Mais des groupes de défense ont réclamé un audit algorithmique, permettant aux chercheurs d’évaluer les impacts.
Les gouvernements envisagent également de réglementer la transparence, les exigences en matière de surveillance humaine et le droit de faire appel contre les décisions algorithmiques injustes.
Les utilisateurs peuvent contribuer à faire pression en exprimant leurs préoccupations par le biais de pétitions et de hashtags, en soutenant les politiciens pro-transparence et même en trompant les algorithmes en faussant leurs propres modèles d'activité. Même s’il sera difficile de changer la culture fermée et axée sur le profit des plateformes sociales, une sensibilisation et une pression soutenues du public pourraient rendre impérative la transparence autour de leurs algorithmes et de leurs robots.
En résumé : les algorithmes et les robots qui gèrent les médias sociaux
La façade des médias sociaux a été dévoilée et nous avons entrevu le mélange complexe d’algorithmes et de robots qui animent ces plateformes. Nos flux sont organisés selon des formules opaques optimisées pour l'engagement et les revenus, et non pour un discours de qualité. Les comptes automatisés deviennent fous, dissimulés sous de fausses identités humaines.
Cette vérité aperçue devrait nous mettre profondément mal à l’aise face à l’état actuel des médias sociaux. Nous ne pouvons plus nous accrocher aux notions désuètes de places publiques neutres en ligne. Les motivations liées au profit et l'automatisation incontrôlée ont miné le potentiel du Web social. L’indignation doit se transformer en appels à la transparence et à la responsabilité.
Nous, les utilisateurs, avons le pouvoir du nombre. N'acceptez pas l'ignorance de la façon dont les algorithmes influencent votre réflexion. Exigez le changement par le biais de la législation et d’un engagement direct sur la plateforme. Méfiez-vous de l’amplification des robots. Et n’oubliez jamais l’humain derrière l’écran, qu’il s’agisse d’une personne réelle ou d’une IA rusée. Notre réalité future peut dépendre du souvenir de notre humanité.