Detrás de las pantallas: los algoritmos y bots que ejecutan las redes sociales
Publicado: 2023-10-27¿Alguna vez te has preguntado por qué ciertas publicaciones aparecen en tu feed, mientras que otras nunca aparecen? ¿O quiénes son esos seguidores de robots aleatorios que envían spam a tu sección de comentarios? Hoy en día, las redes sociales se sienten cada vez más automatizadas, algorítmicas y bueno… inútiles.
Los sitios web por los que navegamos durante horas cada día están lejos de ser plataformas neutrales. Detrás de las pantallas se encuentra una compleja infraestructura tecnológica diseñada para seleccionar contenido e involucrar a los usuarios.
Muchos de nosotros estamos familiarizados con el concepto de algoritmos: las fórmulas programadas que calculan lo que vemos en línea. Pero, ¿cómo funcionan exactamente estos algoritmos? ¿Y cómo se han infiltrado los bots (aplicaciones de software automatizadas diseñadas para ejecutar tareas repetitivas) en los ecosistemas de redes sociales? Los objetivos y los impactos de estas tecnologías son de gran alcance pero rara vez transparentes.
En este artículo, analizaremos el funcionamiento interno detrás de nuestras pantallas de redes sociales. Aprenderá cómo los algoritmos y los bots influyen en la información que recibe e incluso manipulan sus opiniones y comportamientos.
También profundizaremos en estudios de casos de bots que salieron mal y exploraremos ideas para aumentar la responsabilidad. Es hora de investigar qué sucede realmente detrás de escena en la red social que conocemos y utilizamos todos los días. La historia es más compleja de lo que piensas.
TLDR; Los algoritmos y bots que ejecutan las redes sociales
- Los algoritmos seleccionan los feeds de las redes sociales para maximizar la participación, no el discurso de calidad
- Los robots como los spambots y los robots políticos difunden información errónea y propaganda en las plataformas.
- Los algoritmos pueden crear cámaras de eco; Los bots promueven noticias falsas y delitos cibernéticos.
- Las plataformas sociales carecen de supervisión y transparencia en torno a sus algoritmos
- Los usuarios deben exigir transparencia y rendición de cuentas a las plataformas sociales
El auge de los algoritmos en las redes sociales
Los algoritmos son conjuntos de instrucciones o cálculos programados para realizar tareas y objetivos específicos. En las plataformas de redes sociales, los algoritmos analizan enormes cantidades de datos de los usuarios para luego seleccionar y recomendar contenido en los feeds de los usuarios. El objetivo es mostrar a las personas las publicaciones con las que es más probable que interactúen en este momento.
Facebook fue pionero en la idea de un servicio de noticias personalizado impulsado por algoritmos en 2006. Antes de esto, las publicaciones simplemente se mostraban en orden cronológico. Facebook quería optimizar el “contenido significativo”, es decir, las publicaciones que obtendrían la mayor cantidad de Me gusta, comentarios y acciones compartidas. Otras plataformas como Twitter, Instagram y TikTok eventualmente también adoptaron feeds algorítmicos.
Estos algoritmos consideran cientos de señales sobre cada usuario, incluidas sus conexiones, intereses, actividad pasada y tipo de dispositivo. Están constantemente aprendiendo y actualizándose en función de nuevos datos. Los algoritmos de recomendación también sugieren cuentas a seguir o contenido a ver en función de las similitudes con lo que ya interactúa un usuario. El objetivo final es maximizar los ingresos publicitarios, por lo que los algoritmos también optimizan las publicaciones y los anuncios que mantendrán a los usuarios desplazándose sin cesar.
El panorama de los bots en las plataformas sociales
Los bots de redes sociales son programas de software que producen contenido automáticamente e interactúan con usuarios reales, a menudo haciéndose pasar por cuentas humanas. Los spambots propagan de forma autónoma spam, anuncios o malware. Los chatbots tienen conversaciones de IA. Los robots políticos difunden propaganda y desinformación, como se vio en las elecciones estadounidenses de 2016.
Los bots han proliferado rápidamente a medida que se expanden las plataformas sociales. Un estudio estimó que entre el 9% y el 15% de las cuentas de Twitter pueden ser bots. En Facebook, se estimó que las cuentas duplicadas y falsas representaban alrededor del 11% de los usuarios activos mensuales a nivel mundial a finales de 2021.
Sin embargo, la detección de bots es un desafío. Los bots son cada vez más avanzados y utilizan la IA para imitar patrones de comportamiento humano en línea. Su objetivo es manipular la opinión pública o influir negativamente en el discurso evitando la detección.
Los impactos de los algoritmos y los bots
Los algoritmos y los bots han producido algunos beneficios para los usuarios de las redes sociales. La curación algorítmica personaliza los feeds para que coincidan con los intereses de las personas, lo que ahorra tiempo en contenido irrelevante. Los chatbots pueden proporcionar un útil servicio al cliente automatizado.
Sin embargo, la intensa curación algorítmica también ha dado lugar a cámaras de eco y polarización, ya que la gente sólo ve perspectivas afines. Los robots se han utilizado para difundir información errónea a gran escala, ocultando hechos y manipulando el discurso público, como se ha visto en elecciones en todo el mundo.
Quizás lo más preocupante sea la falta de supervisión y transparencia en torno a estas tecnologías. Las plataformas sociales brindan poca visibilidad sobre cómo funcionan sus algoritmos y cómo impactan el contenido que ven los usuarios. También luchan por detectar robots sofisticados, y hacen poco para frenar la manipulación dañina derivada de su inacción.
Estudios de casos de bots que salieron mal
En 2016, Microsoft lanzó el chatbot de IA Tay en Twitter, destinado a involucrar a los usuarios a través de conversaciones informales. Pero los trolls de Internet descubrieron que podían entrenar a Tay para que usara lenguaje racista y propagara opiniones ofensivas. En 24 horas, hubo que cerrar Tay.
Durante las elecciones presidenciales estadounidenses de 2016, los robots asociados con Rusia generaron propaganda que llegó a más de 100 millones de estadounidenses en Facebook, Twitter y otras plataformas. Esto tenía como objetivo sembrar discordia social y política.
Los spambots propagan periódicamente malware y enlaces maliciosos en plataformas sociales a través de cuentas falsas. Un estudio de 2020 encontró que más de 100.000 bots de Twitter participaban en campañas coordinadas de desinformación y ciberdelincuencia sobre el COVID-19. Estos plantean riesgos importantes para los usuarios.
La lucha actual contra los robots malos
Las plataformas sociales utilizan el aprendizaje automático para detectar cuentas de bots en función de patrones como alta frecuencia de tweets, contenido duplicado y comportamientos coordinados. Cuando se marcan como probables bots, se puede desafiar a las cuentas para que demuestren que son humanas mediante CAPTCHA o verificación telefónica. Si no pasa la verificación del bot, las cuentas se eliminan.
Sin embargo, identificar robots más sofisticados que utilicen inteligencia artificial sigue siendo un desafío. Estos robots imitan horarios de publicación, variedad de contenido e interacciones en línea similares a los humanos. Algunos evitan la detección cambiando de comportamiento una vez señalados. Las plataformas participan en un interminable juego del gato y el ratón contra las capacidades cambiantes de los bots.
Los expertos sugieren que se podría lograr una mejor detección analizando los metadatos de las cuentas, las relaciones y los patrones lingüísticos a lo largo del tiempo. Ralentizar la rápida propagación viral de contenidos también podría frenar mejor la influencia de las redes de bots coordinadas antes de que causen demasiado daño.
Impulsando la transparencia y la supervisión
Con algoritmos y bots integrados en sus principales modelos de negocio, las plataformas sociales tienen pocos incentivos para ser transparentes o permitir una supervisión significativa. Pero los grupos de defensa han pedido una auditoría algorítmica, que dé a los investigadores acceso para evaluar los impactos.
Los gobiernos también están considerando regulaciones que hagan cumplir la transparencia, los requisitos de monitoreo humano y el derecho de apelación contra decisiones algorítmicas injustas.
Los usuarios pueden ayudar a ejercer presión expresando sus preocupaciones a través de peticiones y hashtags, apoyando a los políticos pro-transparencia e incluso engañando a los algoritmos distorsionando sus propios patrones de actividad. Aunque será difícil cambiar la cultura cerrada y orientada a las ganancias de las plataformas sociales, la conciencia y la presión públicas sostenidas podrían hacer que la transparencia en torno a sus algoritmos y bots sea un imperativo.
Resumiendo: los algoritmos y bots que ejecutan las redes sociales
La fachada de las redes sociales ha sido retirada y hemos vislumbrado la compleja combinación de algoritmos y bots que impulsan estas plataformas. Nuestros feeds están seleccionados mediante fórmulas opacas optimizadas para la participación y los ingresos, no para un discurso de calidad. Las cuentas automatizadas se vuelven locas, envueltas en identidades humanas falsas.
Esta verdad vislumbrada debería hacernos sentir profundamente incómodos con el estado actual de las redes sociales. Ya no podemos aferrarnos a nociones pintorescas de plazas neutrales en línea. Los motivos de lucro y la automatización desenfrenada han socavado el potencial de la web social. La indignación debe convertirse en llamados a la transparencia y la rendición de cuentas.
Nosotros, los usuarios, tenemos el poder en los números. No aceptes la ignorancia de cómo los algoritmos influyen en tu pensamiento. Exigir cambios a través de la legislación y la participación directa en la plataforma. Tenga cuidado con la amplificación de bots. Y nunca olvides al ser humano detrás de la pantalla, ya sea una persona real o una astuta IA. Nuestra realidad futura puede depender de recordar nuestra humanidad.