Numerosos estudios científicos demuestran que X es tóxico para sus usuarios y para la democracia en general.
Interferencia con el bienestar de los usuarios de X
El canal de noticias «For you» es una de las principales fuentes de información para los usuarios de X. Sin embargo, esta fuente de noticias está muy sesgada hacia contenidos tóxicos. Investigadores del Centro Nacional para la Investigación Científica francés (CNRS) han demostrado que se enriquece en un +49% en términos de contenido tóxico (insultos, ataques personales, obscenidades, etc.) en comparación con lo que producen sus suscripciones (medido a principios de 2023). Para algunas cuentas, ¡el aumento de la toxicidad del entorno percibido puede llegar al +200%!
Esto significa que X saca lo peor de su entorno social y, por tanto, sesga sus percepciones. Cabe señalar que Musk ha empeorado explícitamente la situación: antes de su llegada, la amplificación era «solo» del +32%.
Se ha demostrado que un cambio en el News Feed de los usuarios tiene un impacto directo en su estado emocional y en la forma en que se expresan. Cuando se reduce la proporción de mensajes positivos, los usuarios producen menos mensajes positivos y más negativos. También se ha medido que el uso de Twitter está relacionado con una disminución del bienestar y un aumento de la indignación.
Lesión a la cohesión social
La amplificación de la hostilidad y los efectos de los algoritmos que recomiendan contenidos y usuarios individuales tienen un efecto global en las estructuras sociales.
Se ha medido que X aumenta la polarización política y la hostilidad entre grupos, lo que obviamente no ayuda al debate y perjudica la cohesión social [4, 5].
La modelización también ha demostrado que, a medio plazo, el diseño de redes sociales basadas en el compromiso, como X, concentra la influencia social en manos de los usuarios más tóxicos: la sobrerrepresentación de cuentas tóxicas en el 1% de los más influyentes se estima en +40% . Básicamente, las personas de mente abierta y que abogan por un debate pacífico de ideas están en desventaja de facto en X. En cierto modo, se están volviendo gradualmente invisibles.
Proliferación de la incitación al odio y la desinformación
Un fallo de moderación en una red social como X puede tener consecuencias gravísimas, como ya se ha visto en otras redes sociales.
Por ejemplo, Amnistía Internacional ha demostrado que un fallo en la moderación de Facebook facilitó la brutal campaña de limpieza étnica de 2017 contra los musulmanes rohingya en Birmania y graves abusos contra los derechos humanos de la población de Tigray en Etiopía de 2020 a 2022.
Pero bajo Elon Musk, los equipos de moderación han sido diezmados y cuentas una vez prohibidas por incitación a la violencia , promoción del nazismo o homophobie se han restablecido .
X asume completamente no poder luchar más contra la desinformación. La compañía por ejemplo suspendió su política de lucha contra la desinformación sobre la pendemia de covid-19. Si una nueva pandemia estalla, y X sigue estando en el corazón de la información mundial, el costo humano será considerable.
Por otra parte X suprimió el «emblema de certificación» que antes permitía certificar la autenticidad de una cuenta. Este fue reciclado para señalar que una cuenta pagó para ganar visibilidad en X. Las consecuencias fueron inmediatas y no solo en el dominio político: una cuenta falsa haciéndose pasar por la empresa farmacéutica Eli Lilly anunció la gratuidad de la insulina producida por el grupo. Lilly perdió 4,37% de su capitalización en bolsa ese día.
Selección de publicaciones científicas
- [1] Kramer, Adam D. I., Jamie E. Guillory, y Jeffrey T. Hancock. 2014. « Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks ». Proceedings of the National Academy of Sciences of the United States of America 111 (24): 8788‑90. https://doi.org/10.1073/pnas.1320040111.
- [2] Bouchaud, Paul, David Chavalarias, y Maziyar Panahi. 2023. « Crowdsourced Audit of Twitter’s Recommender Systems ». Scientific Reports 13 (1): 16815. https://doi.org/10.1038/s41598-023-43980-4.
- [3] Chavalarias, David, Paul Bouchaud, y Maziyar Panahi. 2024. « Can a Single Line of Code Change Society? The Systemic Risks of Optimizing Engagement in Recommender Systems on Global Information Flow, Opinion Dynamics and Social Structures ». Journal of Artificial Societies and Social Simulation 27 (1): 9. https://www.jasss.org/27/1/9.html.
- [4] Oldemburgo de Mello, Victoria, Felix Cheung, y Michael Inzlicht. 2024. « Twitter (X) Use Predicts Substantial Changes in Well-Being, Polarization, Sense of Belonging, and Outrage ». Communications Psychology 2 (1): 1‑11. https://doi.org/10.1038/s44271-024-00062-z.
- [5] Yarchi, Moran, Christian Baden, y Neta Kligler-Vilenchik. 2021. « Political Polarization on the Digital Sphere: A Cross-platform, Over-time Analysis of Interactional, Positional, and Affective Polarization on Social Media ». Political Communication 38 (1‑2): 98‑139. https://doi.org/10.1080/10584609.2020.1785067.