Numerosos estudios científicos demuestran que X es tóxico para sus usuarios y para la democracia en general.
Interferencia con el bienestar de los usuarios de X
El canal de noticias «Para ti» es una de las principales fuentes de información para los usuarios de X. Sin embargo, esta fuente de noticias está muy sesgada hacia contenidos tóxicos. Investigadores del Centro Nacional de Investigación Científica francés (CNRS) han demostrado->https://www-nature-com.inshs.bib.cnrs.fr/articles/s41598-023-43980-4] que se enriquece en un +49% en términos de contenido tóxico (insultos, ataques personales, obscenidades, etc.) en comparación con lo que producen sus suscripciones (medido a principios de 2023). Para algunas cuentas, ¡el aumento de la toxicidad del entorno percibido puede llegar al +200%!
Esto significa que X saca lo peor de su entorno social y, por tanto, sesga sus percepciones. Cabe señalar que Musk ha empeorado explícitamente la situación: antes de su llegada, la amplificación era «solo» del +32%.
Se ha demostrado que un cambio en el News Feed de los usuarios tiene un impacto directo en su estado emocional y en la forma en que se expresan. Cuando se reduce la proporción de mensajes positivos, los usuarios producen menos mensajes positivos y más negativos. También se ha medido que el uso de Twitter está relacionado con una disminución del bienestar y un aumento de la indignación.
Lesión a la cohesión social
La amplificación de la hostilidad y los efectos de los algoritmos que recomiendan contenidos y usuarios individuales tienen un efecto global en las estructuras sociales.
Se ha medido que X aumenta la polarización política y la hostilidad entre grupos, lo que obviamente no ayuda al debate y perjudica la cohesión social [4, 5].
La modelización también ha demostrado que, a medio plazo, el diseño de redes sociales basadas en el compromiso, como X, concentra la influencia social en manos de los usuarios más tóxicos: la sobrerrepresentación de cuentas tóxicas en el 1% de los más influyentes se estima en +40% . Básicamente, las personas de mente abierta y que abogan por un debate pacífico de ideas están en desventaja de facto en X. En cierto modo, se están volviendo gradualmente invisibles.
Proliferación de la incitación al odio y la desinformación
Un fallo de moderación en una red social como X puede tener consecuencias gravísimas, como ya se ha visto en otras redes sociales.
Por ejemplo, Amnistía Internacional ha demostrado que un fallo en la moderación de Facebook facilitó la brutal campaña de limpieza étnica de 2017 contra los musulmanes rohingya en Birmania y [graves abusos contra los derechos humanos de la población de Tigray]. ->https://www.amnesty.org/fr/latest/news/2023/10/meta-failure-contributed-to-abuses-against-tigray-ethiopia/] en Etiopía de 2020 a 2022.
Pero bajo Elon Musk, los equipos de moderación han sido diezmados y cuentas una vez prohibidas por incitación a la violencia , promoción del nazismo o homophobie se han restablecido .