Hello Quit X - Liberen nuestros espacios digitales

¿Qué pruebas hay de que X sea tóxico?

> Busco en las FAQ > ¿Qué pruebas hay de que X sea tóxico?

Numerosos estudios científicos demuestran que X es tóxico para sus usuarios y para la democracia en general.

Interferencia con el bienestar de los usuarios de X

El canal de noticias «Para ti» es una de las principales fuentes de información para los usuarios de X. Sin embargo, esta fuente de noticias está muy sesgada hacia contenidos tóxicos. Investigadores del Centro Nacional de Investigación Científica francés (CNRS) han demostrado->https://www-nature-com.inshs.bib.cnrs.fr/articles/s41598-023-43980-4] que se enriquece en un +49% en términos de contenido tóxico (insultos, ataques personales, obscenidades, etc.) en comparación con lo que producen sus suscripciones (medido a principios de 2023). Para algunas cuentas, ¡el aumento de la toxicidad del entorno percibido puede llegar al +200%!

Esto significa que X saca lo peor de su entorno social y, por tanto, sesga sus percepciones. Cabe señalar que Musk ha empeorado explícitamente la situación: antes de su llegada, la amplificación era «solo» del +32%.

Se ha demostrado que un cambio en el News Feed de los usuarios tiene un impacto directo en su estado emocional y en la forma en que se expresan. Cuando se reduce la proporción de mensajes positivos, los usuarios producen menos mensajes positivos y más negativos. También se ha medido que el uso de Twitter está relacionado con una disminución del bienestar y un aumento de la indignación.

Lesión a la cohesión social
La amplificación de la hostilidad y los efectos de los algoritmos que recomiendan contenidos y usuarios individuales tienen un efecto global en las estructuras sociales.

Se ha medido que X aumenta la polarización política y la hostilidad entre grupos, lo que obviamente no ayuda al debate y perjudica la cohesión social [4, 5].

La modelización también ha demostrado que, a medio plazo, el diseño de redes sociales basadas en el compromiso, como X, concentra la influencia social en manos de los usuarios más tóxicos: la sobrerrepresentación de cuentas tóxicas en el 1% de los más influyentes se estima en +40% . Básicamente, las personas de mente abierta y que abogan por un debate pacífico de ideas están en desventaja de facto en X. En cierto modo, se están volviendo gradualmente invisibles.

Proliferación de la incitación al odio y la desinformación
Un fallo de moderación en una red social como X puede tener consecuencias gravísimas, como ya se ha visto en otras redes sociales.

Por ejemplo, Amnistía Internacional ha demostrado que un fallo en la moderación de Facebook facilitó la brutal campaña de limpieza étnica de 2017 contra los musulmanes rohingya en Birmania y [graves abusos contra los derechos humanos de la población de Tigray]. ->https://www.amnesty.org/fr/latest/news/2023/10/meta-failure-contributed-to-abuses-against-tigray-ethiopia/] en Etiopía de 2020 a 2022.

Pero bajo Elon Musk, los equipos de moderación han sido diezmados y cuentas una vez prohibidas por incitación a la violencia , promoción del nazismo o homophobie se han restablecido .

Lee también:

¡Sigue la tendencia!

En #20deEnero, nuestras herramientas de migración estarán listas para ayudarnos a todos, y encontrar hilos y seguidores en otras redes.

Abandonen X el #20deEnero, no antes, no después, y movilicen a sus amigos, familiares y red en todas las plataformas ¡para unirse al movimiento y ayudarnos a abandonar X!

Sigue HelloQuitX en:

X / Twitter Mastodon

Bluesky Youtube

Instagram

Quiero seguir la campaña
y obtener información

Quiero saber más:

Leo el manifiesto

Quisiera participar

Busco en las FAQ

Salidas: medios de comunicación y organizaciones