Apóyanos

Twitter pedirá a los usuarios que reconsideren sus respuestas ofensivas

    • X
    • Facebook
    • Whatsapp
    • Telegram
    • Linkedin
    • Email
  • X
  • Facebook
  • Whatsapp
  • Telegram
  • Linkedin
  • Email

Con el fin de evitar comentarios que inciten al odio o la violencia Twitter creó una herramienta de moderación para advertir a los usuarios antes de publicar respuestas ofensivas. Esto evitará que el usuario responda a un tuit con lenguaje un que la compañía considere ofensivo o dañino

La nueva actualización tiene uso limitado, disponible para dispositivos iOS. Hasta el momento se usa únicamente como un experimento de la red social. De esta forma, se busca controlar el mal uso de la plataforma por parte de los usuarios.

Aún no está claro como Twitter etiqueta las respuestas ofensivas, pero la compañía tiene políticas de discurso de odio. También hay reglas para enfrentar las amenazas de violencia, contenido relacionado con terrorismo, abuso y acoso.

“La misión de Twitter es dar a todos el poder de crear y compartir ideas e información, y expresar sus opiniones y creencias sin barreras. La libre expresión es un derecho humano”, manifiesta la red social en su documento de Reglas y políticas.

En este mismo documento también manifestó su compromiso por “combatir el abuso motivado por el odio, el prejuicio o la intolerancia. Particularmente el abuso que busca silenciar las voces de aquellos que son marginados. Por esta razón, prohibimos el comportamiento dirigido a personas con abuso basado en la categoría protegida”.

Plataformas como Instagram ya hacen uso de esta herramienta al advertir a los usuarios antes de realizar una publicación con el lema: “El texto se parece a otros que han sido reportados”.

El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!

Apoya a El Nacional