Twitter anunció el martes que retirará o etiquetará las fotos y vídeos falsificados en su plataforma, después de que otras redes sociales tomaran medidas similares para luchar contra la desinformación, en el contexto de la campaña electoral en Estados Unidos.
La plataforma quiere centrarse en los contenidos modificados, como los montajes de video o de audio, que buscan engañar al público. Este tipo de contenido puede perjudicar a la gente, incitando a la violencia o vulnerando su libertad de expresión.
A partir de marzo, la red social retirará o etiquetará esos contenidos y podrá también reducir la visibilidad de los mensajes o añadir contexto.
En los últimos meses, la mayoría de las redes sociales recurrieron a la inteligencia artificial y a personas para luchar contra la desinformación, desde las falsas noticias hasta los deep fakes.
El cambio llegó por la presión de las autoridades europeas y estadounidenses, después de que campañas de manipulación intentaran influenciar la opinión pública en comicios.
“Esa nueva norma se añade a otras numerosas decisiones para regular Twitter”, recordó Yoel Roth, responsable de la integridad de la plataforma. “Impedimos por ejemplo desde hace años la propagación de imágenes y vídeos de contenidos sexuales fabricados o falsificados, muy frecuentes en internet”.
La compañía estadounidense impedirá los contenidos falsificados, pero no hará lo mismo con los mensajes escritos, aunque sí prohibió los anuncios políticos en la plataforma.
Un videomontaje como el que atribuía declaraciones racistas al candidato presidencial demócrata Joe Biden a principios de año ya no debería ser posible con las nuevas normas. Uno de los tuits en los que se compartió ese video fue visto más de un millón de veces.
Un doble rasero
Para localizar los contenidos problemáticos, Twitter cuenta con las denuncias de los usuarios en todo el mundo, aunque tiene intención de depender menos de eso, explicó Roth.
También admitió que las imágenes y los videos satíricos supondrán un reto. “Si nos equivocamos, se podrá recurrir la decisión”, precisó la red social.
Youtube, la plataforma de videos de Google, anunció el lunes medidas similares sobre los contenidos manipulados o falsificados.
Facebook, por su parte, sigue permitiendo los anuncios políticos y los deja incluso fuera de su sistema de verificación de datos.
La AFP trabaja en más de 30 países y en 10 idiomas en el programa Third party fact-checking de verificación de contenidos desarrollado por Facebook. Dentro de este programa, que se lanzó en diciembre de 2016, Facebook remunera a unos 60 medios de todo el mundo, de información general o especializados, para usar sus fact-checks en su plataforma y en Instagram.
Si uno de estos medios detecta que una información es falsa o engañosa, los usuarios de Facebook e Instagram tienen menos posibilidades de verla. Y si alguien intenta compartir esta información, la plataforma le propone la lectura del artículo con la correspondiente verificación. Facebook no elimina ninguna publicación. Los medios que participan tienen total libertad en la elección y tratamiento de los temas que desean verificar.