La red social más usada del mundo, Facebook, informó que desactivó entre abril y septiembre de este año 3.200 millones de cuentas falsas. Se reveló que las gestionaban robots. También eliminó 11.4 millones de contenidos que incitaban al odio.
La empresa que dirige Mark Zuckerberg publicó la cuarta edición de su informe sobre el cumplimiento de las normas comunitarias. En él explica los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y la información falsas, las actividades ilegales y los contenidos que considera no adecuados.
Los 3.200 millones de cuentas falsas desactivadas en el segundo y tercer trimestre del año suponen más del doble que las 1.554 cuentas desactivadas en el mismo período de 2018.
Además de los contenidos del llamado «discurso del odio», también destacan los 18.5 millones de mensajes retirados por contener desnudez y explotación sexual infantil y los 4.5 millones relativos a suicidios o a autolesiones. Finalmente, los 5.7 millones que buscaban acosar a otros usuarios.
Se trata de la primera vez que la empresa de Menlo Park (California, Estados Unidos) incluye entre estas métricas los contenidos relativos a suicidios o autolesiones. El vicepresidente de Facebook para Integridad, Guy Rosen, se felicitó de que 96,1% de ellos en el segundo trimestre del año y 97,1% en el tercero fueron detectados proactivamente por la compañía antes de que nadie los denunciase.
También por primera vez, Facebook facilitó datos de Instagram -de su propiedad-, en este caso relativos a desnudez infantil y explotación sexual infantil, bienes regulados – específicamente, venta ilegal de armas de fuego y drogas-, suicidio y autolesiones, y propaganda terrorista.
En Instagram, la media de edad de los usuarios es inferior a la de los de Facebook. Los contenidos retirados por desnudez infantil y explotación sexual infantil fueron sensiblemente inferiores: 1.26 millones.
Los contenidos referentes al suicidio y autolesiones fueron 1.68 millones. Por su parte, los que incitaban al terrorismo, 240.000, y los que anunciaban drogas y armas de fuego, 3 millones.
«La inversión que hemos hecho en inteligencia artificial en los últimos cinco años sigue siendo un factor clave para abordar estos problemas. De hecho, los recientes avances en esta tecnología han contribuido a detectar y eliminar el contenido que viola nuestras políticas», apuntó Rosen al presentar el informe.