Ante recientes reportes sobre el bloqueo de cuentas y la publicación de The New York Times en la que se informó que en 2018 las compañías tecnológicas reportaron 45 millones de fotos y videos de abusos de niños, cifra que se duplicó con respecto al 2017, surgen dudas con respecto al bloqueo en uno de los principales servicios de mensajería del mundo, WhatsApp.
¿Puede WhatsApp bloquear una cuenta? ¿Por qué?
Sí, el servicio de mensajería tiene la facultad para suspender la cuenta de un usuario siempre y cuando no cumpla con las condiciones descritas en los términos. Dentro de ellos se estipula que pueden «modificar, suspender o cancelar» el acceso a los servicios de la aplicación si se detectan «conductas sospechosas o ilegales, incluido fraude». Además, si es que se genera algún «daño, riesgo o exposición legal» para la compañía, sus usuarios u otras personas.
En los términos y condiciones de la aplicación se especifica que no podrán (o ayudar a que otros a) usar sus servicios de mensajería mientras:
- Violen, se les de un mal uso o infrinjan los derechos de WhatsApp, sus usuarios o terceros. Esto incluye derechos de privacidad, publicidad, propiedad intelectual, derechos de autor y otros derechos de propiedad.
- Sean ilegales, obscenos, amenazantes, intimidantes, acosadores, agresivos, ofensivos desde el punto de vista racial o étnico. También, no se podrá hacer uso de sus servicios si promueven o fomentan conductas que sean ilegales, incluidos delitos violentos.
- En el caso de incluir la publicación de falsedades, declaraciones erróneas o afirmaciones engañosas.
- Se hagan pasar por otra persona.
- En el caso de existir, como mensajería masiva, mensajería automática, marcado automático o usos similares, mensajes ilegales o que no se admitan.
- Mientras exista cualquier otro uso no personal de los servicios de WhatsApp, a menos que sea autorizado por la compañía.
¿Se puede apelar?
WhatsApp explica que si un usuario cree que se canceló o suspendió su cuenta por error, estipula que puede ponerse en contacto con la compañía a través de su correo electrónico de ayuda: support@whatsapp.com.
¿Qué puede revisar WhatsApp?
Primero se encuentra la información que el usuario proporciona. Esto quiere decir el número de teléfono y los contactos de cada usuario. Desde 2016, la empresa trabaja con un sistema de encriptación que protege todos el contenido que se envía a través de la plataforma, no sólo de amenazas externas, sino también de sus propios ojos. Es por esto que la revisión de la firma es solo frente a los datos que no están bajo esta protección.
Aquí se encuentra el nombre de usuario (o del grupo), foto de perfil y el mensaje de estado.
Además, WhatsApp registra la información sobre la actividad del usuario, la forma en usa su servicios y cómo interactúa con otros. Asimismo, recopila datos de los dispositivos, como el hardware, información del sistema operativo, la dirección IP e información de la red móvil.
Sin embargo, la firma elimina de sus servidores todos los mensajes de sus usuarios. Entre ellos están las conversaciones, fotos, videos, mensajes de voz, archivos e información de ubicación. Además los mensajes y llamadas están cifradas de extremo a extremo lo que permite que no sean leídos, ni escuchadas por la empresa de mensajería.
¿WhatsApp comparte la información?
En los términos y condiciones de la aplicación se especifica que «nada de lo que compartas en WhatsApp, incluidos tus mensajes, tus fotos y la información de la cuenta, se compartirá en Facebook ni en ninguna de nuestras otras aplicaciones. Y nada de lo que publiques en dichas aplicaciones se compartirá en WhatsApp. Es decir, nadie lo verá, a menos que así lo quieras».
Por lo tanto, si bien WhatsApp puede compartir datos comerciales, no lo hará con conversaciones y contenido de usuarios.
Esta información fue entregada por la firma de Mark Zuckerberg luego de acusaciones de un posible monopolio al controlar tres de los servicios más exitosos en la industria: Facebook, WhatsApp e Instagram.
¿Qué indica WhatsApp con respecto al abuso sexual infantil?
La compañía indica que tiene una política de tolerancia cero con respecto al abuso sexual infantil. Por lo mismo, suspende la cuenta a los usuarios de WhatsApp si detectan que están compartiendo contenido que explota o pone en peligro a los niños.
Para eso, WhatsApp utiliza toda el contenido no cifrado que tengan a su disposición, incluidos los reportes de usuarios. Además, la firma utiliza una tecnología de comparación de fotos denominada PhotoDNA que permite escanear e identificar fotos de perfil que estén violando las políticas de WhatsApp. En el caso de que el sistema detecte una imagen, prohibirán el uso del servicio al usuario y, en el caso de que sea un grupo, a todos sus integrantes.
De acuerdo a lo informado desde la empresa, en los últimos tres meses WhatsApp ha prohibido aproximadamente 250.000 cuentas cada mes sospechosas de compartir imágenes de explotación infantil.
Sin embargo, el sitio especializado Techcrunch denunció a fines del año pasado la existencia de grupos de WhatsApp dedicados a la pornografía infantil, con invitación abierta y a vista pública a través de otras apps, lo que pone en duda la efectividad de la compañía para eliminarlos.
¿Qué ocurre con otras redes sociales?
WhatsApp no es la única plataforma que tiene el resguardo de bloquear cuentas de usuarios, que no cumplan con los términos de condiciones y servicios o la política de privacidad de cada servicio. Así, Instagram tiene una fuerte campaña en contra de los torsos femeninos desnudos (que incluso desató una contra campaña llamada «Free the Nipple») y la utilización de cierto contenido bajo el resguardo de derecho de autor.
Por su parte, Twitter también hace uso de esta herramienta ante denuncias de derechos de autor, como ocurrió con una publicación del Presidente de Estados Unidos, Donald Trump, esta semana cuando compartió un video de Nickelback. Pero también decidieron hacer una lucha en contra de los mensajes de odio; a través de la búsqueda de palabras clave en los tuits.
En Facebook también se han expuesto diversas situaciones que se han desencadenado desde el bloqueo de imágenes o comentarios que se realizan a través de una inteligencia artificial.
Uno de los problemas que enfrentan las empresas es, precisamente, que el uso de inteligencia artificial muchas veces carece de un contexto. Por lo que termina bloqueando cuentas que no necesariamente estaban involucradas en algún caso en contra de sus condiciones de eso.
Al ser publicaciones públicas, es decir, incluso en la cuentas privadas no existe encriptación de los datos, la revisión resulta ser un poco más fácil para las plataformas en comparación a WhatsApp.
Adicionalmente, todas las redes sociales (y en esto también está WhatsApp) cuentan con un botón de «bloqueo» y «reporte». De esta manera los usuarios contribuyen a esta tarea de remover contenido que atente contra la política de uso de las plataformas.
Según el The New York Times, en 2018 las compañías tecnológicas reportaron 45 millones de fotos y videos de niños siendo abusados. Representa más del doble de lo que se encontró el año anterior.