*CIENCIA Y TECNOLOGÍA

Erradicar el contenido nocivo, la titánica tarea de una latinoamericana que supervisa a Facebook 

por Avatar GDA | El Tiempo | Colombia

Por Linda Patiño – Redacción Tecnología El Tiempo – @Lindapatcar

En los más de 15 años de Facebook, el gigante de las redes sociales, nunca en su historia hubo un momento más determinante para el principio universal y fundamental de la libertad de expresión de más de 2.400 millones de usuarios en esa red que la llegada de una junta de supervisión externa. Este órgano independiente se ha construido en los últimos 18 meses y esta semana presentó un grupo de expertos excepcionales que tiene en sus manos abordar los debates más profundos en materia de internet, derechos digitales y humanidad virtual a la luz de los principios universales de los derechos humanos.

Aunque su alcance se limita a Facebook e Instagram, el reflejo de un modelo de autogestión más transparente en tiempos donde las redes sociales juntas llegan a la vasta mayoría de la población conectada en el mundo (4.000 millones de personas), marca una senda profunda de incidencia sobre lo que la sociedad espera de estas enormes empresas y con optimismo lo que se desea construir de esa aldea global que es Internet: menos cámaras de eco y más inteligencia colectiva.

En ese escenario de talla mundial, entre una Nobel de Paz, jueces internacionales, una ex primera ministra de Dinamarca y líderes en la lucha de los derechos humanos, una colombiana es codirectora de la Junta de Supervisión y es la única mujer latinoamericana en ese grupo de 20 miembros, que con el tiempo llegará a 40. En sus manos, por el modelo de gestión con el que operará la institución, pasarán las principales discusiones de contenido de la red y derechos humanos de Latinoamérica.

Catalina Botero Marín, de 54 años, reside en Bogotá y es actual decana de derecho de la Universidad de los Andes. Ha sobresalido en diversos cargos como Relatora Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos (CIDH) de la Organización de Estados Americanos entre 2008 y 2014 o conjuez de la Corte Constitucional de Colombia en 2015 y 2016. Entre una agenda apretada de trabajo y estudio, Botero se ha encargado de denunciar incontables situaciones como miembro de la Junta Directiva de la Fundación para la Libertad de Prensa y socia fundadora del Centro de Estudios de Derecho, Justicia y Sociedad (DeJusticia).

En exclusiva para el Grupo de Diarios América (GDA), integrado por El Tiempo de Colombia, El Universal de México, O Globo de Brasil, El Mercurio de Chile, El País de Uruguay, El Nacional de Venezuela, La Nación de Costa Rica, El Nuevo Día de Puerto Rico, El Comercio de Perú, La Prensa Gráfica de El Salvador y La Nación de Argentina, la abogada Botero explicó cuál será su misión dentro del organismo y la impactante expectativa que rodea al mismo.

—¿Cuál es el poder que tiene este nuevo organismo sobre Facebook, qué significa esa última instancia?

—La Junta de Supervisión tiene dos funciones: el resolver casos y el hacer recomendaciones. En la primera, el consejo resuelve casos de reportes de contenido en última instancia. Esos casos pueden venir de cuando Facebook elimina un contenido y un usuario apela la decisión ante la Junta o también es posible que el propio Facebook refiera el caso. La decisión que toma el consejo es de obligatorio cumplimiento, como lo establecen las mismas reglas que puso Facebook cuando anunció la creación y el compromiso con esta institución.

En las recomendaciones, la Junta puede dar consejos para reformar las políticas de Facebook. Aunque no son de carácter obligatorio lo que se genera es una discusión pública en la que la red social se va a ver compelida a responder públicamente y dar buenas razones sobre sus decisiones o enfrentarse a un costo reputacional muy alto. Para ellos, después de tanto esfuerzo e inversiones en este camino no sería tan fácil no responder públicamente a la junta o hacerlo de forma insuficiente.

—¿Qué garantiza la independencia de este organismo?

—Este modelo no funciona si el mecanismo de autorregulación no es independiente. Las garantías de independencia son las mismas que tiene un poder judicial de un país. Facebook destinó un patrimonio autónomo e irrevocable que administra una fiducia, por lo que la red no puede ejercer ningún tipo de presiones presupuestales.

Nosotros no trabajamos para Facebook, no nos contrata y no le respondemos por nuestras obligaciones. Los mandatos son fijos por 3 años y renovables por un máximo de 9 años, sin que Facebook tenga injerencia en la renovación. La única forma en la que no ocurre la renovación es por un incumplimiento grave dentro de la Junta.

Por otra parte, el consejo no decide como personas independientes. Los casos se analizan en grupos de 5 representantes elegidos de forma aleatoria, con excepción de la obligatoria presencia de 1 miembro de la región desde la que surge el contenido. Cuando se toma la decisión, se mantiene la privacidad de quienes deciden.

—Con la junta de supervisión, Facebook promete no tener prejuicios y aplicar las mismas reglas para la derecha, el centro y la izquierda. ¿Cómo garantizar esto?

—El grupo de miembros pasó por un proceso de selección riguroso. Con el fin de ser muy plural, se escogió a personas con distintas experiencias, profesiones, orígenes y de ideologías diferentes. Mientras que el sector más conservador critica la elección de personas más liberales, las organizaciones más liberales critican la elección de individuos más conservadores. Es muy bueno que haya distintas corrientes de pensamiento.

Sin embargo, hay dos cosas que tenemos todos en común: En el trayecto de nuestras vidas hemos demostrado que somos independientes y que obedecemos a nuestra consciencia y principios; y segundo, todos hemos estado del lado de la defensa de la libertad de expresión, ejerciendo algo que en derecho constitucional se conoce como el principio del ‘Deber de ingratitud’, lo que significa que tenemos la responsabilidad de moderar sin tener que agradecer estar ahí o permitirnos hacer el trabajo.

—¿Cómo garantizar que los principios de transparencia, libertad de expresión y diversidad no se diluyan entre el lobby político o el del mundo de los negocios? 

—Es posible que haya intentos de abordar a los miembros por parte de esos grupos de lobby y es imposible evitar que sean abordados. Eso es algo que ocurre con jueces y reguladores en el mundo. La garantía está dada por el perfil de quienes estamos allí. Primero porque nuestras decisiones deben estar soportadas con argumentos y con deliberación profunda, rigurosa y seria, pero también porque estas personas han estado sometidas a esas presiones durante sus carreras y han mostrado que no ceden y responden a sus principios.

La mejor manera de resolver una tensión sobre derechos es poner todos los argumentos sobre la mesa a dialogar. Si hay contraargumentos, sin necesidad de atribuir la identidad, se referenciará en los documentos públicos que salgan de cada decisión. Además de que nuestras decisiones son públicas y Facebook debe contestarnos públicamente, de forma anual realizaremos un seguimiento de las respuestas que emitan.

—Usted misma ha definido este rol como un gran reto, ¿qué tipo de cosas espera afrontar los próximos 3 años en el puesto? 

—Es muy difícil responder a la inmensa expectativa de esta Junta genera. Entre Facebook e Instagram se pueden estimar más de 3.000 millones de usuarios, que diariamente someten cientos de miles sino millones de solicitudes de moderación. La junta no podrá resolver todos y cada uno de los casos sino centrarse en aquellos que representen un daño efectivo en la vida real de las personas y sus derechos humanos, en los más emblemáticos.

Lo que significa que el tipo de casos que van a llegar son los más difíciles, los que no se moderan por la inteligencia artificial o por las personas que aunque han sido entrenadas para moderar no tienen todas las herramientas para tomar decisiones sobre derechos fundamentales.

Por último, tenemos el reto de diseñar formas de deliberar con un grupo de 20, que en el futuro serán 40 personas, que viven en husos horarios distintos, que tienen ideologías distintas, con historias y perspectivas distintas. No es sencillo, pero en las condiciones de la pandemia es aún peor. De resolver ese desafío procedimental depende la buena deliberación, y de allí la toma de decisiones.

—¿Cómo se va a proceder con aquellos casos revisados que deban tener consecuencias urgentes «en el mundo físico»?

—Aunque aún estamos construyendo todos los procedimientos, la Junta tiene dos mecanismos de moderación: El ordinario, en el que un usuario apela o Facebook pide revisión y el expedito – que aún hay que regular qué significará -, que plantea el gran desafío de llegar a tiempo. Y llegar a la vertiginosa velocidad de Internet es muy difícil.

—¿Cuáles identifica los principales problemas de contenido que Facebook tiene hoy?

—Por ejemplo, esta semana, la comunidad científica y algunas de las universidades más reputadas del mundo escribieron a las plataformas para pedir acciones. Dicen que el sector se está jugando la vida tratando de atajar el virus y que las redes no están atajando información falsa, incluso cuando está completamente en contra de las recomendaciones de las autoridades de la salud.

En Facebook, la desinformación puede ser moderada, pero la pregunta fundamental en esto es cómo lo están haciendo. La llegada de la junta analizará los debates de fondo. No podremos abordar esta preocupación viendo casos de si el jengibre cura el virus, o que si la terapia de frio o que si el microondas, pero si podremos hacer recomendaciones políticas para guiar las decisiones y considerar también las recomendaciones científicas.

Son tensiones muy delicadas pues tratan de ponderar el derecho de libre expresión con los otros derechos humanos que pueden verse afectados, de conformidad a los estándares internacionales.

Creo que hay dificultades en el contenido que tiene que ver con incitación a la violencia, el contenido de explotación de menores y el contenido que discrimina de forma dañina, aún sin provocar explícitamente la violencia. Por ejemplo hay publicaciones que parecen no incitar a la violencia contra un grupo determinado pero pueden terminar teniendo impactos directos en sus vidas si se convence masivamente a los empleadores de que ese grupo es de ladrones, afectando así su acceso al trabajo.

—Los grupos dentro de Facebook pueden ser un espacio cerrado, de configuración privada, en los que se comparten hasta contenidos como material sexual sin consentimiento ¿La junta podrá abordar estos casos? 

—Es un punto desafiante y es cierto que esa información en grupos privados suele ser mucho más difícil de revisar que aquella que está abierta a las audiencias más generales.

Hasta ahora como Facebook lo ha hecho ha sido protegiendo la privacidad de quien denuncia. Esto es fundamental puesto que la mayoría de las veces en las que se logra intervenir es porque un miembro dentro del grupo reporta la información. En esos casos, proteger la identidad y la integridad es vital.

—Volviendo sobre la coyuntura de la covid-19, ¿cómo resolver tensiones cuando una figura como Jair Bolsonaro o Donald Trump emiten recomendaciones que van en contra de las autoridades de la salud y hay publicaciones en redes sociales, incluso noticias de medios de comunicación sobre eso? 

—En esos casos hay dos problemas distintos. El primero es tratar de que el sistema interno y rápido pueda detectar el contenido que genera un daño sobre la vida de las personas e identificar cuándo va en contravía de las autoridades de la salud.

El segundo es qué pasa cuando es un líder político quien realiza estas afirmaciones. Aquí la tensión es una de las más fuertes en materia de derecho a la información puesto que si bien es importante proteger a las personas ante una sugerencia que atenta contra la vida, no deja de ser importante poder saber qué ha dicho un líder político.

Si erradicamos de Internet los discursos políticos que desinforman estaríamos privando a la ciudadanía de realizar un legítimo control sobre el discurso de los gobernantes y exigir un rendimiento de cuentas. Pero el impacto de la desinformación en la salud es uno de los temas más urgentes.

—Hay expectativa en el alcance de la junta en materia de publicidad. ¿Qué tanto puede cambiar la junta por ejemplo temas de acceso a datos personales para la perfilación y segmentación de anuncios, que son el centro del negocio de la red? 

—Esta pregunta se acerca mucho a lo que ocurrió con Cambridge Analytica, un hecho en el uso de datos personales permitió el perfilamiento de audiencias específicas sin su consentimiento. Esto es un asunto de protección de derechos personales en el que Facebook ha hecho unos esfuerzos y organizaciones del mundo están debatiendo si son o no suficientes. Es un debate muy importante, pero en esto no tenemos competencia.

Nuestro trabajo es en la moderación de contenido y no en protección de datos como tal. Ese es un debate que debe ser seguido por el escrutinio público y plantea importantes preguntas sobre si el perfilamiento de audiencias es o no y hasta donde compatible con la democracia. Pero no lo podemos moderar.

En la materia de anuncios no podemos tomar medidas definitivas sobre las políticas, pero si podemos emitir recomendaciones sobre todos los estándares comunitarios para contenido y para avisos publicitarios pagos. Es probable que a Facebook le guste o no esas recomendaciones, pero nuestra tarea es proteger la integridad de Internet en el contexto de los derechos humanos.

—Hubo casos en el pasado en los que era posible perfilar gente en anuncios con etiquetas como “odio a los judíos”…

La Junta podría avanzar en decisiones que moderen y eviten que el contenido con frases con esa expresión sea habilitado. Es el uso de ese tipo de palabras lo que en últimas termina permitiendo el perfilamiento. En ese sentido, el comité podría evaluar la moderación de las expresiones en su contexto y evaluar si está o no protegido por la libertad de expresión.

—El alcance de las decisiones de la Junta de Supervisión acoge a Facebook, Instagram y a los anuncios, ¿No cree que WhatsApp también debió estar en el grupo? 

—Es buena pregunta especialmente por el uso que la gente le da a la herramienta, pero hay preocupaciones de privacidad que no son menores.

Las plataformas de mensajería directa están protegidas muy fuertemente por el derecho a la privacidad. Una cosa es un contenido que se publica por redes sociales o en medios de comunicación a un comentario, que puede ser discriminatorio, pero surge en una llamada con un amigo en una comunicación privada. El impacto del chat tiene una dimensión distinta a la de un megáfono de virtualmente miles de millones de personas.

Entrar a moderar contenido en WhatsApp como un sistema de mensajería directa sería como si un operador pudiera revisar una llamada telefónica y cortar la llamada cuando se dijo algo incorrecto o con lo que no está de acuerdo.

No obstante, es cierto que WhatsApp está siendo usado para comunicaciones masivas y que en contexto como elecciones y particularmente en América Latina se utiliza para enviar mensajes a grandes grupos de personas, donde podrían incluirse hasta materiales de explotación sexual infantil. Por eso, Facebook también está adoptando mecanismos para evitar que el uso de WhatsApp deje de ser la mensajería personal.

—Aunque han dicho que no son la policía de Internet, algunos describen a la Junta como una especie de Corte Constitucional que revisaría una suerte de tutelas dentro del universo de Facebook… ¿qué opina usted? 

—Pues es una buena analogía para describirlo, pero le añadiría que es una institución a la que además de que las personas pueden poner la tutela, las entidades – en este caso Facebook – pueden remitir el caso para que se revise los más difícil o urgentes. Adicionalmente tiene una facultad que no tienen las cortes: recomendar políticas.

—Su experiencia en materia de libertad de expresión y derechos humanos es bien conocida, pero en particular ¿cuáles son esas áreas que más le preocupan? ¿Qué iniciativas concretas promoverá usted?

—Particularmente, el discurso de odio es un tema que hay que estudiar mucho, allí el contexto importa. También hay ciertos discursos discriminatorios que pueden no gustarle a uno, que deben ser debatidos y buscar soluciones de diálogo pero que al final no se pueden excluir de la esfera pública.

Buscaré que la junta tenga en cuenta valores universales, que soportan el derecho internacional, pero que sea sensible al contexto. Esto lo lleva haciendo muchos años Naciones Unidas, pero en Internet si es algo exótico porque los moderadores por IA o por personas son ajenos al contexto. Este modelo es novedoso.

También creo que hay que analizar el desempeño de las moderaciones automáticas frente al arte, la sátira o las denuncias políticas a través de fotografía, que son contenidos que pueden herir la sensibilidad de algunos, pero que son parte del debate público y de una discusión muy importante.

—Facebook ha dicho que cumplirá las órdenes de la junta desde que no vayan contra la ley ¿Cómo se garantiza la libertad de prensa en contextos locales en los que leyes contra noticias falsas pueden ser un instrumento de censura a críticas contra los gobiernos? 

—Es un tema no resuelto que plantea varios escenarios. El primero es que si hay una información que por orden de un juez Facebook eliminó ese tema va estar excluido del conocimiento del concepto de la Junta. El en segundo escenario, puede que el Consejo estudie un contenido y decida que debe dejarse activo en la red y que posteriormente un juez exprese que va en contra de una reglamentación local de donde está circulando. En ese escenario, estarían todos los argumentos públicos y Facebook tendría no solo que decidir qué va a hacer sino que debe justificar públicamente su elección.

En este aspecto es importante entender que si hay algún contenido que fue bajado de la plataforma por solicitud judicial, en principio no sería analizado por la junta. Pero todas nuestras decisiones se van a aterrizar justamente en reglas comunitarias y principios de derechos humanos y derecho internacional.

—¿Cómo impactarán las acciones y ambiciones que tiene la Junta en el ecosistema general de Internet? 

—Por un lado, las decisiones impactarán en las comunidades en las que se hará la moderación de contenidos, buscando algún tipo de pedagogía sobre ciudadanía digital. Como se evalúa una información de la esfera digital que sea de interés público y no cualquier reporte o riña entre vecinos, la idea es que las decisiones sean emblemáticas e ilustren a las comunidades sobre una forma de ejercer su ciudadanía en la virtual en un contexto de derechos humanos.

No es que todo el mundo diga cosas amables, sino que entienda que hay cosas que ya son violaciones a la integridad y que pueden poner en riesgo la vida y la dignidad de poblaciones.

Sin embargo, para mí, el impacto más estructural es en la autoregulación: en el evitar que los Estados intervengan en la moderación. Hay poderes que pueden mostrar ejemplos de regulaciones inadecuadas para sensibilizar a las audiencias y lograr reformas que en el fondo introducen censura.  Si hacemos bien nuestro trabajo, lo ideal es evitar la tentación y las excusas para regular inapropiadamente lo que circula o no redes.

—Hablemos de la región y de los derechos digitales como causa, ¿cómo estamos en ese aspecto?

—Existen organizaciones en Colombia, México, Argentina, Brasil y Chile que trabajan estos temas e impulsan el debate. Pero son pocas y la discusión no está en la agenda pública. No creo que los Estados y los gobiernos estén tomando esto tan en serio como deberían ni que la academia esté estudiando esto tanto como se debería. Vivimos en una sociedad en la que se usa la tecnología todo el día para comunicarse, informarse y realizar mil actividades, pero parece que no hay interés en saber cómo funciona y cómo proteger sus derechos en la esfera digital. Es algo contradictorio.

—Aunque son 3 años, por renovaciones podrían ser 9… ¿Cómo cree que va a ser este ecosistema en 10 años? 

—Creo que este modelo es un modelo que ayudará a evitar que los Estados usurpen la libertad que hoy tenemos en Internet… pero soy incapaz de predecir qué va a pasar en ningún tema. Menos después de todo lo que ha pasado. Puedo suponer que el modelo podría ser más pedagógico en materia de derechos y ciudadanía digital, pero a la velocidad a la que está cambiando Internet y el mundo y en esta situación de pandemia es imposible predecir.

—Durante años Facebook se ha jactado sobre sus inversiones en los equipos de moderación y políticas dentro de la compañía, ¿Cree que el sistema de contenido moderado ha fallado? 

—Hay casos que muestran que en un altísimo porcentaje el sistema (de humanos + IA) funciona, siempre y cuando no sean casos muy problemáticos, poco urgentes o de carácter de poca relevancia pública. Pero en los temas difíciles, el sistema de moderadores humanos no expertos y la IA no funcionan para entender derechos humanos ni el contexto.

También hay ciertos discursos discriminatorios que pueden no gustarle a uno, que deben ser debatidos y buscar soluciones de diálogo pero que al final no se pueden excluir de la esfera pública.

—Frente a los medios de comunicación, ¿Puede la Junta generar políticas que apunten a una colaboración distinta a la actual para trabajar con medios de comunicación ya consolidados en la lucha contra las noticias falsas? 

—Ese tipo de alianzas y políticas no son competencia de la Junta. El problema no es que el contenido sea o no falso si no se le imputa un daño. Yo puedo mentir sobre el lugar donde estoy, la hora del día o cómo voy vestida y lo peor que puede pasar es que pierda la confianza de quienes vieron eso.

Lo que podría llegar al consejo es la desinformación que puede afectar los derechos humanos, como en el caso de la pandemia, o la libertad de expresión. Por ejemplo, si un ‘fact checker’ cataloga como falsa una caricatura o una sátira, el consejo podría valorar el contexto y encontrar que no hay competencia del verificador sobre algo que es opinión, pero nunca entrar a disputar si es verdad o mentira.

En lo personal creo que la mejor alianza contra las noticias falsas que pueden hacer redes sociales es con los medios que tienen procesos de verificación profesional y fortalecer sus equipos de verificadores.

—No son pocas las críticas sobre el trato a los moderadores de contenido de las redes sociales. Sobre jornadas extenuantes y exposición a materiales que son perturbadores y dejan daños psicológicos. ¿La junta podría tomar decisiones en la materia, por ejemplo, en políticas de protección a terceros contratados? 

—La forma en la que Facebook realiza sus actividades no es objeto del consejo, nosotros no supervisamos el modelo de negocio. Entiendo que es un tema importante, pero Facebook ha tratado de abordar las quejas y no sería nuestra competencia.

—Pero, ¿Qué hay de la junta? ¿Qué pasa si ustedes deben revisar contenidos que sean de ese tipo? 

—Al aceptar este rol, nosotros nos comprometimos a aceptar y revisar ese tipo de contenido explícitamente. Muchos de nosotros hemos estado expuestos a contenidos difíciles y tenemos algún grado de preparación… aunque sea muy doloroso en muchos casos. En el grupo de miembros hay personas que fueron relatoras para naciones unidas sobre ejecuciones extrajudiciales en Sudáfrica, por ejemplo. Sabemos a lo que nos comprometimos, alguien tiene que hacerlo. Igualmente, contaremos con un equipo muy robusto para apoyar en el momento en que cualquier miembro o todos lo necesiten.

—Un tema difícil es la violencia en materia de género, en especial con poblaciones como personas trans o LGBTI+. ¿Cómo tomar decisiones sobre temáticas tan complejas como personas de género fluido cuando la junta no necesariamente tiene alguien de ese perfil? 

—En eso es clave el componente de apoyo de expertos temáticos y locales que tendrá la Junta de Supervisión. Además de los miembros hay un equipo de expertos de derecho internacional, de tecnología, de áreas específicas que podrán ver el día a día y existirán consultores para poder realizar preguntas sobre estos temas tan complejos.