En los últimos años ha sido muy común ver o escuchar la expresión de fake news, noticias falsas por su significado en español. El término no se limita a su relación con el contenido dudoso de un hecho informativo, como una noticia o un reportaje en medios de comunicación. La expresión también hace referencia a todo el contenido falso que se puede encontrar en internet y las redes sociales.
No obstante, con el pasar del tiempo se crearon diferentes mecanismos para identificar la veracidad de una información, pero desde la masificación de las redes sociales, es cada día más complejo poder comprobar cuándo un hecho es real o falso, ya que éste puede alcanzar una gran repercusión permitiendo que llegue a millones de personas antes de poder ser confirmado como falso.
Lo que en un tiempo pudo ser imposible, ahora es relativamente fácil gracias a los avances de la tecnología, en específico de la inteligencia artificial y su popular creación conocida como los deepfakes, videos fabricados mediante modelos que pretenden generar polémica y manipular a la opinión pública. Y ya hay varios medios que trabajan para combatirlos.
Supongamos que un día te levantas y ves un video con tu rostro en la televisión o en alguna red social donde supuestamente estás hablando mal de alguien. En teoría, sabes inmediatamente que esto es falso, y que en ningún momento has grabado algo así, pero la realidad es que este video ya lo han visto millones de personas.
Precisamente así fue como empezó todo. En el año 2018 se viralizó un video donde utilizaron el rostro del expresidente de los Estados Unidos, Barack Obama, para hacer una campaña contra el, en ese entonces, presidente Donald Trump. Mientras el video le daba la vuelta al mundo, varios medios se pusieron a la tarea de difundir la veracidad de esta información, y convencer a la gente de que se trataba de una fake news.
Un algoritmo empezó a jugar con imágenes de Obama, y ahí nació la propaganda del futuro: los vídeos manipulados que intentarán alterar (aún más) la realidad.
Deep fake: así será la evolución más temible de las fake news. pic.twitter.com/ltlYbu7Ont
— PAPEL (@Papel_EM) May 8, 2019
Deepfakes
Pero este no es el único caso en el que se ha usado inteligencia artificial para modificar la voz o rostro de una persona. También se han visto casos de fanáticos que han usado a figuras como Ariana Grande, Ava Max, Miley Cyrus o Lady Gaga, para recrear sus voces y rostros haciendo nuevas canciones. También en un supuesto video de Elon Musk donde anunciaba que iba a comprar Meta: no era real, se trataba de los llamados deepfakes.
Otro ejemplo fue el video compartido a través de redes sociales que mostraba a Vladimir Putin declarando la paz con Ucrania. Horas más tarde, Meta y YouTube presentaron un comunicado donde afirmaban que se trataba de una noticia falsa e inmediatamente eliminaron el vídeo de sus plataformas.
Deepfake de Vladimir Putin anunciando el fin de la guerra con Ucrania
El Gobierno de Maduro recreó deepfakes para impulsar propaganda en el extranjero
Recientemente, una cuenta de Twitter llamada Cazadores de Fake News, publicó un hilo en el que señalaban al gobierno de Venezuela de reproducir información falsa a través del uso de avatares que afirmaban que la economía del país estaba en pleno crecimiento.
El video, que se emitió en un programa de televisión en inglés, fue compartido por miles de personas a través de redes sociales como Youtube y TikTok. Según el portal, la estrategia se hacía a través de varios videos que circulaban con la exposición de una presentador que hablaba sobre la economía venezolana.
El contenido de los videos incluye información en el que exponen datos y las supuestas mejoras económicas de Venezuela.
El 5 de febrero reportamos que un canal de YouTube había publicado un par de videos en inglés, en el que reseñaban mejoras económicas del país.
El "ancla" habla en inglés, pero su nombre era desconocido.
El medio "House of News" suplanta la identidad de otro medio real 2/7🧵 pic.twitter.com/OgDNRnjwIX
— Cazadores de Fake News (@cazamosfakenews) February 15, 2023
Según el hilo, lo que más llamó la atención es que el presentador habla en inglés, pero en ningún momento se identifica. Por lo tanto, al verificar este dato hicieron una búsqueda de la cara del presentador y encontraron “decenas de fotos casi idénticas”. Lo que sin duda alguna se trató de un deepfake.
Además, Cazadores de Fake News resaltó que varios canales de difusión oficiales del gobierno de Nicolás Maduro difundieron los videos como si se tratara de propaganda extranjera. Todo se trata de una campaña propia del mismo gobierno para seguir impulsando las noticias falsas en el país.
China, el primer país en anunciar una regulación
Los videos que fomentan las noticias falsas comenzaron a ser un verdadero problema para países como China, donde decidieron poner un límite a través de una nueva ley. Según un documento compartido por el portal Reuters, las tecnológicas Google, Facebook y Twitter recibieron un aviso según el cual debían acabar con la publicación de deepfakes.
La Unión Europea impondrá multas si no se cumple con esta medida. Mientras tanto, la Administración del Ciberespacio de China está trabajando para implementar su nueva legislación en torno a esta tecnología y la distribución de noticias falsas.
El objetivo de esta nueva ley será limitar su viralización y las suplantaciones de identidad. Entre los puntos clave de la nueva normativa se encuentra la concesión de consentimiento para el uso de imágenes por parte del usuario y la prohibición de tecnologías de este tipo para la difusión de noticias.
Otra de las obligaciones antes de publicar un contenido de este tipo será poner un aviso donde indique a las personas que se trata de una imagen editada o modificada. En caso de que el creador incumpla este requisito, se verá obligado a eliminar el contenido o enfrentar una condena en el país chino, pues estaría atentando contra la seguridad nacional.
Esta acción de la Administración del Ciberespacio de China es el primer intento integral de una agencia reguladora de restringir el mal uso de softwares de inteligencia artificial. El gigante asiático es sin duda el país con mayor capacidad para controlar los deepfakes por la configuración de sus sistemas de vigilancia en el ciberespacio.
Sin duda, la implementación de la nueva normativa puede servir como ejemplo a seguir para el resto del mundo, lo que obligaría a estas tecnologías a desarrollar otros métodos engañosos para continuar con su propagación. Aplicaciones populares como el creador de avatares Lensa o el generador de texto ChatGPT, de OpenAI, están revolucionando el empleo de sistemas automatizados e inteligencia artificial, lo que comienza a preocupar a los gobiernos.
Mientras avanza la legislación, algunos consejos para detectar deepfakes
Por ahora, mientras se espera que llegue la ley que regule la circulación de los avatares falsos, o un software que permita su identificación, existen algunas señales que revelarán cuándo un video se trata de un deepfake o es realmente veraz:
- Cabello y barba: el cabello tiende a ser una de las características más difíciles de recrear en sistemas de Inteligencia Artificial, así que los programas que los crean tienden a difuminar partes del cabello para disimular las fallas.
- Accesorios: las redes son propensas a generar imágenes con lentes incorrectamente ya que generan brillos artificiales que son fácilmente detectables.
- Rasgos físicos: al ponerse de perfil el sistema puede generar algunas deformaciones en la imagen fácilmente perceptibles.
- Expresiones: fijarse en si la persona está actuando de forma natural es crucial, estas redes solo generan imágenes, no saben lo que es una expresión facial.
- Ojos: es muy común encontrarse deepfakes con la mirada perdida, con los párpados muy sistematizados, esto es un índice para determinar de que trata de un video falso.
- Pestañas: si prestamos atención al pestañeo de la persona, es posible deducir si es un deepfake o no. En general, muchas veces hacen videos de pestañeos muy rápidos e incluso a veces casi ni pestañean.
- Rostro: debido a la reducida variabilidad de generación de imágenes, es muy probable que detectemos que el deepfake no vocaliza bien o que sus dientes y brillos en los párpados hacen que luzcan muy artificiales.
Por Stiven Cartagena, productor multimedia, comunicador social y periodista con énfasis en el cubrimiento de temas tecnológicos.
El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!
Apoya a El Nacional