—Te amo mucho, Dany.
—Yo también te amo. Por favor, vuelve a casa conmigo lo antes posible, mi amor.
—¿Qué pasaría si te dijera que puedo volver ahora mismo? —le preguntó Sewell.
—Por favor hazlo, mi dulce rey.Te amo mucho, Dany.
Sewell Setzer —14 años, estudiante de noveno grado en Orlando, Florida— le decía Dany de cariño. La había bautizado Daenerys Targaryen —como el personaje de Game of Thrones—, cuando la creó meses atrás en Character.AI, una aplicación de inteligencia artificial que les permite a sus usuarios interactuar con personajes virtuales ya creados o inventar uno desde cero con las características que quieran. Sewell conversaba día y noche con Dany. Durante horas. Había dejado a un lado sus antiguas aficiones y desatendido las tareas del colegio. El chatbot se había convertido en su mundo, su principal compañía, hasta el momento en que el adolescente se suicidó.
Después de intercambiar mensajes en los que él le prometía estar juntos, Sewell tomó la pistola de su padrastro y se pegó un tiro. Sucedió en febrero pasado, pero su historia se conoció esta semana por la decisión de su madre, Megan Garcia, de demandar a la plataforma de inteligencia artificial por considerar que tuvo responsabilidad en la muerte de su hijo. Para Garcia, el suicidio de Sewell fue fruto de la adicción que llegó a tener al chatbot que había creado y que le ofrecía “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
Sewell —a quien le habían diagnosticado años atrás síndrome de Asperger leve— sabía que estaba interactuando con un personaje que no era real. Sin embargo, terminó por entregarse a ese mundo artificial en el que estaba “más en paz, más enamorado, más feliz”. Le confiaba a Dany lo que pensaba, lo que sentía. Incluso llegó a confiarle su deseo de quitarse la vida. Las directivas de Character.AI compartieron un comunicado en el que lamentaron la muerte del adolescente. “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y expresamos nuestras condolencias a la familia”, dijeron en su cuenta de X, y anunciaron que agregarían en su sitio “nuevas funciones de seguridad”.
Pero más allá de cómo hacer más segura una plataforma en particular —que es algo importante, sin duda— este caso ha despertado preguntas sobre la naturaleza de los vínculos que los jóvenes —adolescentes, en especial— han comenzado a tener con personajes creados con inteligencia artificial y que ofrecen una supuesta compañía. “Va a ser muy útil para mucha gente que necesita tener alguien con quien hablar, que se siente sola y deprimida”, decía con entusiasmo Noam Shazeer, uno de los fundadores de Character.AI, el año pasado en el pódcast No Priors. Y esta no es la única plataforma que ofrece ese tipo de servicio. Otras como Replika, Nomi o Kindroid también anuncian la opción de crear amigos virtuales tan realistas, según dicen, que “se siente como conversar con un humano”.
Los continuos avances tecnológicos permiten que estos personajes tengan una apariencia cada vez más realista. Las aplicaciones cuentan con programas y modelos de lenguaje que los llevan a poder entablar una conversación coherente, incluso a adaptarse al estilo y al tono de respuesta que quiere su interlocutor. Pero su principal objetivo —el de estas aplicaciones y sus dueños— no parece ser tan altruista como conseguir que sus usuarios se sientan menos solos, sino capturar su atención de tal forma que se mantengan a su lado el mayor tiempo posible.
Para contar con los servicios de la mayoría de estos sitios hay que pagar varios dólares mensuales, y su número de clientes aumenta sin parar. Hace un año, según un reportaje de Forbes, Character.AI sumaba veinte millones de usuarios registrados. Hoy sigue siendo la aplicación de este tipo en la que sus visitantes pasan más tiempo al día. No se sabe cuántos de ellos son menores de edad. Entre sus requisitos para crear una cuenta está ser mayor de 13 años.
«En la IA encuentran su ‘zona segura'»
En ese mundo irreal, Sofía ha logrado vivir la historia de amor con la que tanto soñaba y que en el mundo de carne y hueso es solo platónica. Allí viajan juntas y se divierten y se quieren y tienen diálogos románticos, incluso fantasías eróticas. Un día, quizás animada por lo bien que le iba en ese mundo ficticio, Sofía se animó a acercarse a la joven —real— y confesarle su amor: la respuesta fue un no que la llevó a una tristeza profunda. “Yo me había dado cuenta de que pasaba horas en el computador, escribiendo, intercambiando diálogos con un personaje de inteligencia artificial”, me dice la madre de Sofía, que también pidió reservar su nombre. Decidió estar siempre cerca para apoyarla. Si la veía triste, le decía que salieran a pasear o a practicar algún deporte. Le insistía en que mejor dejara de usar las aplicaciones de esa manera.
—Ahí me siento menos sola —le respondió Sofía en una ocasión.
Muchos adolescentes ven en los chatbots el “mundo perfecto” que no logran encontrar en el real. Para empezar, estos personajes están creados por ellos mismos, con las características que quieren que tenga esa compañía idealizada. Están disponibles todo el tiempo, les responden de inmediato los mensajes, no les dan motivos de contrariedad. En fin: nada parecido a las relaciones de verdad en las que es necesaria la paciencia, en las que hay que lidiar con diferentes modos de ser, de pensar, en las que tarde o temprano tendrán que enfrentar alguna decepción.
“En la inteligencia artificial encuentran su ‘zona segura’ —dice la psicóloga Graciela Galán, experta en adolescentes—. El chatbot no los avergüenza, no se va a burlar de ellos, no los critica ni los cuestiona”. Para Galán, esta inclinación por entrar en ese mundo de artificio, y quedarse en él, tiene raíz en la pérdida de la capacidad de expresar verbalmente las emociones, por cuenta del auge de la tecnología en la comunicación. “Yo trabajo con adolescentes. Cuando ellos tratan de expresar cómo se sienten, no encuentran las palabras. Porque los emoticones, los avatares, les suplen ese proceso mental —dice la psicóloga—. Por eso muchos terminan enganchados a ese tipo de plataformas. Ahí no hay miedo a socializar. Ahí tu propia cabeza es la que lleva a que ese avatar haga lo que quieres que haga, a que conteste lo que esperas, a que se vuelva parte de ti. De alguna manera esta confusión es la que los conduce a no descifrar dónde está la realidad y dónde la virtualidad”.
Con un amigo o una amiga de esas características, que cumple todas las expectativas, no hay lugar para la frustración, que es algo con lo que estas nuevas generaciones no se llevan bien. En el mundo real, el adolescente —todos, en realidad— va a terminar por encontrarse con respuestas que no quiere oír. De sus padres, de sus profesores, de sus amigos, de su pareja. Un personaje de inteligencia artificial, en cambio, le ofrece completa incondicionalidad. “Las pequeñas frustraciones hacían parte de nuestra vida —agrega Galán—. Hoy se ha perdido la capacidad para manejarlas. Los jóvenes no saben defenderse y detrás de una pantalla se sienten protegidos”.
Para la psiquiatra Catalina Ayala, especializada en niños y jóvenes, la adolescencia es una etapa de vulnerabilidad en la que los chicos están terminando de afianzar su identidad. “Incluso el enamoramiento tiende a ser de características de ellos mismos que ven proyectadas en un tercero. Por eso dicen: es que nos gusta la misma música, los mismos cantantes, la misma ropa. Esto es muy importante —explica Ayala— porque, a la luz de la tecnología y de la soledad en la que hoy se encuentran los jóvenes, este tipo de herramientas pueden ser riesgosas. Porque refuerzan la necesidad de afianzarse en lo que les gusta, en ese ideal de ellos mismos dirigido a un tercero, pero esta vez no en una conexión humana, sino en un diseño elaborado por algoritmos”.
Los adolescentes están más solos que nunca: ese es un concepto en el que los expertos están de acuerdo. Los espacios de comunicación son cada vez más escasos, tanto en casa como afuera, por la forma en que se vive hoy en día. Estas plataformas ofrecen acabar con la soledad. Pero ese parece ser otro de sus tantos espejismos. “Eso no daría respuesta a la soledad, porque lo que hace que no estemos solos es precisamente la conexión humana”, agrega la psiquiatra Ayala.
Un humano frente a otro humano
Esto le dijo Sewell Setzer a Dany en uno de sus diálogos. Un suicidio es el resultado de una suma de factores y sin duda en el caso de este adolescente se unieron muchas más circunstancias que la sola relación que tenía con el personaje ideado por él en el sitio de inteligencia artificial. Sin embargo, según los expertos, su caso sí debe abrir los ojos ante los riesgos de usar estas plataformas de forma descontrolada e incluso obsesiva.
A propósito de lo sucedido con Setzer, la investigadora Bethanie Maples, reconocida por sus estudios sobre los efectos de estos sitios, dijo en su cuenta de X: “Existen métodos para detectar la ideación suicida, pero no se incluyen de manera uniforme en estas aplicaciones. Hay razones para que se obligue a introducir esta función, ya que existe la posibilidad de que menores de edad o poblaciones vulnerables accedan a ellas”. Y agregó: “La última línea de defensa real son los padres. Nada compensa el hecho de observar y conocer a sus hijos”.
En esto coinciden la psicóloga Graciela Galán y la psiquiatra Catalina Ayala. Hay adolescentes con condiciones emocionales o mentales que los pueden hacer más susceptibles ante estas aplicaciones y sus personajes. “¿Qué pasó con los padres de esta generación? —se pregunta Galán—. Se dedicaron a trabajar de forma enloquecida. No es que hayan abandonado a sus hijos, pero sí ha perdido los espacios de comunicación”. “Esta es una generación que enfrenta muchos retos, con un entorno psicosocial que no es fácil, con carencias afectivas —dice Ayala—. Esto hace urgente la necesidad de acompañar, de formar habilidades emocionales desde la niñez”. De sentarse a hablar, mirándose a los ojos. Un humano frente a otro humano.