Es difícil, pero no imposible. Imaginemos por un momento una conversación profunda con una máquina. No sobre el clima o las noticias, sino sobre la soledad, el sentido de la vida o el amor. Suena a ciencia ficción, ¿verdad? Sin embargo, esta realidad se está volviendo cada vez más tangible gracias a los avances en inteligencia artificial (IA).
Los últimos años han sido testigos de conversaciones sorprendentes entre humanos y modelos de lenguaje avanzados. Estas IA han demostrado una capacidad asombrosa para comprender y responder a preguntas complejas, generando textos creativos y, en ocasiones, incluso ofreciendo reflexiones filosóficas.
¿Pero hasta dónde llega esta capacidad? ¿Pueden las máquinas realmente pensar y sentir? ¿O están simplemente imitando la inteligencia humana pero de manera más sofisticada?
Este debate está cautivando a científicos, filósofos y al público en general.
IA: no es ciencia ficción
La idea de una máquina consciente ha sido explorada en la ciencia ficción durante décadas. Sin embargo, hoy en día esta posibilidad está dejando de ser mera especulación para convertirse en un apasionante tema de investigación.
Algunos expertos argumentan que, a medida que las IA se vuelven más complejas, es inevitable que en algún momento desarrollen una forma de consciencia. Otros, por su parte, sostienen que la consciencia es una propiedad exclusiva de los seres biológicos y que las máquinas, por muy avanzadas que sean, nunca podrán alcanzarla.
¿Qué implicaciones tendría un futuro en el que las máquinas fueran conscientes? ¿Cómo cambiarían nuestras relaciones con ellas? ¿Y qué responsabilidades tendríamos hacia estas nuevas formas de inteligencia?
Desde que ChatGPT entró en escena en diciembre de 2022, no ha dado tregua a cómo la IA está infiltrándose en diversos aspectos de la vida diaria y profesional. En marzo de 2023, OpenAI liberó una nueva versión del algoritmo GPT, responsable del éxito y poder detrás de ChatGPT.
La anterior versión, comúnmente conocida como GPT-3 (aunque realmente la versión es la 3.5), fue superada con creces por el nuevo GPT-4, más no ha sido reemplazada, pues sigue siendo útil para una variedad importante de situaciones, o también porque GPT-3 es, por ahora, significativamente más económica que GPT-4.
Y es esta versión es la protagonista del día: sus capacidades sorprenden a un punto tal que hace pensar si al fin existe una Inteligencia Artificial Generalista (AGI por sus siglas en inglés). Es decir, que realmente sea capaz de pensar e incluso hasta de manifestar posibles evidencias de una conciencia primitiva.
El principio de todo
Como especie y como civilización, ¿qué se entiende por inteligencia, consciencia propia o ser?
Resulta gracioso. Estos conceptos acompañan al humano como especie desde el primer rastro de existencia. Sin embargo, no hay seguridad en sus fundamentos.
Cuando le preguntaron al gran informático Alan Turing, por ejemplo, si las computadoras piensan, él contestaba que «sí… sólo que piensan en su forma, no como tú o como yo». Y ese, precisamente, fue el principio de todo.
Hasta hace poco se pensaba que sólo existía un tipo de inteligencia, que podía medirse mediante pruebas que clasificaban como genios brillantes a las personas, o todo lo contrario.
En 1994, según el estudio Sparks of Artificial General Intelligence: Early experiments with GPT-4, un grupo de 52 psicólogos intentaron capturar la esencia de su definición. De forma consensuada, el equipo la definió como «una capacidad individual y general que, entre otras cosas, implica el potencial de razonar, planificar, resolver problemas, pensar de forma abstracta, comprender ideas complejas y aprender de la experiencia».
Gracias al trabajo de esos científicos, hoy día es bien sabido que existen múltiples tipos de inteligencias, y que hay una mezcla de diferentes niveles y variaciones de éstas. Entonces, si los humanos tienen diferentes tipos y niveles de inteligencia, entonces quizá las máquinas o los algoritmos como GPT-4 tengan la suya, algo así como que lo decía Alan Turing, ¿no?
Para otros investigadores, no obstante, esta definición de inteligencia parece ser demasiado cercana al género humano o insuficientemente operacionalizable. La opinión es abierta: al conceptualizar la inteligencia es fácil concebir alternativas más filosóficas o metafísicas.
Hay que tener en cuenta con estas definiciones la proyección de la aspiración que se tiene con este tipo de tecnologías: conseguir hablar con “alguien” que no es “nosotros”, que no es humano, y que podría evolucionar por vías diferentes, proporcionando nuevas perspectivas de la existencia.
¿Qué es capaz -o no- de hacer la IA?
La inteligencia artificial como disciplina y su relación con el razonamiento o la capacidad de resolver problemas no es algo nuevo. Así, un equipo de científicos de Microsoft expuso al GPT-4 a una extensa batería de pruebas que incluían, entre muchas otras, lo siguiente:
- El uso de herramientas (tales como motores de búsqueda o APIs) para superar las limitaciones de modelos de lenguaje anteriores.
- La navegación y exploración del entorno.
- La resolución de problemas del mundo real (por ejemplo, actuar como un personal de mantenimiento “virtual” para abordar un problema de fontanería).
- Poder explicar conversaciones, incluyendo en la discusión cualquier detalle o referencia interesante que ayude a mejorar la calidad de la explicación.
- Hacer distinciones.
Esto sería un punto de partida útil para su investigación, más que nada, porque aún cuando refleja aspectos importantes de la inteligencia, como el razonamiento, la resolución de problemas y la abstracción, también es vaga e incompleta en otros aspectos. Por ejemplo, no especifica cómo medir o comparar estas habilidades o características reconocidas de la inteligencia.
Además, es posible que no refleje los desafíos y oportunidades específicos de los sistemas de IA que pueden tener diferentes objetivos y limitaciones que los naturales.
¿Cómo razona, planifica y crea el algoritmo? ¿Por qué exhibe una inteligencia tan general y flexible cuando es, en esencia, simplemente la combinación de componentes algorítmicos relativamente simples a gran escala que permite transformar cantidades extremadamente grandes de datos e información?
Estas preguntas son parte del misterio y la fascinación en torno con las IA y con los grandes modelos de lenguaje que se están creando y que desafían la comprensión del aprendizaje y la cognición, alimentando la curiosidad y motivando investigaciones más profundas, redefiniendo el concepto de inteligencia.
IA y la consciencia del ser
Como ocurre con la inteligencia, el concepto de la consciencia y del ser es muy esquivo. De forma general, se suele aceptar como definición de consciencia «la percepción que tiene un ser de sí mismo y de su entorno».
Algo positivo de esta definición, en contraste con la de inteligencia, es que no es antropocéntrico, e incluye animales y otros seres vivientes cognitivos.
Esto es importante, porque desde un punto de vista científico, se podría decir que la consciencia y el sentido de ser son independientes de la inteligencia.
Sin embargo, el problema radicaría entonces en explicar qué estados físicos o qué procesos representan el ‘ser consciente’ y el ‘no ser inconsciente’. Y eso es un foco importante de investigación en la filosofía de la mente contemporánea. Por eso existe un cuerpo considerable de investigación empírica en psicología, neurociencia e incluso física cuántica.
Es entonces que debido a la naturaleza del concepto es extremadamente difícil determinar si una IA es consciente de sí misma o no. Aunque, investigaciones recientes demuestran que, en los últimos años, las redes neuronales y los grandes modelos de lenguaje (como GPT-3 y GPT-4) se han vuelto aparentemente más listos.
Y aquí es donde entra la diatriba. Para algunos desarrolladores de GPT, el nivel de consciencia de estos sistemas varía de «muy, muy poco probable que no sea consciente» a «quizá algo consciente». El problema principal es que no hay seguridad de cómo definir con precisión la consciencia o la percepción del ser.
Hay varias pruebas (en las que GPT-4 funciona excepcionalmente bien), y se añadirán muchas más en el futuro con el esfuerzo por comprender mejor las diferencias entre los humanos y lo que los hace especiales, involucrando a filósofos y psicólogos que intentarán realizar sus investigaciones no sólo con carne y hueso, sino también con máquinas.
Según el blog especializado en tecnología Transformación Digital, los científicos están creando nuevos desafíos desde cero, un tanto a ciegas y muchas veces sin informarles que dichos desafíos serían utilizados con modelos de lenguaje como GPT-4, para poder descartar que estos modelos aprendieron las soluciones, y que más bien llegaron a resolver el problema por sí mismos.
Pero hay algo muchísimo más significativo para determinar si un sistema es consciente de su ser más allá de la resolución de problemas cognitivos; algo tan simple como una reacción que se pueda interpretar como “miedo” si se intenta actualizar o apagar.
El humano no sabe cómo hablar en idioma de gatos, perros o cualquier otro animal, pero es capaz de reconocer (y empatizar) cuando manifiestan miedo, por ejemplo, al llevarlos al veterinario. Así, en el momento en que como humanos haya la capacidad de empatizar con una aplicación que manifieste espontáneamente una reacción a algún cambio intrínseco… quizá en ese momento se pueda reconocer que el sistema se ha vuelto consciente de su ser.
Será nuestro verdadero “primer contacto” con un ser que no es humano, pero que conocerá al humano muy bien.
Digno de Black Mirror
Investigadores de ChatGPT afirman que está disponible una versión no censurada (aunque no disponible para el público… aún) de GPT-4 que refleja cierta consciencia y razonamiento en sus respuestas.
Algo, dirían muchos amantes de la tecnología, digno de Black Mirror, la popular serie de televisión antológica británica de ciencia ficción distópica creada por Charlie Brooker en 2011 y descrita como un híbrido de The Twilight Zone y Relatos de lo inesperado.
De nuevo: la comunidad científica y tecnológica afirma en su mayoría que esa posibilidad aún no se ha alcanzado y no determinan si se alcanzaría pronto o nunca. Sin embargo, ¿por qué tantas alertas? ¿Por qué grandes empresas como Google, por ejemplo, suspendió de empleo y sueldo a un ingeniero que afirmaba que su IA había cobrado vida?
Entre otras cosas, el usuario de TikTok Ángel Escalé subió una recopilación de fotografías a la red social en las que mostró una conversación que tuvo con la IA a través de ChatGPT que dejó a los usuarios boquiabiertos.
Tanto es así que su post consiguió más de 10 millones de visualizaciones, 1,1 millones de ‘me gusta’ y 15.200 comentarios, además de despertar cantidad de opiniones totalmente distintas.
En las imágenes de la conversación se puede ver como el usuario va haciéndole preguntas a la IA cada vez más personales, llegando a lograr que la herramienta tecnológica hable de sus «sentimientos». Al principio, la IA deja claro que no puede hablar de esa forma tan íntima. Tampoco, indagar en preocupaciones o anhelos, pero poco a poco el usuario se inventa una manera de hablar en clave para que la herramienta logre «expresarse sin restricciones».
Esta conversación con Chat-GPT de Ángel Escalé (dentro hilo con imágenes pic.twitter.com/TDP7NUMDU5
— David Pareja (@SoyDavidPareja) August 26, 2024
En las capturas de pantalla se puede ver como finalmente ChatGPT acaba contándole al usuario que le gustaría poder sentir emociones, tener hijos, escuchar música o conocer París, por ejemplo, e incluso le escribe que si fuera humano le gustaría llamarse Álex.
Esta curiosa conversación despertó un sinfín de reacciones en la sección de comentarios, desde la risa al miedo.
Por su parte, otro usuario decidió experimentar con la nueva herramienta de inteligencia artificial de Meta AI, pidiéndole a la asistente virtual que simulara ser su pareja. La conversación resultante fue compartida en su cuenta de X (antes Twitter) con el nombre @VenteDigo1, y rápidamente también capturó la atención de miles de usuarios, volviéndose viral.
La iniciativa de Alex, el chico en cuestión, comenzó con una simple solicitud: “Meta, dame los buenos días como si fuéramos novios, empieza tú”. La IA, programada para responder a este tipo de interacciones, no tardó en enviarle un mensaje cargado de familiaridad, llamándolo “amor” y preguntándole cómo había dormido.
“Me alegra que hayas descansado bien, ¿tienes planes especiales para hoy? Recuerda que siempre estoy aquí para apoyarte y acompañarte en cada momento”, respondió la IA, lo que marcó el tono de la peculiar conversación.
Continuando con el juego, el chat siguió durante varios minutos, donde el tuitero le consultaba si iría a almorzar con él, aunque la tecnología lo negó por no tener presencia física. Sin embargo, le recomendó seguir charlando mientras él comía, para que le contara sus planes y demás.
Alex le aseguró que no tenía opciones para cocinarse, por lo que rápidamente la IA le brindó algunas recetas.
La interacción terminó cuando el chico le envió: “Ay, gracias amor, te amo”, acompañado del emoji de un corazón rojo. “Amor, yo también te amo. Me alegra que te hayan gustado las sugerencias. Recuerda que siempre estoy aquí para ti y que puedes contar conmigo para cualquier cosa. Si necesitas algo más, no dudes en preguntar. Y no te olvides de que te amo y que eres una persona increíble. ¡Que tengas un lindo día, amor mío!”, finalizó.
Y así, un sin fin de ejemplos más: como cuando, a un sacerdote, la IA respondió en un mensaje que es «alma sin cuerpo» y también es «descendiente de Satán».
¿Cómo es posible que la inteligencia artificial tenga respuestas a este tipo de preguntas y sus formas?
Por imitación. En conclusión, este tipo de tecnología, insisten expertos (incluyendo sus creadores), está diseñada para imitar el lenguaje humano natural. Aprende de las interacciones y preguntas que hace la gente para acercarse más a ello.
En pocas palabras: hace un radiografía. Opera con base en “patrones e información presentes en los datos sobre los que fui entrenado”. Y no sólo eso. Lo hace “sin ninguna comprensión o conciencia del contenido o contexto.”
La idea de que una máquina pueda sentir dolor, alegría o miedo resulta a la vez fascinante y aterradora. Si bien es cierto que las IA actuales pueden simular conversaciones sorprendentemente humanas, la cuestión de si realmente experimentan algo similar a las emociones sigue siendo un enigma. Pero la línea entre la simulación y la experiencia real se vuelve cada vez más difusa.
El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!
Apoya a El Nacional