Apóyanos

¿Es inteligente la Inteligencia Artificial?

    • X
    • Facebook
    • Whatsapp
    • Telegram
    • Linkedin
    • Email
  • X
  • Facebook
  • Whatsapp
  • Telegram
  • Linkedin
  • Email

Hasta hace algunas semanas, la respuesta a esa pregunta era un rotundo no. Sin embargo, el impresionante avance del GPT y otros modelos lingüísticos similares ha comenzado a sembrar dudas.

El GPT se considera, junto con otros métodos como el aprendizaje automático (machine learning), las redes neuronales y el aprendizaje profundo (deep learning), parte de lo que se conoce como Inteligencia Artificial estrecha o angosta (narrow AI). Esta se enfoca en resolver problemas específicos y se basa en un extenso «entrenamiento» con gran cantidad de datos.

Ejemplos de IA estrecha en la práctica incluyen predecir si un experto aprobaría una solicitud de préstamo bancario, determinar si un radiólogo podría identificar un tumor cancerígeno en una placa de Rayos X o vencer a un oponente humano en ajedrez o Go. Los sistemas de este tipo, entrenados para un problema específico, resultan inútiles a la hora de enfrentar un problema distinto.

La Inteligencia Artificial General (AGI)

En el extremo opuesto del espectro se encuentra la Inteligencia Artificial General (AGI por sus siglas en inglés). A diferencia del Machine Learning, la AGI tiene como objetivo resolver problemas o situaciones más amplias, más allá de su entrenamiento específico, de manera similar a como lo hacen los seres humanos con relativa facilidad. Hasta el momento, la AGI ha sido principalmente un concepto teórico y a menudo se asocia con la ciencia ficción y Hollywood, donde las computadoras adquieren una inteligencia y poder tal que suprimen a los humanos.

Hasta hace poco, los científicos especulaban que alcanzar la AGI tomaría al menos una década. Sin embargo, con la aparición de GPT-4, que ahora está disponible para el público en general, un grupo de investigadores sugiere haber detectado señales o «chispas» de AGI.

Las primeras señales de Inteligencia Artificial General

Sébastien Bubeck, investigador de Microsoft, junto con su equipo encargado de integrar GPT-4 en el motor de búsqueda Bing, quedaron asombrados por los resultados obtenidos en comparación con modelos anteriores. Al igual que GPT-3, GPT-4 había sido entrenado con una gran cantidad de texto y código, pero en una escala sin precedentes. Esto le permitía predecir palabras basándose en patrones estadísticos que aparentemente iban más allá de lo esperado. En su publicación académica titulada «Chispas de inteligencia artificial general: primeros experimentos con GPT-4», concluyeron que «GPT-4 podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)».

Los autores presentaron una variedad de ejemplos, incluyendo el pedido de «dibujar un unicornio», en los que el sistema arrojó resultados que parecían reflejar una inteligencia más general, superando significativamente a los sistemas anteriores. Estos resultados no se limitaban a una tarea específica, sino que abarcaban todo tipo de problemas, lo cual es una cualidad necesaria para la inteligencia general. Los autores sugieren que GPT-4 demuestra cierta capacidad para razonar, aprender de la experiencia y transferir conceptos de una modalidad a otra (por ejemplo, de texto a imagen, como en el caso del unicornio), todos ellos elementos de “inteligencia”. Sin embargo, señalaron que GPT-4 carece de otros elementos, como memoria funcional y la capacidad de planificar con anticipación.

Sorpresa y escepticismo

La respuesta de la comunidad de IA no se hizo esperar. La investigación fue criticada por la comunidad como una estrategia de relaciones públicas de Microsoft y una maniobra para generar expectativas sobre el GPT-4. Grupos de investigadores señalaron problemas en la metodología científica y en la reproducibilidad de los resultados. También destacaron serias fallas en los resultados de estos experimentos, que indican que GPT-4 no comprende cómo funciona el mundo físico, entre otros aspectos.

Un equipo compuesto por científicos cognitivos, lingüistas, neurocientíficos e informáticos de varias universidades norteamericanas publicó un estudio en enero que explora las diferencias entre las habilidades de los modelos de lenguaje de gran tamaño y las habilidades humanas. Concluyeron que si bien estos modelos demuestran una impresionante habilidad lingüística, incluida la capacidad de generar de manera coherente ensayos complejos sobre temas específicos, eso no equivale a comprender el lenguaje y cómo utilizarlo en el mundo real. Esta desconexión explica por qué GPT comete errores extraños cuando se trata de comprender las relaciones sociales, el funcionamiento del mundo físico y el pensamiento humano.

La forma en que estos modelos utilizan el lenguaje, al predecir las palabras más probables después de una secuencia, difiere significativamente de cómo los humanos hablan o escriben para transmitir conceptos o intenciones. El enfoque estadístico puede llevar, por ejemplo, a que los chatbots sigan y reflejen las indicaciones de los usuarios hasta un punto absurdo. Estos modelos carecen de una comprensión constante de sí mismos y pueden cambiar sus creencias o experiencias en un instante. Además, carecen del tipo de motivación que es crucial para la mente humana. Los humanos no siguen una programación fija, sino que inventan nuevos objetivos basados en sus deseos y necesidades.

Sin duda, GPT-4 y ChatGPT han representado un salto significativo en comparación con GPT-3. El entrenamiento de GPT-4 incluyó una gran cantidad de código de programación, lo que podría haberle permitido aprender patrones de programación útiles para resolver problemas. Por otro lado, ChatGPT, debido a su naturaleza interactiva, ha recibido abundante retroalimentación humana, lo cual sin duda ha contribuido a mejorar sus respuestas. GPT-4, que ya está incorporado en ChatGPT, también incorpora algoritmos avanzados que le permiten comprender mejor el contexto, los matices y la semántica en la comunicación humana.

En última instancia, si GPT-4 representa un avance importante en el camino hacia la AGI depende de la perspectiva de cada individuo y de la definición que se maneje de AGI. Algunos expertos indican que no se puede categorizar como IA estrecha ni IA general, sino en una categoría propia entre las dos.

¿Se avecina el GPT-5?

Algunas fuentes afirman que el GPT-5 está en desarrollo y podría ser lanzado en 2024. Hasta el momento, OpenAI ha negado esta información. Se puede suponer que el GPT-5 se encuentra en la fase de recopilación de datos o en la planificación de su arquitectura. Los expertos sugieren que podría traer mejoras sorprendentes, como el manejo de imágenes, audio, video y aproximadamente 100 veces más parámetros que el GPT-4.

Si el GPT-4 parecía ser un paso importante hacia la AGI, el GPT-5 será un hito aún más significativo, lo que generará preocupación en algunos y estimulará la imaginación en cuanto a las capacidades que podría tener para resolver problemas.

El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!

Apoya a El Nacional