Apóyanos

116,78
133,13
83,42
94,77

Abril 24, 2025


La ambigüedad y el uso efectivo de las inteligencias artificiales

    • X
    • Facebook
    • Whatsapp
    • Telegram
    • Linkedin
    • Email
  • X
  • Facebook
  • Whatsapp
  • Telegram
  • Linkedin
  • Email

Las inteligencias artificiales (I.A.) han venido para quedarse; nadie lo duda. Por ello, nosotros como usuarios, no podemos darnos el lujo de vivir en una fantasía en donde las I.A. son como la famosa lámpara de Aladino: algo que todo lo puede y todo lo cumple. Si vamos a aspirar a incorporar las I.A. generativas en nuestros proyectos e iniciativas empresariales, debemos entender que estas afrontan, parecido a nosotros, un reto esencial: la gestión de la ambigüedad. En aras de dar solución a este problema, definiremos qué es la ambigüedad y, con base en esa comprensión, formularemos la estrategia para su mitigación.

Partiendo de la Real Academia Española, tenemos que la ambigüedad es sinónima con la indeterminación. Desde la psicología, podríamos llamar esto incertidumbre. Desde la filosofía, contingencia. Desde la física, entropía. El punto es que la ambigüedad emerge del hecho de que nosotros y todo lo que nos rodea está en un estado de transitoriedad perenne. Siempre estamos dirigiéndonos hacia algún horizonte y las cosas pueden que pasen o no. Esta realidad es una con la que nosotros hemos lidiado desde nuestros inicios. Lo hemos hecho vía la gestión, tanto intuitiva como racional, que ha dado pie a nuestra capacidad de valorar. Valorar es reconocer o estimar la relevancia o pertinencia de algo. Es el arte, por excelencia, de excluir, diferenciar y calificar conforme a un punto de vista en un contexto.

La cuestión con las I.A., al menos en su estado actual, es que no son muy buenas valorando. Con base en el modelo de lenguaje y la ingesta de una cantidad cuantiosa de datos del internet, estas son excelentes en un análisis probabilístico que se traduce en poder darnos lotes de información comprensible y relativamente aplicable a la realidad. Pero, por sus límites en lo que a valorar respecta, la I.A. puede «alucinar» en cuanto al contenido ofrecido o, lo que es decir, agregar información o premisas falsas. Esto a su vez se debe, al igual que ocurre con nosotros, a que la ambigüedad obliga a la I.A., incluso si es a través de la mentira, a sustituir lo ambiguo con lo preciso para así poder dar una respuesta.

Esto es riesgoso para nuestras iniciativas porque puede derivar en lo inverso de lo que queremos obtener con el uso de las I.A.: verdades ocultas en grandes cantidades de datos, automatización en la generación de valor en nuestros estados de proceso, optimizar tiempos de entrega de productos de calidad, etcétera. Por tal razón, como usuarios, estamos llamados a mitigar en su máxima expresión la ambigüedad que puede afectar el desempeño de tales inteligencias. Si queremos mejorar la calidad de las respuestas, tenemos que, inexorablemente, mejorar la calidad del insumo o input que le damos. Esta calidad del insumo podemos entenderla en dos niveles: A. la calidad de la data, en el contexto de la ingesta de datos, para el aprendizaje de una I.A. con base en su modelo de lenguaje. Siendo este el ámbito de los ingenieros del aprendizaje de máquina. B. la calidad de las instrucciones o comandos dados a una I.A. ya entrenada o preentrenada por un proveedor. Siendo este el ámbito de la ingeniería de comandos.

En el contexto de este artículo lo que queremos es optimizar la calidad de las respuestas de la I.A. relativa a la calidad de las instrucciones o comandos que le podríamos dar a modelos pre-entrenados generalistas, como ChatGPT, Copilot, Gemini, Claude, entre otros. La estrategia a asumir es la de lograr la máxima precisión en nuestros comandos a través de estas tácticas de aplicación conjunta al momento de interactuar con una inteligencia:

  1. Delimitar el objetivo de la interacción: como usuarios debemos acostumbrarnos a que cualquier chat con la I.A. debe tener un objetivo singular en vez de múltiples. Por ejemplo: el chat para apoyar en plantear un modelo de negocio, no debe ser el mismo en donde se hable de la gestión operativa. Recordemos que la ventana de contexto (la cantidad de información que puede «recordar» la I.A.) no es infinita. Mantengámonos enfocados en lo que importa de cara al objetivo seleccionado. No olvidemos que la I.A. no es buena valorando, por lo que la pertinencia, el para qué de las cosas, queda de nuestro lado.

  2. Segregar la responsabilidad o rol de la I.A. en el contexto del chat: tal como no queremos lograr de todo en una misma interacción, tampoco necesitamos que la I.A. asuma habilidades de mil profesiones distintas. Por ejemplo, si el objetivo del chat es generar el «copy» de piezas promocionales para redes sociales, se le puede delimitar su perspectiva a la de un Social Media Manager. Es preferible, de cara al fin común, que colaboremos con la I.A. como si fuera un colega en el rubro del cual somos expertos o conocedores, por cuanto esto nos permite delimitar las competencias del rol y compartir una perspectiva común sobre la clase de razonamiento que se esperará de la inteligencia.

  3. Contextualizar a la I.A. sobre nuestras realidades específicas: solemos sobreestimar el manejo del contexto de la I.A. Damos por sentado que ella está clara sobre qué queremos y por qué lo queremos. Debemos darle contexto y referencias precisas a la inteligencia para que sus respuestas pasen de ser genéricas a ser especializadas y pertinentes a la iniciativa que tengamos. Tengamos cuidado sobre las políticas asociadas al uso de los datos suministrados vía el chat del proveedor. Incluso si el riesgo es bajo, la difusión de secretos industriales siempre es posible.

  4. Calibrar las respuestas de la I.A. conforme a nuestra necesidad: esto también se le conoce como configuración de formato en las respuestas de las inteligencias. Estas pueden ser de fondo, como por ejemplo pedir que siempre nos explique el razonamiento detrás de sus propuestas, y de forma, que la respuesta obedezca a una estructura específica con base en unos recursos específicos, por ejemplo un formato de documento particular o, inclusive, el uso de un lenguaje de programación específico. Una buena pregunta preliminar para el manejo de formato es preguntarle a la I.A. sobre sus límites en cuanto a qué variantes de contenido puede manejar y/o generar.

  5. Plantear restricciones o comandos negativos: acá es donde nuestra capacidad de valorar es esencial, pues esta clase de comando garantiza que la I.A. siga el enfoque que nosotros tengamos de cara a nuestro objetivo. Esto ayuda a la inteligencia a discernir entre lo relevante y lo irrelevante, entre lo que importa y lo que no.

Si vemos con detenimiento la estrategia y las tácticas asociadas para interactuar con las I.A., estas no tienen nada de diferente con respecto a la información que quisiéramos tener para poder ejercer un rol gerencial de forma efectiva. Necesitamos objetivos, delimitación de responsabilidades, contextualización, el estándar que rige sobre los resultados y la exclusión de las iniciativas que sean irrelevantes. En tal sentido, tal como no consideraríamos justo que se nos exigiera resultados óptimos cuando estamos sujetos a condiciones de total ambigüedad, debemos replicar lo propio de cara a las I.A. Si nos hacemos la idea de que estas son herramientas que fungen de «compañeros de trabajo», entonces lo lógico es darles todo lo que necesitan para ejecutar su labor para nuestra entera satisfacción.

 

Noticias Relacionadas

El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!

Apoya a El Nacional