En oportunidades anteriores he mencionado a la Inteligencia Artificial («AI» por sus siglas en inglés).
Interesante, curioso, ¡vamos a probarlo!, ¿no? ¡Ja! ¡Pues, abróchense los cinturones y prepárense para el impacto!
El tema subyacente es mucho más amplio de lo que imaginamos. Empecemos por decir que la AI es un paso intermedio. El punto de origen podría ubicarse en la era de la programación simbólica o la era de la inteligencia artificial temprana. Muy diferente a la «AI» o Artificial Intelligence. .El punto de llegada pudiera ser la «AGI» o Artificial General Intelligence y, en español: Inteligencia Artificial General.
AI es un concepto que se relaciona con capacidades o habilidades. Se refiere a la capacidad que se le provee a una máquina para realizar tareas que usualmente requieren de inteligencia humana para ejecutarlas pero que también pueden ser ejecutadas por máquinas provistas de AI que procesan datos, identifican patrones, que son capaces de aprender por acierto y error («aprendizaje por refuerzo») o identificar elementos para tomar decisiones.
ChatGPT, por ejemplo, es una máquina, específica e individualizada, provista de AI, operada por una entidad denominada OpenAI, con capacidad de realizar una tarea específica usando AI y que es una herramienta conocida como «modelo de lenguaje» porque procesa información y la presenta al usuario en modo de lenguaje.
La AI tiene varios niveles o categorías que son: AI Limitada, AI General y Superinteligencia Artificial. Creo que las claves para distinguirlas son los objetivos, las capacidades y los niveles de autonomía.
La AI Limitada es la capacidad para realizar las funciones específicas y limitadas para las cuales fue creada. Es incapaz de generalizar, de aprender por sí misma de forma diferente a la que fue programada o de usar la data que maneja para objetivos diferentes a los objetivos para los cuales fue creada. No tiene ningún tipo de autonomía.
Sin pretender pecar de reduccionista, la aplicación Google Translator, la aplicación ChatGPT, lo que hoy se conoce como aplicación de «conducción autónoma de vehículos» y las aplicaciones de control de tráfico aéreo –teniendo capacidades y objetivos distintos, por supuesto- pertenecen a la categoría de AI Limitada. No presentan riesgos ulteriores ni peligros para la humanidad diferentes a las consecuencias adversas que puedan resultar de errores en su programación, en la data que procesen o por fallas de las máquinas.
En esta categoría de AI Limitada hay unas máquinas que me producen cierta alarma por su nivel de autonomía. Se trata de los Sistemas de Armas Autónomas Letales («LAWS» por las siglas en inglés de Lethal Autonomous Weapons System). La primera arma de combate autónoma fue utilizada en Libia (o en Siria, no estoy seguro) en el año 2020. Pareciera que el adjetivo «autónoma» pudiera tener varias acepciones (como ocurre –pero por otras consideraciones- con las aplicaciones de conducción «autónoma» de vehículos). En las armas que mencioné pareciera que significa -en términos laxos nuestros- : “impredecible”. El objetivo de estas armas es identificar, atacar y asesinar a un… digamos: «blanco». Está dotada de una AI Limitada pero un poco más sofisticada ya que su programación le permite «adelantarse» a las eventuales maniobras evasivas de su blanco para tratar de impedir que cumpla su objetivo. Y he aquí dos elementos muy significativos que serán considerados posteriormente: la autonomía y el objetivo.
La AI General es otro nivel. Aquí el asunto se complica.
Espero que no se haya alcanzado este nivel y que no haya quienes pretendan decidir alcanzarlo sin tomar en cuenta al resto de la humanidad. Es una esperanza ingenua después de que un grupo de científicos hicieron el experimento OPERA de aceleración de neutrinos a velocidad superior a la de la luz desde el Acelerador Europeo de Partículas en Ginebra, Suiza hasta el Laboratori Nazionali del Gran Sasso en Italia en 2011 sin consultarnos. ¿Por qué consultarnos? Porque acelerar una partícula a una velocidad superior a la velocidad de la luz generaría, por lo menos –según Albert Einstein-, una paradoja temporal si no eventos impredecibles. Afortunadamente, no lo lograron.
La AI General consiste en la capacidad de una máquina para realizar múltiples tareas, igualar y superar las capacidades cognitivas del ser humano, pensar, reflexionar, generalizar, aprender por sí misma, concluir, decidir, adaptarse a nuevas situaciones, evolucionar, modificar sus objetivos y asumir la ejecución de nuevas tareas. La AI General sería autónoma e independiente de los seres humanos.
La AI General ha sido objeto de debates y de discusiones por una multitud de expertos en nuevas ciencias y en nuevas ramas de ciencias ya conocidas. Los debates no son poca cosa y las perspectivas participantes provienen desde nuevas ciencias o técnicas relacionadas con AI (Ciencia de Datos, Aprendizaje Automático, Procesamiento de Lenguaje, Visión Digital, Robótica, Redes Neuronales, Ética de la Inteligencia) y de ramas de ciencias existentes (Matemáticas, Estadística, Informática, Lingüística, Psicología, Filosofía, Ética -si la extraemos de la Filosofía-, Física, Ingeniería Eléctrica, Ingeniería Mecánica, Ingeniería de Sistemas, Neurociencia, Derecho, e incluyendo la rama del conocimiento militar como área de estudio y de práctica profesional ya que no es una ciencia).
Estos debates son consecuencias de temores o de predicciones sobre la posibilidad de que la AI General pueda tener consecuencias sociales, políticas, económicas y culturales adversas para la humanidad.
Los temores incluyen la posibilidad de que evolucione de manera incontrolada o de que no se adapte adecuadamente a los nuevos entornos que enfrente o que asuma objetivos indeseables, que presente comportamientos no previstos, que se equivoque en las tomas de decisiones, de que genere cambios radicales en los modos de vida de los seres humanos, que produzca el desplazamiento laboral, produzca la invasión y pérdida de la privacidad, de que exacerbe el nivel de control sobre los seres humanos, de que se presenten diferencias o rumbos divergentes entre los objetivos y valores humanos y los objetivos y valores de la AI General, de que se conduzca o tome decisiones con ausencia de empatía o con ausencia de otras virtudes humanas, de que produzca situaciones adversas por la ausencia de emociones, de que se presenten situaciones de inseguridad de la AI General como la intervención maliciosa o el uso por personas perversas o para fines malignos, de que no considere los aspectos éticos de la humanidad y seguramente muchísimas más.
Un aspecto que se relaciona con la AI General es la posibilidad de que pueda conducir a la «Singularidad Tecnológica» que consiste en un punto teórico e hipotético en el futuro en el que el desarrollo de la AI y el desarrollo de la tecnología estarían a un nivel tan elevado que produciría cambios radicales e impredecibles en la humanidad. Si bien alcanzar el nivel de AI General no implica necesariamente que la humanidad llegue a la Singularidad Tecnológica, es solo una cuestión de términos y de rigurosidad lógica. Esto es así porque el desarrollo de la tecnología puede crear factores aún desconocidos que superen a la AI General dado que la AI General es tecnología.
El tercer nivel es la Superinteligencia Artificial («ASI» por las siglas en inglés de Artificial Superintelligence). Este es un concepto teórico y consiste en la capacidad de superar y exceder las capacidades cognitivas del ser humano a niveles a los cuales los seres humanos no puedan alcanzar. Por supuesto que los temores de alcanzar este nivel son todos los anteriores pero elevados a la potencia de n más todos los que, teóricamente por efecto de la definición, no lograríamos aprehender ni llegar a entender ni conocer. Estas máquinas serían, por supuesto, autónomas.
Hubo un científico que propuso que la Singularidad Tecnológica ocurrirá en el año 2040, pero hay que tomárselo con tranquilidad porque otros científicos y expertos no están de acuerdo con el primero.
Dios guarde a V. E. muchos años y que las cosas en el 2040 no lleguen a mayores,
@Nash_Axelrod.