Alrededor de mil expertos acaban de firmar una carta publicada por el Future of Life Institute con el objetivo de llamar la atención sobre el inmenso riesgo que suponen los últimos descubrimientos y creaciones en el ámbito de la denominada Inteligencia Artificial General Ampliada (AIG por sus iniciales en inglés).
Dicho en pocas palabras, en ella muestran sus posibles riesgos y la apremiante necesidad de establecer ciertos criterios que la encaminen y regulen, argumentando que compite con la inteligencia humana y constituye una “potencial amenaza para la humanidad”. Se trata, añaden, de una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas, dejando ver en un horizonte no tan lejano transformaciones que modelen la vida humana en todos los espacios sociales, estableciendo parámetros muy distintos a los vigentes en el siglo XX y una velocidad que rebasa la capacidad de responder oportunamente a sus consecuencias.
Afirma el filósofo Yuval Harari, uno de los que respalda el documento, que a medida que la inteligencia artificial domine el lenguaje natural, crece el peligro, porque eso significa que se puede «piratear y manipular el sistema operativo de la civilización», además de que, a través de la generación de imágenes se hace menos distinguible la línea que separa la realidad de la manipulación.
Se pide una “taima”
El texto al que me refiero se pregunta si “…debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo, arriesgándonos a perder el control de nuestra civilización”. Y llama, por tanto, a encarar urgentemente la cuestión, solicitando a todos los laboratorios que suspendan de inmediato, durante al menos seis meses, “el entrenamiento de sistemas de IA más potentes que GPT-4”, subrayando que el cumplimiento de la medida pueda ser verificado por parte de los gobiernos. Se solicita, así pues, una “taima”, como se decía antes para pedir tiempo por algún motivo, y suspender la acción en un evento, por ejemplo, un partido de fútbol o de beisbol.
Con esta propuesta se espera que los laboratorios trabajen durante ese lapso en el diseño de protocolos de seguridad que puedan ser auditados por expertos independientes. Se trata, en fin, de que se pueda llegar a precisar reglas a nivel universal que fijen la dirección y la utilización de la AIG, a partir de los valores humanos.
La interrupción de las actividades durante un semestre ha generado dudas. El mismo Elon Musk, cuyo apoyo a la carta ha generado cierto asombro, ha expresado que “…solo serviría que algunas empresas, estatales o privadas realicen avances en la oscuridad a la vez que restringiría la posibilidad de hacerlo a todos los demás”. Propone, en su lugar, “la creación de laboratorios de IA de código abierto con recursos informáticos financiados con fondos públicos, que actúen de acuerdo con las normativas dictadas por las instituciones democráticas”. Entiende uno, entonces, que las grandes empresas se opondrían a cualquier intento de crear protocolos de seguridad oficiales y no es pecar de suspicaz creer que en varias partes del mundo aprovechen la ocasión para sacar ventajas económicas.
Principios éticos
Por otra parte, cabe señalar que en parecida dirección a la sugerida en la declaración divulgada hay iniciativas importantes, entre las que cabe citar, a título de ejemplo, las que se llevan a cabo en la Unión Europea, y la reciente decisión del presidente Biden de establecer políticas y normas públicas que fijen el desenvolvimiento de la AIGA. Igualmente, tras la opinión de los mil expertos, la Unesco ha solicitado a los países que apliquen sin demora su Recomendación sobre la Ética de la Inteligencia Artificial, adoptada por unanimidad por los 193 Estados miembros de la Organización, y que proporciona las garantías necesarias para reconocer el control humano sobre ella, como un nuevo derecho.
Has subido el tono de las alarmas, sobre todo a partir de la aparición del ChatGPT-4, y lo que ha significado en el avance del lenguaje natural automatizado. Se sostiene, entonces, adoptar de manera apremiante con principios éticos que orienten el diseño, la fabricación, la prueba y el uso de robots y de la inteligencia artificial, haciéndolos compatibles con el respeto a la dignidad y valores humanos en todas sus dimensiones. Todavía estamos a tiempo, me dice un amigo que sabe mucho de estas cuestiones.