Apóyanos

Entrevista a Nick Bostrom

“Mientras más poderosas sean nuestras tecnologías, mayor será la cantidad de daño que podemos hacer si las usamos de manera hostil o las usamos imprudentemente”

    • X
    • Facebook
    • Whatsapp
    • Telegram
    • Linkedin
    • Email
  • X
  • Facebook
  • Whatsapp
  • Telegram
  • Linkedin
  • Email

Hablar de transhumanismo es considerar la posibilidad de mejorar la condición humana física, emocional y cognitivamente, utilizando el progreso de la ciencia y la tecnología. Para ello se han inventado técnicas, que incluyen entre otras el cultivo de tus propias células para crear órganos y tejidos vivos de reemplazo mediante la bioimpresión 3D. Secuenciar el ADN para conocer y tratar nuestra disposición genética a sufrir enfermedades concretas. El uso de integración de tecnología en tu cuerpo mediante interfaces (zonas de comunicación) hombre-máquina. La preservación de seres humanos, después de muertos a bajas temperaturas, a través de la criogenización para su posible reanimación en el futuro; o la nanotecnología que permitiría la fabricación de nano máquinas que una vez introducidas en nuestro organismo podrían reparar tejido dañado, desatascar arterias o atacar directamente células tumorales o agentes patógenos allá donde se encuentren. Su reducido tamaño les permitiría actuar a nivel celular y podrían llegar a auto-replicarse. La nanotecnología permitiría erradicar muchas enfermedades y ayudaría no solo a extender nuestra expectativa de vida sino también a mejorar su calidad.

Hablo de este movimiento intelectual, científico y cultural con el filósofo Nick Bostrom (Suecia, 1973), fundador junto a David Pearce de la Asociación Transhumanista Mundial y uno de los pensadores más influyentes en superinteligencia. Actualmente dirige el Instituto del Futuro de la Humanidad y el Programa de Gobernabilidad de la Inteligencia Artificial en la Universidad de Oxford. Es autor de más de 200 publicaciones, destacando entre ellas sus libros, en español: Mejoramiento humano (Teel Editorial) o Superinteligencia, caminos, peligros, estrategias (Teel Editorial), bestseller del New York Times y recomendado encarecidamente por Bill Gates y Elon Musk.

¿Qué le llevó a crear la Asociación Transhumanista Mundial?

Bueno, esto sucedió en los años 90. En aquel entonces, me parecía que no había un foro adecuado para discutir los impactos del nacimiento de futuras tecnologías y la manera en las que estas podrían afectar a la condición humana. En ese momento se enfatizaba, sobre todo, lo negativo. La mayoría de los temas relevantes no se discutían en absoluto, y las escasas discusiones sobre bioética académica se centraban siempre en inconvenientes como la posible deshumanización por la aplicación de la tecnología para mejorar las capacidades humanas. Por ello, creo que era necesario que hubiera otra voz. La Asociación Transhumanista Mundial fue un esfuerzo para tratar de crear una plataforma para cumplir ese cometido.

¿Y en la actualidad?

Ahora ya no participo en ella desde hace muchos años y la organización ha cambiado desde entonces. A principios de la década de 2000 estos problemas que fueron discutidos principalmente en listados de distribución de correo electrónico de la Asociación Mundial Transhumanista, encontraron eco y fueron desarrollados en el ámbito académico. Y por eso, la organización que cumplió su objetivo y sirvió para iniciar el debate dejó de ser una necesidad.

Se habla de que la Inteligencia Artificial está tratando de conseguir una inteligencia con consciencia, para aprender de la misma manera que los humanos. ¿Qué nos puede decir?

Creo que gran parte de la expectación en los últimos ocho años se debe a los avances en el aprendizaje profundo; este es un enfoque particular de la IA. Esta manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. La expectación se crea porque parece ser una forma más “general” de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos (big data), aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos. Este nuevo concepto apunta a la Inteligencia General Artificial (AGI).

¿Puede poner un ejemplo?

El mismo algoritmo que puede aprender a jugar un solo juego de Atari puede aprender a jugar una gran cantidad de otros juegos de Atari. Con pequeñas modificaciones, puede aprender a jugar al ajedrez, aprender a jugar a Go, aprender a reconocer a gatos en imágenes y aprender a reconocer el habla. A pesar de que hay límites a lo que se puede hacer hoy, hay indicios de que podríamos estar llegando al tipo de mecanismo que proporcione una flexibilidad similar a la de la inteligencia humana, una especie de capacidad general de aprendizaje.

Sin embargo, algunas voces son más escépticas.

Si observa los sistemas que realmente se utilizan en la industria, todavía son una especie de híbridos. En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y reconocimiento de voz, pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico siguiendo el estilo de la vieja escuela. Creo que esto contribuye a crear la confusión. Al final, obtenemos percepciones bastante diferentes sobre lo que es la inteligencia artificial dependiendo de a quién preguntemos.

En su opinión, ¿cuándo cree que la nanotecnología molecular será una realidad para acabar con la enfermedad y prolongar la vida?

Es una buena pregunta… Creo que la nanotecnología probablemente será viable tras el desarrollo de la superinteligencia artificial. Lo mismo ocurre con otras muchas tecnologías avanzadas, que se podrían desarrollar poniendo esa superinteligencia al servicio de la investigación y desarrollo. Pero se podría dar el escenario en que la nanotecnología molecular se desarrollase antes de que la inteligencia artificial despegase. En ese caso, las primeras aplicaciones presentan riesgos a los que tendríamos que sobrevivir, y si tenemos éxito, entonces tendríamos que sobrevivir a los riesgos ligados a la superinteligencia, una vez se desarrollase esta. Por lo tanto, en la medida en que pudiéramos tener una influencia sobre el orden de desarrollo de ambas tecnologías, el objetivo ideal sería obtener la superinteligencia antes que la nanotecnología molecular.

Otro modo de prolongar la vida sería la criogenización: más de 300 personas tienen su cuerpo crioconservado o sus cerebros neuropreservados en nitrógeno. Usted que ha contratado este servicio, ¿qué expectativas le han animado a ello?

Bueno, en realidad, en los contactos que he tenido con los medios, nunca lo he confirmado. Mi postura siempre ha sido que mis arreglos funerarios son un asunto privado. Sé que ha habido especulaciones por parte de algún periódico hace dos años… También es cierto que algunos de mis colegas son clientes criónicos, y lo han hecho público, como el Dr. Anders Sandberg, por ejemplo, que es uno de nuestros investigadores aquí.

Con una diversidad cultural y códigos morales diferentes como los que existen en el mundo, ¿cómo se puede llegar a un consenso global sobre los límites éticos en la investigación genética?

Por el momento, la humanidad no tiene realmente un solo plan coordinado para el futuro, hay muchos países y grupos diferentes, cada uno de ellos persiguiendo sus propias iniciativas. La mayor parte ha estado funcionando bastante bien hasta el momento, pero siempre hay preocupaciones. De hecho, actualmente estoy trabajando en un artículo sobre este tema; explora la posibilidad de que se identifique algún tipo de vulnerabilidad en el futuro, donde el mundo necesitará adoptar un enfoque coordinado para poder sobrevivir.

Por lo que dice, se hace imprescindible la previsión.

Si piensa, por ejemplo, en el desarrollo de las armas nucleares hace unos 70 años, resultaba difícil fabricar una bomba nuclear. Se necesita uranio altamente enriquecido o plutonio, que son muy difíciles de conseguir y se necesitarían centrales eléctricas de tamaño industrial para fabricarlas. Además de una gran cantidad de electricidad, tanta que puedes verla desde el espacio. Es un proceso difícil, no es algo que podrías hacer en tu garaje. Pero supongamos que no fuera así, supongamos que hubieran descubierto una forma realmente fácil de liberar la energía del átomo; eso podría haber supuesto el final de la civilización humana, ya que hubiera sido imposible de controlar.

Pensarlo inquieta.

Sí, y en el futuro, creo que existe cierta preocupación de que descubramos, por ejemplo, alguna forma realmente fácil de producir destrucción masiva. Sería con estos casos que tal vez la humanidad tendría que tratar de adoptar medidas para llegar a una posición en la que tengamos una mayor capacidad de coordinación global; en caso de que surja tal vulnerabilidad o surja una nueva carrera armamentista. Mientras más poderosas sean nuestras tecnologías, mayor será la cantidad de daño que podemos hacer si las usamos de manera hostil o las usamos imprudentemente. En este momento, creo que este es un gran punto débil para la humanidad y solo esperamos que las tecnologías que descubramos no se presten a aplicaciones fáciles y destructivas.

Estudios recientes realizados por un proyecto emblemático de la Unión Europea, que ha invertido 1.000 millones de euros, han demostrado que el grafeno, una sustancia compuesta por carbono puro, puede interactuar efectivamente con las neuronas. ¿Qué piensa de los avances en el desarrollo de interfaces cerebro-máquina que usan grafeno?

Creo que es algo emocionante desde el punto de vista de la medicina y para personas con diversas discapacidades. Para pacientes con daño en su médula espinal, tiene varias aplicaciones muy prometedoras como neuro-prótesis. Sin embargo, soy un poco escéptico sobre que mejore la funcionalidad de una persona humana sana, lo suficiente como para que valga la pena asumir los riesgos, los dolores y los problemas de una intervención quirúrgica.

¿Cree que no vale la pena en una persona sana?

Creo que es bastante difícil agregar funcionalidad adicional a una mente humana sana, que no pudieras obtener de manera similar, interactuando con una computadora fuera de tu cuerpo, simplemente escribiendo cosas en un teclado, o recibiendo entradas a través de tus globos oculares al mirar una pantalla. Ya tenemos canales de entrada y salida con un alto ancho de banda para el cerebro humano, por ejemplo, a través de los dedos o mediante el habla; así que no estoy seguro de que el rendimiento del cerebro humano esté realmente limitado principalmente por las restricciones de salida o de entrada. Creo que es mucho más relevante dar solución a cómo acceder, organizar y procesar la gran cantidad de información disponible con las limitaciones de nuestro cerebro humano. Creo que ese es el cuello de botella a resolver y donde se debería enfocar el desarrollo.

Comenta en su libro Superinteligencia que el proyecto de investigación de la Inteligencia Artificial comienza en Dartmouth College en 1956. Desde entonces ha habido periodos de entusiasmo y de retroceso. En la actualidad, parece ser que el máximo defensor en la creación de una IA post-humana es Ray Kurzweil, fundador de Singularity University y financiada por Google. ¿Cree que esta vez se alcanzará el objetivo?

No creo que esté de acuerdo con que Ray Kurzweil sea el líder en la investigación de la IA. Existe una gran comunidad de investigación que trabaja en el aprendizaje automático. En las dos grandes conferencias que se realizan una vez al año (ICML y NIPS) se puede constatar el gran número de investigadores involucrados en la actualidad. Creo que en la última conferencia NIPS había entre 5000 y 6000 investigadores, está creciendo año tras año, tal vez un 40%. Así que hay una gran comunidad de investigación global con mucha gente relevante que hace contribuciones importantes en el aspecto técnico y no creo que se pueda considerar que él juegue un papel significativo en la mayoría de ellas.

¿Estarían dichas investigaciones orientadas a replicar el cerebro humano incluyendo la consciencia?

La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Ahora bien, si lo hacen emulando, asimilando o inspirándose en el cerebro humano o no, es una decisión más táctica. Si hay conocimientos útiles que se puedan extraer de la neurociencia serán aprovechados, pero el objetivo principal no es tratar de replicar la mente humana.

Pensé que ya existía un proyecto post-humano…

Si te refieres al Proyecto del Cerebro Humano, entonces sí. Podría estar un poco más cerca de tratar de emular varios detalles y niveles de la condición humana. Mi impresión es que inicialmente comenzó con una visión muy ambiciosa y probablemente con excesivas espectativas, empezó con modelos muy detallados de una columna cortical. Pero tras varias voces disonantes se ha convertido finalmente en canales de financiación para varios proyectos de neurociencia.

Ha comentado que con la superinteligencia (nivel humano) se obtendrán resultados muy buenos pero también con el riesgo de la extinción humana.

Bueno, creo que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías. Si eres súper inteligente puedes hacer un trabajo científico o de ingeniería mucho más rápido y de manera más eficaz de lo que lo pueden hacer los científicos e ingenieros humanos. Así que imagine todas las cosas que los humanos podrían lograr si dispusiéramos de 40.000 años para trabajar en ellas, tal vez desarrollaríamos colonias espaciales, mejoras en nuestro organismo, curas para el envejecimiento y realidades virtuales perfectas. Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada. Esto nos da una idea de la gran cantidad de beneficios potenciales.

Y, ¿cuáles serían los “riesgos existenciales” a los que nos enfrentaríamos con la Inteligencia Artificial?

Veo dos clases de amenazas, la primera surge por problemas en la alineación de objetivos. Estás creando algo que sería muy inteligente y que podría ser también muy poderoso. Si no somos capaces de resolver cómo controlarlo, podríamos dar lugar a la existencia de un sistema súper inteligente que podría dar prioridad a alcanzar sus propios valores en detrimento de los nuestros. Un gran número de riesgos potenciales emanan de esto. Otro riesgo es que los humanos, aún logrando resolver el problema de alineación, usemos esta poderosa tecnología de forma maliciosa o irresponsable, al igual que lo hemos hecho con muchas otras tecnologías a lo largo de nuestra historia. Las utilizamos no solo para ayudarnos unos a otros y con fines productivos, sino también para librar guerras u oprimirnos unos a otros. Así que esta sería la otra gran amenaza con una tecnología tan avanzada.

Stephen Hawking postulaba “expandirnos hacia el espacio” y la empresa Space X de Elon Musk espera enviar, a corto plazo, humanos a Marte con el proyecto Mars Colonial Transporter. ¿Cuáles son las causas por las que nos vamos a ver obligados a emigrar a otros planetas? ¿Podrán vivir ya los humanos en Marte?

En este momento, Marte no es un buen lugar para vivir. Creo que la colonización del espacio de manera significativa ocurrirá después de la superinteligencia. A corto plazo parece muy poco atractivo y será más fácil crear un hábitat en el fondo del mar o en la cima del Himalaya que hacerlo en la Luna o en Marte. Hasta que hayamos agotado ese tipo de espacios, es difícil ver el beneficio práctico de tratar de hacerlo en Marte. Pero a largo plazo, por supuesto, el espacio es sin duda un objetivo; la Tierra es una pequeña migaja flotando en una extensión casi infinita de recursos.

___________________________________________________________________________

Esta entrevista fue publicada en el diario ABC el 19 de septiembre de 2018. Elena Cué, además de colaborar con el mencionado diario, es creadora del blog http://www.alejandradeargos.com.

El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!

Apoya a El Nacional