Apóyanos

Elon Musk entre ellos: líderes empresariales y académicos piden una moratoria en la investigación de inteligencia artificial

    • X
    • Facebook
    • Whatsapp
    • Telegram
    • Linkedin
    • Email
  • X
  • Facebook
  • Whatsapp
  • Telegram
  • Linkedin
  • Email

Elon Musk, CEO de Tesla y reconocido experto en tecnología, se encuentra entre los principales promotores de la suspensión del entrenamiento de la inteligencia artificial (IA). Esto, según dice, debido a los riesgos que esta representa para la humanidad.

En una carta abierta firmada por importantes figuras en el campo de la IA se pide la suspensión temporal del entrenamiento de sistemas de IA con una capacidad superior a cierto nivel.

El documento, emitido por el Future of Life Institute, una organización sin fines de lucro cuya misión es evitar riesgos extremos asociados con tecnologías transformadoras, hace énfasis en los riesgos que representan los sistemas de IA con inteligencia comparable a la humana para la sociedad y la humanidad en general.

Los firmantes de la carta, que incluyen a Steve Wozniak, cofundador de Apple. Así como algunos investigadores de DeepMind. Se trata de una empresa de inteligencia artificial (IA) con sede en Londres, fundada en 2010 y adquirida por Google en 2015.

DeepMind

La firma de los investigadores de DeepMind en la carta es significativa. La empresa es líder en el campo de la IA. Logró importantes avances en la creación de sistemas de aprendizaje profundo altamente avanzados. La empresa también es reconocida por su trabajo en ética y seguridad de la IA.

De igual manera, estableció un equipo dedicado a abordar estos problemas. Entre los firmantes se encuentran Mustafa Suleyman, cofundador de DeepMind y exdirector de ética e IA en Google. También Shane Legg, otro cofundador de DeepMind y experto en aprendizaje automático.

También advierten sobre la carrera fuera de control por desarrollar sistemas de IA cada vez más poderosos. Detallan que ni siquiera sus creadores lo pueden entender, predecir o controlar de manera confiable.

Además, pronostican que la IA podría inundar los canales de información con desinformación y reemplazar puestos de trabajo con automatización. Aunque algunos expertos argumentan que la IA aumentará la productividad, otros señalan que esto podría resultar en la eliminación de millones de empleos.

Las preguntas de la carta sobre la inteligencia artificial

La carta también plantea la pregunta de si se deben desarrollar mentes no humanas que eventualmente superen, en astucia, obstante y reemplacen a la humanidad. Expertos en ciencias de la computación de la Universidad de California y Princeton respaldan la carta, argumentando que la IA representa un riesgo significativo para la democracia, el empleo y la educación.

Sin embargo, otros críticos de la carta sugieren que se centra en riesgos futuristas especulativos, ignorando los problemas actuales que ya están afectando a las personas. Aunque OpenAI, la empresa detrás de ChatGPT, no se ha manifestado sobre la carta, en un reciente artículo advirtió sobre los riesgos si una inteligencia artificial general (AGI) se desarrolla de manera imprudente.

La carta pide a los laboratorios de IA que detengan inmediatamente el entrenamiento de sistemas de IA más poderosos que el GPT-4 durante al menos seis meses. Si no se puede implementar tal pausa rápidamente, se sugiere que los gobiernos deben intervenir e instituir una moratoria. También se necesitan nuevas autoridades regulatorias dedicadas a la IA para supervisar el desarrollo de la tecnología.

Propuestas de regulación a la inteligencia artificial

Recientemente, se presentaron diversas propuestas para la regulación de la tecnología en países como Estados Unidos, Reino Unido y la Unión Europea. Aunque el Reino Unido descartó la creación de una autoridad reguladora dedicada a la IA, algunos expertos argumentan que se necesitan nuevas regulaciones y autoridades para supervisar el desarrollo de la tecnología y garantizar su uso seguro y responsable.

La carta abierta generó un intenso debate entre expertos en IA y tecnología en todo el mundo. Algunos argumentan que la suspensión del entrenamiento de IA podría frenar el progreso en el campo y reducir su potencial para beneficio de la humanidad. Otros, sin embargo, creen que la IA representa una amenaza real para la humanidad y que se deben tomar medidas para garantizar su desarrollo seguro y responsable.

A medida que la IA continúa avanzando y su impacto en la sociedad y la economía se vuelve cada vez más evidente. Es probable que el debate sobre su uso y regulación se intensifique. Sin embargo, lo que queda claro es que la IA tiene el potencial de transformar radicalmente la forma en que vivimos, trabajamos y nos relacionamos. Por ello, es importante abordar los riesgos y desafíos asociados con su desarrollo de manera responsable y proactiva.

El Future of Life Institute (FLI)

Es una organización sin fines de lucro fundada en 2014 por un grupo de científicos, tecnólogos y filántropos que buscan mitigar los riesgos extremos asociados con tecnologías transformadoras, incluyendo la inteligencia artificial (IA), la biotecnología y la nanotecnología.

El objetivo del FLI es «asegurar que la tecnología continúe beneficiando a la humanidad de manera positiva y evitar que se convierta en una amenaza existencial». La organización trabaja para fomentar la investigación y el diálogo sobre los riesgos y beneficios de la tecnología, y para fomentar la colaboración entre científicos, tecnólogos, políticos y filántropos para abordar estos desafíos.

El director del FLI es Max Tegmark, un cosmólogo y profesor del MIT que es conocido por su trabajo en física teórica, cosmología y astrofísica. Tegmark es un defensor del uso responsable de la tecnología y ha hablado ampliamente sobre los riesgos y beneficios de la IA y otras tecnologías transformadoras.

Otras personas relevantes que trabajan en el FLI incluyen a Victoria Krakovna, una científica de la computación y defensora de la IA segura, y Anthony Aguirre, un astrofísico y profesor de física en la Universidad de California, Santa Cruz, que se especializa en la teoría de la información y la cosmología.

Además, el FLI cuenta con un amplio grupo de asesores externos, que incluye a Elon Musk, fundador de SpaceX y Tesla; Bill Gates, cofundador de Microsoft; y Stephen Hawking, físico teórico y cosmólogo, entre otros líderes en el campo de la tecnología y la ciencia.

El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!

Apoya a El Nacional