La alineación de valores en la inteligencia artificial (IA) es uno de los desafíos más importantes en el campo de la IA en la actualidad.
Desde que Alan Turing inició el estudio de la informática en 1936, la humanidad ha estado intrigada por la posibilidad de construir máquinas con inteligencia comparable a la de los humanos. La inteligencia artificial ha avanzado mucho desde entonces, pero aún no existen máquinas verdaderamente inteligentes que puedan realizar de forma independiente una amplia variedad de tareas.
Los problemas con la IA no han pasado desapercibidos y los investigadores académicos están intentando hacer que estos sistemas sean más seguros y éticos. Sin embargo, las empresas que construyen productos centrados en la IA han proporcionado poca transparencia sobre sus esfuerzos para eliminar los daños asociados con la IA.
Los problemas y las preocupaciones con la IA han crecido a medida que se ha generalizado su uso. Por ejemplo, en la mitad de la década de 2010, algunas empresas de búsqueda en Internet y redes sociales comenzaron a insertar algoritmos de IA en sus productos. A medida que la IA se infiltraba de manera constante en los motores de búsqueda y otras aplicaciones, los observadores comenzaron a notar problemas y a hacer preguntas. En 2016, periodistas de investigación plantearon la preocupación de que ciertos algoritmos utilizados en la evaluación de libertad condicional eran racialmente sesgados.
En los últimos años, el uso de la IA en las aplicaciones de redes sociales se ha convertido en otra preocupación. Muchas de estas aplicaciones utilizan algoritmos de IA llamados motores de recomendación para decidir qué contenido mostrar a los usuarios. Sin embargo, desentrañar el verdadero impacto de un algoritmo no es una tarea sencilla. Las plataformas de redes sociales liberan pocos datos sobre la actividad del usuario, lo que se necesita para que los investigadores independientes hagan evaluaciones.
Además, la naturaleza de los problemas con la IA también está cambiando. Los últimos dos años han visto el lanzamiento de varios productos de IA generativa que pueden producir texto e imágenes de notable calidad. Un número creciente de investigadores de IA ahora cree que los poderosos sistemas de IA del futuro podrían basarse en estos logros y algún día representar peligros globales y catastróficos que podrían hacer que los problemas actuales parezcan insignificantes en comparación.
Algunos científicos argumentan que la investigación sobre los problemas existentes, que ya son concretos y numerosos, debería ser priorizada sobre el trabajo que implica desastres futuros hipotéticos. Sin embargo, otros investigadores consideran que prevenir que un sistema de IA poderoso del futuro cause una catástrofe global ya es una preocupación importante.
Un enfoque para abordar este problema es la alineación de valores, una técnica pionera desarrollada por el científico de IA Stuart Russell en la Universidad de California, Berkeley. Este enfoque busca formas de entrenar a un sistema de IA para que aprenda los valores humanos y actúe de acuerdo con ellos. Una de las ventajas de este enfoque es que podría desarrollarse ahora y aplicarse a sistemas futuros antes de que presenten riesgos catastróficos. Sin embargo, los críticos argumentan que la alineación de valores se enfoca demasiado estrechamente en los valores humanos.
Otro enfoque es la auditoría de la inteligencia artificial. La auditoría de la IA se puede dividir en varias categorías, que incluyen la auditoría de sesgos y equidad, la auditoría de robustez y confiabilidad, la auditoría de explicabilidad e interpretabilidad y la auditoría de privacidad. Estos métodos permiten a los investigadores y a las empresas examinar y mejorar sus algoritmos de IA para reducir los daños y mejorar la equidad.
Además de estos enfoques, también se está prestando atención a la prevención del mal uso de la IA. La próxima gran categoría de trabajo en la seguridad de la IA implica prevenir su mal uso. Por ejemplo, las armas autónomas letales (también conocidas como «robots asesinos») son un área en la que se teme que la IA pueda ser utilizada de manera perjudicial. Ya hay un debate sobre si estas armas deberían ser prohibidas, debido al riesgo de daño que podrían causar si se utilizan de manera incorrecta.
Pero más allá de estos enfoques, el desafío de la alineación de la IA implica no solo prevenir el mal uso de la IA o hacer que la IA sea segura y justa, sino también garantizar que la IA se alinee con los valores y los objetivos humanos. Como se señaló en el artículo, «no importa las reglas que establezcamos para la IA, siempre habrá formas de sortearlas o de que las cosas salgan mal». Por lo tanto, uno de los mayores desafíos en la alineación de la IA es garantizar que los sistemas de IA sean predecibles y que actúen de acuerdo con los valores y los objetivos humanos.
En conclusión, la alineación de la IA es un problema importante que los investigadores y las empresas están tratando de abordar. Aunque se han propuesto varios enfoques y se están realizando esfuerzos para mejorar la seguridad, la equidad y la prevención del mal uso de la IA, todavía queda mucho por hacer para garantizar que la IA pueda alinearse de manera efectiva con los valores y los objetivos humanos. Este es un área en la que es probable que veamos mucha más investigación y desarrollo en el futuro.
El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!
Apoya a El Nacional