En un hecho histórico que marca el camino para una regulación global, la Unión Europea aprobó la Ley de IA, la primera ley integral de IA del mundo que incluye una serie de normas y guías sobre el desarrollo de esta tecnología, incluyendo restricciones sobre cómo se puede utilizar.
El miércoles 13 de marzo el Parlamento Europeo votó a favor de aprobar la ley, que ya había logrado un acuerdo político en diciembre. Las votaciones fueron contundentes: 523 votos a favor, 46 en contra y 49 abstenciones.
Aunque las normas comenzarán a entrar en vigor de manera temprana a partir de mayo y durante los próximos años, se trata de una ley planteada desde la base de los riesgos de esta tecnología, que genera preocupaciones especialmente a nivel de seguridad con los avances de la IA generativa.
«El punto principal ahora será la aplicación y el cumplimiento por parte de empresas e instituciones. También estamos trabajando en más legislación para el próximo mandato, como una directiva sobre las condiciones en el lugar de trabajo y la IA», dijo el ponente de ley, el legislador italiano Brando Benifei.
¿Cómo se plantea la Ley de IA de la UE?
Según la nueva legislación de IA, los sistemas de aprendizaje automático se clasificarán en cuatro categorías principales basadas en el nivel de riesgo que representen para la sociedad. Aquellos sistemas identificados como de alto riesgo estarán sujetos a regulaciones rigurosas antes de su lanzamiento en el mercado de la Unión Europea.
La inteligencia artificial trae consigo grandes beneficios para diversos sectores incluyendo la salud, sin embargo, tal y como mencionó en su momento el experto en IA, Mike Hoey, «las amenazas asociadas a la IA nunca habían sido mayores, esto debe abordarse con grandes inversiones a largo plazo que ofrezcan los más altos niveles de protección de datos y prevención de amenazas”. Por eso, es sumamente importante que se comiencen a establecer normativas jerarquicas y éticas.
Las disposiciones generales sobre la IA entrarán en vigor un año después de su promulgación, en mayo de 2025, y las obligaciones para los sistemas de alto riesgo se implementarán dentro de tres años. La supervisión de estos sistemas estará a cargo de autoridades nacionales, con el apoyo de una oficina especializada en IA dentro de la Comisión Europea. Los Estados miembros tienen ahora la tarea de establecer agencias nacionales de supervisión, y los países disponen de un plazo de 12 meses para designar estos órganos reguladores.
Aunque la Ley de la UE integra un conjunto completo de normativas, otros gobiernos del mundo ya se están moviendo hacia esa dirección de establecer reglas a la IA. El año pasado la administración de Biden firmó una orden ejecutiva que obliga a las empresas de IA a notificar al gobierno cuando desarrollen un modelo que podría plantear riesgos graves, mientras que en China también se están estableciendo normas enfocadas en la IA generativa.
Sergio Ramos, editor en Social Geek, y contribuidor en Entrepreneur y Forbes en Español. Experto en temas de tecnología que disfruta aprendiendo sobre startups, emprendimiento e innovación.