RAÚL

El experimento del gorila invisible es un clásico de la psicología de la percepción cuyos resultados siguen sorprendiendo hasta la incredulidad. Creado a finales de los 90 y reproducido infinidad de ocasiones demuestra cómo se puede influir en la atención las personas hasta el punto de no percibir lo más evidente. Un vídeo de sencilla puesta en escena: una cancha de baloncesto y dos equipos con camisetas blancas y negras. Las instrucciones al sujeto son contar los pases entre los jugadores del equipo blanco. Tras el breve tiempo del experimento el sujeto puede acertar o no la veintena de pases realizados, pero lo sorprendente es que la mayoría de las personas no ven el gorila que ha pasado de un lado al otro e incluso ha bailado breakdance.

Algo parecido está ocurriendo con la percepción sobre el uso, regulación y ética de la Inteligencia Artificial (IA). Hablar de IA es lo que se lleva. El peligro de tanta actividad superficial en un asunto técnico es que el análisis riguroso real sea desplazado hacia unos pocos aspectos de mayor emotividad, aunque no sean los más relevantes ni realistas.

Tomemos por ejemplo la gran preocupación por lo que se ha dado en llamar «la singularidad»: el supuesto momento en que un sistema de IA se vuelva consciente. Esta inquietud hunde sus raíces en un miedo atávico del ser humano: el miedo al gólem. Leyenda ancestral, incluso recogida en la Biblia, de lo inerte que cobra vida. Ya sea como monstruo terrible o como Pinocho o Coppelia. Ríos de tinta y mares de preocupación por un horizonte que sigue igual de lejos hoy que en 1976, cuando se crearon lo estudios universitarios de informática en España, cuyos planes de estudios siempre han recogido la capacitación en inteligencia artificial. «¡Ah! ¿Pero esto de la IA no es algo nuevo?». Pues no. Avanza, como todos los campos de la informática, pero forma parte de la ciencia y la tecnología informática desde sus albores de la mano de Alan Turing, a finales de los años cuarenta del siglo pasado.

Y mientras nos alarmamos por el pavor a la singularidad seguimos «Aceptar, aceptar, aceptar…» al instalarnos aplicaciones informáticas en nuestros dispositivos personales. ¿Ve usted al gorila bailando breakdance?

Debatimos acaloradamente sobre la regulación de la IA mientras dejamos de percibir la necesidad de regulación de los productos y servicios informáticos en general. Los últimos años han evidenciado cómo la falta de regulación informática está socavando la estabilidad de las sociedades democráticas. Más allá de cuestiones técnicas, hay una nutrida hemeroteca sobre el uso de la informática para influir malintencionadamente en personas o sociedades, en particular desde países totalitarios: en las elecciones presidenciales de Estados Unidos, el Brexit, el 1-O en Cataluña, etc. También se han constatado numerosos fenómenos adictivos en las últimas décadas, especialmente con menores y jóvenes, llegando no solamente a afectar a su comportamiento, sino a trasformar sus capacidades cognitivas. Hay estudios que muestran que la capacidad de atención se ha reducido un 50% en dos décadas, hasta apenas los cinco segundos. ¿No es evidente que reducir la capacidad de atención de la ciudadanía hace a las personas más manipulables y a las sociedades más controlables? ¿No deberían estas actividades ser evitadas y reguladas, independientemente de su tecnología informática? ¿Vio al segundo gorila?

«Pero esto de la regulación de la IA se solucionará cuando se apruebe el reglamento europeo de IA, ¿no?» La regulación europea de los sistemas de IA será un avance. No solo por su aplicación a la IA sino por detonar una regulación real de los productos y servicios informáticos en general. Sin embargo, el reglamento europeo de IA solo se aplicará a los sistemas considerados de riesgo. Es decir, que la inmensa mayoría de los sistemas de IA se incorporarán a la gran selva de no regulación de los productos y servicios informáticos. Nada nuevo bajo el sol en el paradójico escenario actual del «consentimiento desinformado»: Aceptar, aceptar, aceptar… El tercer gorila pasa bailando.

Es materialmente posible obtener el consentimiento de alguien para ser esclavo a cambio de algo. Pero la ley prohíbe este tipo de «contratos con consentimiento» porque cosifican a las personas. La informática ha hecho posible una cierta cosificación técnica del comportamiento y la información personal. Y ello se ha constatado como fuente de malos usos para controlar individuos y desestabilizar democracias ¿Es prudente y sostenible seguir permitiendo esta cosificación con el pretexto del «consentimiento desinformado»? Este escenario sumado al debilitamiento de las estructuras democráticas en Europa (uno de cuyos ejemplos más actuales es la propia España), incrementa la vulnerabilidad y la amenaza real de quiebra de la sociedad abierta y giro hacia no se sabe dónde, a costa de libertades supuestamente esenciales. Mucho más allá del gran hermano de Orwell. En este caso, quizás no es un gorila, sino el gatopardo de Lampedusa que pasa tranquilamente. No digo que sea premeditado, pero está ocurriendo…

¿Sabremos aprovechar la IA y la informática en general para aumentar nuestras capacidades individuales y colectivas sin destruirnos en el intento?


Juan Pablo Peñarrubia es vicepresidente Consejo General de Colegios Profesionales de Ingeniería Informática de España – CCII.

Artículo publicado en el diario La Razón de España


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!