La Inteligencia Artificial es la simulación de los procesos de inteligencia humana por máquinas, especialmente por sistemas computarizados. Estos procesos incluyen aprendizaje (la adquisición de información y reglas de uso de la información), razonamiento (uso de reglas para alcanzar conclusiones aproximadas o definitivas) y autocorrección.
Una tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace unos años está presente en nuestro día a día, a todas horas.
La Inteligencia Artificial hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevos aportes y realicen tareas como hacen los humanos. Los ejemplos de inteligencia artificial más conocidos van desde reconocimiento biométrico, computadoras que juegan ajedrez hasta automóviles que se conducen por sí solos, se sustentan mayormente en “deep learning” (traducido como aprendizaje profundo), y procesamiento del lenguaje natural. Mediante el uso de estas tecnologías, las computadoras pueden ser entrenadas para realizar tareas específicas procesando grandes cantidades de datos y reconociendo patrones en los datos.
La IA ha transformado y seguirá transformando todas las industrias, pero tenemos que entender sus límites.
La limitación principal de la inteligencia artificial es que aprende de los datos. No hay otra forma en que se pueda incorporar el conocimiento. Eso significa que cualquier imprecisión en los datos se verá reflejada en los resultados. Y cualquier capa adicional de predicción o análisis se tiene que agregar por separado.
Inteligencia viene del aprendizaje, sin importar si se es humano o máquina. Los sistemas usualmente tienen una fase de entrenamiento en la cual “aprenden” a detectar los patrones deseados y actuar de acuerdo con lo programado. Una vez que un sistema es completamente “entrenado”, puede pasar a la fase de prueba, donde es sometido a más ejemplos y se ve cómo responde.
Pero si hablamos de inteligencia artificial, también deberíamos hablar de estupidez artificial.
Obviamente, el entrenamiento no puede cubrir todos los posibles ejemplos que un sistema deberá enfrentar en el mundo real. Estos sistemas pueden ser burlados en maneras que los humanos no. Por ejemplo, patrones de puntos aleatorios podrían llevar a la máquina a detectar cosas que no están allí. Si confiamos en que la IA nos traerá hacia un nuevo mundo de trabajo, seguridad y eficiencia, nos debemos asegurar de que la máquina se comporta según lo planificado, y que no se puedan forzar las conclusiones para usarlas para resultados sesgados.
La llegada de herramientas de IA en nuestra vida cotidiana ha hecho también emerger inquietudes más técnicas. Por ejemplo, la responsabilidad en caso de accidentes causados por un vehículo autónomo y sobre la manera de como se deberá programar. Una pregunta sería si el sistema deberá proteger en todos los casos al propietario y los pasajeros del vehículo en detrimento de terceros.
Otro desafío, menos espectacular, pero sin embargo mayor, es relativo a los datos, y en particular a los sesgos que puedan reflejar, y que la máquina pueda reproducir sin discernimiento: si entrenamos un motor de búsqueda para reconocer ejecutivos de empresas a partir de hombres caucásicos, él no mostrará jamás mujeres o personas de color cuando se le haga una pregunta.
Otro problema que surge, por ejemplo: la opacidad de los sistemas utilizados y la dificultad de explicar su funcionamiento.
La Unión Europea publicó en abril de 2019 un conjunto de lineamientos de cómo las empresas y los gobiernos deberán desarrollar aplicaciones éticas de inteligencia artificial.
Como un ejemplo, si un sistema de Inteligencia Artificial diagnostica un paciente con cáncer en el futuro, los lineamientos de la UE tratan de asegurarse de que las siguientes condiciones se cumplen: que el software no se diseñó con sesgo de raza o género, que no invalidó las objeciones del médico especialista humano, y que se le permitió al paciente la opción de tener el diagnóstico explicado a los médicos.
Estos lineamientos no son jurídicamente vinculantes, pero probablemente le dará forma a una futura legislación de la UE, que siempre ha manifestado querer ser líderes en el área de la ética de la IA. Sin embargo, los líderes mundiales en IA son Estados Unidos y China, en términos de inversión y tecnología de punta, por lo que la ética sugerida apunta a darle forma a la tecnología del futuro.
No debemos olvidar que los sistemas de IA son creados por humanos, los cuales pueden tener pensamientos sesgados o moralistas. Si la tecnología se usa de manera correcta, por aquellos que luchan por el progreso social, la inteligencia artificial podrá convertirse en un catalizador para un cambio positivo.
https://fablabs.io/labs/artelaservzla