• slide

¿Seremos “seres algorítmicos”?


Se observa que las diversas Inteligencias artificiales [IA] están cambiando el mundo: cada actividad humana, desde la medicina hasta la ciberseguridad nacional, está experimentando profundas transformaciones: impresión en 3D, exoesqueletos, automóviles con conducción autónoma, drones de reparto, robots, vertiginosas nuevas autopistas de la información,… son algunos ámbitos concretos de su aplicación. Muchas de estas innovaciones van desterrando de las empresas las herramientas analógicas y generando un cambio tanto en los modelos de negocio como en la gestión de las personas.

Las inteligencias artificiales [IA] están alcanzando un gran impacto desde el punto de vista laboral, jurídico, ético y moral. Cierto es que, en muchos casos, se las utiliza de momento específicamente como “inteligencia aumentada”, como apoyo al hombre y a sus actividades. Pero es evidente que las IA acabarán sustituyendo puestos de trabajo y tendrán impacto en el 100% de los empleos. Ahí tenemos ya el caso del sector bancario o el de telefonía.

El historiador israelí Yuval Noah Harari habla por ello de una “cultura datacéntrica”. Rizando el rizo hay quien se aventura a afirmar que la complejidad de nuestro yo podrá resolverse con el cálculo de sus “likes”, de sus compras en Amazon o sus fotos en Instagram. ¿Pero los datos que dejamos en la red son suficientes para definir realmente quiénes somos? ¿Se puede esperar que haya un “pixel”, un punto de color, que nos remita a nuestro origen?

Por ello en la relación ser humano - “máquina inteligente”  cabe preguntarse cuál es el rasgo específico del hombre y cuál el de la máquina, se precisa tener una respuesta ética para entender qué decisiones humanas pueden delegarse en las máquinas y también cuál es el papel de las máquinas en tales decisiones. Interesa, entre otros interrogantes, la forma cómo se les indica a las máquinas cuáles son las normas importantes para el hombre; es lo que Paolo Benanti, experto en ética tecnológica, llama “algor-ética”.



Entre las últimas publicaciones de  Benanti, se habla del “homo faber”: el hombre que hace cosas prácticas; situación paradójica si pensamos que el problema actual es que las máquinas controlan cada vez más todo lo que antes quedaba relegado a la actividad manual, a la paciente obra artesanal: actividades que han desarrollado durante siglos a la humanidad y a la economía de las diferentes sociedades históricas. Estamos, pues, ante un auténtico cambio de época y de mentalidad. Los seres humanos transmitíamos hasta ahora conocimientos y competencias no con el ADN, sino mediante utensilios y artefactos cada vez más sofisticados.

Benanti explica, por ejemplo, que los algoritmos de predicción, que  proceden de los instrumentos de las IA, cuando se aplican a las decisiones de los consumidores, no solo predicen su comportamiento, sino que también lo provocan desde el momento en que se intenta vender un producto. “Aplicados a los objetos, estos algoritmos nos dicen cuándo se romperán; aplicados a las personas, generan comportamientos”. Y esto último entra con lo que la ética ha venido estudiando durante siglos.

“La premisa, concluye Benanti, es que la realidad ya no está fundada según criterios absolutos, como antes, cuando se miraba al fin o a las causas físicas que están detrás de las diferentes cuestiones, sino que es fruto de una serie de creencias producidas por una serie de datos”. Por tanto, son los propios datos los que explican la realidad y no al contrario. Conclusión de muy fuerte contenido e inquietantes consecuencias.

 

Las actuales capacidades técnicas son tan amplias y su producción tan rápida que la reflexión filosófica y ética está desbordada en relación con aquellas. Pero cuando la necesaria reflexión desaparece, se vuelve al mito. ¿En vez del “conócete a ti mismo” del antiguo oráculo de Delfos, llegará un momento en que deberíamos decir “conoce tus datos”, pues conocer tus datos te dirá la verdad sobre ti mismo? Algunos psicólogos evolucionistas se atreven a afirmar que “el oráculo de la inteligencia artificial nos desvelará la verdad sobre el hombre y entonces también las emociones podrían ser tan solo una serie de algoritmos biológicos.”

Sin embargo, si las máquinas se humanizan, el hombre se mecaniza y se convierte cada vez más en un proceso semi-determinista, sin espacio para distinguir entre actos humanos y actos mecánicos. Lo que supone un desafío antropológico, pero también un nuevo e inédito desafío ético.

Hoy el mundo ya no está habitado solo por el homo sapiens, sino también por “máquinas sapiens”. Pero si estas máquinas son autónomas, ¿quién responde de sus decisiones?  ¿Estamos preparados para delegar en ellas toda su capacidad en la toma de decisiones? ¿Cuáles son los datos sobre los que deciden las inteligencias artificiales? ¿Puede un gran mapeado de ingentes datos ser la copia exacta del mundo, de la realidad? La pregunta no es ociosa porque ya se habla del “mundo espejo”  o mirrorworld en el llamado “internet de las cosas”.    



La existencia de “máquinas sapiens” cada vez más complejas requerirá la creación de un nuevo lenguaje universal que pueda traducir pautas éticas en directivas que las máquinas  ejecuten. ¿Pero cómo hacer esto? ¿Quién debe decidir el modelo? ¿Cómo controlar si los resultados son trasparentes y no manipulados? Deberíamos poder establecer un lenguaje que pueda traducir el valor moral en algo calculable por las máquinas, siendo así que la percepción del valor ético es una capacidad puramente humana, mientras que la capacidad de trabajar con valores numéricos es una habilidad de las máquinas. 

Existe ya un proyecto, financiado por Facebook, por el que la actividad de las neuronas se transmite a una máquina mediante injertos específicos y es descodificada gracias a algoritmos en una selección limitada de preguntas-respuestas. ¿Se tratará, en última instancia, de transformar al ser humano en un robot con un cerebro “potenciado” obtenido por medio de la fusión con la inteligencia artificial? Todo un reto.