Hay un estudio del Instituto Max-Planck de Alemania que sostiene que no podremos controlar a las máquinas que desarrollemos, que la inteligencia artificial se rebelará en sus acciones y decisiones sobre los humanos. Lo cierto es que sin necesidad de mucha investigación es sensato concluir que esto será así, porque la programación que desarrollemos estará orientada a cumplir primordialmente una función y a obtener un resultado, y aunque encapsulemos el algoritmo dentro de algunos principios generales de comportamiento será imposible que atienda a razones fuera de lo que el código le diga. Y hay miles. Eso dejará fuera de la consideración del algoritmo muchos principios morales o éticos, razones emocionales o humanitarias, excepciones que desearíamos hacer, discrecionalidades permitidas a las jefaturas, escuchar a otros antes de tomar una decisión, sopesar entre dos posibles cursos de acción alternativos cuyas diferencias no se basen en cálculos matemáticos, y cien factores y circunstancias más de la realidad cambiante que los humanos sí somos capaces de reconocer e incorporar inmediatamente a nuestros procesos de razonamiento y decisión.
A partir de ahí las decisiones tomadas por algoritmos serán maquiavélicamente utilizadas por el poder. Si le conviene se escudará detrás de ellas, dirán: no somos nosotros quienes hemos tomado la decisión, lo ha hecho el computador, y este no se equivoca, está programado para la eficiencia y sus decisiones son colectivamente beneficiosas para la sociedad.
En el ámbito del empleo se está extendiendo la automatización de decisiones sobre las personas en los centros de trabajo: su vigilancia, su rendimiento diario, su adecuación al puesto en procesos de selección, la evaluación periódica del desempeño, la clasificación en perfiles, en definitiva, el enjuiciamiento de personas a cargo de algoritmos.
Quién se fía de esto?