“Que eso no se dice, que eso no se hace, que eso no se toca”. Esta es la supervisión humana que el Reino Unido ha sugerido que podría eliminar en la toma de decisiones de sistemas basados en inteligencia artificial (IA). Los versos pertenecen a una vieja canción de Joan Manuel Serrat, titulada “Esos locos bajitos”. Hace referencia a los niños, que, con mejor o peor fortuna, son educados por sus padres. A todos, en algún momento, nos han dicho eso mismo. Técnicamente hablando, lo que nuestros padres estaban haciendo era supervisar nuestros actos.
No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución
Esta misma idea de supervisión es un elemento fundamental en el uso de los sistemas inteligentes. Ya hay ciertas decisiones que nos afectan directamente y que pueden estar tomadas por un algoritmo de IA. Puede ser la aprobación de una hipoteca o el ser contratado en una empresa. El año pasado, debido al cierre de los colegios por la pandemia de COVID-19, las notas de los alumnos en el Reino Unido fueron asignadas por un algoritmo de IA basado en el rendimiento medio del estudiante y de su instituto.
En septiembre el Reino Unido anunció que en adelante este tipo de decisiones no tendrán por qué estar verificadas por un ser humano. Una inteligencia artificial se basta sola para saber a quién dar una hipoteca, a quién contratar o qué nota académica poner.
En contra de la Unión Europea
Este planteamiento va en contra del Reglamento General de Protección de Datos (RGPD) de la UE. En particular respecto a su artículo 22, sobre decisiones automatizadas, que establece que tenemos derecho a no ser objeto de una decisión automatizada que tenga efectos jurídicos o nos afecte significativamente.
Una IA puede determinar que no recibamos una hipoteca. No obstante, este resultado debe ser supervisado por una persona, quien, en un momento dado, puede decirle con cariño a la IA que eso no se dice o eso no se hace, y finalmente otorgar la hipoteca al sufrido solicitante.
Eliminar esta supervisión humana significa falta de transparencia en el uso de la IA, y eso no va a favorecer su desarrollo.
Dividendo del dato
¿Qué se encuentra detrás de esta eliminación de la supervisión humana en la IA? El llamado dividendo del dato. El dato es el petróleo del futuro y se quiere hacer mucho dinero con él. Como decir “hacer dinero” es muy grosero, se utiliza la expresión “dividendo del dato”, mucho más amable.
Para hacer dinero lo mejor es no tener impedimentos. El argumento en contra de la supervisión humana es que esta resulta complicada y poco práctica. Sin embargo, tal supervisión es posible y necesaria. Es posible porque para entender el resultado de una IA no es necesario investigar en las tripas del algoritmo y leer líneas y líneas de código. Tenemos tecnologías que son capaces de explicar la decisión de un algoritmo inteligente en función de sus datos de entrada.
Además, es necesaria porque todo ciudadano tiene derecho a conocer quién toma una decisión y por qué lo hace. Un algoritmo nunca adopta una decisión. No existen decisiones automatizadas. Detrás de cualquier algoritmo siempre hay una persona o una institución que decide a través de él. Si eliminamos la supervisión humana, esto nos someterá al arbitrio de personas o grupos de interés desconocidos. Una sociedad moderna y democrática no puede abdicar de su responsabilidad a la hora de decidir cuestiones que afectan a sus ciudadanos.
Supervisión humana
Existe una esperanza. El propio gobierno británico ha comunicado que la solución final sobre la supervisión humana no debe ir en contra de los acuerdos que el país tiene con la UE. Esto afecta a ese artículo 22 del RGPD.
Esperemos que así sea. El estribillo de la canción de Serrat también dice: “Niño, deja ya de joder con la pelota”. Solo la supervisión humana de la IA evitará que tengamos que acabar dirigiendo tan gruesas palabras hacia un sistema inteligente.