La inteligencia artificial (IA), y el sesgo en los datos de los que se alimenta, sigue acaparando titulares a medida que se descubre el potencial de herramientas como DALL-E 2, de OpenAI, y ChatGPT.
Estas tecnologías, que hasta hace no demasiado eran vistas como algo futurista, están comenzando a formar parte de nuestro día a día por funcionalidades como la de recibir un mensaje y devolver una respuesta textual o visual de forma autónoma e inteligente. Aunque pueda parecer magia, es importante comprender que estas herramientas no son perfectas y acarrean su propio conjunto de limitaciones y riesgos.
Su viralidad, sumada a su cada vez más extendida presencia en la empresa, obliga a tener muy en cuenta las consecuencias que conlleva la democratización de la IA. En cualquier caso, los beneficios para las empresas son evidentes. De hecho, según Forrester, el gasto en software de IA crecerá de 33.000 millones de dólares en 2021 a 64.000 millones de dólares en 2025, acelerándose el doble respecto al crecimiento del mercado global de software.
Las herramientas de IA se deberían convertir en nuestro aliado a la hora de identificar sesgos discriminatorios
Pero también hay que considerar el denominado sesgo de la IA, que se produce cuando los prejuicios humanos se introducen en los algoritmos como una prioridad dentro de su lista de preocupaciones. En este sentido, es importante explorar la forma en que las personas a cargo de la gestión de los datos en las organizaciones implementan proyectos de IA, y reducir un indicador importante: según IBM, casi tres cuartas partes de las empresas no han tomado medidas para reducir este sesgo.
El impacto del sesgo de la IA
Desde el punto de vista empresarial, el uso de datos sesgados podría conducir a una mala toma de decisiones; e incluso tener consecuencias legales, dadas las sensibilidades éticas en torno a este tema.
Hablamos, por ejemplo, de procesos de contratación en los que exista un sesgo respecto a las candidatas. Una práctica así podría dañar la reputación y credibilidad de una empresa, además de ocasionar la pérdida de oportunidades de negocio debido a previsiones inexactas.
Con este ejemplo en mente, no debe sorprender que, según un informe de DataRobot en colaboración con el Foro Económico Mundial, el 36% de las empresas afirme que su negocio se ha visto afectado negativamente por el sesgo de la IA, con la consiguiente pérdida de ingresos y clientes.
Ahora bien, ¿dónde empiezan los sesgos? Si sabemos que los modelos de IA más populares se entrenan a partir de los datos recopilados en Internet, hay una realidad palmaria que no podemos obviar: en la red hay mucho contenido problemático que fomenta la desinformación e incita al odio. La consecuencia directa es una IA que genera más datos a partir de estos resultados cuestionables, contaminando aún más la fuente. Por tanto, el sesgo puede llevar a subrepresentar o incluso a ignorar a poblaciones enteras.
Eliminar el sesgo
Este sesgo inherente a los datos viene de la combinación del sesgo humano. Eliminar este último se antoja una tarea utópica, pero corregir el de los modelos de IA es un objetivo realista. El camino pasa por invertir más y mejor en la formación de los científicos de datos, para que estén en disposición de garantizar prácticas éticas en su recogida y limpieza.
El 36% de las empresas afirme que su negocio se ha visto afectado negativamente por el sesgo de la IA
En cuanto a la infrarrepresentación de las personas, la mejor solución es la transparencia. Garantizar que los datos sean abiertos, que estén a disposición del mayor número posible de científicos de datos, ayuda a asegurar que grupos más diversos de personas puedan muestrearlos y señalar los sesgos inherentes.
Además, utilizando estas experiencias es posible construir modelos de inteligencia artificial que —por así decirlo— entrenen al formador. Automatizar esa inspección sería el único modo posible de examinar el ingente volumen de información que se maneja.
En definitiva, se trata de un problema urgente que requiere un elevado nivel de colaboración entre el mundo académico, la industria y los gobiernos con el objetivo de acelerar el proceso que permita que las herramientas de IA se conviertan en nuestro aliado a la hora de identificar sesgos discriminatorios.