Las empresas, tanto privadas como públicas, se enfrentan a todo tipo de dilemas éticos y morales, a los que ahora hay que sumar los derivados de tendencias como el big data o el machine learning. En los próximos años, la ética será una cuestión cada vez más importante y las compañías deberán prepararse para ello.

En Estados Unidos son aficionados a los concursos de belleza. Como es lógico, la opinión del jurado puede estar sesgada y esto, en ocasiones, supone un problema. Así pues, no es de extrañar que se le permitiera a un grupo de robots hacer de jurado en uno de estos certámenes. Al fin y al cabo, la inteligencia artificial es completamente imparcial. De esta forma, mediante machine learning, se desarrolló un conjunto de algoritmos y se cargaron docenas de fotos de hombres y mujeres. Sin embargo, los robots resulta­ron ser sumamente racistas: la mayoría de los ganadores eran blancos, a pesar de la gran cantidad de fotos enviadas por perso­nas de color.

En Nueva York, los registros en busca de armas de fuego son frecuentes en barrios desfavorecidos, porque en ellos el porcen­taje de tenencia de armas es mayor. Una proporción relativamente alta de los residentes de estos barrios son personas de color. De igual forma, en Estados Unidos. Unidos, como en la mayoría de los países, hay mucha gente en posesión de sustancias ilegales y eso es algo independiente del co­lor de la piel. Cuando la policía realiza regis­tros en busca de armas, a menudo encuentra también drogas. De esta forma, al analizar los datos (y el big data) de estos registros, los resultados mostraban que muchas personas de color consumían sustancias ilegales. Como resultado de estas conclusiones, se intensi­ficaron los registros a las personas de color en busca de drogas. Tanto en estos barrios más desfavorecidos como también en otros. Parece lógico, pero no lo es. Este es un ejem­plo claro acerca de cómo una interpretación incorrecta de los datos puede dar lugar a im­portantes errores de juicio ético.

Cuando se realiza análisis de big data, y se utiliza machine learning, se dejan muchas decisiones en manos de ordenadores, que realizan evaluaciones basadas en el reconocimiento de patrones. Esto puede producir decisiones equivocadas y comportamientos no deseados si, por ejemplo, la selección de los datos es incorrecta. Pero es que, además, estos riesgos irán a más.

CON BIG DATA Y MACHINE LEARNING
SE DEJAN MUCHAS DECISIONES
EN MANOS DE ORDENADORES

Un ritmo sin precedentes

Los avances en la recogida de información y en la tecnología se producen a un ritmo sin precedentes. Durante los últimos 46 años, la capacidad de procesamiento se ha ido du­plicando cada dos años. Los dispositivos son cada vez más rápidos, más pequeños, más baratos, más fáciles de utilizar y mejores. Los sensores (el Internet de las Cosas) ya pueden ver, oír y sentir, y su capacidad para el olfato y el gusto mejora constantemente.

Este es uno de los motivos por los que cada vez se almacenan más datos y se utilizan más. La cantidad de información que se re­copila en formato digital se duplica cada dos años. ¡Esto significa que en los últimos dos años se ha almacenado la misma cantidad de datos que la generada desde la Edad de Piedra! Por extensión, significa también que esa cantidad de información irá aumentan­do exponencialmente.

Por otra parte, dado que se comparte cada vez más información a través de las redes sociales, ya es casi imposible mantener algo en privado. En resumen: la capacidad de los datos crece exponencialmente y sur­gen nuevas funcionalidades, aunque, con ello, los riesgos se multiplican y se hace más complicado respetar la privacidad. Un tema complejo.

Lo inesperado

El análisis de big data ofrece enormes po­sibilidades. El gigante petrolero BP tiene muchos oleoductos por los que fluye el oro negro. Las tuberías están llenas de sensores que registran y actualizan todo tipo de in­formación de manera constante. En un mo­mento determinado, BP introdujo todos los datos de estos sensores en una herramienta de análisis. Los resultados mostraron que un tipo de petróleo era el responsable del 75% del desgaste de las tuberías.

Hasta ese momento, BP no había pensado en el impacto de los distintos tipos de petró­leo. La compañía tiene ahora la información adecuada para utilizarla en tareas de man­tenimiento. El análisis de big data no solo ofrece respuestas sorprendentes y detalla­das a las preguntas que se plantean, sino que también puede dar respuesta a pregun­tas que ni siquiera se han llegado a plantear. Esta for­ma de utilizar el big data mejora la ca­pacidad de resolver crímenes, combatir enfermedades… o predecir el comportamiento del cliente, en­tre otras muchas cosas.

El machine learning es la guinda del pastel. El año pasado, el programa de inteligencia artificial AlphaGo de la compañía Deep­Mind (que fue adquirida por google en 2010) derrotó de manera contundente al campeón humano mundial de Go. Muchos no creían que esto pudiera llegar a suceder en un futuro cercano. Un número cada vez mayor de programas de machine learning pueden pasar el test de Turing sin gran dificultad. Los chatbots pueden mantener conversaciones y, antes de que nos demos cuenta, los robots recepcionistas rendirán mejor que las personas. Lo sabrán todo so­bre sus clientes.

SI SE INTRODUCEN DATOS SESGADOS,
LOS RESULTADOS PUEDEN SER
EXTREMOS O EXTREMISTAS

El inconveniente

Sin embargo, hay un inconveniente. En 2016, Microsoft lanzó en Twitter un chatbot de inteligencia artificial, llamado Tay, para que aprendiera de las conversaciones que mantenía. Algunos usuarios del foro acepta­ron el reto. Comenzaron a enviar mensajes a Tay con contenido ofensivo. En tan solo 24 horas, Tay ya hacía comentarios sexistas, ra­cistas y pronazis, y Microsoft la retiró rápi­damente de Twitter. La ciencia de los datos y el machine learning reconocen patrones y hacen distinciones en función de esa in­formación. Otra manera de referirse a tales distinciones es “discriminación”. Si eso no es cruzar la línea, poco le falta. Igualmente, si se introducen datos sesgados, de manera consciente o inconsciente, los resultados pueden llegar a ser extremos o extremistas.

Desde luego, este es un terreno pantano­so ya que el big data y el machine learning no tienen ninguna relación con la ética o la moral. Esto no tiene por qué ser malo, aunque ciertamente puede llegar a serlo. Por muy buenas que sean las posibilida­des, también los riesgos son altos. Las em­presas deben darse cuenta de que elegir el reconocimiento de patrones y el machine learning supone renunciar a cierto control. Se introduce un cierto grado de imprevisi­bilidad porque, aunque se puede decidir si facilitar o no ciertos datos, no se ve cómo se van a utilizar.

El análisis de big data y el machine learning no solo carecen de un sentido de la ética, sino que, además, sus acciones son invisi­bles. Por lo tanto, no se sabe exactamente qué significado tienen los resultados o si se obtuvieron de acuerdo con la normati­va vigente. De igual modo, aunque no se haya hecho nada indebido, todavía nos puede parecer que se incurre en una falta de transparencia con respecto a la Admi­nistración, los auditores, los legisladores y la sociedad. ¿Hasta qué punto es esto co­rrecto?

Legitimidad

La pregunta es, además, si la mera “legali­dad” es suficiente. ¿No se busca también que nuestras acciones sean legítimas? La distinción entre legalidad y legitimidad es un tema candente. Algo que es legal no ne­cesariamente se ajusta a la visión actual de lo que significa ser legítimo. Seguro que un empresario no quiere que, cuando sus clien­tes se refieran a su empresa o sus servicios, digan: “Por supuesto que está permitido, pero no es correcto”. Con el tiempo, las opi­niones van cambiando.

Cuantos más datos se almacenan, mayor es el problema de la privacidad. Por con­siguiente, habrá que incluir todos los as­pectos de la privacidad en este debate, ya hagan referencia a la legalidad o a la le­gitimidad. ¿Qué sucedería si se perdiera a los clientes como resultado de las acciones propias o de las de un solo empleado? ¿O si se perdiera personal? ¿O a los socios? ¿Qué pasaría si los reguladores perdieran su confianza en la empresa? ¿Y si se perdie­ra a sí misma? ¿Y cómo se mantiene bajo control el análisis del big data, del machine learning y de los bots? Esto ya es un tema que va más allá; de una complejidad mu­cho mayor.

Guía moral

Bob Dylan escribió que “para vivir fue­ra de la ley, debes ser honesto”. En estos tiempos, más que nunca, la legislación va muy por detrás de los acontecimientos que se producen en la sociedad. Las empresas públicas y privadas que se plantean utili­zar el machine learning no pueden permi­tirse el lujo de esperar a que la legislación se ponga al día. Hay que “vivir fuera de la ley”, porque la ley ya no basta.

No obstante lo que es legítimo, lo decidirá finalmente la opinión pública imperante. Los dilemas morales no son nada nuevo y las empresas siempre han necesitado tener una guía ética para enfrentarlos. Sin embar­go, debido al auge del big data y del machine learning, esta necesidad empieza a ser im­periosa.

Habrá que decidir si ser legales es sufi­ciente o si, además, hay que ser legítimos. ¿Puede algo ser ilegal y aun así ser legí­timo? Este tipo de preguntas son inevi­tables. Las empresas tendrán que hacer frente a cuestiones morales en un momen­to en que, a menudo, la toma de decisiones está descentralizada, se realiza en equipos autogestionados o, incluso, la realizan or­denadores. Y esto no es algo puntual. A medida que surjan nuevos dilemas mora­les, se darán nuevas respuestas a viejas cuestiones morales.

Valores

Tomar decisiones es fundamental, pero se deben plas­mar en políticas que superen las críticas en futuros debates sociales. Además, se debe garantizar que las perso­nas y las máquinas actúen en consonancia con estas decisiones. ¿Cómo se influye en el comportamiento de las personas y las máquinas? Se pueden fijar normas, por su­puesto, pero esa no parece la mejor forma de incorporar un mapa ético. Es más razo­nable definir principios y, mejor incluso, incorporar estos valores en el ADN de la empresa. De esta manera, todo el mundo sabrá en todo momento cuál es la decisión correcta. Asimismo, no solo se ha de abor­dar el comportamiento visible, sino tam­bién el invisible. Como consecuencia de la presión social, mantener algo en secreto es cada vez más difícil, sobre todo si se trata de algo que no es legítimo. La prensa se llena a diario de histo­rias de este tipo.

A través del marketing, las empresas bus­car transmitir una imagen coherente y consistente. Con el tiempo, la ética y la idea de una responsa­bilidad moral adquirirán mayor protagonis­mo. ¿Estamos preparados para contar con un director general de ética?

La ética y la moral son temas cada vez más importantes. El objetivo es poder tomar decisiones concretas que garanticen que la empresa actúe de forma coherente y sóli­da. En definitiva, la idea es que el empre­sario entienda las decisiones y las explique a sus colaboradores. Asimismo, siempre se debe tener una historia plausible para los accionistas, legisladores, reguladores, auditores y, de hecho, para la sociedad en general. Si no se empieza a trabajar ya en todo esto, pronto se descubrirá que es de­masiado tarde.

Sophia

El robot Sophia puede hablar con la gente e incluso tiene expresiones faciales más o menos humanas. Es ingeniosa, lo cual no forma parte de su programación. ¿Puede un robot ser consciente del entorno y de sí mismo? ¿Puede saber que es un robot? Es más, ¿cómo sabemos que somos humanos? Arabia Saudí incluso le ha dado la ciudadanía a Sophia.