Hemos pasado de usuarios a usados, from “user” to “used”

Su interés por la vertiente humanista de la tecnología —por aquellas cosas que se pueden, y que se deben, hacer— viene de lejos. Una curiosidad que le ha acompañado durante toda su etapa profesional, que ha desarrollado en empresas como HP o la consultora estratégica Quint. De hecho, complementó su formación en teleco a través de un doctorado en gestión del conocimiento, buscando profundizar en esa visión humana de la tecnología.

¿Qué es We the Humans?

Es un think tank independiente que nace con la preocupación, y la ocupación, de conseguir que las tecnologías (en particular la IA, inteligencia artificial) no sean una amenaza, sino una oportunidad. Queremos crear un debate y también soluciones encaminadas a esta mejor gestión de la IA, para que nos ayude a mejorar tanto  los negocios como a las personas.

Creamos conexiones con distintos interlocutores, buscando el punto de vista de las grandes empresas que crean esas tecnologías inteligentes, de los clientes finales que están usándolas, del mundo académico o de la propia sociedad civil. Una de nuestras grandes actividades es un concurso de inteligencia artificial con fines sociales, del que se está celebrando ahora la segunda edición.

La inteligencia artificial no es una tecnología nueva. ¿Ahora es su momento?

Desde hace más o menos cinco años estamos viviendo la explosión de la inteligencia artificial, sin embargo, sus fundamentos son de mediados del siglo pasado, que fue cuando empezamos a desarrollar los sistemas inteligentes (la primera red neuronal se presentó en 1950).

La explosión que estamos viviendo en la actualidad se produce porque es ahora cuando existe la capacidad de computación y de almacenamiento que permite tener una inteligencia artificial aceptable. Antes de esto, sí teníamos los fundamentos, pero no la capacidad tecnológica. Además, ahora se une también la explosión de los datos, de los que se alimenta la inteligencia artificial.

La capacidad de computación y de almacenamiento, junto con los datos, es lo que está permitiendo que la IA sea disruptiva, y que lo vaya a seguir siendo cada vez más durante los próximos años.

¿Hay relación directa entre los datos y la IA?

Los datos son un elemento básico para la tecnología en general. Todo está basado en datos (TI, tecnologías de la información). El salto cualitativo de la IA es que es capaz de extraer más información de esos datos (inferencias, conocimiento…), más de la que nosotros somos capaces. De hecho, la existencia de grandes bases de datos, como son las redes sociales, está facilitando que la inteligencia artificial vaya adquiriendo cada vez más preponderancia.

Está en nuestras manos no hacer caso de las recomendaciones. Incluso, fíjate qué locura, apagar el teléfono

Por otra parte, hemos pasado del software 1.0 (con una base de datos y un sistema que la procesa) al software 2.0, más orientado a las redes neuronales. En este escenario no hay un repositorio conocido de información, una base de datos como tal, sino que el conocimiento está en la propia red neuronal. Es un cambio de paradigma.

En cualquier caso, hablemos de software 1.0 o 2.0, todo está alimentado de datos, que es lo que hace que la inteligencia artificial ahora sea tan potente.

Equilibrio de fuerzas

La IA es una tecnología emergente y hay mucho recelo a la hora de compartir conocimiento. Además, curiosamente, si se es muy transparente mostrando cómo funciona un determinado sistema, explicando cómo ha sido entrenado, es más fácil de hackear.

En estos momentos existe un equilibrio de fuerzas. Por un lado, los recelos en cuanto a explicar cómo funciona (que lo hace menos seguro) y, por otro, la necesidad de transmitir confianza, explicar por qué llega a un cierto resultado. Debemos trabajar juntos —reguladores, proveedores de servicios y la sociedad en general— para alcanzar ese equilibrio, de igual forma a como se ha hecho en otros ámbitos.

¿Hay capacidad tecnológica para gestionar ese volumen de información?

Esta es una buena cuestión. La Ley de Moore, que duplica el número de procesadores cada 18 meses, se espera que finalizará en 2023. Es evidente que estamos ya alcanzando ciertos límites, al menos en cuanto a computación, que ya son físicos. Llegará un momento en el que para algunas soluciones se hará necesario dar el salto a la física cuántica. Por explicarlo de un modo sencillo, la miniaturización extrema hará que el electrón no vaya por el cable y salte.

El siguiente paso será la computación cuántica, aunque se trata de una tecnología muy compleja y que todavía no está suficientemente desarrollada. Por ejemplo, ahora mismo solo disponemos de tres o cuatro algoritmos capaces de ser ejecutados en este modelo de computación.

En lo que respecta al almacenamiento, los límites no son tan evidentes. Está más relacionado con una cuestión de costes y este parámetro va disminuyendo cada vez más. Me preocupan más los límites de la computación, ya que el tiempo real es una característica clave en el uso de estas tecnologías.

No obstante, todavía queda tiempo para el 2023 y seguro que encontraremos alguna solución. Es probable que, para entonces, la computación cuántica haya avanzado más deprisa y pueda ofrecer mejores resultados.

Volvemos a los datos. ¿Qué problemas presentan en su uso con la IA?

Cuando hablamos de sistemas inteligentes hay que tener en cuenta que la tecnología es muy buena haciendo lo que hace. Amplifica aquello en lo que se utiliza y es capaz de llegar a resultados extremadamente buenos o malos. Si le das datos adecuados, da resultados muy buenos, pero si los datos son malos, obtienes unos resultados realmente inservibles. Si los datos tienen sesgo, las respuestas que ofrezca estarán muy sesgadas.

Ahora es cuando podemos empezar a explotar esos datos a través de la inteligencia artificial

Hace años se produjo un escándalo con una tarjeta de crédito de Apple que discriminaba por género. En un matrimonio, el hombre pidió un límite de crédito y le dieron una cantidad que era dos veces superior a la que daban a su mujer bajo las mismas circunstancias. Esto ocurrió porque no se estaban contemplando todas las variables. No era una población de datos completa.

Esto mismo ocurre con lo que se denomina “estupidez artificial”, que está relacionada con datos erróneos que se introducen por descuido o bien porque se fuerza a que el sistema cometa errores. Por ejemplo, un estudio de la Universidad de Carnegie Mellon (Estados Unidos) demostró que se podía falsear el reconocimiento facial con unas gafas muy llamativas (con código de colores) que confunden al sistema. En uno de los ejemplos, un hombre con esas gafas era identificado como una famosa actriz. La inteligencia artificial tiene sus amenazas, pero eso es inherente a cualquier sistema tecnológico.

¿Cómo se están solucionando estos problemas?

Para evitar el sesgo, hay herramientas que permiten analizar, en qué medida, un determinado sistema inteligente está tomando poblaciones de datos equilibradas en ámbitos como sexo, cultura, edad; o de las distintas variables que se quieran definir.

En el ámbito de las redes neuronales también existen herramientas que permiten entrenar al sistema con datos, digamos, algo “viciados”, evitando que puedan ser falseados a través de, por ejemplo, las gafas de colores.

Así como hay métodos específicos de ataques para sistemas inteligentes, también los hay para poner una solución, evitar esos sesgos, etc.

II concurso: IA con fines sociales

Para promover el buen uso de la IA, We The Humans ha organizado la segunda edición de este concurso que busca favorecer la generación de ideas —por parte de emprendedores, startups o iniciativas consolidadas— en torno a proyectos empresariales de inteligencia artificial con fines sociales o medioambientales.

El lema elegido es IA for All: The Good Algorithms y habrá cinco temáticas: salud, sostenibilidad, colectivos vulnerables, inserción laboral y Covid 19, incluyendo propuestas que hayan ayudado a solventar los problemas derivados de la pandemia.

www.wethehumansthinktank.com/concurso-ia/

¿Detrás de una IA ética hay una persona ética responsable?

Es importante esto: las personas éticas que trabajan con máquinas. No debemos preocuparnos tanto de que la inteligencia artificial sea ética. Cuando hablamos de la ética hablamos de sujetos morales, que toman decisiones, realizan acciones y tienen una responsabilidad, ante sí y ante los demás. Responden de ellas. La cuestión es quién responde cuando se trata de un sistema inteligente: el propio sistema o los diseñadores e ingenieros que están detrás.

Debe tratarse todo lo relacionado con la auditoría de los sistemas y de los datos que delimitan esa responsabilidad. Ahora es el momento adecuado para acometer un marco regulatorio claro, que aborde esta nueva realidad y que lo haga de manera paralela a como se está desarrollando la inteligencia artificial. Estamos en el momento adecuado porque la IA está explotando y estamos aprendiendo de esta nueva tecnología.

Todavía no está implantada de forma masiva y estamos a tiempo de conseguir que, de verdad, reporte los beneficios esperados.

¿Qué ocurre con las recomendaciones, las adicciones que fomenta…?

Es verdad que aquí se ha viciado un buen propósito inicial, y esto es algo que casi siempre ocurre: partimos de buenas intenciones, pero por el camino nos vamos torciendo. En este caso se buscaba la experiencia del usuario, que es una sana intención: quiero que mi cliente perciba que es único, especial, y voy a darle todo aquello que hace que se sienta de esa manera.

El problema es que se ha corrompido, y lo que se busca es obtener el máximo beneficio de cada uno de los clientes o usuarios de manera particular. De nuevo, la tecnología es capaz de hacer muy bien lo que se le pide: si se trata de maximizar el beneficio económico de un cliente, lo va a conseguir porque está preparada para eso. Hemos pasado de usuarios a usados. En inglés queda mejor: from “user” to “used”.

Blockchain es un sistema muy robusto y puede ser un buen aliado para el control de la inteligencia artificial

Esto es muy evidente, sobre todo, en las redes sociales, que buscan que estés constantemente conectado, o también en los sistemas de recomendación de compra. Todo eso está basado en sistemas inteligentes que son capaces de analizar tu comportamiento a partir de toda la información que vas dejando, que no necesariamente tiene que ser mucha. En algunos estudios se ha visto que, simplemente analizando el tipo de publicaciones y los amigos que tienes, son capaces de extraer tu perfil de comportamiento, y eso permite que te den una recomendación.

Yo los llamo los “Quijotes digitales”, ligándolo a este personaje que se volvió loco porque no paraba de leer libros de caballerías. De igual forma hoy no paramos de leer las mismas recomendaciones sobre los mismos temas. En cualquier caso, todo depende de nosotros. Está en nuestras manos no hacer caso de la recomendación o de las notificaciones. Incluso, fíjate qué locura, apagar el teléfono.

Hay muchas expectativas sobre el uso de la IA en medicina

Efectivamente. De hecho, en los primeros meses de la pandemia se pusieron muchas esperanzas en la tecnología en general, y en la inteligencia artificial en particular. En aquel momento, en la primera ola, la IA no respondió a esas expectativas y no dio los resultados esperados, pero ahora ya se están empezando a recoger. Recientemente se ha informado que es capaz de reconocer, a través de una radiografía de los pulmones, si una persona tiene la COVID-19 u otro tipo de enfermedad. Posiblemente, también se ha utilizado en la elaboración de las vacunas.

En ambos casos, el matiz está en que la inteligencia artificial necesita datos. Ahora es cuando empezamos a tener información, sobre el comportamiento de la enfermedad, radiografías de los pacientes… Ahora es cuando podemos empezar a explotar esos datos a través de la inteligencia artificial.

Es evidente que existen ciertas barreras. Hablamos de datos médicos, que es información personal que hay que anonimizar, y eso lleva tiempo. Además, en medicina, las bases de datos no siempre están unificadas, suele haber silos de información. Pero son retos que se irán salvando y acabaremos usándolos.

Hemos aprendido que la inteligencia artificial funciona, y que lo hace cuando tiene datos. Una vez que estén disponibles, esto va a ser exponencial y muy útil.

El gran reto son los datos, que sean fiables, accesibles…

Efectivamente. Una de las tendencias en este sentido es contar con una identidad digital personal, que debe estar basada en una regulación relativa al uso de los datos. De hecho, la Unión Europea está defendiendo la creación de un mercado único de datos, con empresas que se dediquen a esa gestión y que no puedan hacer negocio con ellos, lo cual tiene bastante sentido.

Muy posiblemente, será la integración de la inteligencia artificial y el blockchain lo que permita resolver estas cuestiones de identidad, de seguimiento, de fiabilidad. Blockchain es un sistema muy robusto y puede ser un buen aliado para ese control de la inteligencia artificial.

La Unión Europea está defendiendo la creación de un mercado único de datos

En todo caso, esta sería una solución técnica, que habría que completar con soluciones de gestión, con entender cuáles son las complicaciones de la inteligencia artificial, los retos éticos… Todos los niveles C de una compañía tienen que ser conscientes de los límites de la tecnología, conocer los problemas asociados y las soluciones existentes, también dentro del ámbito de gestión.

Hay soluciones tecnológicas, existen herramientas que averiguan el sesgo, se puede usar las cadenas de bloques o blockchain…; pero también tenemos que desarrollar nuevos roles y crear conciencia dentro de las organizaciones acerca de los retos y de los elementos de gestión necesarios para conseguir que la IA no sea una amenaza, sino una ayuda.