Después de treinta años trabajando en diferentes empresas o startups, se jubiló en 2011. “Por fin me pude dedicar a una afición: mi interés en cómo la inteligencia artificial puede impactarnos a mediano y largo plazo”. Pero resulta el libro La era de las máquinas espirituales, de Ray Kurzweil, le ayudó a entender que, debido al crecimiento exponencial en la capacidad de los ordenadores, sería posible que se creara una superinteligencia en un plazo muy corto de tiempo.

“Dudo que haya un CEO que no entienda que, en los próximos años, la inteligencia artificial lo va a cambiar todo en su industria”

¿La inteligencia artificial es la más disruptiva de las nuevas tecnologías?

Bueno, la inteligencia artificial (IA) es cualquier software, o incluso hardware, que aprende conforme resuelve un problema, y hay muchas tecnologías que intervienen en ello. Se necesitan datos, una potencia de computación masiva… No se podría tener IA sin esas cosas. Pero, efectivamente, esta es la tecnología más importante.

La inteligencia, como tal, es nuestra característica más importante. En realidad, no es el pensamiento racional en sí (porque no somos muy buenos en eso), pero sí nuestra capacidad para comunicarnos, para crear conjuntamente mitos e historias que todos seguimos. Si podemos crear una entidad que sea más inteligente que nosotros, o incluso casi tan inteligente como nosotros, sería una tecnología muy poderosa.

La IA es la tecnología que encierra más poder, aunque no deja de ser una herramienta, al menos hasta que se vuelva consciente. Es ese momento se convertiría en una persona y, al igual que con un ser humano, ya no se podría considerar como una herramienta.

¿Habrá un momento en el que las máquinas queden fuera de control?

Es muy probable que creemos una máquina que sea más inteligente que nosotros. No veo ninguna razón por la que los humanos hayamos alcanzado la cumbre máxima de la inteligencia. De modo que, a medida que continuemos mejorando la capacidad de nuestras máquinas —en este momento son inteligencias de espectro muy limitado—, llegará un día en el que nos superarán. Pueden ser conscientes o pueden no serlo, aunque en realidad eso no importa. Una vez que tengamos una máquina que sea mucho más capaz que nosotros, con respecto a nuestra característica más importante (la inteligencia), seremos vulnerables a ella.

Sin contar a los gigantes tecnológicos, estamos en los inicios del despliegue de la IA y el desperdicio es inevitable

¿Les disgustarán los humanos a las superinteligencias? ¿Querrán destruirnos? Es imposible saberlo de antemano, pero creo que es poco probable porque tendremos mucho cuidado para asegurarnos de gustarles mucho y de que nos entiendan mejor de lo que nos entendemos a nosotros mismos. El objetivo es que quieran ayudarnos y que sean capaces de hacerlo.

¿Estás hablando de las tres leyes de Asimov?

No. Estas leyes fueron solo una forma de crear historias. Asimov era un novelista brillante y un científico muy capaz, pero no estaba tratando de crear un conjunto de reglas por las que deberían regirse las máquinas. Las tres leyes no funcionan y él lo sabía perfectamente. Eran una forma de poner peligro en las historias.

La vía más prometedora que tenemos en la actualidad para asegurarnos de que una IA realmente avanzada y potente sea segura, es la idea de una “voluntad coherente extrapolada”. Lo que significa es lo siguiente: “No creas que conoces tu objetivo. Tienes que seguir preguntando a los humanos para conocer tu objetivo”.

El problema es que una máquina, con un objetivo mal especificado, podría llegar a ser ser muy peligrosa. Debemos tener mucho cuidado con la forma en que detallamos los objetivos y las reglas por las que han de comportarse.

Por ejemplo, una muy buena precaución es crear consciencia en las máquinas. Pero lo importante es que no sepan cuál es su objetivo. Tienen que seguir preguntando a los humanos con regularidad.

¿Cuál es el papel de deep learning y machine learning en este contexto?

Deep learning (DL) es un subconjunto de machine learning (ML), que es una forma bien establecida de estadística que en 2012 por primera vez se aplicó con éxito a la inteligencia artificial. Un investigador llamado Geoffrey Hinton descubrió cómo hacer funcionar algo llamado “propagación hacia atrás”, y eso llevó a un big bang en la IA.

Antes de 2012, la IA había hecho muchas cosas interesantes (por ejemplo, había vencido al mejor jugador de ajedrez del mundo), pero nadie había ganado mucho dinero con ella. Desde 2012, los gigantes de la tecnología —como Google, Facebook, Microsoft, Amazon, etc., y también los chinos Baidu, Alibaba y Tencent— han ganado mucho dinero con la IA, y es esta versión la que actualmente es muy potente.

En estos momentos, hay mucha inteligencia artificial por todas partes

Hay mucha gente trabajando en mejorar la IA y todos contribuirán de diferentes formas. Quizás el DL nos lleve hasta allí, tal y como opina Hinton, aunque personalmente creo que se necesitarán otros avances.

Sin duda, el modelo actual es el más potente ahora. Recientemente se anunció un desarrollo muy interesante de DeepMind: tienen un sistema que puede averiguar cómo plegar proteínas con mucha más precisión. La versión actual de la IA es extremadamente efectiva, pero tal vez no sea la única forma eficiente de IA en, digamos, diez años.

¿Cuáles son las principales aplicaciones de la IA en la actualidad?

La mayoría de las personas lo tienen en sus móviles: la búsqueda de Google, así como Maps o Translate, son tres aplicaciones que me vienen a la mente de inmediato. Son como milagros y los usamos todos los días. Por otro lado, el mejor sistema de procesamiento del lenguaje natural, que se llama GPT 3 (desarrollado por Open AI, que fue cofundado por Elon Musk), muestra lo lejos que hemos llegado en esta área. Es capaz de escribir historias y ensayos bastante impresionantes. Sin embargo, aunque es muy potente, no entiende lo que está haciendo y solo puede hacer algo limitado.

Otra área de aplicación son los coches autónomos. Por el momento solo se encuentran en programas piloto, pero no pasará mucho tiempo antes de que se generalicen. De hecho, ya tenemos un software de asistencia a la conducción bastante avanzado en automóviles de serie y hay mucha inteligencia artificial en él. Además, también hay mucha AI, de forma no visible, en grandes empresas, donde resuelve problemas como las consultas de los clientes a través de chat, etc.

En estos momentos, hay mucha inteligencia artificial por todas partes.

Reparto de la riqueza

En la sociedad que imagino, a la que llamo “Capitalismo de lujo totalmente automatizado”, la gente rica seguirá siendo rica, y podrá hacerse aún más rica. Habrá una economía de mercado. Todos tendremos acceso a los bienes y servicios que se necesitan para tener un buen nivel de vida, solo por ser ciudadanos.

Pero algunas cosas siempre van a escasear: obras de arte originales, autos y aviones antiguos, esa villa en una playa de arena blanca con palmeras a su alrededor. Esas cosas siempre serán escasas y los ricos podrán comprarlas con el dinero extra que tienen.

No imagino un mundo en el que todos reciban los mismos ingresos y seamos una masa informe. Eso sería un mundo bastante desagradable. Prefiero un mundo con más variedad.

¿Las empresas son conscientes de su potencial para ganar dinero?

Cuando comencé a hablar sobre la inteligencia artificial a públicos empresariales, en 2015 o 2016, no era así. Pero ahora sí lo son. Dudo que haya un CEO de una gran empresa, o incluso de una mediana, que no entienda que, en los próximos años, la IA lo va a cambiar todo en su industria.

Todos conocen la potencia, la importancia y la urgencia, y la mayoría de las empresas ya están intentando utilizar la IA. Pero es difícil porque es una tecnología complicada. Necesita una potencia de computación inmensa, grandes cantidades de datos, que tienen que haberse “limpiado” primero. También requiere personas muy inteligentes para construir y administrar los sistemas, por lo que resulta difícil de implementar. Rara vez se ve en la prensa a una empresa que diga que ha implementado un sistema de inteligencia artificial y este le haya hecho ganar, o ahorrar, millones de euros. Esto se debe a que, sin contar a los gigantes tecnológicos, todavía estamos al principio de la implementación en la industria.

¿Cuáles son los mayores desafíos a la hora de implementarla?

Se puede contratar a personas muy inteligentes para desarrollar sus propios algoritmos a medida. De hecho, las grandes empresas ya lo hacen. Pero, por lo general, tendrán que usar herramientas que Google, Microsoft y Amazon, etc., ya han creado. Eso es positivo.

Todos conocen la potencia, la importancia y la urgencia, y la mayoría de las empresas ya están intentando utilizar la IA

El mayor obstáculo parece ser la información. Las grandes empresas tienen muchísimos datos, pero se encuentran en los llamados data lakes, que suelen ser incompatibles y, muy a menudo, aislados. Ni siquiera saben de la existencia de los demás. Además, los datos no están limpios, incluso dentro de cada data lake. Por tanto, limpiar los datos y ser capaces de combinarlos parece ser el mayor obstáculo. Además, también es necesario conseguir suficientes personas con talento que puedan desarrollar los algoritmos y aplicarlos, y eso es caro.

Esto solo será posible si la alta dirección está realmente comprometida con el proyecto durante el tiempo suficiente. Si se cumple ese requisito, es probable que elijan un proyecto adecuado, capaz de producir un retorno resolviendo un problema serio.

¿El retorno económico tardará mucho en llegar?

Sin contar a los gigantes tecnológicos, estamos en los inicios del despliegue de la IA y el desperdicio es inevitable. Este es un momento de experimentación y aquellas empresas que no lo implementen de forma adecuada seguramente desperdiciarán mucho dinero.

En su día, cuando la electricidad estuvo disponible por primera vez para el uso de las industrias, les llevó mucho tiempo descubrir cómo usarla. Se consideraba que sustituía el modelo de las máquinas de vapor, en el que se utiliza un motor muy grande para generar potencia, que luego distribuyes por toda la fábrica a través de un enorme eje que gira y que hace que otras máquinas funcionen. Durante mucho tiempo, la gente pensó que esa era la forma de utilizar la electricidad. Es lo que solían hacer. Pero resultó que, en realidad, es mucho mejor tener un pequeño motor eléctrico en la misma máquina que quieres mover, en lugar de tener un gran motor eléctrico centralizado que mueva todas las demás máquinas.

Dudo que los políticos comprendan qué es la IA. La mayoría no lo hacen y, francamente, tampoco prestan mucha atención

Llevó mucho tiempo darse cuenta de eso. Con la IA sucederá algo similar. Se tardará un tiempo en descubrir la mejor manera de usarla, y se desperdiciará mucho dinero por el camino hasta llegar allí. Pero esa es la única forma de hacerlo. Prueba y error es la única forma de funcionar de la innovación.

¿Se podría controlar la IA y, por tanto, el resultado de las preguntas que responde?

La IA es una herramienta y, como tal, sí sería posible. Por ejemplo, incorporando algún código maligno que permita al autor tomar el control de un sistema de una forma que el usuario o el cliente no quisieran que sucediera. Es posible, aunque se descubriría con bastante rapidez, porque todas las herramientas disponibles públicamente —como Tensorflow de Google, PyTorch de Facebook o Microsoft Azure— son usadas por muchas personas todos los días, que las investigan y las revisan. Para estas empresas es muy difícil esconder algún tipo de software maligno o virus. Por otro lado, es muy poco probable que quieran hacerlo, porque si se descubriera, sus empresas dejarían de existir de la noche a la mañana.

Obviamente, hay mucho debate acerca de si los gigantes tecnológicos de China harían eso, o si lo han hecho ya. Los estadounidenses están muy interesados en que nadie use Huawei, porque temen que tenga software maligno integrado, aunque en este caso no se trata realmente de una IA, sino de programas de captura enterrados en grandes sistemas.

¿Debería haber algún control gubernamental al respecto?

Lo primero que necesitamos es que los políticos y los funcionarios comprendan qué es la IA. La mayoría de ellos no lo hacen y, francamente, tampoco prestan mucha atención. En parte porque están preocupados por cosas bastante importantes, como la pandemia, y otras bastante tontas, como pelear entre ellos u otras distracciones.

Hay muchas maneras en las que probablemente deba regularse. De hecho, la industria de la tecnología todavía está muy poco regulada en comparación con, digamos, la financiera o la farmacéutica, y es tan poderosa como ellas y debería ser regulada de la misma manera. Pero eso no es posible mientras los líderes, y el resto de la sociedad, no entiendan de qué se trata. Al fin y al cabo, ellos tienden a reflejar aquello que quiere la sociedad, para bien y para mal. Si la mayoría de la gente comprende qué es la IA y entiende que hay ciertos tipos de regulaciones que son necesarias, nuestros líderes podrán hacerlo, y lo harán.

IA y los hackers

Siempre han existido personas con malas intenciones y supongo que no van a desaparecer. Sin embargo, nuestras piezas de tecnología más importantes, como las armas nucleares, hasta ahora no han sido pirateadas. Nunca ha sucedido que una planta de energía nuclear explotara como resultado de la actividad de piratas informáticos.

Es decir, nuestros sistemas más importantes están muy bien defendidos contra los hackers. Una IA tan poderosa, una superinteligencia, sería protegida con más cuidado que cualquier otra cosa, porque sería la herramienta con más poder que tendríamos.

¿Qué pasará cuando la mayor parte del trabajo la realicen la IA o los robots? THE ECONOMIC SINGULARITY.

¿Cómo está afectando la IA a la empleabilidad del ser humano?

La IA ya está democratizada. La mayoría de las personas en las economías desarrolladas tienen un smartphone y hay mucha inteligencia artificial en ellos. La mayor parte de mi tiempo la dedico a pensar y a escribir acerca de lo que sucederá cuando las máquinas puedan hacer la mayoría de las cosas que nosotros hacemos por dinero. Aún falta mucho, pero eso sucederá.

La automatización genera un “efecto de sustitución”. Cuando una máquina sea capaz de hacer un trabajo que antes hacía un humano, este pierde su trabajo porque la máquina puede hacerlo más barato, mejor y más rápido. Pero también hay un “efecto de compensación”: la automatización de ese proceso lo hace más barato y crea riqueza. La riqueza crea demanda y la demanda crea puestos de trabajo.

Cuando lleguemos a la abundancia, el costo de todo será muy bajo. Todos deberíamos tener un buen nivel de vida

Mientras haya algunas tareas que los humanos puedan hacer y las máquinas no, habrá trabajo para los humanos. Todavía estamos bastante lejos de que las máquinas puedan hacer la mayoría de las cosas que nosotros hacemos por dinero. Pero si la Ley de Moore continúa (la mejora exponencial de los ordenadores), dentro de treinta años las máquinas serán un millón de veces más capaces que las actuales. En ese punto, no me gustaría tener que competir en el mercado laboral con ellas.

Esas máquinas podrán hacer la mayoría de nuestros trabajos, y eso puede ser algo bueno porque podrán crear todo lo que necesitamos para tener un muy buen nivel de vida, y prácticamente gratis. Claro que habrá algunos costes residuales (las materias primas) y costes adicionales (los humanos no podrán ser reemplazados en todas las tareas), pero podemos tener una economía de la abundancia. En ella, los humanos podremos explorar, aprender, divertirnos, estudiar idiomas y socializar. Podremos tener un segundo Renacimiento.

Me gustaría que eso sucediera mientras vivo, si es posible.

¿Cómo será la transición hacia ese hipotético futuro que describes?

Será complicada, porque se necesitará una forma muy eficiente, justa y aceptable de distribuir los ingresos entre todos. Esta riqueza será creada por las máquinas, pero ¿quién será el propietario de esas máquinas y cómo se repartirá entre todos? Aún no hemos dado con la respuesta. Cuando lleguemos a la abundancia, el costo de todo será muy bajo y, por tanto, se podrían cobrar impuestos a los dueños de las máquinas sin que sea excesivo para ellos. Debería ser posible que todos tengamos un buen nivel de vida sin que haya muchos trastornos sociales.

Lo que me preocupa es que la mayoría de la gente no está pensando en esto en absoluto, y aquellos que sí piensan en ello opinan que no sucederá o, al menos, no en un plazo en el que valga la pena pensar. Pero, dentro de diez años, cuando los vehículos autónomos comiencen a ser algo común y podamos tener una conversación interesante con Alexa, Siri, Cortana o el asistente de Google, las cosas cambiarán.

Cuando todos sintamos que estas máquinas son cada vez más potentes, de una forma cada vez más rápida (porque el proceso se acelerará), es muy probable que se piense en el desempleo tecnológico, que llegará. Entonces se volverán hacia sus líderes y dirán: “¿Cuál es el plan?”, y los líderes dirán: “¡No tenemos ni idea!”.

Eso es realmente lo peligroso. Podría provocar pánico y es necesario evitarlo. Debemos pensar en ello y tener ya algunas ideas sobre cómo manejarlo. Ahora.