Inteligencia artificial o humana

¿Puede pensar una máquina?

16129
Inteligencia artificial o humana

Intelgencia artificial o humana. En 1950, Alan Turing se preguntó ¿Puede pensar una máquina? Viendo que pisaba un terrero complicado, al incluir en la misma frase las palabras pensar y máquina, la reformuló como: ¿Puede una máquina imitar a un humano? La primera pregunta iguala máquina con humano y eso nos inquieta. La segunda indica cierta superioridad, algo que nos deja más tranquilos.

Alan Turing a la edad de 16 años. Fuente Wikipedia.

Así, Turing ideó unas preguntas que debería poder identificar si, tras las respuestas, había un humano o una máquina. Esta ganaba si conseguía engañar más del 70% del tiempo a sus interlocutores humanos en conversaciones de texto de cinco minutos. Desde entonces mucho han cambiado las máquinas y poco los humanos.

Inteligencia artifical neutra, ética y con valores

Dejando atrás la maledicencia de si piensan algunos humanos, hasta la fecha, todos los desarrollos de IA han tratado de imitar la inteligencia humana. ¿En qué punto un sistema artificial, o uno humano, puede reproducir una respuesta que denote comprensión? Si un humano no comprende una idea, un problema o una pregunta, ¿implica menos inteligencia que una máquina que tampoco las entienda?

Posiblemente, muchas de las habilidades y capacidades para parecerse a nosotros, e imitarnos, se han centrado exclusivamente en la inteligencia y el pensamiento. Pero se trata de ir más allá: que las máquinas adquieran nuestra inteligencia emocional y pensamiento crítico.

¿Qué podemos preguntar hoy a una inteligencia artificial para diferenciarla de una inteligencia humana?

Si, además, ciertos comportamientos humanos inteligentes son inhumanos, ¿por qué esperamos que comportamientos artificiales inteligentes no lo sean?  ¿Cómo conseguir una IA neutra, no contaminada por limitaciones y sesgos humanos, cuando somos nosotros quienes la diseñamos y programamos? ¿Cómo conseguir una IA ética y con valores?

En Blade Runner (1982), película basada en la novela de Philip K. Dick de 1968, ya se sometía a un replicante (copia de un humano creado artificialmente), a diversos test para ver alteraciones en las respuestas o emociones en los gestos, y así averiguar si eran o no humanos. Pero durante la película surgía la duda: ¿quién de los dos era más humano, el entrevistador o el entrevistado, el humano o la máquina?

Actualizar el test de Turing

Cualquiera de los actuales desarrollos de IA pasaría con facilidad el polígrafo de Turing, con lo que parecía lógico actualizarlo. ¿Qué podemos preguntar hoy a una IA para diferenciarla de una humana? Aquí van algunas propuestas para descubrir a un replicante:

Test de Eugene Goostman. Hay que poner a prueba las capacidades de las máquinas en campos como la visión espacial artificial o el reconocimiento del habla. En esto se basa este test, pionero en demostrar que el de Turing estaba obsoleto. El objetivo es descifrar el significado de un vídeo o algo tan humano —y a veces nada sencillo si no se tiene práctica— como montar un mueble.

Puede parecer un proceso mecánico, pero hay que identificar las piezas, entender las instrucciones y finalmente montarlo en orden. Pero ¿qué pasaría si no tuviéramos las instrucciones? ¿Haríamos mejor como humanos lo que pedimos a las máquinas? Ya conocemos la respuesta: incluso con las instrucciones nos cuesta.

Mucho han cambiado las máquinas desde que se ideó el test de Turing, y poco los humanos

CAPTCHA. Aparece en muchas webs como filtro antispam. Eran una prueba eficaz, aunque cada vez menos, para detectar si es un bot o un humano quien intenta acceder. En esto se basan los CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart), ejemplos de lo que se conoce como test de Turing en reversa. La propuesta surge en los años 2000 y fue descrita por el profesor canadiense Peter Swirski.

El desafío viene al intentar entender un concepto cuando los elementos están desordenados o distorsionados. Para resolver los CAPTCHA hace falta mente abierta e imaginación, un ámbito en el que las IA, que trabajan con parámetros fijos, pueden tener dificultades. Incluso los humanos las tenemos.

Test de Lovelace. No hay que imitar a los humanos sino adquirir su lado más creativo, como escribir una historia, crear un poema o dibujar una pintura que pase el escrutinio de los examinadores. Sin embargo, hemos visto que las IA generativas en código abierto (Stable Diffusion, Midjourney, DALL-E o ChatGPT) son capaces de pasar este test con relativa facilidad: generan imágenes a partir de un texto descriptivo o crean documentos a partir de ideas muy básicas.

Test de Esquemas de Winograd. El siguiente nivel consistiría en resolver anáforas, o sea, figuras retóricas o literarias para poner a prueba el procesamiento en lenguaje natural. Las máquinas son eficientes a la hora enfrentar problemas que pueden formularse y entenderse como un algoritmo, pero cuando el lenguaje es más cotidiano y contiene ambigüedades, muchas de ellas fallan. A nosotros también nos sucede y debemos repreguntar.

Hoy en día estos esquemas son la base de pruebas de referencia como GLUE (General Language Understanding Evaluation), conjuntos de datos utilizados para entrenar, evaluar y analizar modelos de programación neurolingüística entre sí, con la finalidad de impulsar el desarrollo de sistemas fiables de comprensión del lenguaje natural humano.

¿Puede pensar una máquina?Test de Gary Marcus. En un artículo publicado en New Yorker, un profesor de psicología de la Universidad de Nueva York describió una alternativa al test de Turing, centrándose en otra capacidad muy humana: el humor. La prueba consiste en darle a la inteligencia artificial un programa de televisión y que nos diga cuándo deberíamos reírnos, o darle un documental de guerra y que nos describa las motivaciones políticas.

Entender el sarcasmo, la ironía, el humor, la tristeza, la devastación, es el test que Marcus cree que las máquinas deberían ser capaces de pasar para poder asemejarse a los humanos. Para sorpresa nuestra, las máquinas ya lo superan.

La prueba de Edward Feigenbaum. El padre de la computación y de la IA fue quien ideó una prueba sencilla a priori, pero compleja de realizar: intentar que la IA se haga pasar por “especialista en un tema concreto” frente a un experto humano. Pero, si las maquinas, desde hace mucho, han derrotado a los mejores en Ajedrez (en 1997), en el concurso Jeopardy (en 2011) y en el juego de estrategia Go (en 2016), posiblemente la pasarán también ¡Aunque más complicado será por ahora, permítanme otra maldad, que suplanten a un jugador de Mus!

Prueba de Robert Ebert. Un crítico de cine que perdió la voz y necesitaba un sintetizador para comunicarse propuso otra prueba, todo un desafío para que una máquina pueda replicar las entonaciones humanas, sincronizar bien las palabras y, lo más complicado, ser capaz de mostrar sentido del humor ante la adversidad.

Hay que poner a prueba las capacidades de las máquinas en campos como la visión espacial artificial o el reconocimiento del habla

Para que una IA logre hacernos reír no es suficiente con elegir un chiste de un amplio catálogo. Debe ser capaz de empatizar y emocionar, de aportar algo novedoso. El cómo y el quién importan más que el qué. Probablemente, de todas las alternativas al test de Turing, la prueba de Ebert es de las más complicadas de pasar. ¿El test definitivo se ha creado? Pienso que no. Según avancen las IA habrá que desarrollar nuevas pruebas. Pero ¿acabarán las máquinas desarrollando test para diferenciar a los seres humanos?

Nosotros nos emocionamos ante una poesía de Bécquer o de Lorca tanto por su historia como por el relato que acompaña esas vivencias. Eso aún no lo puede ofrecer una IA. Les falta la motivación, el contexto, los recuerdos. Les falta corazón y alma; conciencia y sentimientos, que, por otra parte, los robots de Blade Runner parecían tener más que los propios humanos, lo que los hacía indiferenciables.

Los replicantes deseaban conocer a su creador/programador, eran capaces de amar, soñaban, tenían miedo a la muerte, etc. En definitiva, se hacían las mismas preguntas que nos hemos hecho los humanos desde nuestros orígenes. Hoy estamos aún lejos (sic) de conseguir esto en una IA.