5 – Bebés contra robots (2ª parte)

  • por
Logonautes
5 - Bebés contra robots (2ª parte)
/

En este episodio continuamos siguiendo los pasos de miniByron y desenmascararemos a Sophia, la robot espeluznante a la que hay que bajar un poquito de su pedestal. Veremos qué es lo más sorprendente de cómo adquieren el lenguaje los humanos y de cómo lo hacen las inteligencias artificiales. Presentaremos una IA llamada GPT-3 que ha dejado pizcuetos a los expertos en deep learning y de la que vamos a tener bastantes noticias en el futuro. ¿Cómo quedará el combate de bebés contra máquinas?

Música y audios:

  • MartiSingingHolaDonPepito.wav por Emilia. CC-BY (link). Versión de la canción Hola, don Pepito, de Ramón del Rivero (1971): link
  • Nightclub Jazz Hip Hop por Auditone Music Library. Link
  • Symphony no. 9 in D minor, Op. 125, de Ludwig van Beethoven, por Skidmore College Orchestra. PD (link)
  • Diálogo Sophia (traducción propia) extraído de Robot Sophia Got Shut Down by her Creator. Link
  • Punching and Uppercut.wav, por 18hiltc. CC-BY (link)
  • Siegfried Idyll, WWV 103, de Richard Wagner. por Steve’s Bedroom Band. CC-BY (link)
  • Also sprach Zarathustra, de Richard Strauss. Fanfare for Space por Kevin MacLeod (incompetech.com) CC-BY (link)
  • Beauty Flow by Kevin MacLeod. Link: https://incompetech.filmmusic.io/song/5025-beauty-flow. License: http://creativecommons.org/licenses/by/4.0/
  • Time travel, por Freemaster2. CC-BY (link)
  • Suite in D minor, HWV 437 (II. Courante), de George Frideric Handel, por Constantin Stephan. CC-BY-NC (link)

Referencias:

Bebés contra robots (parte 2)

Estás escuchando Logonautes, una expedición rumbo al lenguaje y al cerebro a bordo de una historia cada día.

En un lado del cuadrilátero tenemos a Lord Byron, en representación de los homo sapiens de 4 años, que adquieren el lenguaje de manera natural e inevitable. Con cuatro años lord Byron ya sabe que lo que pensamos las personas no corresponde necesariamente con la realidad, que cada uno tiene sus pensamientos, sus idas de olla. Es decir, ha adquirido lo que se llama la Teoría de la mente. O dicho de otra manera, ya es capaz de inferir estados mentales ajenos. Esto le permite, entre otras cosas, mentir, engañar y manipular a los demás, algo muy útil si te conviertes en escritor, infiel, moroso... Bueno, todos mentimos. Al fin y al cabo, ¿quién no le ha cargado las culpas sobre algo a su hermano pequeño?

Pero este cerebrito homo sapiens, aunque ya ha adquirido la mayoría de la gramática, aún está poco hecho. Necesita un par de vueltas más. Tendrá trabajo que hacer con la comprensión de la ironía y del sentido figurado, algo que Byron dominará e incorporará a su arte y a sus conversaciones cotidianas.

Al otro extremo del cuadrilátero se encuentra la espeluznante Sophia, una robot creada por Hanson robotics que charla con los humanos y hace reflexiones sobre la eternidad y su existencia en este mundo.

  • ¿Estás contenta de estar viva?
  • Por tu tono deduzco que debería estarlo, pero todavía no he estado viva tanto tiempo como para saberlo. Ahora mismo estoy contenta de estar haciendo un amigo.

Vamos a darle un crochet a esta robot, ahora que se había confiado… Pensábamos que Sophia cuando decía cosas como esa estaba creando frases de manera composicional, juntando palabras para formar sintagmas que irían dentro de otros sintagmas, pero, oh, sorpresa resulta que estas preguntas y respuestas son guiones que alguien de Hanson robotics ha introducido tal cual en el sistema de Sophia. Ay, pillines. A ver, eso no es un problema. En los chatbots se utiliza mucho esta estrategia. El chatbot tiene que entenderte lo mejor posible y seleccionar de entre un conjunto de frases cuál es la que mejor se adapta como respuesta. Ya sabemos que, cuando Alexa nos dice en qué puedo ayudarte, no está componiendo la frase uniendo todos sus constituyentes. Pero, como decía aquel, que no nos engañen, que nos digan la verdá! Parece ser que Sophia ha generado bastante salseo en el mundillo de la IA y se ha ganado la animadversión de los expertos en inteligencia artificial porque Hanson robotics afirma que su sistema está “vivo” entre comillas, que tiene sentimientos, que está en la vanguardia de la IA. Sus críticos dicen que no deja de ser simplemente un chatbot con cara. También se ha criticado que los creadores de la robot introdujeran algunas bromas que gasta que estigmatizan la IA, como que podría destruir a la humanidad. Estas bromas se viralizaron y se extendieron por multitud de medios de comunicación. En definitiva, parece que Hanson Robotics quiere publicidad a toda costa, incluso a costa de la verdad y que Sophia no es tan listilla como parece a primera vista.

Volvamos a miniByron. Tiene 4 años. Está sentado en la alfombra jugando con un soldadito de plomo. Anda mal, porque nació con una deformidad en un pie, probablemente lo que se llama pie equinovaro, que produce un pie zambo, hacia adentro, o hay quien lo considera el resultado de una poliomelitits infantil. En cualquier caso, le provoca una cojera que lo va a acomplejar toda su vida y que le va a doler para siempre. Su madre, ya viuda del capitán John Byron, le da amor y todos los cuidados. Cuando Byron crezca se pelearán mucho, pero ahora su madre todavía es su mamita querida y Byron todavía es su pequeñín travieso. Bien, analicemos lo que ha conseguido Byron en apenas 4 años. A diferencia de Sophia, Byron no almacena frases en su sistema para después seleccionarlas de la manera más ajustada a las situaciones. El lenguaje natural no funciona así. El cerebro de Byron ha aprendido un montón de palabras, aunque eso no tiene mérito al lado de un ordenador. Pero lo realmente impresionante es que en este poco tiempo ha adquirido un sistema que le permite crear infinitas expresiones. Frases nuevas, creativas que no ha oído nunca antes. Nadie las ha metido en su sistema. No las ha memorizado. Se las ha inventado él. Por eso a veces dice frases como yesterday I goed en vez de yesterday I went. Lo que se podría traducir con otros ejemplos del español como se ha morido, en vez de se ha muerto. ¿De dónde salen esas palabras? Nadie a su alrededor dice cosas como morido, rompido, ponido… ¡pero sin embargo él las dice! Su cerebro ha puesto en marcha una máquina de hablar que sigue unas reglas y aplicar esas reglas es lo que más le gusta del mundo. Al fin y al cabo, que digamos cosas como puesto en vez de ponido, no deja de ser un accidente histórico…

Las tripas de ese aparato mental que hace frases aún se están estudiando y los investigadores todavía se sulfuran y se ponen colorados como lo hacía Broca en el episodio 3. Pero sí hay dos cosas muy interesantes de esa máquina: la primera es que permite hacer frases infinitamente largas. Lord Byron puede meter oraciones dentro de oraciones (como cuando dice tuve un sueño que no era del todo un sueño), sintagmas dentro de sintagmas hasta el infinito. Es como un juego de muñecas rusas, en el que metes un sintagma nominal dentro de uno preposicional, dentro de uno verbal…). Evidentemente su memoria no puede recordar una frase infinita y sus pulmones tampoco tienen una capacidad infinita para expresarla. Pero aunque su cuerpo tenga un límite, el sistema de hacer frases que ha adquirido no lo tiene. La segunda cosa impresionante es la creatividad con que puede hacer esas frases, que son totalmente novedosas, que no ha escuchado pronunciar a nadie, ni siquiera a sí mismo. Las frases que dice son impredecibles. Ni siquiera él sabe cómo será la siguiente frase que dirá, simplemente manará como el agua de una fuente.

Y todo esto ¿cómo lo ha conseguido? ¿Con un programador que especifique cómo se forman las frases en inglés? Dicho de otro modo, ¿su madre le dio clases de sintaxis? No, simplemente ha estado expuesto al lenguaje. No solo no le han dado clases explícitas sino que las frases que ha ido oyendo están llenas de titubeos, de frases cortadas, de lapsus… Ni de lejos la muestra de lenguaje que ha escuchado puede explicar la perfección de su máquina de hacer frases. Esto que os digo se llama el argumento de la pobreza del estímulo y quiere decir que el input lingüístico que reciben los niños es muy deficitario en comparación con lo que todos esos niños adquieren rápidamente y de manera tremendamente uniforme entre ellos, al margen del lugar en el que nazcan, de la familia que les críe o de la lengua que hablen. Este argumento se utiliza para apoyar la hipótesis innatista, según la cual miniByron y todos los minisapiens nacen con un cerebro preprogramado para adquirir el lenguaje.

Para entenderlo mejor, veamos otra analogía. Se ha comparado la adquisición de la facultad del lenguaje con el desarrollo de la visión. En ambos casos hay un desarrollo anatómico y fisiológico que sigue sus pasos pero que necesita de un estímulo externo para poder llevarse a cabo con normalidad. En el caso de la visión, el estímulo externo es la luz y el mundo que se mueve ante nuestros ojos. Ya sabéis que los bebés no ven muy bien al nacer. Su visión pasará por unas fases de desarrollo concretas durante el primer medio año de vida. Poco a poco irán añadiendo colores, enfoque, la tridimensionalidad de los objetos y del espacio, etc. Pero esos ojos y esos cerebros necesitan del input visual para poder ir superando estos estadios. Si a un bebé le taparan los ojos al nacer durante un tiempo, que no es ético, no lo probéis en casa, se quedaría ciego.

Pues bien, parecido a lo que pasa con la visión, el lenguaje pasa por las fases que vimos brevemente en el episodio anterior. Es decir, según la hipótesis innatista, el lenguaje es una especie de órgano en nuestra cabeza que necesita estar expuesto a una lengua natural para ir desarrollándose y para ir defininiendo la gramática de esa lengua en particular.

En definitiva, que el pequeño Byron de 4 años ha desarrollado una habilidad de potencia infinita con un input externo finito y deficitario.

Parece que los homo sapiens van ganando el combate, porque Sophia no ha estado a la altura con sus guiones preprogramados introducidos por humanos. Pero, cuidado, que la va a sustituir otra IA. Agarraos que vienen curvas.

En julio de 2020 se ha dado a conocer un modelo de lenguaje autorregresivo que ha supuesto un bombazo en la inteligencia artificial. No tiene un nombre tan bonito como Sophia, pero ha revolucionado a los expertos en aprendizaje automático. Se llama GPT-3 y lo han desarrollado en la la empresa OpenAI. ¿Por qué están los de la inteligencia artificial tan excitados? Porque GPT-3, una IA pensada para generar texto ha acabado haciendo cosas que sus desarrolladores no esperaban. GPT-3 no solo ha aprendido a hacer mejor las cosas sino que ha aprendido a hacer cosas nuevas que anteriormente no podía. Veamos cómo va esto.

GPT-3 es un modelo de inteligencia artificial creado para generar texto basándose en predicción de texto, ¿sabéis?, como cuando escribes en el móvil una palabra, como por ejemplo hasta, y te ofrece otra para poner a continuación de las que tenga en su diccionario, como ahora, nunca o lueguito. Esta inteligencia utiliza lo que se llama aprendizaje profundo o deep learning, que suena más cool, que son un conjunto de algoritmos de aprendizaje automático o machine learning.

Esto del texto predictivo puede parecer poca cosa cuando tienes un diccionario como el de tu móvil, en el que tienes que ir introduciendo poco a poco los términos que usas habitualmente y que este no tiene. Pero la cosa cambia si le proporcionas todos los libros públicos en internet, toda la Wikipedia y millones de documentos científicos y noticias de diarios. Es como si tuviera todo el conocimiento humano que está en internet. El resultado es una sorprendente calidad de los textos, que no pueden diferenciarse de los escritos por humanos salvo algunas pequeñas excepciones. Además, ha mostrado unas propiedades emergentes sorprendentes.

Esta IA no solo es capaz de actuar como un chatbot y mantener una conversación de una alta calidad, es decir, siguiendo el hilo de lo que se está discutiendo y con unos comentarios relevantes. Es decir, no recurre a aquello tan cutre cuando no sabe de qué le hablas de interesante, cuéntame más sobre eso. No solo puede mantener estas conversaciones sino que además puede encarnar a un personaje histórico y hablar desde su perspectiva. Así, si en este chatbot que encarna personajes, le preguntas a Turing, a Einstein a Platón o incluso a Dios qué es el fondo de microondas (una movida de física relacionada con el Big Bang) obtendrás respuestas diferentes adecuadas a cada personaje. Pero ahí no queda la cosa, el nivel de comprensión de GPT-3 es tal que ha aprendido a programar dándole las indicaciones en lenguaje natural. Por ejemplo, le puedes decir: haz una app con una barra de navegación con un icono de una cámara, con el título “fotos”, un icono de mensaje. Y GPT-3 programa esa app que viene a ser una especie de instagram.. Además GPT-3 es capaz de, a partir de un titular y un párrafo, escribir un artículo entero que tenga sentido. ¿No es increíble? Eso es más de lo que pueden hacer algunos humanos. De hecho, ha llegado a publicar un artículo en The Guardian, algo que la mayoría como mucho sólo podemos aspirar a soñar.

Marquémonos otro viajecito en el tiempo, pero esta vez, a un pasado reciente.

A finales del siglo veinte, la bestia parda del ajedrez, el llamado ogro de Bakú, el ajedrecista Gary Kasparov fue campeón del mundo durante quince años. Lo que se dice un máquina jugando al ajedrez. Pues bien, en 1997 una máquina, esta vez de verdad, que se llamaba Deep Blue y que desarrolló IBM, derrotó a Kasparov. Fue la primera vez que una máquina ganaba a un campeón del mundo y encima lo hacía con el ogro de Bakú. Esto también ha sucedido más recientemente con el alphaGo un programa informático de IA creado para jugar al juego chino GO. Este juego de estrategia es considerado una de las 4 artes esenciales de la antigüedad china. AlphaGo, que fue desarrollado por GoogleDeepMind, se convirtió en 20015 en la primera IA en derrotar a un profesional de Go. Lo interesante es que esta IA ha seguido jugando y entrenándose consigo misma llegando a adquirir un nivel superhumano. Los humanos no saben exactamente por qué AlphaGo hace algunos movimientos y las partidas se estudian para intentar entender estrategias que antes nunca se habían utilizado. Es decir, que AlphaGo se ha convertido en un maestro de Go para los humanos.

Los humanos hemos hecho máquinas para que hagan nuestras cosas: hablar, jugar, vigilarnos, cuidarnos e incluso hasta rezar. Muchas inteligencias artificiales, como GPT-3, están basadas en redes neuronales que imitan de alguna manera el funcionamiento del cerebro humano. Esas máquinas creadas a nuestra imagen y semejanza están superándonos en algunas tareas y a veces, se giran las tornas y el monstruo enseña al doctor Frankenstein. Entonces, ¿quién ha ganado el combate? Bueno, dejémoslo en tablas, digamos que los humanos perdemos y ganamos al mismo tiempo.

Este podcast vale mucho pero no te cuesta nada. Va directo de mi corazón a tus oídos sin pasar por ningún datáfono. Si quieres ayudar a rellenar la nave de combustible, suscríbete, haz una reseña en iTunes, dame un like, un corazoncito, un retweet, envíame algún comentario, Un poquito de calor a través de esta misión sideral…