En la primera parte de este texto, formulamos una pregunta que fue la siguiente: ¿podrá la IA facilitarnos la comunicación entre nosotros, los seres humanos y nuestros animales? No soy la única que piensa en esto, sin embargo, aquellos que lo pensaron, por el momento, están trabajando con elementos limitados (no todos los animales del mundo), con imágenes (y no siempre audios), en laboratorios, a puertas cerradas, experimentando, con objetivos diferentes que tienen que ver más con áreas como la agropecuaria o agronomía, en papers difíciles, muy lejos de nosotros, etc. o lo desarrollaron en el mundo de la ciencia ficción. En esta segunda parte, describiremos lo que está pasando en el mundo del cine.

En esta segunda parte, tal como venimos anunciando, nos dedicaremos a este tema en el cine. En un mismo mes, se estrenaron dos películas que tratan sobre esto: una es The wild robot y Mickey 17. Mientras les voy contando sobre las películas, iremos viendo y desarrollando conceptos de IA que les ayudarán a entender mi razonamiento. Pero hay algo que tiene que quedar bien claro y que acompaña a nuestra tesis de que la IA aún no va a conquistar el planeta: ambas películas están siendo incluidas en el género de ciencia ficción. 

Vayamos a los ejemplos:

Se larga la primera: The wild robot cuenta la historia de un «épico viaje de un robot -la unidad 7134, Roz- que naufraga en una isla deshabitada y debe aprender a adaptarse al entorno, entablando relaciones con los animales de la isla que son, efectivamente, los únicos habitantes de la misma». Por eso, la necesidad de comunicarse con los animales es imposible de eludirEmpieza la película y, rápidamente, el robot se encuentra con el problema planteado en la sinopsis: no puede ofrecer sus servicios porque su “cliente” no lo entiende y él no entiende a sus clientes que, en esta isla, son los animales.

Entonces se da la siguiente situación que vemos en la imagen: un zorrino que le habla al robot y le dice, supuestamente, un montón de cosas en «idioma zorrino» que, el robot, por supuesto, no comprende.

 

El robot, entonces, le responde lo siguiente: «Tu dialecto no está en mi base de datos. Dile a los tuyos que no se preocupen. Rozzum 7134 solucionará esta barrera lingüística en un instante. Activando modo de aprendizaje». Pueden ver también el video.

Antes de seguir, hay que adentrarse un poco en lo que implica que un robot o una IA puedan solucionar esta barrera lingüística y en qué implica activar un modo de aprendizaje.

 

Breve introducción al Machine Learning o aprendizaje automático:

Por lo que venimos investigando sobre IA, sabemos que toda la cuestión del entrenamiento de los robots se basa en un primerísimo primer paso que tiene que ver con reconocer patronesLa cosa es así: los robots se entrenan, es decir las IA (que son robots) se entrenan. Entrenarlas significa enseñarles ¿Cómo se entrenan? Supongamos que queremos que una IA reconozca a un elefante porque va a ser una IA utilizada en un zoo que necesita clasificar elefantes y, en función de eso, pergeniar un nuevo programa para trabajar con mayor eficiencia con los elefantes. Pues bien, para ello, nuestro robot necesita, antes que nada y obviamente, saber identificar un elefante.  

Lo que vamos a hacer es enseñarle a identificar a un elefante a través de imágenes. Luego veremos que también podemos enseñar a un robot a través de audio y texto. Entonces, a través de un programa – sobre el que no entraré en detalles, pero que pueden ver, probar y entrenar leyendo los pasos a seguir en el libro que escribimos con Carina Lion (Lippenholtz, B. y Lion, C. (2025). Experimentar con IA. Notas para educadores alertas. Editorial Tilde le vamos a ir mostrando millones y millones de imágenes de elefantes y millones y millones de imágenes de otros animales que no son elefantes para que el robot vaya “aprendiendo”. Imaginamos que le mostramos miles de este tipo de imágenes:

Entonces, el robot va guardando todos estos datos en su base de datos, como si estuviera grabando en su disco rígido… Sería algo así como: “Bueno, veo que los elefantes tienen trompa, son generalmente de un color cercano al gris. Por lo que veo cuando me muestran imágenes de otros animales y me dicen que esos no son elefantes, me doy cuenta de que tienen otras características del tipo: tienen alas, tienen pico, etc.”. Toda esa información que le damos se llama data, input, es lo que la IA va registrando para poder crear un algoritmo y devolvernos un modelo que pueda utilizar para darnos las respuestas, el output, una vez que volvamos a enseñarle imágenes y ver si, efectivamente, ha aprendido.

Estamos sintetizando. Pero la IA pudo, a partir de ese corpus (esas millones de imágenes que le mostramos), identificar lo que tienen en común todos aquellos animales que le indicamos que sí son elefantes e identificar también lo que no tienen en común con aquellos animales que le indicamos que no son elefantes. Eso es buscar y encontrar patrones, identificar lo que se repite: tienen trompa, son grises, no tienen pico y, así, conforman, como veníamos diciendo, un modelo que es el que utilizarán para comparar con cualquier imagen que les sea dada después de su entrenamiento. 

Viendo este esquema, concluyo que no debería ser tan difícil “traducir” lo que me quiere decir mi perro López. Un modo podría ser trabajar con audios. Grabamos todos los ladridos del mundo y sacamos patrones, por ejemplo: ladridos con intensidad 110, ladridos con intervalos de 6 segundos y bla bla bla. Los ladridos que comienzan con intensidad 108 significan que me está diciendo “comida”, este otro ladrido más agudo y con onda bla bla bla significa “sueño”. En este modo, en lugar de mostrarle imágenes, le haríamos escuchar ladridos (sonidos, ondas, etc.) a la IA para su entrenamiento. Otro modo sería con imágenes como explicamos más arriba y que veremos más adelante, estudiando gestos, emociones, relaciones entre las facciones, etc. (¿Recuerdan a Darwin de la primera parte?) Pero el sistema sería el mismo.

Entonces, ustedes dirán: “¡Pero eso es infinito, interminable, imposible! ¿Y acaso no es la extraordinaria capacidad con la que la IA cuenta? La posibilidad de ser entrenada con millones y millones de datos (sea audio, texto o imagen) y que pueda, aun con ese número infinito de datos y en brevísimo tiempo, sacar un modelo, cosa que a un ser humano le llevaría dos o tres vidas Es la capacidad, a mi entender, más interesante y única de la IA.

Imaginemos el sistema para que identifique perros:

 

Analicemos esto según lo que venimos hablando al inicio del artículo: al robot de la película, cuando lo entrenaron, cuando le enseñaron a hablar el idioma de los humanos, cuando le enseñaron a hablar español, chino o japonés, le hicieron escuchar miles y millones infinitos de audios, el robot escuchó registró y comenzó a sacar patrones para poder identificar uno de otros, por ejemplo, los siguientes podrían ser patrones que la IA/el robot fue identificando:

“En español, el artículo marca los conceptos definidos, mientras que en chino se usa el CLF. Num.
En chino no hay morfemas gramaticales de género, por lo que se usa el léxico para identificar el sexo.
En español, el verbo y el adjetivo son clases gramaticales distintas, mientras que en chino son una misma clase”.

Lo importante es que en el corpus, en el muestreo de nuestro robot, del robot de la película no había ninguna información sobre el “lenguaje de los animales”. Por lo tanto, no había modo de sacar patrones y mucho menos de conocerlo y haberlo aprendido. Pero como es una película de ciencia ficción, nuestro robot “en un instante” logrará sacar patrones y entenderá el idioma (o dialecto) del zorrino. ¿Por qué insistimos en que es ciencia ficción? Porque es un mito creer que la IA aprende sola. La IA solo elabora patrones con datos que le han sido previamente enseñados, mostrados, cargados. Aprender implica un proceso que la IA no hace. Lo que sí hace es acumular más y más información de manera de tener más posibilidades de sacar patrones y de ser más específico en una descripción y etc, pero aprender…. A no confundirse, eso es sumar data, pero no «aprender». Cuando hablamos de IA es muy importante definir ciertos conceptos previos tales como «aprendizaje», «inteligencia», entre otros.

La otra posibilidad es que si le hubieran enseñado y lo hubieran entrenado para reconocer todos esos idiomas -incluido el de los animales- o sea que ya los tuviera almacenados y solo tuviera que poner el programa en “activo” y empezar a identificar según patrones a qué animal pertenece tal o cual “dialecto”. Tal como vimos en la imagen del perrito y el robot más arriba. Y es, de alguna manera, lo que vemos en la siguiente imagen:

 

Acá no se habla sino que se ven imágenes que sugieren que el robot está identificando los patrones de los que hablábamos. El robot está aprendiendo y esas letritas de colores serían los «patrones». En este caso, los sonidos que se repiten. Está tratando de «aprender», registrar aquello que tienen en común el idioma del bisonte, del ciervito… Si logra, podrá llegar a través de un algoritmo a un modelo que le permitirá identificar y, por lo tanto, comprender, lo que estos animalitos le están diciendo.

 

 

 

 

 

 

 

 

 

 

 

 

Vayamos a la segunda película: Mickey 17

“En el año 2054, Mickey Barnes y su amigo Timo se encuentran en la indigencia financiera después de un negocio fallido. Incapaces de pagarle a un usurero asesino, la pareja huye alistándose como tripulantes de una nave espacial que sale de la Tierra para colonizar el planeta Niflheim, Timo como piloto de transbordador y Mickey como el único ‘prescindible’ de la nave espacial. Utilizando tecnología prohibida en la Tierra para clonar a Mickey y restaurar sus recuerdos, Mickey es tratado como desechable, se le asignan misiones letales y se regenera después de la muerte. Mickey 17, la decimoséptima iteración de Mickey, tiene la tarea de capturar la forma de vida similar a una oruga (‘creeper’) de Niflheim para su análisis.” 

En un momento de la película, Mickey es encarcelado y en el calabozo, cuando le describe a su compañera qué pasó con estos animalitos, ésta se da cuenta de que, entre otras características, los creepers no son malos, al contrario, lo han tratado de ayudar en lugar de atacar. Entonces cuando dos versiones de Mickeys son enviados a matarlos, buscan al líder de los creepers para explicarle lo que está pasando y salvarlos. Pero, una vez más, la barrera del lenguaje se interpone ante ellos. Sin embargo y aquí está lo que nos interesa, llevan un dispositivo de traducción al encuentro entre los dos Mickeys y los gusanos/orugas/creepers.

Lo que les transcribo a continuación, son fragmentos que extraje de la película:

 

Charla entre varias personas, los científicos, creadores del dispositivo y uno de los Mickey:
– Deben tener cierta capacidad cognitiva.
– Exactamente. En realidad, exhiben signos de alta inteligencia. Es posible que puedan participar en una conversación significativa. Y estamos analizando esto, y … Estamos desarrollando A-A,
una especie de traductor.

A través, entonces, de dicho aparatito, Mickey logra comunicarse con el líder de los creepers (gusanos) y se desarrolla el siguiente diálogo:

– Mickey.
– ¿Cómo sabes mi nombre?
– Secreto.

Los otros seres humanos que se han quedado esperando los resultados hacen los siguientes comentarios a los científicos:
– Espera, ¿están teniendo una conversación? ¿Cómo es esto posible?
– Bueno, sigue siendo un prototipo, Pero es como un dispositivo traductor.

El científico agrega que es un prototipo porque, evidentemente, según lo que venimos diciendo, la IA del traductor está siendo entrenada, le estarían haciendo escuchar los miles y millones de audio para identificar el lenguaje de los creepers. No dicen nada de cómo los han grabado y registrado para luego enseñarles a la IA. ¡Porque es una película!. No muestran todo el proceso, pero podría ser.

Pero ¿no hay más que ficción?. Por supuesto que no. En la tercera parte, describiremos qué está pasando en el mundo real.