En la primera parte de esta especie de dossier, comentábamos acerca de varios estudios en relación a ciertas similitudes respecto al lenguaje de los seres humanos y lo que podría llamarse el “lenguaje” de los animales. O, en todo caso, similitudes entre los sistemas de comunicación de los humanos y el de los animales. Hablamos de Darwin, de animales que gesticulan, de estudios de hace mucho tiempo y que, aún así, ya predicen ciertas cosas. En la segunda parte, nos enfocamos en una especie de transición a través del cine: señalamos las únicas dos películas que, hasta el momento, hablan sin nombrar, lo que implica el machine learning dándonos el pie a adentrarnos completamente en lo que hoy, la IA, hace por esta relación entre sistemas de comunicación que es lo que nos interesa y, más que nada, si, efectivamente, ésta podrá resolver esta barrera» lingüística entre, entonces, humanos y animales.

Entonces, vayamos a lo que no es ciencia ficción y que sí ya se está haciendo -y con más razón pienso, entonces, que todo es posible- que es tratar de descifrar los sentimientos de los animales a través de imágenes y gestos y así poder tomar, como consecuencia, ciertas medidas, que es, en definitiva, para lo que usamos a la IA.

En los artículos anteriores, hablamos de los bonobos y cetáceos, entre otros. Hoy agregamos un par y seguimos con el descubrimiento que “sugiere que, al igual que los humanos, las ballenas han desarrollado formas de simplificar su comunicación, facilitando el aprendizaje cultural y la transmisión de canciones entre generaciones” o con los delfines que son “conocidos por sus sofisticadas habilidades de comunicación, utilizando una variedad de silbidos, chasquidos y sonidos de pulso. (…) cada delfín tiene un ‘silbido característico’ único, que funciona como un nombre propio y permite la identificación individual dentro del grupo. (…) los delfines nariz de botella utilizan señales vocales para coordinar sus comportamientos durante tareas cooperativas. (…) lo que sugiere una forma de comunicación intencional para sincronizar sus acciones, que recuerda a las interacciones humanas donde se utiliza el habla para coordinar actividades conjuntas”.

Dice Sentient: “Los recientes avances en inteligencia artificial (IA) podrían permitirnos, por primera vez, traducir directamente de la comunicación animal al lenguaje humano y viceversa. Esto no solo es teóricamente posible, sino que los científicos están desarrollando activamente la comunicación bidireccional con otros animales. Si logramos esta capacidad, tendría profundas implicaciones para los derechos de los animales , la conservación y nuestra comprensión de la sintencia animal”.

Entonces vuelvo a mi tesis y a mi deseo principal de este dossier y me repito: “Necesito comunicarme con López, mi ovejero alemán. La pregunta concreta sería: ¿podrá la IA facilitarnos la comunicación entre nosotros, los seres humanos y nuestros animales? ¿Podré saber lo que López dice, siente y piensa? Para mí es posible, lógicamente posible”. Ahora, ¿cómo?.

Si volvemos a ver cómo se maneja el machine learning, sería simple de responder: recopilando datos. Muchos. Y sacando patrones. Si hablamos técnicamente, sería a través de micrófonos, cámaras, etc. Karen Bakker, autora del libro The Sounds of Life : How Digital Technology Is Bringing Us Closer to the Worlds of Animals and Plants, explica en Scientific American que «la bioacústica digital se basa en grabadoras digitales muy pequeñas, portátiles y ligeras, que son como micrófonos en miniatura (…). Pueden grabar continuamente, 24/7». Data no faltaría, entonces. Ahora hay que armar algoritmo, modelo y empezar a procesar. Entonces, ustedes dirán: “¡Pero eso es infinito, interminable, imposible! ¿Y acaso no es la extraordinaria capacidad con la que la IA cuenta?. ¿La posibilidad de ser entrenada con millones y millones de datos (sea audio, texto o imagen) y que pueda aun con ese número infinito de datos y en brevísimo tiempo sacar un modelo, cosa que a un ser humano le llevaría dos o tres vidas?.

Entonces y ya incluyendo a la IA, vayamos a los ejemplos de hoy:

El propio Google, en el día nacional del delfín anunció: “en el Día Nacional del Delfín, Google, en colaboración con investigadores de Georgia Tech y la investigación de campo del Proyecto Delfín Salvaje (WDP), anuncia avances en DolphinGemma: un modelo fundamental de IA entrenado para aprender la estructura de las vocalizaciones de los delfines y generar nuevas secuencias de sonidos similares a las de estos. Este enfoque, en la búsqueda de la comunicación interespecies, amplía los límites de la IA y nuestra posible conexión con el mundo marino. Les sugiero que lean el artículo porque es impactante.

Seguimos. “¿Qué sienten los animales? Investigadores británicos y escoceses desarrollaron un programa que analiza miles de imágenes con el fin de ‘detectar’ los sentimientos de diversas especies, en busca de mejorar la comprensión de su salud física y emocional (…) mediante el uso de imágenes faciales y redes neuronales. (…) (Para) descifrar cómo distintas especies experimentan sentimientos como el dolor, el estrés o la felicidad, (…). Los expertos ahora pueden procesar y analizar miles de imágenes en cuestión de segundos para identificar patrones y características faciales que, de otro modo, podrían haber pasado desapercibidos”. 

Un equipo científico ha desarrollado Intellipig. Dice el Dr. Mark Hansen en un paper sobre el proyecto: “Nuestro sistema propone una monitorización inteligente (artificial) basada en la cara y completamente no intrusiva que puede capturar automáticamente datos de bienestar y salud para la monitorización y gestión de cerdos. (…) Los parámetros de bienestar que se evalúan suelen basarse en los recursos, es decir, en la satisfacción de las necesidades básicas, o en los animales, es decir, en factores fáciles de medir, como la condición física. (…) Rara vez se registra el comportamiento de los animales y aún más raras son las medidas que pueden decirnos algo sobre el estado emocional de cada animal. (…) Mediante el empleo de estas técnicas de aprendizaje automático de última generación, nuestro sistema ofrecerá la capacidad de aprendizaje continuo sobre animales individuales y, en consecuencia, permitirá la detección precoz de alteraciones de la salud/bienestar, umbrales personalizados de intervención y enfoques de tratamiento a medida.” (traducción de la autora).

 

En 2017, un equipo liderado por Peter Robinson, de la Universidad de Cambridge, desarrolló una tecnología para “ (…) evaluar los niveles de dolor en los animales. Las expresiones faciales de las ovejas son un indicador eficaz y fiable de los niveles de dolor. (…) Creemos que, con más datos, nuestro método de evaluación automatizada del nivel de dolor puede generalizarse a otros animales.” (traducción de la autora).

Earth species utiliza un sistema particular, el NatureLM-Audio que describen como “el primer modelo de audio-lenguaje a gran escala del mundo para sonidos animales. Entrenado con un vasto y diverso conjunto de datos que abarca el habla humana, la música y la bioacústica, aporta potentes capacidades de IA al estudio de la comunicación animal.” (traducción de la autora).

Y citan un listado de herramientas muy interesantes tales como: 

Voxaboxen – Una plataforma de anotación colaborativa para etiquetar y organizar vocalizaciones de animales, BEANS – El primer punto de referencia para la clasificación bioacústica, que proporciona conjuntos de datos estandarizados para evaluar modelos de IA en el reconocimiento de sonidos animales, BEBE – un punto de referencia para analizar el movimiento animal utilizando datos de bioregistradores, lo que permite la evaluación estandarizada de métodos de aprendizaje automático en ecología del movimiento, entre otras.

Y así podemos seguir citando a varios investigadores que van avanzando poco a poco en pequeños detalles que mejoran la precisión en la detección de diferentes situaciones cada vez más específicas. 

Leyendo detenidamente el libro de Darwin y viendo lo que ya se está haciendo hoy, ¿no sería obvio que pensáramos que pronto vamos a estar comunicándonos con nuestras mascotas?

Los dejo con este video que es muy impresionante y que es presentado del siguiente modo: “Este breve video explica cómo Rossano (profesor de ciencias cognitivas en la Universidad de California, San Diego), (…) llegó a la conclusión de que valía la pena analizar las capacidades de comunicación de los perros mediante dispositivos de pulsación de botones, ampliamente disponibles. (…).” 

Creer o reventar. O darme la razón y no creer que estoy tan equivocada y alejada de la realidad -más allá de mi subjetividad como consecuencia de mi relación con López- y confiar en que no es algo imposible y que podría resultar muy interesante.

 

Para seguir leyendo:

sobre elefantes 

https://www.nature.com/articles/s41559-024-02420-w

Bibliografía que propone Earth species muy actualizada y específica sobre el tema

Otras investigaciones

https://search.library.ucdavis.edu/discovery/search?vid=01UCD_INST:UCD&query=any,contains,george%20martvel&tab=UCSILSDefaultSearch&search_scope=DN_and_CI&offset=0

https://www.science.org/content/article/can-ai-read-pain-and-other-emotions-your-dog-s-face

https://www.science.org/content/article/cats-have-nearly-300-facial-expressions

https://www.nature.com/articles/s41598-022-27079-w