Inicio » Naturaleza » Sabías que… Cómo los científicos están usando la IA para hablar con los animales

in ,

Sabías que… Cómo los científicos están usando la IA para hablar con los animales

Cómo los científicos están usando la IA para hablar con los animales Los sensores portátiles y la inteligencia artificial están ayudando a los investigadores a decodificar la comunicación animal y comenzar a responder a los no humanos.

Cómo los científicos están usando la IA para hablar con los animales
Los sensores portátiles y la inteligencia artificial están ayudando a los investigadores a decodificar la comunicación animal y comenzar a responder a los no humanos.

En la década de 1970, una joven gorila conocida como Koko atrajo la atención mundial por su habilidad para usar el lenguaje de señas humano. Pero los escépticos sostienen que Koko y otros animales que “aprendieron” a hablar (incluidos los chimpancés y los delfines) no podían entender realmente lo que estaban “diciendo”, y que tratar de hacer que otras especies usen el lenguaje humano, en el que los símbolos representan cosas que pueden no serlo. estar físicamente presente, es inútil.

“Hay un grupo de investigadores que está interesado en descubrir si los animales pueden participar en la comunicación simbólica y otro grupo que dice: ‘Eso es antropomorfizar. Necesitamos… entender la comunicación no humana en sus propios términos’”, dice Karen Bakker, profesora de la Universidad de Columbia Británica y miembro del Instituto Harvard Radcliffe para Estudios Avanzados. Ahora, los científicos están utilizando sensores avanzados y tecnología de inteligencia artificial para observar y decodificar cómo una amplia gama de especies, incluidas las plantas, ya comparten información con sus propios métodos de comunicación. Este campo de la “bioacústica digital” es el tema del nuevo libro de Bakker Los sonidos de la vida: cómo la tecnología digital nos acerca a los mundos de los animales y las plantas.

Scientific American habló con Bakker sobre cómo la tecnología puede ayudar a los humanos a comunicarse con criaturas como murciélagos y abejas, y cómo estas conversaciones nos obligan a repensar nuestra relación con otras especies.

[Sigue una transcripción editada de la entrevista.]

¿Puede darnos una breve historia de los humanos que intentan comunicarse con los animales?

Hubo numerosos intentos a mediados del siglo XX para intentar enseñar el lenguaje humano a no humanos, primates como Koko. Y esos esfuerzos fueron algo controvertidos. Mirando hacia atrás, una opinión que tenemos ahora (que puede no haber sido tan frecuente entonces) es que éramos demasiado antropocéntricos en nuestros enfoques. Entonces, el deseo era evaluar la inteligencia no humana enseñándoles a hablar como lo hacemos nosotros, cuando de hecho deberíamos haber estado pensando en sus habilidades para participar en una comunicación compleja en sus propios términos, en su propia forma encarnada, en su propia visión del mundo. Uno de los términos utilizados en el libro es la noción de umwelt, que es esta noción de la experiencia vivida de los organismos. Si estamos atentos al umwelt de otro organismo, no esperaríamos que una abeja hablara el lenguaje humano, pero nos interesaría mucho el fascinante lenguaje de las abejas, que es vibratorio y posicional. Es sensible a matices como la polarización de la luz solar que ni siquiera podemos comenzar a transmitir con nuestros cuerpos. Y ahí es donde está la ciencia hoy. El campo de la bioacústica digital, que se está acelerando exponencialmente y revelando hallazgos fascinantes sobre la comunicación a través del árbol de la vida, ahora se acerca a estos animales y no pregunta: “¿Pueden hablar como humanos?” sino “¿Pueden comunicarse entre sí información compleja? ¿Cómo lo están haciendo? ¿Qué es importante para ellos? Y yo diría que es un enfoque más biocéntrico o al menos es menos antropocéntrico.

Desde una perspectiva más amplia, creo que también es importante reconocer que escuchar a la naturaleza, “escuchar en profundidad”, tiene una larga y venerable tradición. Es un arte antiguo que todavía se practica de forma inmediata. Existen antiguas tradiciones indígenas de escucha profunda que están profundamente en sintonía con los sonidos no humanos. Entonces, si combinamos la escucha digital, que está abriendo vastos mundos nuevos de sonido no humano y decodificando ese sonido con inteligencia artificial, con la escucha profunda, creo que estamos al borde de dos descubrimientos importantes. El primero es el lenguaje en los no humanos. Y esa es una declaración muy controvertida, en la que podemos profundizar. Y la segunda es: creo que estamos al borde de la comunicación entre especies.

¿Qué tipo de tecnología está permitiendo estos avances?

La bioacústica digital se basa en grabadoras digitales muy pequeñas, portátiles y livianas, que son como micrófonos en miniatura que los científicos están instalando en todas partes, desde el Ártico hasta el Amazonas. Puedes poner estos micrófonos en la espalda de tortugas o ballenas. Puedes ponerlos en lo profundo del océano, [ponerlos] en la cima de la montaña más alta, adjuntarlos a las aves. Y pueden grabar sonido de forma continua, las 24 horas del día, los 7 días de la semana, en lugares remotos a los que los científicos no pueden llegar fácilmente, incluso en la oscuridad y sin la interrupción que se produce al introducir observadores humanos en un ecosistema.

Esa instrumentación crea una avalancha de datos, y ahí es donde entra en juego la inteligencia artificial, porque los mismos algoritmos de procesamiento de lenguaje natural que estamos usando con tanto éxito en herramientas como Google Translate también se pueden usar para detectar patrones en la comunicación no humana.

¿Cuál es un ejemplo de estos patrones de comunicación?

En el capítulo sobre murciélagos en el que discuto la investigación de Yossi Yovel, hay un estudio particular en el que supervisó [casi dos] docenas de murciélagos frugívoros egipcios durante dos meses y medio y registró… [sus] vocalizaciones. Luego, su equipo adaptó un programa de reconocimiento de voz para analizar [15,000 de] los sonidos, y el algoritmo correlacionó sonidos específicos con interacciones sociales específicas capturadas a través de videos, como cuando dos murciélagos pelearon por comida. Usando esto, los investigadores pudieron clasificar la mayoría de los sonidos de los murciélagos. Así es como Yovel y otros investigadores como Gerry Carter han podido determinar que los murciélagos tienen un lenguaje mucho más complejo de lo que entendíamos anteriormente. Los murciélagos discuten por la comida; en realidad distinguen entre géneros cuando se comunican entre sí; tienen nombres individuales, o “llamadas de firma”. Las madres murciélagos hablan a sus bebés en un equivalente de “materno”. Pero mientras que las madres humanas elevan el tono de sus voces cuando hablan con los bebés, las madres murciélagos lo bajan, lo que provoca una respuesta de balbuceo en los bebés que aprenden a “hablar” palabras específicas o señales referenciales a medida que crecen. Entonces los murciélagos se involucran en el aprendizaje vocal.

Ese es un gran ejemplo de cómo el aprendizaje profundo puede derivar estos patrones de [esta] instrumentación, todos estos sensores y micrófonos, y revelarnos algo a lo que no podríamos acceder con el oído humano desnudo. Debido a que la mayor parte de la comunicación de los murciélagos es ultrasónica, por encima de nuestro rango de audición, y debido a que los murciélagos hablan mucho más rápido que nosotros, tenemos que reducir la velocidad para escucharlos, así como reducir la frecuencia. Así que no podemos escuchar como un murciélago, pero nuestras computadoras sí. Y la siguiente idea es, por supuesto, que nuestras computadoras también pueden responderle al murciélago. [El software produce] patrones específicos y los usa para comunicarse con la colonia de murciélagos o con la colmena, y eso es lo que los investigadores están haciendo ahora.

¿Cómo hablan los investigadores con las abejas?

La investigación de las abejas es fascinante. Un [investigador] llamado Tim Landgraf estudia la comunicación de las abejas, que, como mencioné anteriormente, es vibracional y posicional. Cuando las abejas “hablan” entre sí, lo que importa son los movimientos de su cuerpo, así como los sonidos. Ahora las computadoras, y particularmente los algoritmos de aprendizaje profundo, pueden seguir esto porque puede usar la visión artificial, combinada con el procesamiento del lenguaje natural. Ahora han perfeccionado estos algoritmos hasta el punto en que realmente pueden rastrear abejas individuales y pueden determinar qué impacto podría tener la comunicación de un individuo en otra abeja. De ahí surge la capacidad de decodificar el lenguaje de las abejas. Descubrimos que tienen señales específicas. [Los investigadores han dado a estas señales] nombres graciosos. [Abejas] pitido; ellos graznan. Hay una señal de “silencio” o “alto”, una señal de “peligro” chillona. Tienen señales de tubería [señales relacionadas con enjambres] y señales de súplicas y sacudidas, y todas ellas dirigen el comportamiento colectivo e individual.

El siguiente paso de Landgraf fue codificar esta información en un robot al que llamó RoboBee. Eventualmente, después de siete u ocho prototipos, a Landgraf se le ocurrió una “abeja” que podía entrar en la colmena y, básicamente, emitiría órdenes que las abejas obedecerían. Entonces, el robot abeja de Landgraf puede decirles a las otras abejas que se detengan, y lo hacen. También puede hacer algo más complicado, que es el baile de meneo muy famoso: es el patrón de comunicación que utilizan para transmitir la ubicación de una fuente de néctar a otras abejas. Este es un experimento muy fácil de ejecutar, en cierto modo, porque coloca una fuente de néctar en un lugar donde no han visitado las abejas de la colmena, luego le indica al robot que le diga a las abejas dónde está la fuente de néctar, y luego verifica si las abejas vuelan allí con éxito. Y de hecho lo hacen. Este resultado solo ocurrió una vez, y los científicos no están seguros de por qué funcionó o cómo replicarlo. Pero sigue siendo un resultado asombroso.*

Esto plantea muchas cuestiones filosóficas y éticas. Podría imaginarse que un sistema de este tipo se usa para proteger a las abejas: podría decirles a las abejas que vuelen a fuentes de néctar seguras y no contaminadas que tengan, digamos, altos niveles de pesticidas. También podría imaginar que esto podría ser una herramienta para domesticar una especie previamente salvaje que solo hemos domesticado de manera imperfecta o para intentar controlar el comportamiento de otras especies salvajes. Y las ideas sobre el nivel de sofisticación y el grado de comunicación compleja en los no humanos plantea algunas preguntas filosóficas muy importantes sobre la singularidad del lenguaje como capacidad humana.

¿Qué impacto está teniendo esta tecnología en nuestra comprensión del mundo natural?

La invención de la bioacústica digital es análoga a la invención del microscopio. Cuando [el científico holandés Antonie] van Leeuwenhoek comenzó a mirar a través de sus microscopios, descubrió el mundo microbiano… y eso sentó las bases para innumerables avances futuros. Entonces, el microscopio permitió a los humanos ver de nuevo tanto con nuestros ojos como con nuestra imaginación. La analogía aquí es que la bioacústica digital, combinada con la inteligencia artificial, es como un audífono a escala planetaria que nos permite escuchar de nuevo tanto con nuestras prótesis auditivas mejoradas como con nuestra imaginación. Esto está abriendo lentamente nuestras mentes no solo a los maravillosos sonidos que hacen los no humanos, sino también a un conjunto fundamental de preguntas sobre la llamada división entre humanos y no humanos, nuestra relación con otras especies. Y [también] está abriendo nuevas formas de pensar sobre la conservación y nuestra relación con el planeta. Es bastante profundo.

 

Fuente: How Scientists Are Using AI to Talk to Animals

What do you think?

Leave a Reply

Your email address will not be published. Required fields are marked *