Estudio fascinante ofrece una visión única de cómo los perros ven el mundo: ScienceAlert

Poner perros lindos en una máquina de resonancia magnética y observar sus cerebros mientras ellos ver películas caseras puede sonar como un buen momento divertido solo por su propio bien. Como beneficio adicional, también puede ser educativo.

Un equipo de científicos ha hecho exactamente eso, utilizando el aprendizaje automático para decodificar el procesamiento visual que tiene lugar dentro de la mente de un par de perros. Descubrieron una diferencia fascinante entre la percepción canina y la humana: los perros están mucho más en sintonía visual con las acciones, en lugar de quién o qué está realizando esas acciones.

Esta podría ser una pieza importante del rompecabezas de la cognición canina, ya que revela qué prioriza el cerebro de un perro cuando se trata de la visión.

“Si bien nuestro trabajo se basa en solo dos perros, ofrece una prueba de concepto de que estos métodos funcionan en caninos”. dice la neurocientífica Erin Phillipsentonces de la Universidad de Emory, ahora en Princeton.

“Espero que este documento ayude a allanar el camino para que otros investigadores apliquen estos métodos en perros, así como en otras especies, para que podamos obtener más datos y una mayor comprensión de cómo funcionan las mentes de diferentes animales”.

La investigación, como señaló Phillips, se realizó en dos perros, Daisy y Bhubo. El equipo había filmado tres videos de 30 minutos, utilizando un cardán y un palo para selfies, con contenido específico para perros. Esto incluía perros corriendo y humanos interactuando con perros, dándoles mascotas o golosinas. Otras actividades incluyeron vehículos que pasaban, humanos interactuando entre sí, un ciervo cruzando un camino, un gato en una casa y perros caminando con correa.

bhubo el perro preparándose para ver una película
Bhubo y su humano, Ashwin Sakhardande, preparándose para una película. Los oídos de Bhubo están tapados con cinta adhesiva para mantener en su lugar los tapones que amortiguan el ruido, porque las resonancias magnéticas son muy ruidosas. (Laboratorio de Neurociencia Cognitiva Canina de Emory)

A Daisy y Bhubo se les mostraron estas películas en tres sesiones de 30 minutos por un total de 90 minutos, mientras se relajaban sin restricciones en una máquina de resonancia magnética funcional. Este notable logro se logró mediante el uso de técnicas de entrenamiento diseñadas por el psicólogo Gregory Berns, quien logró por primera vez tomar una resonancia magnética de un perro completamente despierto y sin restricciones hace una década.

Entonces, los investigadores también pudieron escanear los cerebros de Daisy y Bhubo mientras estaban sentados, despiertos, alertas y cómodos, en la máquina, viendo películas caseras filmadas solo para ellos. Suena bastante bien, en realidad.

“Ni siquiera necesitaban golosinas”, dice Phillips. “Fue divertido porque es ciencia seria, y se dedicó mucho tiempo y esfuerzo, pero se redujo a estos perros viendo videos de otros perros y humanos actuando un poco tontos”.

Daisy la perra en la máquina fmri
Daisy, la perra dando una vuelta en la máquina fMRI. Su humana, Rebecca Beasley, no aparece en la foto. (Laboratorio de Neurociencia Cognitiva Canina de Emory)

Los datos de video se segmentaron por marcas de tiempo para identificar clasificadores como objetos (como perros, humanos, vehículos u otros animales) o acciones (como olfatear, comer o jugar). Esta información, así como la actividad cerebral de los dos perros, se introdujo en una red neuronal llamada Ivis que fue diseñada para asignar la actividad cerebral a esos clasificadores.

Dos humanos también vieron los videos mientras se sometían a una resonancia magnética; esos datos también fueron entregados a Ivis.

La IA pudo asignar los datos del cerebro humano a los clasificadores con una precisión del 99 por ciento, tanto para los clasificadores de objetos como para los de acción. Con los perros, Ivis estaba un poco más inestable. No funcionó en absoluto para los clasificadores de objetos. Sin embargo, para las acciones, la IA asignó lo visual a la actividad cerebral con un rango de precisión de entre el 75 y el 88 por ciento.

“Los humanos estamos muy orientados a objetos”, Berns dice. “Hay 10 veces más sustantivos que verbos en el idioma inglés porque tenemos una obsesión particular con nombrar objetos. Los perros parecen estar menos preocupados por quién o qué están viendo y más preocupados por la acción en sí”.

Los perros, agregó, tienen diferencias significativas en la forma en que perciben el mundo en comparación con los humanos. Solo distinguen tonos de lo que percibiríamos como partes azules y amarillas del espectro, pero tienen una mayor densidad de receptores de visión sensibles al movimiento.

Esto podría deberse a que los perros necesitan ser más conscientes de las amenazas en su entorno que los humanos; o podría tener algo que ver con la confianza en otros sentidos; o tal vez ambos. Los humanos están muy orientados visualmente, pero para los perros, su sentido del olfato es el más poderoso, con una proporción mucho mayor de su cerebro dedicada al procesamiento de la información olfativa.

Asignar la actividad cerebral a la información olfativa podría ser un experimento más complicado de diseñar, pero también podría ser esclarecedor. Al igual que la realización de investigaciones más detalladas sobre la percepción de la visión de los perros y, potencialmente, de otros animales en el futuro.

“Demostramos que podemos monitorear la actividad en el cerebro de un perro mientras mira un video y, al menos hasta cierto punto, reconstruir lo que está mirando”. Berns dice. “El hecho de que podamos hacer eso es notable”.

La investigación ha sido publicada en el Revista de experimentos visualizados.

Leave a Comment

Your email address will not be published.