Un team di neuroscienziati dell’Università di Princeton ha utilizzato il machine learning per decodificare l’elaborazione visiva che avviene nella mente di due cani. Con tecniche di imaging a risonanza magnetica, gli studiosi hanno scoperto un’affascinante differenza tra la percezione canina e quella umana: i cani sono molto più attenti alle azioni, piuttosto che a chi o cosa le sta compiendo.
Lo studio è stato condotto su due cani, Daisy e Bhubo. Grazie all’uso di alcune tecniche di addestramento, è stato possibile trattenere i due cani, senza costrizioni, all’interno di una macchina per risonanza magnetica- RMF. Durante le sessioni, sono stati mostrati a Daisy e Bhubo dei filmati con contenuti “specifici per cani”. Il gruppo di ricerca di Princeton ha girato tre video di 30 minuti, utilizzando uno stabilizzatore e un bastone da selfie. Tra le immagini registrate, ad esempio, cani che correvano e umani che interagivano con i cani, veicoli che passavano per la strada, un cervo che attraversava un sentiero, un gatto in una casa e cani portati al guinzaglio.
Come si è svolto l’esperimento?
A Daisy e Bhubo, comodamente seduti come al cinema, sono stati mostrati i filmati in tre sessioni di 30 minuti ciascuna, per un totale di 90 minuti. I ricercatori hanno segmentato alcune informazioni contenute nei video per la codifica dei dati: hanno categorizzato gli oggetti (ad esempio cani, esseri umani, veicoli o altri animali) o azioni (come annusare, mangiare o giocare). Queste informazioni, così come l’attività cerebrale dei due cani, sono state registrate da un sistema di imaging in vivo, IVIS, che riesce a combinare la tomografia ottica 2D e 3D per mappare l’attività cerebrale.
I ricercatori sono stati quindi in grado di scansionare il cervello di Daisy e Bhubo mentre erano seduti, svegli, attenti e a loro agio nella macchina per la risonanza, guardando filmati girati appositamente per loro. Il gruppo di ricerca ha deciso di far partecipare allo studio anche due esseri umani, in modo da poter analizzare le differenze che ci sono nei processi mentali di un cane e quelli di una persona. Hanno mostrato loro gli stessi filmati mentre IVIS registrava i dati. L’intelligenza artificiale è stata in grado di mappare i dati del cervello umano con un’accuratezza del 99%, sia per la classificazione degli oggetti che delle azioni.
Con i cani, c’è stata meno precisione: Ivis non ha raggiunto buoni risultati nella classificazione degli oggetti, tuttavia, per le azioni, l’intelligenza artificiale ha mappato l’attività visiva e quella cerebrale con un’accuratezza compresa tra il 75 e l’88%.
I risultati dello studio
I risultati di questo studio preliminare ci dicono dunque che gli esseri umani sono molto più orientati verso gli oggetti mentre, i cani, sembrano essere meno interessati a chi o cosa stanno vedendo e più interessati all’azione in essere. Questa è un’informazione importante ai fini degli studi cognitivi sugli animali, poiché rivela quale sia la priorità del loro cervello quando si tratta di visione. Gli elementi che ci fornisce questo studio confermano qualcosa di parzialmente noto: i cani mostrano differenze significative nel modo in cui percepiscono il mondo rispetto gli esseri umani.
È risaputo come i cani non abbiano le nostre stesse competenze visive, ma distinguono solo le sfumature dello spettro del colore blu e giallo, ad esempio. A questo si contrappone una maggiore densità di recettori visivi sensibili al movimento. Questo potrebbe essere dovuto al fatto che, a livello ancestrale, i cani devono essere più consapevoli delle minacce presenti nel loro ambiente, rispetto agli esseri umani.
Questo studio, seppur condotto su un campione molto piccolo (solo due cani) offre importanti spunti per ricerche future. Ad esempio, potrebbe essere interessante condurre ulteriori studi, più dettagliati, sulla percezione visiva dei cani e, potenzialmente, di altri animali. Sicuramente degno di nota, il fatto che è stato possibile mappare l’attività cerebrale dei cani, soprattutto senza costrizioni.
La ricerca è stata pubblicata sul Journal of Visualized Experiments.