Se l’intelligenza artificiale può ormai riconoscere sorrisi e lacrime umane, cosa succederebbe se imparasse a leggere anche le espressioni facciali dei nostri cugini primati? Questa curiosità ha spinto l’Università di Torino a esplorare per la prima volta l’uso dell’IA per decifrare le espressioni facciali dei primati non umani, segnando una nuova frontiera nella ricerca.

Lo studio, pubblicato su Ecological Informatics, ha rivelato come il deep learning possa riconoscere con successo le espressioni di lemuri e gibboni, permettendo così una comprensione più ampia della loro comunicazione e un’analisi comparativa innovativa del repertorio espressivo animale.

Comprendere il linguaggio facciale nei primati è fondamentale per la ricerca etologica, ma i metodi tradizionali di osservazione manuale sono lenti e applicabili solo a campioni di dati ridotti. Le tecniche di deep learning, al contrario, riescono ad analizzare rapidamente enormi quantità di dati, consentendo di individuare configurazioni facciali legate a diverse vocalizzazioni. Lo studio dell’Università di Torino ha puntato i riflettori, in particolare, su espressioni che includono l’apertura della bocca e i suoni vocali, dimostrando il potenziale dell’IA nell’individuare somiglianze e differenze con l’essere umano e contribuendo ad arricchire il campo della comunicazione animale.

“Quando abbiamo iniziato questo studio, tre anni fa, l’applicazione delle tecniche di deep learning al riconoscimento delle espressioni facciali di specie che non fossero l’uomo era un territorio completamente inesplorato. Oggi siamo di fronte a un progresso importante dal punto di vista tecnologico che potrà trovare ulteriore applicazione su specie finora ignorate e consentirà di condurre studi comparativi su larga scala”, spiega Filippo Carugati, dottorando di Scienze Biologiche e Biotecnologie Applicate e primo autore del lavoro.

Grazie alla stazione di ricerca nella foresta di Maromizaha, in Madagascar, studenti e dottorandi dell’Università di Torino hanno potuto osservare e filmare gli animali nel loro habitat naturale. Questo ha permesso di estendere l’indagine non solo ai gibboni ripresi in cattività, ma anche ai lemuri indri e sifaka registrati in libertà. Nel corso dello studio, sono stati applicati algoritmi di apprendimento automatico per classificare gesti sia vocalizzati che non vocalizzati delle diverse specie. I risultati hanno evidenziato elevati tassi di classificazione corretta, con alcuni algoritmi che hanno superato il 90%. Un ottimo primo risultato!