Riconoscimento facciale, la cosa che non riconosce ancora

Le reti neurali artificiali non rappresentano accuratamente i processi cerebrali umani nel riconoscimento facciale dei volti in movimento”. A dirlo è uno studio pubblicato sulla rivista Pnas, condotto da ricercatori delle università di Bologna, Princeton, della California e del Dartmouth College di Hanover. Infatti, sebbene le AI abbiano superato le capacità umane nel riconoscimento facciale, gli manca la capacità di cogliere informazioni emotive e atteggiamenti, componenti importanti nel riconoscimento delle espressioni dei volti in movimento. È per questo che dopo aver confrontato il funzionamento dell’intelligenza artificiale con le capacità umane, i ricercatori dello studio hanno dimostrato che le AI non costituiscono un modello accurato per comprendere il modo in cui il cervello umano analizza i volti in movimento, essendo molto meno performante.

Attualmente, i software di riconoscimento dei volti umani hanno raggiunto o addirittura superato le capacità umane e vengono sempre più utilizzati in varie applicazioni, dalle procedure di sicurezza negli aeroporti ai sistemi di sblocco degli smartphone e dei laptop. Le reti neurali convoluzionali (Dcnn – Deep convolutional neural networks) costituiscono gli elementi centrali di queste tecnologie. Ispirate al cervello umano, le Dcnn imitano il nostro sistema nervoso visivo e sono composte da più livelli di complessità crescente.

Tuttavia, nonostante queste somiglianze, i risultati dello studio indicano che il riconoscimento facciale da parte delle reti neurali non può essere utilizzato per una migliore comprensione dei processi umani di elaborazione dei volti, che sembrano essere molto più complessi di quello che si pensava. Infatti, mentre le AI si limitano al riconoscimento dell’identità di una persona, gli esseri umani acquisiscono automaticamente una serie di altre informazioni sul suo atteggiamento e sul suo stato emotivo, aspetti che ad oggi i sistemi di riconoscimento automatico ignorano completamente. Maria Ida Gobbini, docente del dipartimento di scienze mediche e chirurgiche dell’Università di Bologna tra gli autori dello studio, ha spiegato che “i risultati dello studio indicano che le AI non rappresentano in modo accurato né i meccanismi cognitivi della discriminazione dei volti né i meccanismi neurali della loro identificazione“.

L’esperimento

Per valutare l’efficacia del riconoscimento facciale delle reti neurali nell’analisi dei volti umani, gli studiosi hanno utilizzato un vasto set di oltre 700 brevi video di volti di persone, variabili per genere, età, etnia, orientamento della testa ed espressioni emotive. Si tratta del più grande set di stimoli facciali dinamici naturali mai utilizzato nella ricerca sul neuroimaging umano. Questi video sono stati sottoposti sia a sistemi automatici di riconoscimento che a volontari adulti, monitorati nel loro comportamento e tramite risonanza magnetica funzionale (fMri) per registrare l’attività cerebrale.

Nonostante le similitudini nel processo di rappresentazione dei volti a livello cerebrale e nei codici neurali artificiali utilizzati da diversi sistemi Dcnn tra i volontari coinvolti – sottolinea la ricercatrice – le correlazioni tra AI e partecipanti umani sono risultate deboli, suggerendo che le reti neurali attuali non offrono un modello adeguato delle prestazioni cognitive umane nell’analisi dei volti in un contesto dinamico“. In sostanza, conferma Maria Ida Gobbini, “mentre per le reti neurali il riconoscimento dell’identità è il termine del processo, per gli esseri umani rappresenta solo l’inizio di una serie di altri processi mentali che le AI al momento ancora non sono in grado di imitare“.

Gli esseri umani, così come le AI, sono in grado di riconoscere un volto in pochi millisecondi, ma il cervello biologico elabora ulteriori dettagli per capire meglio il contesto sociale attraverso espressioni facciali, movimenti degli occhi, linguaggio del corpo e molto altro. Esiste comunque la possibilità, conclude lo studio, che in futuro reti neurali artificiali possano essere addestrate con obiettivi più ampi, per esempio nell’ambito dell’interazione uomo-macchina, integrando il riconoscimento più sofisticato di caratteristiche dinamiche e sociali nei volti degli individui.

Fonte : Wired