Riconoscimento delle emozioni con i computer: due approcci a confronto
Vediamo alcuni esempi di sistemi di riconoscimento delle emozioni
I pochi sistemi funzionanti sono privati e non ancora disponibili al largo pubblico, senza considerare che hanno bisogno di un computer con alte prestazioni per l’elaborazione dell’algoritmo in tempi accettabili. Per l’approccio di tipo template matching è possibile considerare due sistemi che hanno ottime performance, ma entrambi eseguono un’analisi in offline dei video:
- il professore di psichiatria e psicologia Jeffrey F. Cohn dell’Università di Pittsburghed il suo team di ricerca ha proposto un sistema innovativo: il volto è codificato tramite un modello wireframe e poi con un’innovativa architettura di HMM esegue la segmentazione e il riconoscimento dell’espressione facciale da sequenze video.
- Il ricercatore ingegnere Jens-Uwe Garbas dell’università Friedrick-Alexander di Erlanger-Norimberga, con il suo team, presenta un sistema che estrae le feature dal volto tramite un filtro LBP e sceglie le feature più rappresentative tramite l’algoritmo Real-AdaBoost e infine classifica il volto come positivo o negativo tramite una classificazione parallela su due classi tramite l’uso di una rete neurale.
Per quanto riguarda l’approccio basato sull’inferenza, si evidenziano come esempi molto validi i seguenti sistemi:
- Il sistema Automated Facial Image Analysis System (AFA) di sempre di Jeffrey Cohn è in grado di analizzare video in real time per identificare lo stato d’animo dall’analisi del volto. Il volto è rappresentato da una maschera composta da punti e linee e questa maschera è utilizzata da un classificatore SVM che riesce a riconoscere le azioni facciali. Il sistema è stato adattato anche per l’analisi delle immagini: il sistema utilizza AFA System e dalla azioni del volto riconosciute inferisce lo stato emotivo del soggetto analizzato. La classificazione finale avviene tramite una SVM multi classe. Questo sistema finale compie l’analisi su immagini.
- il sistema elaborato dal professore di Computer Technology Peter Robinson dell’Università di Cambridge. Egli ha portato alla realizzazione di un sistema che analizza in real time flussi video per individuare la presenza di uno dei seguenti stati d’animo: concorde, discorde, concentrato, interessato, pensieroso e insicuro. Il volto è codificato tramite 24 punti e le feature utilizzate sono le distanze tra questi punti e sono usati per individuare diverse situazioni (bocca aperta, movimenti della testa, posizione delle sopracciglia), le espressioni codificate tramite FACS sono riconosciute da una catena di HMM per ogni possibile azione e il calcolo della probabilità di ogni stato d’animo avviene tramite una rete bayessiana.
Rispondi