Il progetto

Il progetto di ricerca SSRR (Sviluppo di un Sistema per la Rilevazione della Risonanza) si è posto l’obiettivo di sviluppare delle metodologie che, supportate da tecnologie esistenti, hanno dato vita a servizi innovativi.

L’obiettivo finale del progetto, definito sin dall’inizio, a seguito di un approfondito esame dello stato dell’arte, attraverso una accurata e capillare indagine sia della bibliografia di settore internazionale sia delle risultanze scientifiche e tecnologiche di numerose competizioni anche sponsorizzate da progetti internazionali di ricerca, è stato raggiunto attraverso la progettazione e sviluppo di un sistema sperimentale per la rilevazione della risonanza nei processi di profilazione e selezione del personale.

Il progetto ha percorso le seguenti direttrici principali:

  • Progettazione e implementazione di modelli psico-attitudinali in grado di misurare la sinergia fra utenti: in questo contesto dapprima sono stati indagati i modelli presenti in letteratura ed in seguito si sono identificati i parametri da quantificare;
  • A valle dell’identificazione dei parametri da quantificare sono stati identificati i sensori in grado di catturare i parametri e le tipologie di analisi condotte sui dati da essi acquisiti. I sensori selezionati sono scarsamente, o meglio, per nulla invasivi e permettono all’utente di agire, nell’ambito dei contesti in cui avviene la misurazione, nel modo più naturale possibile;
  • Progettazione ed implementazione di software in grado di inferire dai dati ottenuti dai sensori  informazioni sulla sinergia degli utenti coinvolti. In particolare si è provveduto a sviluppare strumenti che a partire dai dati sono in grado di inferire dei concetti relazionati allo stato emotivo dell’utente ed organizzare gli stessi in mappe concettuali in grado di permettere una loro manipolazione o sottoforma di formalismi probabilistici, come per esempio le reti di Bayes, o sottoforma di dati grezzi a cui è possibile accedere con tecniche proprie del data-mining;
  • Ingegnerizzazione del prodotto in un prototipo.

In letteratura scientifica il riconoscimento automatico delle sette emozioni principali (fear, anger, sadness, happiness, disgust, surprise, and contempt) avvieneattraverso la codifica e la successiva interpretazione
delle sette relative espressioni facciali. Il ben noto Facial Action Coding System è stato sviluppato per elaborare alcune features come ad esempio gli angoli della bocca, la forma dell’arcata sopraccigliare, in maniera statica, attraverso metriche calcolate su determinati punti di repere alcuni dei quali utilizzati anche a fini biometrici o dinamica attraverso l’analisi nel dominio del tempo o della frequenza del segnale derivante dalla dinamica temporale della mimica facciale. In realtà il riconoscimento delle emozioni avviene anche attraverso l’elaborazione delle informazioni del segnale del parlato vocale (Speech emotion recognition) che si basa sull’estrazione di caratteristiche rilevanti del segnale vocale, quali il pitch, l’energia, le analisi nel dominio del tempo e della frequenza spettrale, a diversi passi di campionamento temporale anche utilizzate in letteratura scientifica al fine di effettuare l’analisi del parlato a fini del riconoscimento e dell’identificazione del parlatore. Gli approcci utilizzati in tali applicazioni tipici del machine learning quali reti neurali supervisionate e non supervisionate e catene di Markov nascoste (HMM) hanno dimostrato le loro potenzialità applicative anche nel campo del riconoscimento automatico e nella classificazione dello stato emotivo del parlatore. In letteratura le performance di approcci esistenti consolidati variano però drasticamente anche in funzione del database di riferimento fra circa il 75% ed il 90% ed ovviamente in funzione anche del numero di differenti espressioni facciali. Negli ultimi anni si è tuttavia consolidata l’idea, fra i ricercatori attivi nel campo, che la maggior parte delle limitazioni dei metodi sviluppati dipendessero da un lato dal fatto che spesso gli approcci utilizzati erano monomodali e quindi non tenevano conto in maniera congiunta delle informazioni capaci di operare la classificazione e, dall’altra, dal fatto che spesso processavano informazioni senza tener conto del contesto, ovvero di ausili derivanti da esperti psicologi di comportamento e di esperti di linguaggi non verbali. Inoltre si è dimostrato che ai fini del riconoscimento automatico delle emozioni, le immagini frontali sono meno importanti di quelle laterali e che le performance possono crescere considerevolmente in base ad una preventiva sotto-classificazione delle sette emozioni principali in soltanto 3 o 5 classi di segmentazione quali ad esempio: riscontro (molto/normalmente) positivo, riscontro (molto/normalmente) negativo o neutrale.