This thesis aims at improving the gold standard behavioural assessment used to detect hearing impairment in infants. The challenge is to integrate automatic facial recognition with machine learning algorithms in order to recognize when an infant hears a sound stimulus. Being able to develop a method thus built, would open the possibility of low-cost and widespread screening. The scope of the thesis is to mine behavioural pattern from the time series and to detect any subtle change in the facial behaviour following the stimuli. The ultimate goal of the project would be to develop an algorithm capable of classifying novel examples, i.e. to help to understand if a kid has hearing impairment or not. Specifically, the goal is to develop a new method suitable for infants younger than 5-6 months. In fact, precisely in this age group there are no reliable and easily executable hearing assessment test. The experimental setting of the study involved 44 healthy children provided with different sound stimuli. In this first phase of the study, the children involved were healthy and we would like to understand if it was possible to find a relationship between the sound stimulus and any kind of behavioural facial responses. Thanks to OpenFace software, changes in features (global features, local features and Action Unit) were tracked during each experiment. The collected data are structured as multi-subject and multi-dimensional time series and they are the input to machine learning pipeline. The machine learning pipeline is divided into four main steps (preprocessing, Dynamic PCA, features selection and modelling) which are going to be deeply analysed throughout the thesis.
Progetto ABC: classificazione comportamentale automatizzata per la valutazione dell'udito nei neonati. Questa tesi ha l’obiettivo di migliorare lo stato dell’arte nella valutazione comportamentale utilizzata per individuare problemi uditivi nei neonati. La sfida è di integrare il riconoscimento facciale automatico con algoritmi di machine learning allo scopo di riconoscere quando un neonato sente uno stimolo sonoro. Sviluppare un metodo così costruito, aprirebbe la possibilità di screening a basso costo e facilmente eseguibili. L’obiettivo della tesi è quello di estrarre pattern comportamentali a partire dalle serie temporali e di individuare qualsiasi cambiamento nel comportamento facciale a seguito di uno stimolo. Lo scopo finale del progetto sarebbe quello di sviluppare un algoritmo in grado di classificare nuovi esempi e di aiutare quindi nell’individuare problemi di udito nei bambini. Nello specifico, l’obiettivo è quello di sviluppare un nuovo metodo adatto per neonati sotto i 5-6 mesi di età. Infatti, è proprio per questa fascia di età che mancano test di valutazione dell’udito affidabili e facilmente eseguibili. Il setting sperimentale ha coinvolto 44 bambini sani, a cui sono stati forniti diversi stimoli sonori. In questa prima fase i bambini sono sani e vorremmo capire se è possibile trovare una relazione tra lo stimolo e qualsiasi tipo di risposta facciale. Grazie al software OpenFace, i cambiamenti nelle caratteristiche (caratteristiche globali, caratteristiche locali e Action Unit) sono stati seguiti durante tutto l’esperimento. I dati raccolti sono strutturati come serie temporali multivariate e multi-soggetto e sono stati utilizzati come input alla pipeline di machine learning. La pipeline è divisa in quattro step principali (fase di preprocessing, PCA dinamica, selezione delle features e modellizzazione) che verranno ampiamente analizzate lungo la tesi.
The infant – ABC Project: Automated Behaviour Classification for hearing assessment
BETTINI, RACHELE
2018/2019
Abstract
This thesis aims at improving the gold standard behavioural assessment used to detect hearing impairment in infants. The challenge is to integrate automatic facial recognition with machine learning algorithms in order to recognize when an infant hears a sound stimulus. Being able to develop a method thus built, would open the possibility of low-cost and widespread screening. The scope of the thesis is to mine behavioural pattern from the time series and to detect any subtle change in the facial behaviour following the stimuli. The ultimate goal of the project would be to develop an algorithm capable of classifying novel examples, i.e. to help to understand if a kid has hearing impairment or not. Specifically, the goal is to develop a new method suitable for infants younger than 5-6 months. In fact, precisely in this age group there are no reliable and easily executable hearing assessment test. The experimental setting of the study involved 44 healthy children provided with different sound stimuli. In this first phase of the study, the children involved were healthy and we would like to understand if it was possible to find a relationship between the sound stimulus and any kind of behavioural facial responses. Thanks to OpenFace software, changes in features (global features, local features and Action Unit) were tracked during each experiment. The collected data are structured as multi-subject and multi-dimensional time series and they are the input to machine learning pipeline. The machine learning pipeline is divided into four main steps (preprocessing, Dynamic PCA, features selection and modelling) which are going to be deeply analysed throughout the thesis.È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.
https://hdl.handle.net/20.500.14239/25366