In the context of physical self-recognition, vocal signals convey identity information that can be crucially utilised to differentiate between self and others. To date, however, research on auditory self-voice recognition has been relatively scarce, compared to visual self-face recognition. Prior behavioural studies have described a trend of self-voice disadvantage, suggesting that most people have pervasive difficulties in recognizing their own voice. Yet, none of them has directly investigated the potential cross-modal interactions between self-voice and self-face processing during auditory self-recognition. To address this gap, the present study sought to elucidate the multimodal auditory-visual contributions to auditory self-recognition and, more generally, to the sense of voice ownership, i.e., the perceptual experience that a given vocal signal is “my voice”. Thirty-seven healthy participants completed an online self-voice recognition task, in which they identified whether a target vocal stimulus corresponded to their own voice or not, while being simultaneously paired with a congruent or incongruent face stimulus, or a scrambled image. The addition of identity-congruent or incongruent visual information from face stimuli was expected to differentially modulate self-voice recognition performance. Altogether, the current results successfully replicated the trend of self-voice disadvantage. Unexpectedly, the addition of congruent face-voice associations did not facilitate auditory self-recognition, whereas the presentation of incongruent face-voice pairings exerted some interference effects, specifically detrimental to self-voice recognition. Overall, the present work is the first attempt to shed light on the multimodal auditory-visual contributions to the experience of voice ownership, while taking into account the major methodological limitations and future applications of this research field. Keywords: auditory self-recognition, self-voice, self-face, self/other distinction, voice ownership

Nell’ambito del riconoscimento di sé, i segnali vocali trasmettono informazioni sull’identità che possono essere utilizzate in modo cruciale per differenziare tra sé e gli altri. Finora, tuttavia, la ricerca sul riconoscimento uditivo della propria voce è stata relativamente limitata, rispetto al riconoscimento visivo del proprio volto. Precedenti studi comportamentali hanno descritto una tendenza di self-voice disadvantage (i.e., svantaggio per il riconoscimento della propria voce), suggerendo che la maggior parte delle persone ha difficoltà pervasive a riconoscere la propria voce. Tuttavia, nessuno di essi ha indagato direttamente le potenziali interazioni cross-modali tra l'elaborazione della voce e del volto durante l'auto-riconoscimento uditivo. Per colmare questa lacuna, il presente studio ha cercato di chiarire i contributi multimodali uditivo-visivi all'auto-riconoscimento uditivo e, più in generale, al senso di voice ownership, ovvero l'esperienza percettiva che un dato segnale vocale sia "la mia voce". Trentasette partecipanti sani hanno completato un compito online di auto-riconoscimento della voce, in cui dovevano identificare se uno stimolo vocale corrispondesse alla propria voce o meno, mentre veniva simultaneamente abbinato a uno stimolo facciale congruente o incongruente, oppure a un'immagine scomposta. Ci si attendeva che l'aggiunta di informazioni visive congruenti o incongruenti degli stimoli facciali modulasse in modo diverso le prestazioni di riconoscimento della propria voce. Complessivamente, i risultati hanno replicato con successo la tendenza di self-voice disadvantage. Inaspettatamente, l'aggiunta di associazioni voce-volto congruenti non ha facilitato l'auto-riconoscimento uditivo, mentre la presentazione di accoppiamenti voce-volto incongruenti ha esercitato alcuni effetti di interferenza, specificamente deleteri per il riconoscimento della propria voce. Nel complesso, il presente lavoro rappresenta il primo tentativo di far luce sui contributi uditivi-visivi multimodali all'esperienza di voice ownership, tenendo conto dei principali limiti metodologici e delle applicazioni future di questo campo di ricerca. Parole chiave: auto-riconoscimento uditivo, propria voce, proprio volto, distinzione sé/altro, voice ownership

Am I the one speaking? Auditory-visual contributions to the sense of voice ownership

GEROSA, MARTA
2020/2021

Abstract

In the context of physical self-recognition, vocal signals convey identity information that can be crucially utilised to differentiate between self and others. To date, however, research on auditory self-voice recognition has been relatively scarce, compared to visual self-face recognition. Prior behavioural studies have described a trend of self-voice disadvantage, suggesting that most people have pervasive difficulties in recognizing their own voice. Yet, none of them has directly investigated the potential cross-modal interactions between self-voice and self-face processing during auditory self-recognition. To address this gap, the present study sought to elucidate the multimodal auditory-visual contributions to auditory self-recognition and, more generally, to the sense of voice ownership, i.e., the perceptual experience that a given vocal signal is “my voice”. Thirty-seven healthy participants completed an online self-voice recognition task, in which they identified whether a target vocal stimulus corresponded to their own voice or not, while being simultaneously paired with a congruent or incongruent face stimulus, or a scrambled image. The addition of identity-congruent or incongruent visual information from face stimuli was expected to differentially modulate self-voice recognition performance. Altogether, the current results successfully replicated the trend of self-voice disadvantage. Unexpectedly, the addition of congruent face-voice associations did not facilitate auditory self-recognition, whereas the presentation of incongruent face-voice pairings exerted some interference effects, specifically detrimental to self-voice recognition. Overall, the present work is the first attempt to shed light on the multimodal auditory-visual contributions to the experience of voice ownership, while taking into account the major methodological limitations and future applications of this research field. Keywords: auditory self-recognition, self-voice, self-face, self/other distinction, voice ownership
2020
Am I the one speaking? Auditory-visual contributions to the sense of voice ownership
Nell’ambito del riconoscimento di sé, i segnali vocali trasmettono informazioni sull’identità che possono essere utilizzate in modo cruciale per differenziare tra sé e gli altri. Finora, tuttavia, la ricerca sul riconoscimento uditivo della propria voce è stata relativamente limitata, rispetto al riconoscimento visivo del proprio volto. Precedenti studi comportamentali hanno descritto una tendenza di self-voice disadvantage (i.e., svantaggio per il riconoscimento della propria voce), suggerendo che la maggior parte delle persone ha difficoltà pervasive a riconoscere la propria voce. Tuttavia, nessuno di essi ha indagato direttamente le potenziali interazioni cross-modali tra l'elaborazione della voce e del volto durante l'auto-riconoscimento uditivo. Per colmare questa lacuna, il presente studio ha cercato di chiarire i contributi multimodali uditivo-visivi all'auto-riconoscimento uditivo e, più in generale, al senso di voice ownership, ovvero l'esperienza percettiva che un dato segnale vocale sia "la mia voce". Trentasette partecipanti sani hanno completato un compito online di auto-riconoscimento della voce, in cui dovevano identificare se uno stimolo vocale corrispondesse alla propria voce o meno, mentre veniva simultaneamente abbinato a uno stimolo facciale congruente o incongruente, oppure a un'immagine scomposta. Ci si attendeva che l'aggiunta di informazioni visive congruenti o incongruenti degli stimoli facciali modulasse in modo diverso le prestazioni di riconoscimento della propria voce. Complessivamente, i risultati hanno replicato con successo la tendenza di self-voice disadvantage. Inaspettatamente, l'aggiunta di associazioni voce-volto congruenti non ha facilitato l'auto-riconoscimento uditivo, mentre la presentazione di accoppiamenti voce-volto incongruenti ha esercitato alcuni effetti di interferenza, specificamente deleteri per il riconoscimento della propria voce. Nel complesso, il presente lavoro rappresenta il primo tentativo di far luce sui contributi uditivi-visivi multimodali all'esperienza di voice ownership, tenendo conto dei principali limiti metodologici e delle applicazioni future di questo campo di ricerca. Parole chiave: auto-riconoscimento uditivo, propria voce, proprio volto, distinzione sé/altro, voice ownership
File in questo prodotto:
Non ci sono file associati a questo prodotto.

È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14239/1099