Enabled by advances in computing power and neural networks, Artificial Intelligence (AI) is getting increasingly emotional. Machines are getting better at sensing, inferring, measuring, reacting and replicating human emotions, acquiring in this way also skills of emotional intelligence (EQ) which add up to the cognitive intelligence (IQ) they already demonstrate. However, as with any new technology, the use of Emotional AI is raising ethical implications and privacy risks as well. Given the highly sensitive and personal nature of emotions, it is justifiably expected that people have concerns about emotion recognition. And in turn poor public perception, notably mistrust, is likely to take over. Thus, this thesis aims at exploring people’s attitudes toward Emotional AI by using a trust-based acceptance model developed from the review of the existing literature. To this end, the present study identifies a specific application of Emotional AI, namely emotionally intelligent voice assistants—that based on recent patent filings are clearly on the horizon—and more precisely their integration into smart speakers, as research context within which to assess the proposed model. By means of a survey questionnaire, this research collected data from 130 smart speaker users to whom firstly the concept of emotionally intelligent voice assistant was introduced. Despite some limitations, the findings validated the hypotheses, supporting the influence of the studied factors, namely two trust antecedents (institution-based trust and calculative-based trust) and privacy concern, on trust, as well as confirming that trust is a major predictor in the willingness to use emotionally intelligent voice assistants.

Grazie ai progressi nella capacità computazionale e nelle reti neurali, l’Intelligenza Artificiale sta diventando sempre più emotiva. Le macchine stanno migliorando a percepire, inferire, misurare, reagire e replicare le emozioni umane, acquisendo in questo modo anche capacità di intelligenza emotiva (QE) che si vanno ad aggiungere all’intelligenza cognitiva (QI) di cui esse già danno prova. Tuttavia, come con qualsiasi nuova tecnologia, l’utilizzo dell’ Intelligenza Artificiale Emotiva sta altrettanto sollevando conseguenze etiche e rischi per la privacy. Data la natura estremamente sensibile e personale delle emozioni, è legittimo aspettarsi che le persone abbiano delle preoccupazioni riguardo al riconoscimento delle emozioni. E di conseguenza, una scarsa percezione pubblica, nella fattispecie mancanza di fiducia, è destinata a prendere il sopravvento. Perciò, questa tesi è volta a esplorare le attitudini delle persone verso l’Intelligenza Artificiale Emotiva, usando un modello di accettazione basato sulla fiducia sviluppato a partire dalla revisione della letteratura esistente. A tal fine, il presente studio identifica una specifica applicazione dell’Intelligenza Artificiale Emotiva, ossia gli assistenti vocali emotivamente intelligenti — che in base a dei brevetti recentemente registrati sono chiaramente all’orizzonte — e più precisamente la loro integrazione nei dispositivi smart speaker, come contesto di ricerca all’interno del quale valutare il modello proposto. Tramite un questionario d’indagine, questa ricerca ha raccolto dati da 130 utenti di smart speaker ai quali innanzitutto è stato introdotto il concetto di assistente vocale emotivamente intelligente. Nonostante alcune limitazioni, i risultati hanno validato le ipotesi, supportando l’influenza dei fattori studiati, nello specifico due antecedenti della fiducia (fiducia basata sull’istituzione e fiducia calcolativa) e la preoccupazione per la privacy, sulla fiducia stessa, così come confermando che la fiducia è un importante predittore dell’intenzione di usare gli assistenti vocali emotivamente intelligenti.

Getting emotional? A study of users’ trust toward Emotional Artificial Intelligence in the context of smart speakers.

PORTALUPPI, SOFIA
2019/2020

Abstract

Enabled by advances in computing power and neural networks, Artificial Intelligence (AI) is getting increasingly emotional. Machines are getting better at sensing, inferring, measuring, reacting and replicating human emotions, acquiring in this way also skills of emotional intelligence (EQ) which add up to the cognitive intelligence (IQ) they already demonstrate. However, as with any new technology, the use of Emotional AI is raising ethical implications and privacy risks as well. Given the highly sensitive and personal nature of emotions, it is justifiably expected that people have concerns about emotion recognition. And in turn poor public perception, notably mistrust, is likely to take over. Thus, this thesis aims at exploring people’s attitudes toward Emotional AI by using a trust-based acceptance model developed from the review of the existing literature. To this end, the present study identifies a specific application of Emotional AI, namely emotionally intelligent voice assistants—that based on recent patent filings are clearly on the horizon—and more precisely their integration into smart speakers, as research context within which to assess the proposed model. By means of a survey questionnaire, this research collected data from 130 smart speaker users to whom firstly the concept of emotionally intelligent voice assistant was introduced. Despite some limitations, the findings validated the hypotheses, supporting the influence of the studied factors, namely two trust antecedents (institution-based trust and calculative-based trust) and privacy concern, on trust, as well as confirming that trust is a major predictor in the willingness to use emotionally intelligent voice assistants.
2019
Getting emotional? A study of users’ trust toward Emotional Artificial Intelligence in the context of smart speakers.
Grazie ai progressi nella capacità computazionale e nelle reti neurali, l’Intelligenza Artificiale sta diventando sempre più emotiva. Le macchine stanno migliorando a percepire, inferire, misurare, reagire e replicare le emozioni umane, acquisendo in questo modo anche capacità di intelligenza emotiva (QE) che si vanno ad aggiungere all’intelligenza cognitiva (QI) di cui esse già danno prova. Tuttavia, come con qualsiasi nuova tecnologia, l’utilizzo dell’ Intelligenza Artificiale Emotiva sta altrettanto sollevando conseguenze etiche e rischi per la privacy. Data la natura estremamente sensibile e personale delle emozioni, è legittimo aspettarsi che le persone abbiano delle preoccupazioni riguardo al riconoscimento delle emozioni. E di conseguenza, una scarsa percezione pubblica, nella fattispecie mancanza di fiducia, è destinata a prendere il sopravvento. Perciò, questa tesi è volta a esplorare le attitudini delle persone verso l’Intelligenza Artificiale Emotiva, usando un modello di accettazione basato sulla fiducia sviluppato a partire dalla revisione della letteratura esistente. A tal fine, il presente studio identifica una specifica applicazione dell’Intelligenza Artificiale Emotiva, ossia gli assistenti vocali emotivamente intelligenti — che in base a dei brevetti recentemente registrati sono chiaramente all’orizzonte — e più precisamente la loro integrazione nei dispositivi smart speaker, come contesto di ricerca all’interno del quale valutare il modello proposto. Tramite un questionario d’indagine, questa ricerca ha raccolto dati da 130 utenti di smart speaker ai quali innanzitutto è stato introdotto il concetto di assistente vocale emotivamente intelligente. Nonostante alcune limitazioni, i risultati hanno validato le ipotesi, supportando l’influenza dei fattori studiati, nello specifico due antecedenti della fiducia (fiducia basata sull’istituzione e fiducia calcolativa) e la preoccupazione per la privacy, sulla fiducia stessa, così come confermando che la fiducia è un importante predittore dell’intenzione di usare gli assistenti vocali emotivamente intelligenti.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14239/903