The pervasiveness of Machine Learning models, alongside the increasing use of training data from social media, has led to an increasing need to address the issue of racial bias in the field of Artificial Intelligence. This thesis will present the annotation and analysis of a corpus for stereotype detection to take into account the perspectives of the annotators during the training of a classifier, placing this experiment within the broader discourse on the representation of minority and discriminated social groups in Machine Learning models. Therefore, the problem of racial bias in NLP will be first frame looking at the issue from a technical and social point of view, in order to investigate the possibility of reducing the risk of such bias through the use of multiple perspectives during the training of the classifier. By giving space to the point of view of discriminated social groups it is possible to eradicate oppressive hierarchies and explore the relationship between language and social hierarchies. Maintaining this approach and attention to annotators' perspectives, the thesis will focus on highly subjective tasks, such as those involving the use of toxic and abusive language, and in particular hate speech and stereotype detection, observing the risk of introducing forms of racial bias during the development of these tasks. The phenomena of hate speech and stereotypes will be investigated with a focus on studies in the philosophy of language, pragmatics and sociolinguistics, useful for analysing the approaches of automatic detection of these forms of abusive language. The practice of aggregating annotated data will be questioned in favour of methods that integrate the opinions and perspectives of the subjects involved in the annotation phase more completely and inclusively. Finally, the experimental and analytical phase of an annotated corpus will be presented with the use of a free schema that could bring out different perspectives in the recognition and conceptualisation of stereotypes. The annotation phases and results will be described through a quantitative and qualitative analysis of the linguistic data, which will allow to investigate the element of perspective of annotators linked to different social groups.

La pervasività dei modelli di Machine Learning, accanto al crescente uso di dati di allenamento provenienti dai social media, ha portato ad una necessità sempre più forte di affrontare la problematica dei racial bias nel campo dell’Intelligenza Artificiale. All’interno di questo lavoro di tesi sarà presentata l’annotazione e l’analisi di un corpus per stereotype detection che permetta di tener conto della prospettiva degli annotatori nella fase di allenamento del classificatore, inserendo questo esperimento all’interno del più ampio discorso sulla rappresentazione di gruppi sociali minoritari e discriminati nei modelli di Machine Learning. Verrà, quindi, prima inquadrata la problematica dei racial bias nell’ambito dell’NLP, guardando alla questione da un punto di vista tecnico e sociale, con l’obiettivo di approfondire la possibilità di ridurre il rischio di tali bias attraverso l’uso di molteplici prospettive nella fase di allenamento del classificatore. Dare valore al punto di vista di gruppi sociali discriminati significa promuovere un lavoro di sradicamento delle gerarchie oppressive, ed esplorare la relazione tra linguaggio e gerarchie sociali. Con l’obiettivo di mantenere questo approccio di sradicamento e attenzione per le prospettive degli annotatori, ci si soffermerà su task altamente soggettivi, come quelli che coinvolgono l’uso di un linguaggio tossico e abusivo, e in particolare hate speech e stereotype detection, osservando il rischio di introdurre forme di racial bias nello sviluppo di questi task. I fenomeni di linguaggio d’odio e stereotipi saranno indagati con un’attenzione a studi di filosofia del linguaggio, pragmatica e sociolinguistica, utili per analizzare gli approcci utilizzati nell’ambito della linguistica computazionale per l’individuazione automatica di queste forme di linguaggio abusivo. Sarà messa in discussione la pratica di aggregazione dei dati annotati, a favore di metodi che integrino in modo più̀ completo e inclusivo le opinioni e le prospettive dei soggetti coinvolti nella fase di annotazione. Infine, verrà presentata la fase sperimentale e di analisi di un corpus annotato con l’uso di uno schema libero che potesse far emergere prospettive diverse nel riconoscimento e nella concettualizzazione di stereotipi. Saranno descritte le fasi e i risultati dell’annotazione, attraverso un’analisi quantitativa e qualitativa dei dati linguistici, che permetterà di indagare l’elemento della prospettiva di annotatori legati a gruppi sociali differenti.

STAYING WITH THE TROUBLE: PROSPETTIVE CONTRO I RACIAL BIAS NELLA STEREOTYPE DETECTION

LO, SODA MAREM
2020/2021

Abstract

The pervasiveness of Machine Learning models, alongside the increasing use of training data from social media, has led to an increasing need to address the issue of racial bias in the field of Artificial Intelligence. This thesis will present the annotation and analysis of a corpus for stereotype detection to take into account the perspectives of the annotators during the training of a classifier, placing this experiment within the broader discourse on the representation of minority and discriminated social groups in Machine Learning models. Therefore, the problem of racial bias in NLP will be first frame looking at the issue from a technical and social point of view, in order to investigate the possibility of reducing the risk of such bias through the use of multiple perspectives during the training of the classifier. By giving space to the point of view of discriminated social groups it is possible to eradicate oppressive hierarchies and explore the relationship between language and social hierarchies. Maintaining this approach and attention to annotators' perspectives, the thesis will focus on highly subjective tasks, such as those involving the use of toxic and abusive language, and in particular hate speech and stereotype detection, observing the risk of introducing forms of racial bias during the development of these tasks. The phenomena of hate speech and stereotypes will be investigated with a focus on studies in the philosophy of language, pragmatics and sociolinguistics, useful for analysing the approaches of automatic detection of these forms of abusive language. The practice of aggregating annotated data will be questioned in favour of methods that integrate the opinions and perspectives of the subjects involved in the annotation phase more completely and inclusively. Finally, the experimental and analytical phase of an annotated corpus will be presented with the use of a free schema that could bring out different perspectives in the recognition and conceptualisation of stereotypes. The annotation phases and results will be described through a quantitative and qualitative analysis of the linguistic data, which will allow to investigate the element of perspective of annotators linked to different social groups.
2020
STAYING WITH THE TROUBLE: PERSPECTIVES AGAINST RACIAL BIAS IN STEREOTYPE DETECTION
La pervasività dei modelli di Machine Learning, accanto al crescente uso di dati di allenamento provenienti dai social media, ha portato ad una necessità sempre più forte di affrontare la problematica dei racial bias nel campo dell’Intelligenza Artificiale. All’interno di questo lavoro di tesi sarà presentata l’annotazione e l’analisi di un corpus per stereotype detection che permetta di tener conto della prospettiva degli annotatori nella fase di allenamento del classificatore, inserendo questo esperimento all’interno del più ampio discorso sulla rappresentazione di gruppi sociali minoritari e discriminati nei modelli di Machine Learning. Verrà, quindi, prima inquadrata la problematica dei racial bias nell’ambito dell’NLP, guardando alla questione da un punto di vista tecnico e sociale, con l’obiettivo di approfondire la possibilità di ridurre il rischio di tali bias attraverso l’uso di molteplici prospettive nella fase di allenamento del classificatore. Dare valore al punto di vista di gruppi sociali discriminati significa promuovere un lavoro di sradicamento delle gerarchie oppressive, ed esplorare la relazione tra linguaggio e gerarchie sociali. Con l’obiettivo di mantenere questo approccio di sradicamento e attenzione per le prospettive degli annotatori, ci si soffermerà su task altamente soggettivi, come quelli che coinvolgono l’uso di un linguaggio tossico e abusivo, e in particolare hate speech e stereotype detection, osservando il rischio di introdurre forme di racial bias nello sviluppo di questi task. I fenomeni di linguaggio d’odio e stereotipi saranno indagati con un’attenzione a studi di filosofia del linguaggio, pragmatica e sociolinguistica, utili per analizzare gli approcci utilizzati nell’ambito della linguistica computazionale per l’individuazione automatica di queste forme di linguaggio abusivo. Sarà messa in discussione la pratica di aggregazione dei dati annotati, a favore di metodi che integrino in modo più̀ completo e inclusivo le opinioni e le prospettive dei soggetti coinvolti nella fase di annotazione. Infine, verrà presentata la fase sperimentale e di analisi di un corpus annotato con l’uso di uno schema libero che potesse far emergere prospettive diverse nel riconoscimento e nella concettualizzazione di stereotipi. Saranno descritte le fasi e i risultati dell’annotazione, attraverso un’analisi quantitativa e qualitativa dei dati linguistici, che permetterà di indagare l’elemento della prospettiva di annotatori legati a gruppi sociali differenti.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14239/1524