This thesis presents a comprehensive analysis of data poisoning attacks—particularly backdoor attacks and their variants—in the context of Federated Learning (FL). It explores their underlying mechanisms, potential impacts, and the challenges associated with their detection and mitigation. Through a combination of theoretical analysis and empirical experimentation, the study demonstrates how even a small number of compromised clients can significantly poison the global model. In addition, practical experiments were conducted using the MNIST dataset, focusing on various backdoor attack variants in Horizontal Federated Learning (HFL) environments under different attack rates and poisoning strategies. Finally, the results are compared and discussed in detail.

Questa tesi presenta un'analisi approfondita degli attacchi di avvelenamento dei dati, in particolare degli attacchi backdoor e delle loro varianti, nel contesto del Federated Learning (FL). Vengono esplorati i meccanismi sottostanti, i potenziali impatti e le sfide legate alla loro rilevazione e mitigazione. Attraverso un'analisi teorica combinata con esperimenti empirici, lo studio dimostra come anche una piccola percentuale di client compromessi possa avvelenare efficacemente il modello globale. Inoltre, sono stati condotti esperimenti pratici utilizzando il dataset MNIST, con un focus sulle varianti di attacco backdoor in ambienti di Federated Learning Orizzontale (HFL), sotto diversi tassi di attacco e strategie di avvelenamento. Infine, i risultati vengono confrontati e discussi in dettaglio.

Un'analisi completa degli attacchi di Data Poisoning nel contesto del Federated Learning

SHERKATSADI, FARSHAD
2023/2024

Abstract

This thesis presents a comprehensive analysis of data poisoning attacks—particularly backdoor attacks and their variants—in the context of Federated Learning (FL). It explores their underlying mechanisms, potential impacts, and the challenges associated with their detection and mitigation. Through a combination of theoretical analysis and empirical experimentation, the study demonstrates how even a small number of compromised clients can significantly poison the global model. In addition, practical experiments were conducted using the MNIST dataset, focusing on various backdoor attack variants in Horizontal Federated Learning (HFL) environments under different attack rates and poisoning strategies. Finally, the results are compared and discussed in detail.
2023
A comprehensive analysis of Data Poisoning attacks in Federated Learning
Questa tesi presenta un'analisi approfondita degli attacchi di avvelenamento dei dati, in particolare degli attacchi backdoor e delle loro varianti, nel contesto del Federated Learning (FL). Vengono esplorati i meccanismi sottostanti, i potenziali impatti e le sfide legate alla loro rilevazione e mitigazione. Attraverso un'analisi teorica combinata con esperimenti empirici, lo studio dimostra come anche una piccola percentuale di client compromessi possa avvelenare efficacemente il modello globale. Inoltre, sono stati condotti esperimenti pratici utilizzando il dataset MNIST, con un focus sulle varianti di attacco backdoor in ambienti di Federated Learning Orizzontale (HFL), sotto diversi tassi di attacco e strategie di avvelenamento. Infine, i risultati vengono confrontati e discussi in dettaglio.
File in questo prodotto:
File Dimensione Formato  
Farshad Sherkatsadi - Thesis.pdf

accesso aperto

Descrizione: This thesis presents a comprehensive analysis of data poisoning attacks—particularly backdoor attacks and their variants—in the context of Horizontal Federated Learning (HFL).
Dimensione 2.22 MB
Formato Adobe PDF
2.22 MB Adobe PDF Visualizza/Apri

È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14239/33496