Ben Chaabene, Riadh (2026). Robust federated learning frameworks against data flipping threats in autonomous vehicles. Mémoire de maîtrise électronique, Montréal, École de technologie supérieure.
Prévisualisation |
PDF
Télécharger (5MB) | Prévisualisation |
Résumé
Federated Learning (FL) has emerged as a promising paradigm for privacy-preserving col laborative training across distributed clients. Its ability to enable large-scale learning while maintaining data confidentiality makes it particularly suitable for autonomous vehicles (AVs), where data is sensitive and decentralized. However, the distributed nature of FL introduces new security challenges, notably label-flipping (LF) attacks, in which malicious participants intentionally corrupt local datasets to degrade the global model’s performance. This thesis addresses these vulnerabilities by proposing a comprehensive framework that ensures both scalability and robustness in FL-based AV systems.
The methodology is structured into three key parts. Part One – Development of the FL Framework: We designed and implemented a real-world FL environment integrating Convolutional Neural Networks (CNN) and Reinforcement Learning (RL) models on the SunFounder PiCar platform. This setup enabled collaborative training between vehicles while preserving data privacy.
Part Two – The Attack Process: We simulated label-flipping attacks under different adversarial availability levels to analyze the system’s behavior under hostile conditions. A single malicious participant with high availability ( α = 0.9 reduced the source class recall by over 25% and caused a 20% global accuracy drop, highlighting the severity of LF threats.
Part Three – Defense Mechanism (FALCON): We introduced FALCON (Federated Anomaly Learning and COllaborative Network), a multi-layer defense architecture integrating Federated Anomaly Detection (FAD), Principal Component Analysis (PCA), and Multi-Class Support Vector Machines (MCSVM). FALCON applies local anomaly detection, peer-to-peer anomaly voting, and server-level graph-based detection using Graph Neural Networks (GNN) to identify and neutralize persistent adversaries.
Experimental evaluations demonstrated that the CNN achieved a 94.2% classification accuracy with a latency of 42 ms per frame, while the RL model reached a 91.8% navigation success rate and an average cumulative reward of 1365. Under LF attacks, model performance degraded significantly; however, FALCON restored global accuracy and recall to near-optimal levels, identifying over 90% of adversarial updates and reducing attack success rates to below 5%.
Overall, this thesis demonstrates the feasibility of integrating FL into AV systems while effectively addressing adversarial vulnerabilities and scalability constraints. The proposed FALCON architecture represents a major step toward secure, scalable, and resilient federated learning for real-world autonomous driving and beyond.
Titre traduit
Cadres d’apprentissage fédéré robustes protégant contre les menaces de retour d’étiquettes pour les véhicules autonomese
Résumé traduit
L’Apprentissage Fédéré (AF) s’impose comme une approche prometteuse pour permettre un apprentissage collaboratif respectueux de la vie privée entre plusieurs clients distribués. Sa capacité à exploiter de grandes quantités de données tout en maintenant la confidentialité en fait une solution adaptée aux véhicules autonomes (VA), où les données sont sensibles et décentralisées. Cependant, la nature distribuée de l’AF expose le système à de nouvelles menaces, notamment les attaques par inversion d’étiquettes (Label-Flipping, LF), dans lesquelles des participants malveillants modifient volontairement leurs données locales pour dégrader la performance du modèle global. Cette thèse s’attaque à ces vulnérabilités en proposant un cadre complet garantissant la scalabilité et la robustesse des systèmes de VA basés sur l’AF.
La méthodologie adoptée est structurée en trois parties principales. Première partie – Développe ment du cadre d’AF : Nous avons conçu et implémenté un environnement fédéré réel intégrant des modèles de Réseaux de Neurones Convolutifs (CNN) et d’Apprentissage par Renforcement (RL) sur la plateforme SunFounder PiCar. Cette configuration a permis un apprentissage collaboratif entre véhicules tout en préservant la confidentialité des données.
Deuxième partie – Processus d’attaque : Nous avons simulé des attaques d’inversion d’étiquettes à différents niveaux de disponibilité adversariale (α) afin d’analyser le comportement du système en conditions hostiles. Un seul client malveillant avec une disponibilité élevée (α = 0,9) a entraîné une baisse de plus de 25 % du rappel des classes sources et une diminution de 20 % de la précision globale, illustrant la gravité des attaques LF.
Troisième partie – Mécanisme de défense (FALCON) : Nous avons proposé FALCON (Federated Anomaly Learning and COllaborative Network), une architecture de défense multi-niveaux intégrant la Détection d’Anomalies Fédérée (FAD), l’Analyse en Composantes Principales (ACP) et les Machines à Vecteurs de Support Multiclasse (MCSVM). FALCON applique une détection locale d’anomalies, un vote pair-à-pair collaboratif et une détection graphique au niveau serveur à l’aide de Réseaux de Neurones Graphiques (GNN) afin d’identifier et de neutraliser les attaquants persistants.
Les évaluations expérimentales ont démontré que le modèle CNN atteint une précision de classification de 94,2 % avec une latence moyenne de 42 ms par image, tandis que le modèle RL obtient un taux de réussite en navigation de 91,8 % et une récompense cumulative moyenne de 1365. Sous attaque LF, la performance du modèle s’est fortement dégradée ; néanmoins, FALCON a permis de restaurer la précision et le rappel globaux à des niveaux quasi optimaux, identifiant plus de 90 % des mises à jour adversariales et réduisant le taux de succès des attaques à moins de 5 %.
Dans l’ensemble, cette thèse démontre la faisabilité de l’intégration de l’Apprentissage Fédéré dans les systèmes de véhicules autonomes tout en répondant efficacement aux vulnérabilités adversariales et aux contraintes de scalabilité. L’architecture FALCON proposée constitue une avancée majeure vers des cadres d’AF sécurisés, évolutifs et résilients pour la conduite autonome réelle et d’autres applications critiques pour la sécurité.
| Type de document: | Mémoire ou thèse (Mémoire de maîtrise électronique) |
|---|---|
| Renseignements supplémentaires: | "Thesis presented to École de technologie supérieure in partial fulfillment of a master's degree with thesis". Comprend des références bibliographiques (pages 97-108). |
| Mots-clés libres: | apprentissage fédéré, véhicules autonomes, attaques adversariales, retourner les étiquettes |
| Directeur de mémoire/thèse: | Directeur de mémoire/thèse Cheriet, Mohamed |
| Codirecteur: | Codirecteur Ameyed, Darine |
| Programme: | Maîtrise en ingénierie > Génie des technologies de l'information |
| Date de dépôt: | 04 mars 2026 18:43 |
| Dernière modification: | 04 mars 2026 18:43 |
| URI: | https://espace.etsmtl.ca/id/eprint/3817 |
Gestion Actions (Identification requise)
![]() |
Dernière vérification avant le dépôt |

Statistiques de téléchargement
Statistiques de téléchargement