Les approches d'apprentissage basées sur le Federated Learning (Apprentissage Fédéré) permettent
d'entraîner conjointement un ensemble de plusieurs modèles statistiques déployés chacun dans un
contexte d'utilisation différents. Ces modèles se mettent à jour de façon coopérative; il est donc nécessaire
d’être vigilant sur la façon dont cette mise à jour s’effectue, afin d’éviter qu’une attaque sur l’un des
modèles vienne perturber l’ensemble. Nous proposons d’étudier l’emploi des techniques de test logiciel
pour quantifier le bon fonctionnement des mises à jour “candidates” avant d’en accepter une
éventuellement.
- BOENISCH, Franziska, DZIEDZIC, Adam, SCHUSTER, Roei, et al. ‘‘Is Federated Learning a Practical PET
Yet?’’. arXiv preprint arXiv:2301.04017, 2023.
- BOENISCH, Franziska, DZIEDZIC, Adam, SCHUSTER, Roei, et al. ‘‘When the curious abandon honesty:
Federated learning is not private’’. arXiv preprint arXiv:2112.02918, 2021
- Viraaji Mothukuri, Reza M. Parizi, Seyedamin Pouriyeh, Yan Huang, Ali Dehghantanha, Gautam
Srivastava. ‘‘A survey on security and privacy of federated learning’’. Future Generation Computer Systems,
Vol. 115, 2021.
- BOUACIDA, Nader et MOHAPATRA, Prasant. ‘‘Vulnerabilities in federated learning’’. IEEE Access, 2021,
vol. 9, p. 63229-63249.
- PRIGENT, Cédric, COSTAN Alexandru, and ANTONIU Gabriel. ‘‘FEDGUARD: Selective Parameter
Aggregation for Poisoning Attack Mitigation in Federated Learning’’. IEEE Cluster 2023 (to appear)
- PAPADAKIS, Mike, KINTIS, Marinos, ZHANG, Jie, et al. ‘‘Mutation testing advances: an analysis and
survey’’. In : Advances in Computers. Elsevier, 2019. p. 275-378.
- ZELLER, Andreas, GOPINATH, Rahul, BÖHME, Marcel, et al. ‘‘The fuzzing book’’. 2019.