> Offres de formation > Offres de thèses

Violation de confidentialité dans le processus d'apprentissage fédéré : quelles sont les menaces, attaques et défenses en présence d'acteurs malveillants ?

Défi technologique : Data intelligence dont Intelligence Artificielle (en savoir +)

Département : Département Métrologie Instrumentation et Information (LIST)

Laboratoire : Laboratoire Science des Données et de la Décision

Date de début : 01-11-2022

Localisation : Saclay

Code CEA : SL-DRT-22-1019

Contact : aurelien.mayoue@cea.fr

En 2016, Google publie les principes fondateurs de l'apprentissage fédéré [1] avec la promesse de créer des IA sans compromettre les données des utilisateurs. Cette méthode est en train de changer le paradigme actuel de l'IA centralisée, où construire de meilleurs modèles se résume souvent à collecter toujours plus de données personnelles et les centraliser sur un serveur. L'apprentissage fédéré est une approche collaborative où tous les utilisateurs d'un service participent à l'apprentissage du modèle sans transmettre leurs données personnelles mais uniquement les paramètres du modèle mis à jour localement. Au lieu de centraliser les données, seuls les paramètres du modèle sont agrégés sur le serveur central, ce qui permet d'améliorer la confidentialité des données et de limiter les coûts de communication. Par construction, l'apprentissage fédéré apparait comme une solution pour la confidentialité des données mais pas pour la confidentialité du modèle. Et, même si les paramètres du modèle contiennent beaucoup moins d'informations à propos des clients que les données brutes, il est tout à fait envisageable d'inférer des informations clients à partir d'un modèle statistique. Cette menace est particulièrement présente dans le cadre fédéré où des acteurs malveillants (clients ou serveur) peuvent exploiter les paramètres transmis à chaque tour pour reconstruire de l'information à propos des individus. L'objectif de la thèse est de faire un tour d'horizon des attaques déployées dans le cadre fédéré pour ensuite proposer des solutions innovantes pour garantir la confidentialité des données face à un serveur ou des clients malveillants. [1] Google AI blog: https://ai.googleblog.com/2017/04/federated-learning-collaborative.html

Voir toutes nos offres Télécharger l'offre (.zip)

Email Bookmark and Share