Nicolas Papernot

2025

Ma recherche porte sur l’apprentissage automatique, une forme d’intelligence artificielle (IA) qui est devenue une technologie utilisée par nous tous. Les modèles d’apprentissage automatique sont vulnérables à des attaques : leur comportement est perturbé en présence d’adversaires. Par exemple, nos travaux ont montré qu’un adversaire peut trouver des entrées qui forcent un modèle à prédire de façon systématiquement erronée, même lorsque l’adversaire n’a aucune information sur le fonctionnement interne de ce modèle. Cette démonstration a prouvé que les attaques contre l’apprentissage automatique n’étaient plus une menace hypothétique. Mon équipe a également démontré que les modèles peuvent divulguer des données sur lesquelles ils ont été entraînés, notamment lorsque les mises à jour intermédiaires appliquées au modèle lors de son entrainement sont révélées, ce qui est commun lorsque l’entraînement est distribué entre plusieurs acteurs. Pour relever ces défis, nous concevons des algorithmes d’apprentissage automatique en prenant en compte des considérations de sécurité et de confidentialité. Les travaux de mon équipe et de nos collaborateurs ont montré que nous pouvons prendre en compte les propriétés du domaine d’entrée lors de la conception des algorithmes d’apprentissage automatique pour renforcer la robustesse d’un modèle. Nous avons également conçu des algorithmes d’apprentissage assortis de garanties de confidentialité qui peut être vérifiées, en introduisant du bruit et en chiffrant les données fournies par les individus, ou en leur permettant de supprimer leurs données une fois l’entraînement terminé. Les travaux sur lesquels nous nous penchons actuellement visent à améliorer la fiabilité des algorithmes d’apprentissage automatique et à soutenir les efforts de réglementation de l’IA en améliorant notre capacité à auditer ces algorithmes.

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.