ACTUALITES SUR L'INTELLIGENCE ARTIFICIELLE

Comment Google protège les données d'entraînement des IA

L'article explique que les modèles d'apprentissage profond doivent être protégés contre les fuites d'informations. Les fuites d'informations sont des situations où des personnes malveillantes peuvent extraire des détails sur les données d'entraînement utilisées dans un modèle d'apprentissage profond. Pour éviter cela, on utilise la confidentialité différentielle (DP). La confidentialité différentielle est une technique qui protège les données d'entraînement en ajoutant du bruit aux résultats d'un modèle. Ainsi, il devient difficile pour un attaquant d'obtenir des informations précises sur les données individuelles utilisées pour l'entraînement du modèle. L'apprentissage par transfert est une méthode qui consiste à utiliser un modèle pré-entraîné sur un problème et à l'adapter pour résoudre un autre problème similaire. Cela permet de profiter des connaissances acquises sur le problème initial pour améliorer les performances sur le nouveau problème, surtout lorsque les données pour le nouveau problème sont limitées. Dans l'article, les chercheurs combinent la confidentialité différentielle et l'apprentissage par transfert pour créer de meilleurs modèles d'apprentissage profond tout en protégeant les données d'entraînement. En ajustant certains paramètres et en adaptant une partie spécifique du modèle pré-entraîné, ils parviennent à améliorer les performances des modèles tout en préservant la confidentialité des données.

D'après un article publié le 28.3.2023 par Google
Article complet en anglais sur: https://ai.googleblog.com/