Dépôt numérique
RECHERCHER

Differential Privacy in Deep Learning Models.

Téléchargements

Téléchargements par mois depuis la dernière année

Plus de statistiques...

Amian, Mehdi (2022). Differential Privacy in Deep Learning Models. Mémoire. Québec, Maîtrise en télécommunications, Université du Québec, Institut national de la recherche scientifique, 82 p.

[thumbnail of Amian, Mehdi.pdf]
Prévisualisation
PDF
Télécharger (1MB) | Prévisualisation

Résumé

Dans ce memoire, le sujet de la confidentialité dans les modèles d’apprentissage profond est étudié. Dans le contexte actuel, la confidentialité désigne à la protection des modèles qui sont publiquement partagés, contre la fuite non souhaitable des informations. Il se trouve que ces modèles sont vulnerables dans le sens où la mémorisation de données d’entraînement risque la divuglation des informations confidentielles par des utilisateurs malveillants. La nécessité et l’importance de ce projet viennent du fait qu’à nos jours, il y a des modèles d’apprentissage profond qui sont entraînés sur des données personnelles et potentiellement confidentielles, qui sont susceptibles d’être partagés publiquement. Ces modèles n’incluent généralement pas de méthodes permettant de protéger la confidentialité des données. D’autres méthodes offrent la confidentialité aux modèles d’apprentissage profond mais avec une dégradation inacceptable de la performance de modèle de point de vue pratique et surtout commercial. Dans ce projet, une modification à l’algorithme de descente de gradient stochastique différentiellement confidentiel (DGSDC) est présentée afin d’apporter la confidentialité aux modèles d’apprentissage profond avec une meilleure performance des modèles en offrant un niveau acceptable de confidentialité pour des utilisations pratiques et commerciales. La méthode proposée est basée sur la filtration par la fonction tangente hyperbolique (tanh) permettant de règler le problème d’explosion de gradient au niveau des réseaux de neurones récurrents (RNR).

Abstract

In this thesis, the concept of privacy in deep learning models is studied. Privacy here refers to protection of a publicly shared model against unwanted information leakage. It is found out that deep learning models are susceptible to memorizing the training data and consequently are at risk of disclosing confidential information in response of malignant inquiries. The necessity and importance of this project come from the fact that nowadays many deep learning models are trained on personal data with potentially confidential and sensitive contents and then are publicly shared. Such models naturally lack privacy protecting components. There are many examples of reversing the training path and getting access to the training data by adversaries. There are some approaches that offer the privacy in deep learning models but with an unacceptable decline in the performance of the model from a real world and particularly commercial point of view. In this study, an adjustment to the differentially private stochastic gradient descent (DPSGD) algorithm which is the state-of-theart in facilitating privacy in deep learning models is proposed. The motivation is to improve the performance of the model while offering an acceptable amount of privacy for real life and commercial applications. The proposed approach is based on tanh filtering and can also be extended to the recurrent neural network (RNN) to solve the exploding gradient problem.

Type de document: Thèse Mémoire
Directeur de mémoire/thèse: Mitiche, Amar
Co-directeurs de mémoire/thèse: Benesty, Jacob
Mots-clés libres: apprentissage profond; confidentialité des données; modèles récurrents; data; deep learning; model; privacy; utility
Centre: Centre Énergie Matériaux Télécommunications
Date de dépôt: 13 juin 2022 18:13
Dernière modification: 13 juin 2022 18:13
URI: https://espace.inrs.ca/id/eprint/12585

Actions (Identification requise)

Modifier la notice Modifier la notice