L'équité et la protection de la vie privée sont deux enjeux fondamentaux pour le développement de techniques d'apprentissage dignes de confiance.
Parmi les différentes notions d'équité proposées, les métriques d'équité statistique mesurent la différence d'une certaine grandeur, qui est fonction de la matrice de confusion d'un modèle (ex: taux de vrais positifs), entre différents groupes protégés, définis par la valeur d'un ou plusieurs attributs sensibles (genre, origine ethnique, ...). Bien que les modèles équitables ainsi appris n'utilisent généralement pas ces attributs sensibles pour leurs prédictions, ils doivent néanmoins faire partie de leur ensemble d'entraînement - pour s'assurer du respect de l'équité.
Dans ce travail, nous montrons que l'information de l'équité d'un modèle peut être utilisée pour reconstruire les attributs sensibles de son ensemble d'entraînement. L'attaque de reconstruction proposée utilise des approches déclaratives (programmation linéaire en nombres entiers et programmation par contraintes) et est évaluée expérimentalement. Nos résultats illustrent la tension (déjà observée dans la littérature) entre protection de la vie privée - en particulier des attributs sensibles - et apprentissage équitable vis-à-vis de ces mêmes attributs.