La prolifération des modèles d’apprentissage automatique (AA) dans des applications sociétales critiques soulève des préoccupations quant à l’équité et la transparence. Les décisions biaisées ont créé une méfiance croissante parmi les consommateurs soumis aux décisions basées sur l’AA. Pour remédier à cette situation et renforcer la confiance des consommateurs, il est urgent de développer des technologies permettant la vérification publique des propriétés d’équité de ces modèles.

Cependant, les contraintes légales et de confidentialité empêchent souvent les organisations de divulguer leurs modèles, rendant la vérification difficile et pouvant entraîner des comportements déloyaux, tels que le remplacement inapproprié de modèles. Pour répondre à ces défis, des chercheurs de Stanford et UCSD ont proposé un système nommé FairProof. Celui-ci comprend un algorithme de certification de l’équité et un protocole cryptographique. L’algorithme évalue l’équité du modèle à un point de données spécifique en utilisant une métrique appelée équité individuelle locale (IF).

Cette approche permet d’émettre des certificats personnalisés pour les clients individuels, idéale pour les organisations orientées vers les consommateurs. De plus, l’algorithme est conçu pour être indépendant de la chaîne de formation, assurant ainsi son applicabilité à divers modèles et ensembles de données.

La certification de l’IF locale est réalisée en utilisant des techniques issues de la littérature sur la robustesse, tout en assurant la compatibilité avec les preuves à divulgation nulle de connaissance (ZKPs), permettant de vérifier les déclarations sur des données privées sans révéler les pondérations des modèles.

Pour rendre le processus efficace sur le plan computationnel, un protocole ZKP spécialisé est mis en œuvre, réduisant de manière stratégique la charge computationnelle grâce à des calculs hors ligne et à l’optimisation de sous-fonctionnalités. En outre, l’uniformité des modèles est assurée via des engagements cryptographiques, où les organisations s’engagent publiquement sur les pondérations de leurs modèles tout en les gardant confidentielles. Cette approche, largement étudiée dans la littérature sur la sécurité de l’AA, garantit transparence et responsabilité tout en protégeant les informations sensibles des modèles.

En combinant la certification de l’équité avec des protocoles cryptographiques, FairProof offre une solution globale aux préoccupations d’équité et de transparence dans les prises de décision basées sur l’AA, favorisant une plus grande confiance parmi les consommateurs et les parties prenantes.