Catégories
Start-up et applications

La boîte à outils LinkedIn Fairness a été lancée pour mesurer l'équité dans les applications d'IA à grande échelle

LinkedIn souhaite lutter contre les préjugés dans les applications d'IA à grande échelle. La société a présenté le LinkedIn Fairness Toolkit (LiFT) et a partagé la méthodologie qu'elle a développée pour détecter et surveiller les biais dans les produits basés sur l'IA.

LiFT est une bibliothèque Scala / Spark qui permet de mesurer l'équité, selon une multitude de définitions d'équité, dans des flux de travail d'apprentissage automatique à grande échelle. Il a une grande utilité pour les organisations qui souhaitent effectuer des analyses régulières de l'équité de leurs propres modèles et données, selon l'entreprise.

«Les gros titres de l'actualité et la recherche universitaire ont souligné que l'injustice sociétale généralisée basée sur les préjugés humains peut se refléter à la fois dans les données utilisées pour former les modèles d'IA et dans les modèles eux-mêmes. La recherche a également montré que les modèles affectés par ces préjugés sociétaux peuvent en fin de compte servir à renforcer ces préjugés et perpétuer la discrimination contre certains groupes ». Des chercheurs en IA et en apprentissage automatique de LinkedIn ont écrit dans un article de blog. «Bien que plusieurs bibliothèques open source s'attaquent à ces problèmes liés à l'équité, celles-ci ne résolvent pas spécifiquement les problèmes à grande échelle (et les défis inhérents à une telle échelle) ou sont liées à un environnement cloud spécifique. À cette fin, nous avons développé et sommes maintenant en open source LiFT. »

La boîte à outils peut être déployée dans les workflows de formation et de notation pour mesurer les biais dans les données, évaluer différentes notions d'équité pour les modèles ML et détecter des différences statistiquement significatives dans leurs performances dans différents sous-groupes, ont expliqué les chercheurs.

La bibliothèque fournit un programme de pilote de base alimenté par une configuration simple, permettant un déploiement rapide et facile dans les flux de production.

Les utilisateurs peuvent accéder aux API à différents niveaux de granularité avec la possibilité d'étendre les classes clés pour permettre un calcul personnalisé.

Les mesures actuellement prises en charge comprennent différents types de distances entre les distributions de probabilité observées et attendues; mesures traditionnelles d'équité (p. ex., parité démographique, cotes égalisées); et des mesures d’équité qui saisissent une notion de biais comme l’indice d’entropie généralisé, les indices de Theil et l’indice d’Atkinson.

La solution a également introduit un cadre de test de permutation indépendant des métriques qui détecte les différences statistiquement significatives dans les performances du modèle – une méthodologie de test qui apparaîtra dans KDD 2020.

Les métriques disponibles prêtes à l'emploi (comme la précision, le rappel, le taux de faux positifs (FPR) et la zone sous la courbe ROC (AUC)) peuvent être utilisées avec ce test et avec la classe CustomMetric, les utilisateurs peuvent définir leur propre utilisateur défini Fonctions à brancher sur ce test. Afin de s'adapter à la variété de mesures mesurées, LiFT utilise une classe de cas générique FairnessResult pour capturer les résultats

«Bien qu'il s'agisse d'un choix apparemment évident pour comparer des groupes de membres, les tests de permutation peuvent ne pas fournir de décisions directionnelles précises concernant l'équité. Autrement dit, lorsqu'il rejette un test selon lequel deux populations sont identiques, le praticien ne peut pas nécessairement conclure qu'un modèle fonctionne mieux pour une population par rapport à une autre », a écrit l'équipe. «LiFT met en œuvre une version modifiée des tests de permutation appropriée pour évaluer l'équité d'un modèle d'apprentissage automatique entre des groupes d'utilisateurs, permettant aux praticiens de tirer des conclusions significatives.»

LinkedIn a déclaré que la publication de sa boîte à outils faisait partie des efforts de R&D de la société pour éviter les préjugés préjudiciables dans sa plate-forme, aux côtés de Project Every Member et de la «diversité dès la conception» dans LinkedIn Recruiter.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *