La recherche sur l’interprétabilité du machine learning est cruciale pour comprendre les processus décisionnels des modèles complexes. Ces modèles, souvent perçus comme des « boîtes noires », rendent difficile la compréhension de l’influence des caractéristiques spécifiques sur leurs prédictions. Des techniques comme l’attribution de caractéristiques et les indices d’interaction ont été développées pour améliorer la transparence et la fiabilité des systèmes d’IA.

Un défi majeur est d’allouer efficacement le crédit aux différentes caractéristiques d’un modèle. Les méthodes traditionnelles, comme la valeur de Shapley, offrent un cadre robuste d’attribution de caractéristiques mais peinent à capturer les interactions de plus haut ordre. Ces interactions sont essentielles pour une compréhension complète des systèmes complexes.

Des outils tels que SHAP utilisent la valeur de Shapley pour quantifier la contribution des caractéristiques individuelles. Cependant, ils se concentrent principalement sur les interactions de premier ordre et n’appréhendent pas la complexité des interactions de plus haut ordre.

Des chercheurs des universités de Bielefeld, Munich, et Paderborn ont proposé une nouvelle méthode appelée KernelSHAP-IQ pour résoudre ces problèmes. Utilisant l’optimisation par moindres carrés pondérés, KernelSHAP-IQ capture et quantifie les interactions au-delà du premier ordre. Testée sur divers jeux de données, cette méthode a montré une amélioration significative de l’interprétabilité et de la précision.

KernelSHAP-IQ construit une approximation optimale de l’Indice d’Interaction de Shapley en utilisant des approximations itératives k-additives, en commençant par les interactions de premier ordre et en incluant progressivement les interactions de plus haut ordre. Testée sur divers ensembles de données, cette méthode a prouvé sa capacité à capturer des interactions complexes, fournissant une interprétation détaillée et efficace.

En somme, KernelSHAP-IQ représente une avancée majeure en permettant de quantifier les interactions complexes des caractéristiques, comblant une lacune critique dans l’interprétabilité des modèles de machine learning. Elle améliore ainsi la transparence et la confiance dans les systèmes d’IA.