Définition
L’interprétabilité des modèles ML (en anglais, ML Model Interpretability) signifie la facilité avec laquelle un être humain peut interpréter et comprendre comment le modèle est parvenu à sa décision ou à sa prédiction. En d’autres termes, ils ont besoin de savoir ce qui a provoqué une décision spécifique. Le but est de développer un modèle que toute personne sans expertise technique puisse saisir et ainsi être en mesure d’en décrire le fonctionnement.
Aperçu
Dans le domaine de l’apprentissage automatique, il est souvent difficile de comprendre comment les modèles « boîte noire » très complexes parviennent à leurs prédictions, même s’ils fournissent des résultats utiles. Cependant, l’interprétabilité des modèles de machine learning vise à construire des modèles compréhensibles et dignes de confiance, même pour les utilisateurs non techniques. Alors que les systèmes de ML transforment rapidement des secteurs fortement réglementés tels que la santé et la finance, notre dépendance croissante à l’égard de l’interprétabilité des modèles est motivée par le besoin de transparence et d’une compréhension plus approfondie des résultats.
Qu’est-ce que l’interprétabilité des modèles ML ?
En termes simples, l’interprétabilité des modèles ML signifie la facilité avec laquelle un être humain peut interpréter et comprendre comment le modèle est parvenu à sa décision ou à sa prédiction. En d’autres termes, ils ont besoin de savoir ce qui a provoqué une décision spécifique.
L’interprétabilité des modèles ML implique qu’un utilisateur humain puisse comprendre :
- Comment fonctionne un modèle
- Les facteurs qui entrent en ligne de compte dans ses prédictions
- Le processus qui conduit à ces prédictions
Plus la compréhension de l’homme est claire, plus le modèle d’apprentissage automatique est « interprétable ».
Interprétabilité et explicabilité des modèles ML
Un terme apparenté à l’interprétabilité des modèles ML est l’« explicabilité ». Le but est de développer un modèle que toute personne ordinaire puisse saisir et ainsi être en mesure d’en décrire le fonctionnement. Les termes « interprétabilité » et « explicabilité » sont souvent utilisés de manière interchangeable par la communauté de l’apprentissage automatique, et il n’existe pas de véritable définition officielle pour chacun d’entre eux.
Cela dit, l’explicabilité peut être perçue comme demandant un seuil d’exigence plus bas que l’interprétabilité. Un modèle de machine learning est interprétable si l’on peut fondamentalement comprendre comment il prend ses décisions. À l’inverse, un modèle est dit explicable si l’on peut expliquer comment une composante précise d’un modèle complexe affecte la prédiction finale. Si chaque partie d’un modèle est explicable et que nous pouvons suivre chaque explication simultanément, alors le modèle est interprétable.
Voici un exemple dans le contexte des véhicules autonomes. Il est sans doute possible d’expliquer certains aspects qui contribuent aux décisions de la voiture, par exemple comment la détection d’objets identifie les objets présents sur la route. Cela signifie que le modèle est au moins partiellement explicable, puisque nous comprenons certains de ses mécanismes internes. Pour autant, cela ne signifie pas que le modèle soit interprétable, car cela demande une compréhension beaucoup plus approfondie.
La différence entre un ML interprétable et un ML explicable est nuancée, mais il est important de la comprendre.
Qu’est-ce qui peut rendre les modèles difficiles à interpréter ?
La logique derrière l’apprentissage automatique n’est pas systématiquement accessible. Plus nous appliquons cette technologie à des tâches complexes et à des volumes de données importants, plus il devient difficile de saisir et d’expliquer les résultats obtenus.
Dans la construction de leurs modèles, les équipes de ML procèdent par de multiples petites itérations pour aboutir à un algorithme qui parvient à saisir le schéma souhaité. Cette méthode de développement peut facilement conduire à un modèle de « boîte noire », dans lequel les équipes ML fournissent des données et laissent l’IA effectuer des calculs complexes pour parvenir à une décision. Autrement dit, il nous sera impossible de connaître des aspects essentiels, tels que les variables et les données d’entrée jugées importantes par le modèle, ou la façon dont il parvient à ses conclusions.
De même, un modèle de machine learning peut être formé avec des données qui véhiculent des biais, comme des préjugés, des stéréotypes ou des biais sociétaux, souvent présents dans les jeux de données sans que nous en ayons conscience. Si vous réunissez ces facteurs, vous obtenez un modèle d’apprentissage automatique qui, bien que précis, fonctionne d’une manière que nous ne comprenons pas.
Comment rendre les modèles plus interprétables et plus transparents ?
Heureusement, il existe des moyens de rendre les modèles plus interprétables et plus transparents. Améliorer l’interprétabilité d’un modèle contribue à améliorer ses résultats et sa précision, ce qui favorise une adoption plus large grâce à une confiance et une perception accrues auprès des utilisateurs visés.
L’utilisation de l’intelligence artificielle explicable (en anglais, explainable AI) est un moyen de rendre les modèles ML plus transparents. Il s’agit d’un framework qui permet d’interpréter le fonctionnement de vos modèles et de comprendre les résultats, avec des outils conçus pour explorer facilement le comportement d’un modèle. En procédant ainsi, il devient possible de corriger les bugs, d’accroître l’efficacité du modèle et d’expliciter ses prédictions et ses sorties.
Les outils d’IA explicable (en anglais, explainable AI tools, ou XAI) peuvent mettre en lumière la contribution des variables individuelles à la prédiction d’un modèle et révéler les caractéristiques de l’algorithme qui ont le plus de poids dans la prise de décision.
Voici quelques exemples de ces outils XAI :
- L’outil Google What If Tool, qui permet aux utilisateurs de visualiser comment différents points de données affectent les prédictions des modèles TensorFlow entraînés.
- L’outil InterpretML de Microsoft, qui est une boîte à outils permettant également aux utilisateurs de visualiser et d’expliquer les prédictions.
Examinons une étude de cas potentielle : Imaginez que vous ayez développé un modèle d’apprentissage automatique capable d’évaluer la solvabilité d’un demandeur de prêt. Un rapport XAI peut être utilisé pour vous indiquer le poids accordé à leur score de crédit par rapport à d’autres facteurs tels que le pourcentage d’utilisation de la carte de crédit ou le ratio dette/revenu.
Si ce modèle est interprétable, vous n’aurez aucun mal à expliquer au demandeur pourquoi sa demande a été rejetée. Par ailleurs, si la demande d’un candidat aurait dû être approuvée mais ne l’a pas été, vous serez en mesure d’isoler la partie du code à l’origine de ce rejet et d’optimiser votre modèle en conséquence.
Les avantages des modèles ML interprétables
De plus en plus, il ne suffit pas de savoir ce qui a été prédit ; il faut aussi faire preuve de transparence sur la manière dont une prédiction a été faite et sur les raisons pour lesquelles elle a été faite par le modèle. La valeur de l’interprétabilité augmente de façon exponentielle avec l’impact des prédictions sur l’utilisateur final. Elle peut également augmenter en fonction des données utilisées par le modèle pour faire ces prédictions, telles que les informations personnelles des utilisateurs, ce qui implique un besoin important d’interprétabilité, car des biais peuvent être introduits à l’insu de l’utilisateur.
L’interprétabilité n’a peut-être pas autant d’importance pour un système utilisé dans la prédiction du départ des clients, mais elle est incontournable lorsqu’il s’agit de modèles ayant la responsabilité de décisions cruciales. Dans le domaine des soins de santé, par exemple, les médecins et les infirmières doivent pouvoir non seulement se fier aux prédictions faites par l’algorithme, mais aussi le comprendre suffisamment pour expliquer au patient pourquoi certaines décisions sont prises. Si ce n’est pas le cas, cela peut entraîner une méfiance à l’égard du système.
Outre la confiance, les principaux avantages de l’interprétabilité sont les suivants :
- Équité : si nous pouvons garantir que les prédictions d’un modèle ne sont pas biaisées, nous évitons la discrimination à l’encontre de certains groupes sous-représentés.
- Robustesse : nous devons être certains qu’un modèle fonctionne dans tous les contextes et que de petits changements dans les données d’entrée n’entraînent pas de changements inattendus dans les données de sortie.
- Vie privée : si nous pouvons comprendre les informations utilisées par un modèle, nous pouvons l’empêcher d’accéder à des informations sensibles si nécessaire.
- Causalité : nous devons nous assurer que le modèle ne prend en compte que les relations de cause à effet et qu’il ne détecte pas de fausses corrélations qui fausseraient les résultats.
Certains algorithmes sont plus interprétables que d’autres
Tous les algorithmes ne se valent pas : certains sont plus faciles à interpréter que d’autres.
Parmi les algorithmes considérés comme intrinsèquement plus interprétables, on trouve la régression et les arbres de décision. À l’autre extrémité du spectre, on trouve des algorithmes tels que les forêts aléatoires et les réseaux neuronaux, qui peuvent être considérés comme moins interprétables. Cependant, de nombreux facteurs peuvent influer sur l’interprétabilité d’un modèle. Il peut donc être difficile de généraliser.
De plus, les algorithmes complexes associés à de très grands ensembles de données offrent souvent des prédictions plus précises. Il existe donc un compromis entre interprétabilité et précision. Bien qu’un algorithme de régression linéaire puisse être plus facile à interpréter, ses décisions peuvent être moins fiables et moins précises, ce qui le rend moins utile dans un modèle conçu pour être utilisé dans le domaine de la finance ou des soins de santé.
ML interprétable avec JFrog
JFrog propose une plateforme unifiée qui intègre de façon transparente la gestion du cycle de vie des modèles IA/ML dans la chaîne d’approvisionnement logicielle de l’entreprise. La plateforme facilite le build, le déploiement et la gestion rapide des modèles, avec un haut niveau de contrôle, de traçabilité et de sécurité, tout en rendant l’infrastructure et l’exploitation bien plus simples. Par conséquent, vos équipes d’IA/ML peuvent élaborer rapidement des modèles puissants et interprétables et les mettre en production en toute confiance.
Vous souhaitez en savoir plus sur la manière dont JFrog ML peut vous aider à déployer efficacement vos modèles ML ? Prenez contact avec nous pour réserver une démonstration.