Explainable AI with Python
Par Leonida Gianfagna et Antonio Di Cecco
Explainable AI with Python fournit une présentation complète des concepts et des techniques disponibles aujourd’hui pour rendre les systèmes d’apprentissage automatique plus compréhensibles. Les approches présentées peuvent être appliquées à presque tous les modèles actuels de machine learning, tels que le modèle de régression linéaire et logistique, les réseaux neuronaux de deep learning, le traitement du langage naturel et la reconnaissance d’image.
Les progrès réalisés dans le cadre du machine learning contribuent à accroître l’utilisation d’agents artificiels capables d’effectuer des tâches critiques précédemment gérées par l’homme (comme la santé ou les activités juridiques et financières). Bien que les principes qui guident la conception de ces agents soient clairs, la plupart des modèles de deep learning utilisés restent « opaques » à la compréhension humaine. Le livre comble le vide actuel dans la littérature traitant de ce sujet, en adoptant à la fois une perspective théorique et pratique, et en permettant au lecteur de travailler rapidement avec les outils et le code utilisés pour les systèmes Explainable AI.
En commençant par des exemples de ce qu’est l’Explainable AI (XAI) et pourquoi il est si nécessaire, le livre détaille différentes approches du XAI en fonction du contexte et des besoins spécifiques. Des exemples pratiques de modèles interprétables utilisant Python sont ensuite présentés, montrant comment les modèles intrinsèquement interprétables peuvent être interprétés et comment produire des explications « compréhensibles par l’homme ». Il est démontré que les méthodes de modèles agnostiques pour le XAI produisent des explications qui ne reposent pas sur les parties internes des modèles ML qui sont « opaques ». En utilisant des exemples de vision par ordinateur, les auteurs examinent ensuite les modèles exploitables pour le deep learning et les méthodes potentielles pour l’avenir. Avec une perspective pratique, les auteurs démontrent également comment utiliser efficacement ML et XAI en science. Le chapitre final explique l’Adversarial Machine Learning et comment faire XAI en utilisant des exemples conflictuels.
Si vous êtes intéressé par le livre Explainable AI with Python cliquez ici.
Les auteurs
Leonida Gianfagna
Leonida Gianfagna (PhD, MBA) est une physicienne théorique qui travaille actuellement dans la cybersécurité en tant que directrice de la R&D pour Cyber Guru. Avant de rejoindre Cyber Guru, elle a travaillé pendant 15 ans chez IBM où elle a occupé des postes de direction dans le domaine du développement de logiciels ITSM (IT Service Management). Elle est auteure de plusieurs publications en physique théorique et informatique et accréditée IBM Master Inventor.
Antonio Di Cecco
Antonio Di Cecco est un physicien théoricien avec une solide formation mathématique, qui s’engage activement dans la formation sur l’AIML. Le point fort de son approche est l’approfondissement des fondements mathématiques des modèles AIML, capables de fournir de nouvelles façons de présenter les connaissances AIML et l’espace d’amélioration par rapport à l’état de l’art existant.