Erklärbare KI mit Python
Von Leonida Gianfagna und Antonio Di Cecco
Explainable AI with Python bietet eine umfassende Darstellung der Konzepte und Techniken, die heute verfügbar sind, um Machine Learning Systeme verständlicher zu machen. Die vorgestellten Ansätze lassen sich auf fast alle aktuellen Modelle des maschinellen Lernens anwenden, wie z.B. lineare und logistische Regressionsmodelle, neuronale Netze für tiefes Lernen, natürliche Sprachverarbeitung und Bilderkennung.
Die Fortschritte im Bereich des maschinellen Lernens tragen dazu bei, dass immer mehr künstliche Agenten eingesetzt werden, die kritische Aufgaben übernehmen können, die bisher von Menschen erledigt wurden (z. B. im Gesundheitswesen oder im Rechts- und Finanzwesen). Obwohl die Prinzipien für die Entwicklung dieser Agenten klar sind, bleiben die meisten der verwendeten Deep-Learning-Modelle für den Menschen „undurchsichtig“. Das Buch füllt die derzeitige Lücke in der Literatur zu diesem Thema, indem es sowohl eine theoretische als auch eine praktische Perspektive einnimmt und den Leser schnell in die Lage versetzt, mit den Tools und dem Code zu arbeiten, die für erklärbare KI-Systeme verwendet werden.
Das Buch beginnt mit Beispielen dafür, was erklärbare KI (Explainable AI, XAI) ist und warum sie so notwendig ist. Anschließend werden verschiedene Ansätze der XAI je nach Kontext und spezifischen Bedürfnissen erläutert. Anschließend werden praktische Beispiele für interpretierbare Modelle unter Verwendung von Python vorgestellt, die zeigen, wie inhärent interpretierbare Modelle interpretiert werden können und wie „menschlich verständliche“ Erklärungen erstellt werden können. Es wird gezeigt, dass agnostische Modellmethoden für XAI Erklärungen liefern, die sich nicht auf die Interna von ML-Modellen stützen, die „undurchsichtig“ sind. Anhand von Beispielen aus der Computer Vision untersuchen die Autoren dann erklärbare Modelle für Deep Learning und mögliche Methoden für die Zukunft. Mit einer praktischen Perspektive zeigen die Autoren auch, wie man ML und XAI in der Wissenschaft effektiv einsetzen kann. Das letzte Kapitel erklärt Adversarial Machine Learning und wie man XAI anhand widersprüchlicher Beispiele durchführt.
Wenn Sie an dem Buch Explainable AI with Python interessiert sind , klicken Sie hier.
Die Autoren
Leonida Gianfagna
Leonida Gianfagna (PhD, MBA) ist theoretischer Physiker und arbeitet derzeit im Bereich Cybersicherheit als F&E-Direktor bei Cyber Guru. Bevor er zu Cyber Guru kam, arbeitete er 15 Jahre lang bei IBM in leitenden Positionen in der Softwareentwicklung im Bereich ITSM (IT Service Management). Er hat mehrere Publikationen in theoretischer Physik und Informatik verfasst und ist ein akkreditierter IBM Master Inventor.
Antonio Di Cecco
Antonio Di Cecco ist ein theoretischer Physiker mit einem soliden mathematischen Hintergrund, der aktiv an der AIML-Ausbildung beteiligt ist. Die Stärke seines Ansatzes liegt in der eingehenden Untersuchung der mathematischen Grundlagen von AIML-Modellen, die neue Wege zur Darstellung von AIML-Wissen und Raum für Verbesserungen gegenüber dem bestehenden Stand der Technik bieten können.