Explainable AI with Python
Di Leonida Gianfagna e Antonio Di Cecco
Explainable AI with Python fornisce una presentazione completa dei concetti e delle tecniche oggi disponibili per rendere i sistemi di Machine Learning più comprensibili. Gli approcci presentati possono essere applicati a quasi tutti i modelli attuali di Machine Learning, come il modello di regressione lineare e logistica, le reti neurali di deep learning, l’elaborazione del linguaggio naturale e il riconoscimento delle immagini.
I progressi ottenuti nell’ambito del Machine Learning stanno contribuendo ad aumentare l’uso di agenti artificiali in grado di svolgere compiti critici precedentemente gestiti dagli esseri umani (come nella sanità o nelle attività legali e finanziarie). Sebbene i principi che guidano la progettazione di questi agenti siano chiari, la maggior parte dei modelli di deep-learning utilizzati restano “opachi” alla comprensione umana. Il libro colma l’attuale vuoto presente nella letteratura che si occupa di questo argomento, adottando sia una prospettiva teorica che pratica, e rendendo il lettore rapidamente in grado di lavorare con gli strumenti ed il codice utilizzato per i sistemi di Explainable AI.
Iniziando con esempi di cosa sia l’Explainable AI (XAI) e perché sia così necessario, il libro dettaglia diversi approcci dell’XAI a seconda del contesto e delle esigenze specifiche. Vengono quindi presentati esempi pratici di modelli interpretabili con l’utilizzo di Python, mostrando come i modelli intrinsecamente interpretabili possano essere interpretati e come si possano produrre spiegazioni “comprensibili dall’uomo”. Viene mostrato che i metodi di agnostic-model per XAI producono spiegazioni che non fanno affidamento alle parti interne dei modelli di ML che sono “opachi”. Utilizzando esempi di Computer Vision, gli autori esaminano quindi i modelli esplicabili per il Deep Learning e i potenziali metodi per il futuro. Con una prospettiva pratica, gli autori dimostrano inoltre come utilizzare efficacemente ML e XAI nella scienza. Il capitolo finale spiega l’Adversarial Machine Learning e come fare XAI utilizzando esempi conflittuali.
Se sei interessato al libro Explainable AI with Python clicca qui.
Gli Autori
Leonida Gianfagna
Leonida Gianfagna (PhD, MBA) è un fisico teorico che attualmente lavora nella Cyber Security come direttore R&D per Cyber Guru. Prima di unirsi a Cyber Guru ha lavorato in IBM per 15 anni ricoprendo ruoli di primo piano nello sviluppo software in ITSM (IT Service Management). È autore di diverse pubblicazioni in fisica teorica e informatica e accreditato come IBM Master Inventor.
Antonio Di Cecco
Antonio Di Cecco è un fisico teorico con una solida formazione matematica che si impegna attivamente nella formazione sull’AIML. Il punto di forza del suo approccio è l’approfondimento delle fondamenta matematiche dei modelli AIML in grado di fornire delle nuove modalità per presentare la conoscenza AIML e lo spazio di miglioramento rispetto lo stato dell’arte esistente.