Pour réaliser la plateforme automatique et adaptative de Cyber Guru, il a été nécessaire de développer un produit contrôlé par un modèle de machine learning.
Cela a été rendu possible grâce à l’expertise en cybernétique, en intelligence artificielle et en machine learning de Leonida Gianfagna, physicien théorique spécialisé dans les particules élémentaires et aujourd’hui à la tête du secteur de la recherche et du développement de Cyber Guru, auteur du livre Explainable AI with Python.
Votre livre parle également beaucoup de l’intelligence artificielle explicable, «Explainable AI». Pouvez-vous nous expliquer ce que c’est?
C’est un champ de recherche au sein du machine learning qui cherche à répondre aux nombreuses questions, notamment celles relatives à la responsabilité, que nous nous posons tous sur cet outil et sur son fonctionnement.
Aujourd’hui, l’intelligence artificielle a joué un rôle important dans de nombreux domaines de notre vie, y compris les domaines particulièrement sensibles et stratégiques tels que la santé, l’économie, la formation, le droit et bien d’autres.
Ainsi, il peut arriver qu’une machine diagnostique une tumeur en lisant un scanner ou décide si une personne peut ou non obtenir un prêt hypothécaire pour acheter une maison. En bref, de plus en plus de machines apporteront des réponses aux questions fondamentales de la vie des citoyens.
L’Explainable AI veut, précisément, expliquer en fonction de quels éléments et critères la machine recueille les questions et fournit des réponses. Pour être plus clair, pourquoi a t’elle « décidé » que je n’ai pas le droit d’obtenir un prêt hypothécaire mais que mon cousin reçoit lui une réponse affirmative.
Cela implique-t-il également des questions de responsabilité et de droit ?
Oui, c’est également ça. À qui incombe la responsabilité si la machine fait une déduction erronée ?
Étant donné que les réponses juridiques et le droit ne parviennent pas à suivre la vitesse de développement de la technologie et de l’intelligence artificielle, on va de plus en plus vers un système mixte, où la responsabilité reste à la charge de l’Homme qui utilise la machine.
Le rôle de l’Explainable AI devient de plus en plus déterminant pour comprendre comment les ordinateurs construisent leurs réponses.
Dans le livre, on parle également beaucoup de Machine Learning. En quoi cela diffère-t-il de l’intelligence artificielle ?
Nous devons d’abord expliquer rapidement l’histoire de l’intelligence artificielle.
La naissance de l’IA remonte symboliquement aux années 1950 avec le travail de Turing (Computing Machinery and Intelligence) et sa fameuse question « Can machines think ? ». Son histoire est composée de rebondissements.
Elle vit en effet de nombreuses périodes difficiles, appelées« AIwinters », durant lesquelles il semblait que les développements étaient arrivés à une impasse. Jusqu’à ce qu’il y ait une renaissance autour des années 2000, quand une période de développement accru de cet outil a commencé, principalement en raison de la forte croissance de la disponibilité des données et de la puissance de calcul. Ces deux éléments ont permis l’application des anciens modèles dans un contexte totalement nouveau avec des succès époustouflants.
Le Machine Learning est un sous-ensemble de l’IA visant à créer des systèmes qui apprennent ou améliorent les performances en fonction des données qu’ils utilisent. C’est une approche différente de celle de l’algorithme où le modèle apprend à résoudre des tâches de manière autonome (sans règles précises programmées de l’extérieur).
Un exemple ?
Si je dois apprendre à une machine à reconnaître des chats, je peux suivre deux voies :
décrire les caractéristiques du chat de manière algorithmique, en demandant à la machine de vérifier si les éléments du chat sont présents dans l’image soumise. Mais c’est une voie difficile à suivre car les chats peuvent être très différents les uns des autres et à la première difficulté, la machine peut se bloquer.
L’autre moyen est de fournir à la machine de nombreuses images de chats et de laisser la machine elle-même reproduire un modèle qui lui permette de reconnaître un chat.
Par conséquent, le Machine Learning puise dans de nombreuses données en construisant le modèle d’un réseau neuronal (ou différents modèles de ML), et en recherchant la réponse la plus appropriée entre l’entrée et la sortie. Jusqu’à ce que le processus soit validé.
Lorsque vous êtes satisfait de l’exactitude des réponses, vous pouvez commencer à soumettre à la machine des données jamais soumises auparavant en faisant confiance au réseau et à la quantité infinie de données qu’il contient.
C’est le même mécanisme sur lequel repose le fonctionnement de Chat GPT dont on parle tant aujourd’hui.
Sommes-nous arrivés à un point où les machines peuvent être qualifiées d’intelligentes ?
La question est plus complexe et on en parle depuis toujours.
Il faut d’abord se demander ce que l’on entend par intelligence. Un ordinateur traite des données et exécute des programmes, mais ne « comprend » pas ce qu’il fait.. Bien sûr, à première vue, ses réponses peuvent sembler similaires à celles d’un humain. Mais il reste deux mondes distincts et lointains. La complexité de l’humain n’appartient pas aux ordinateurs.
C’est une question très importante qui a été posée dès les années 1980 avec clarté. John Roger Searle, professeur de Berkeley, connu pour ses contributions à la philosophie du langage et à la philosophie de l’esprit, qui a proposé la fameuse expérience de la chambre chinoise pour prouver que l’esprit humain n’était pas reproductible à l’intérieur d’unemachine.
De quoi s’agit-il ?
Imaginons qu’il y ait dans une pièce une machine et un homme qui ne parle qu’anglais.
Les deux sont soumis à un texte en chinois à traduire. Évidemment, l’ordinateur n’a aucun problème à effectuer sa tâche. L’homme reçoit un livre avec une série de règles écrites en anglais, qui expliquent comment faire correspondre les symboles chinois à sa langue. Ainsi l’homme trouve la solution et commence à produire une sortie de réponse, en suivant à la lettre les instructions. Les réponses que l’homme produit sont formellement justes, car il a exécuté à la lettre les instructions qui lui ont été données avec les idéogrammes et pouvant être comparées au logiciel de l’ordinateur.
Malgré cela, il n’a rien compris à ses réponses et, bien sûr, il n’a pas appris le chinois, bien qu’à première vue, cela puisse sembler être le contraire.
Ici, une machine se comporte comme le protagoniste de cette expérience : elle exécute le programme écrit en langage de programmation (sa langue maternelle), mais manipule essentiellement des symboles dont elle ne connaît pas le sens. Son opération est purement syntaxique. Mais la complexité de l’esprit humain n’est pas imitable par une machine. En effet, celle-ci ne doit pas « comprendre » mais seulement traiter et manipuler correctement des données.
Pour en revenir à l’exemple des chats, il suffit de penser qu’un enfant n’a pas besoin de traiter des milliers d’images de chat ; il lui suffit d’en voir deux ou trois pour que se forme dans son esprit une idée du chat, qui lui permettra de toujours reconnaître cet animal.
Si vous voulez en savoir plus sur Explainable AI with Python…