«Explainable AI with Python»: la brillante combinación entre un libro y la innovación formativa

AI & ML Expert Talks/Security Awareness
4 julio 2023
Explainable AI with Python

Para realizar la plataforma automática y adaptativa de Cyber Guru fue necesario desarrollar un producto controlado por un modelo de aprendizaje automático.
Esto ha sido posible gracias a la experiencia en cibernética, inteligencia artificial y aprendizaje automático de Leonida Gianfagna, físico teórico especializado en partículas elementales y actualmente jefe del sector de Investigación y Desarrollo de Cyber Guru, autor del libro «Explainable AI with Phyton».

En tu libro también se habla mucho de la inteligencia artificial explicable, o «Explainable AI». ¿Nos puedes explicar qué es?

Es un campo de investigación dentro del aprendizaje automático que busca responder a las numerosas preguntas, algunas relacionadas con la responsabilidad, que todos nos hacemos sobre esta herramienta y su funcionamiento.

La inteligencia artificial ha asumido ya un papel importante en muchos ámbitos de nuestra vida, incluso en algunos particularmente delicados y estratégicos como por ejemplo la salud, la economía, la formación y el derecho, entre otros.

Así, puede suceder que sea una máquina la que diagnostique un tumor leyendo una tomografía computarizada o la que decida si una persona puede obtener o no una hipoteca para comprar una casa. En resumen, cada vez será más frecuente que las máquinas den respuesta a cuestiones fundamentales de la vida de los ciudadanos.

La «Explainable AI» pretende explicar qué elementos y criterios sigue la máquina para recopilar las preguntas y proporcionar las respuestas. Para ser más claros, por qué ha «decidido» que yo no tengo derecho a obtener una hipoteca y en cambio mi primo recibe una respuesta afirmativa.

¿Implica esto también cuestiones relativas a la responsabilidad y al derecho?

Sí, ese es otro punto a tener en cuenta. ¿Sobre quién recae la responsabilidad si la máquina hace una deducción incorrecta?

Dado que las respuestas jurídicas y el derecho no pueden seguir el ritmo del desarrollo de la tecnología y la inteligencia artificial, se avanza cada vez más hacia un sistema mixto, en el que la responsabilidad recaiga en el hombre que utiliza la máquina.

El papel de la «Explainable AI» es cada vez más determinante para entender cómo los ordenadores construyen sus respuestas.

En el libro también se habla mucho de aprendizaje automático. ¿En qué se diferencia este de la inteligencia artificial?

Primero tenemos que hacer una breve recorrido por la historia de la inteligencia artificial.
El nacimiento simbólico de la IA debe buscarse en los años 50 con el trabajo de Turing («Computing Machinery and Intelligence») y su famosa pregunta de «¿Pueden las máquinas pensar?», pero tiene una historia que avanza a trompicones.
De hecho, atraviesa varios periodos difíciles, llamados «inviernos de la IA», en los que parecía que los desarrollos habían llegado a un punto muerto. Hasta que hubo un resurgimiento en torno a la década del 2000, cuando comenzó un periodo de mayor desarrollo de esta herramienta debido principalmente al fuerte crecimiento en cuanto a la disponibilidad de datos y la potencia computacional. Estos dos elementos han permitido la aplicación de los viejos modelos en un contexto totalmente nuevo con éxitos sorprendentes.

El aprendizaje automático es un subconjunto de la IA y se ocupa de crear sistemas que aprenden o mejoran el rendimiento en función de los datos que utilizan. Es un enfoque diferente del algorítmico, en el que el modelo aprende a resolver tareas de forma independiente (sin reglas precisas programadas externamente).

¿Un ejemplo?

Si tengo que enseñar a una máquina a reconocer gatos, puedo seguir dos caminos.

Uno es describir las características de los gatos de forma algorítmica y pedirle a la máquina que compruebe si en una imagen están presentes los elementos del gato. Pero este es un camino difícil de seguir, porque los gatos pueden ser muy diferentes entre sí y a la primera dificultad la máquina puede bloquearse.

El otro camino es proporcionarle a la máquina muchas imágenes de gatos y dejar que la propia máquina reproduzca un modelo que le permita reconocer a un gato.

El aprendizaje automático, por tanto, se basa en una gran cantidad de datos que permiten construir el modelo de una red neuronal (o diferentes modelos de aprendizaje automático) y buscar la respuesta más adecuada entre el «input» y el «output». Y así hasta que el proceso quede validado.

Cuando estemos satisfechos con la precisión de las respuestas, podemos comenzar a enviar datos que la máquina no haya visto antes, confiando en la red y en la cantidad infinita de datos que se encuentran en ella.

Es el mismo mecanismo en el que se basa el funcionamiento de Chat GPT, del que tanto se habla hoy en día.

Entonces, ¿hemos llegado a un punto en el que las máquinas pueden definirse como inteligentes?

La cuestión es más compleja y se lleva discutiendo desde hace mucho.
En primer lugar, hay que preguntarse qué se entiende por inteligencia. Un ordenador procesa datos y ejecuta programas, pero no «entiende» lo que está haciendo. Ciertamente, bajo una mirada superficial, sus respuestas pueden parecer similares a las humanas. Pero siguen siendo dos mundos distintos y lejanos. La complejidad de lo humano no tiene similitud en los ordenadores.

Es un tema muy importante que ya planteó con claridad en los años 80 John Roger Searle,profesor de Berkeley, conocido por sus contribuciones a la filosofía del lenguaje y la filosofía de la mente, que propuso el famoso experimento de la habitación china para demostrar que la mente humana no era replicable dentro de una máquina.

¿De qué se trata?

Imaginemos que en una habitación hay una máquina y un hombre que solo habla inglés.
A ambos se les envía un texto en chino para su traducción. Por supuesto, el ordenador no tiene ningún problema para llevar a cabo su tarea. El hombre recibe un libro con una serie de reglas escritas en inglés que explican cómo emparejar los símbolos chinos con palabras de su idioma. Así, el hombre encuentra la solución y comienza a producir el «output» de respuesta, siguiendo al pie de la letra las instrucciones. Las respuestas que el hombre produce son formalmente correctas, porque ha ejecutado al pie de la letra las instrucciones que se le han entregado junto con los ideogramas y que se pueden comparar con el «software» del ordenador.
A pesar de ello, no entendió nada de sus respuestas y, obviamente, no aprendió chino, aunque a simple vista pudiera parecer lo contrario.
Efectivamente, una máquina se comporta como el protagonista de este experimento: ejecuta el programa escrito en el lenguaje de programación (su lengua materna), pero esencialmente manipula símbolos cuyo significado desconoce. Su funcionamiento es puramente sintáctico. Pero la complejidad de la mente humana no es imitable por una máquina. De hecho, esta no tiene que «entender», sino únicamente procesar y manipular datos correctamente.
Volviendo al ejemplo de los gatos, tenemos que pensar que un niño no necesita procesar miles de imágenes de gatos, le basta con ver dos o tres para que en su mente se forme una idea del gato que le permita reconocer siempre a ese animal.

 

Si quieres saber más sobre «Explainable AI with Python»

Artículos relacionados