Switch mode

3 razones por las que la interpretabilidad está cobrando importancia en el mundo del aprendizaje automático

¿Qué es el aprendizaje automático?

El aprendizaje automático, ML por sus siglas en inglés, es un concepto que, junto a otros como el Big Data o el Deep Learning, han visto su popularidad aumentada exponencialmente en los últimos años. El área de aprendizaje automático es una rama de la Inteligencia Artificial cuyo objetivo es construir sistemas que aprendan automáticamente de los datos. Existen múltiples ejemplos de aplicaciones de ML en nuestra vida diaria, como pueden ser:

Interpretabilidad en los modelos de aprendizaje automático

En los problemas de aprendizaje automático habitualmente los modelos más precisos son los más complejos. Esto es así porque precisamente estos modelos buscan patrones que capten relaciones de un alto número de variables en espacios de alta dimensionalidad y, por tanto, son capaces de “ver” relaciones e información muy difícil de captar e interpretar por un ser humano. Esta es su principal fortaleza pero también presenta quizá uno de los principales obstáculos a superar: los mejores modelos son normalmente los menos interpretables. 

Hasta hace no mucho tiempo la interpretabilidad de estos modelos no se había considerado muy relevante en el mundo académico. Habitualmente el objetivo de la mayor parte de las líneas de investigación era buscar nuevos modelos o formas de aplicarlos que consiguieran una mejora en la precisión o bondad del modelo. El que esto provocara una pérdida sensible en la capacidad de interpretabilidad de los resultados del modelo de ML no se consideraba significativo. Por tanto, a la hora de aplicar un modelo de aprendizaje automático en problemas reales, se presentaba siempre la siguiente dicotomía: ¿precisión o interpretabilidad? ¿Modelo simple, menos preciso pero fácilmente entendible, o modelo complejo, muy preciso pero estilo “caja negra”, es decir, sé lo que entra y lo que sale, pero no lo que pasa entre medias?

Afortunadamente, esta forma de pensar ha cambiado en los últimos años y actualmente la extracción de interpretabilidad es una línea de investigación muy popular. 

Interpretabilidad en el aprendizaje automático aplicado a medicina

En Sigesa creemos que esta es la línea a seguir, especialmente en el ámbito sanitario. Entre los motivos por los que creemos en la importancia de la interpretabilidad en el mundo del aprendizaje automático aplicado a medicina podemos destacar tres:

  1. Extracción de conocimiento: Los modelos de ML en medicina no solo pueden ser útiles por generar predicciones precisas, sino para generar insights que permitan generar conocimiento nuevo o detectar posibles líneas susceptibles de investigación. Como veremos en un futuro artículo, Interpretabilidad vs. Casualidad ¿Son lo mismo?, es importante no confundir interpretabilidad con causalidad, pero aun así la interpretación de modelos ML puede proporcionarnos información clínica o de gestión relevante.
  1. Criticidad: El área de la medicina tiene algunas particularidades con respecto a otros sectores. Una de ellas es la especial criticidad en la toma de decisiones. Recuperando el ejemplo anterior, no tiene el mismo impacto negativo el que Netflix se equivoque a la hora de recomendarnos una película, que el hecho de que un modelo que intente predecir, por ejemplo, la presencia de una determinada enfermedad, erre en su predicción. Por este motivo es especialmente importante ser capaz de analizar a qué se han debido los posibles errores o predicciones no ajustadas de un modelo de ML que se utilice en el ámbito médico. 
  1. Control ético: El analizar qué factores han contribuido en la decisión de un modelo predictivo de aprendizaje automático nos permite detectar posibles sesgos, por género, raza, edad, etc., de una manera efectiva, lo cual es especialmente relevante en el ámbito sanitario por la gran criticidad asociada a la que hacíamos referencia en el punto anterior.

Algoritmos para extraer interpretabilidad en ML

La interpretabilidad de modelos de aprendizaje automático se encuentra aún en una fase inicial de investigación. Sin embargo, ya se han desarrollado algunos algoritmos que han mostrado muy buenos resultados en distintas investigaciones y simulaciones:

En Horus ML hemos desarrollado nuestros propios algoritmos explicativos, mezcla de los métodos anteriores y desarrollos internos, para generar interpretabilidad de cada uno de nuestros modelos de ML. Para más información sobre nuestros modelos de aprendizaje automático o sobre cómo estos algoritmos pueden ayudarles a ganar interpretabilidad sobre sus predicciones, póngase en contacto con nosotros.

Agendar una reuniónSaber más