En este episodio hablaremos de la oscura ciencia de la “Interpretabilidad” y la “explicabilidad”, en particular en redes neuronales artificiales. Intentaremos desvelar varios misterios junto a un elenco de lujo. Trataremos de explicar por qué las redes neuronales, habitualmente consideradas cajas negras, deciden clasificar esa imagen como un gato, o como un pulmón con COVID, atendiendo a las características que más influyen en dicha decisión. Y entrevistamos a la Dra. Natalia Díaz Rodríguez, experta en interpretabilidad y recién llegada al instituto DaSCI. Enlaces: https://doi.org/10.1016/j.inffus.2019.12.012 https://doi.org/10.1016/j.isci.2021.102679 https://www.bbc.co.uk/programmes/p09k458p https://dasci.es/es/divulgacion/conferencias/ciclo-de-conferencias-ada-lovelace/