October 2 - 4 - Devoxx Morocco 2024 - 🇲🇦 Palm Plaza hotel - Marrakech 🌞🌴
Follow Us On

Talk details

Les modèles d’IA comme les réseaux des neurones profonds, sont souvent considérés comme
des « boîtes noires » car leurs processus décisionnels ne sont pas facilement interprétables. Ce
manque de transparence peut être problématique, en particulier dans des applications critiques
telles que les systèmes de santé, financiers et juridiques, où il est crucial de comprendre la
justification d'une décision.
Cette session a pour but d’ouvrir ces boîtes noires avec Explainable AI (XAI), qui vise à les
transformer en systèmes plus transparents en fournissant des informations sur les
caractéristiques ou concepts clés qui influencent les résultats d'un modèle, permettent ainsi
aux humains de comprendre et de faire confiance aux décisions des modèles de l’IA, et aussi
d’identifier les biais dans ces modèles.
Une partie sera dédiée sur les outils d’explicabilité comme la bibliothèque Captum qui
comprend une panoplie des fonctions permettant d’expliquer les réseaux des neurones et les
systèmes IA.
Amine BAAZZOUZ
CIH Bank
I am Amine BAAZZOUZ, head of Insights and Customer Intelligence at CIH Bank with 8 years of experience. I am passionate by deep learning and AI, a rapidly growing area of research. I led sessions on explainable AI, autoencoder, and interpretability.