Abstract
Les visualisations fournies par les techniques d’Intelligence Artificielle Explicable xAI) pour expliquer les réseaux de neurones convolutionnels (CNN’s) sont parfois difficile á interpréter. La richesse des motifs d’une image qui sont fournis en entrées (les pix l d’une image) entraîne des corrélations complexes entre les classes. Les techniques basées sur les gradients, telles que les gradients intégrés, mettent en évidence l’import nce de ces caractéristiques. Cependant, lorsqu’on les visualise sous forme d’images, on peut e retrouver avec un bruit excessif et donc une difficulté á interpréter les explic tions fournies. Nous proposons la méthode intitulée Gradients Intégrés Renforcés (RI ), une variation des gradients intégrés, qui vise á mettre en évidence les régions nfluentes des images dans la décision des réseaux. Cette méthode vise á réduire la sur ace des zones á analyser lors de la visualisation des résultats, générant ainsi moins e bruit apparent. Des expériences á base d’occlusions démontrent que les régions chois es par notre méthode jouent effectivement un rôle important en terme de classification.