L'interprétabilité des modèles n'est pas une question de quelle méthode d'apprentissage automatique vous utilisez (quel substrat de modèle, par exemple, les réseaux de neurones contre les modèles graphiques contre le code symbolique). Tout substrat peut être interprétable lorsque le modèle est suffisamment petit. C'est purement une question de taille/complexité du modèle. Le comportement d'une base de code complexe ou d'un modèle graphique complexe n'est pas interprétable malgré le fait que vous puissiez lire localement n'importe quel élément de ce qu'il fait. Il est peut-être *débogable* dans des cas spécifiques avec un grand effort -- mais il en serait de même pour les réseaux de neurones. À mon avis, l'affirmation "nous devons utiliser des méthodes interprétables" est un non-démarreur, cela signifie que vous aimeriez vous restreindre à des modèles simplistes.
58,18K