Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L'interprétabilité des modèles n'est pas une question de quelle méthode d'apprentissage automatique vous utilisez (quel substrat de modèle, par exemple, les réseaux de neurones contre les modèles graphiques contre le code symbolique). Tout substrat peut être interprétable lorsque le modèle est suffisamment petit. C'est purement une question de taille/complexité du modèle.
Le comportement d'une base de code complexe ou d'un modèle graphique complexe n'est pas interprétable malgré le fait que vous puissiez lire localement n'importe quel élément de ce qu'il fait. Il est peut-être *débogable* dans des cas spécifiques avec un grand effort -- mais il en serait de même pour les réseaux de neurones.
À mon avis, l'affirmation "nous devons utiliser des méthodes interprétables" est un non-démarreur, cela signifie que vous aimeriez vous restreindre à des modèles simplistes.
58,18K
Meilleurs
Classement
Favoris