Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Modelinterpretatie is geen kwestie van welke ML-methode je gebruikt (welk modelsubstraat, bijv. NNs versus grafische modellen versus symbolische code). Elk substraat kan interpreteerbaar zijn wanneer het model klein genoeg is. Het is puur een kwestie van modelgrootte/complexiteit.
Het gedrag van een complexe codebase of een complex grafisch model is niet interpreteerbaar, ondanks het feit dat je lokaal elk stukje kunt lezen van wat het doet. Het is misschien *debugbaar* in specifieke gevallen met grote inspanning -- maar hetzelfde zou ook waar zijn voor NNs.
IMO is de uitspraak "we moeten interpreteerbare methoden gebruiken" een nonstarter, het betekent dat je jezelf zou willen beperken tot speelgoedmodellen.
52,53K
Boven
Positie
Favorieten