Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Die Interpretierbarkeit von Modellen ist keine Frage der verwendeten ML-Methode (welches Modellsubstrat, z.B. NNs vs. grafische Modelle vs. symbolischer Code). Jedes Substrat kann interpretierbar sein, wenn das Modell klein genug ist. Es ist rein eine Frage der Modellgröße/-komplexität.
Das Verhalten eines komplexen Codes oder eines komplexen grafischen Modells ist nicht interpretierbar, obwohl man lokal jeden Teil dessen, was es tut, lesen kann. Es ist vielleicht *debuggbar* in bestimmten Fällen mit großem Aufwand – aber das gleiche würde auch für NNs gelten.
Meiner Meinung nach ist die Aussage "wir müssen interpretierbare Methoden verwenden" ein Nonstarter, das bedeutet, dass man sich auf Spielzeugmodelle beschränken möchte.
43,84K
Top
Ranking
Favoriten