Интерпретируемость модели не зависит от того, какой метод машинного обучения вы используете (какой модельный субстрат, например, нейронные сети против графических моделей против символического кода). Любой субстрат может быть интерпретируемым, если модель достаточно мала. Это чисто вопрос размера/сложности модели. Поведение сложной кодовой базы или сложной графической модели не интерпретируемо, несмотря на то, что вы можете локально прочитать любой фрагмент того, что она делает. Возможно, она *отлаживаема* в конкретных случаях с большими усилиями — но то же самое справедливо и для нейронных сетей. На мой взгляд, утверждение "мы должны использовать интерпретируемые методы" является неуместным, это означает, что вы хотите ограничить себя игрушечными моделями.
43,86K