模型可解釋性並不是你使用哪種機器學習方法(哪種模型基底,例如神經網絡與圖形模型或符號代碼)的问题。任何基底在模型足夠小的時候都可以是可解釋的。這純粹是一個模型大小/複雜性的问题。 複雜代碼庫或複雜圖形模型的行為是不可解釋的,儘管你可以在局部讀取它所做的任何部分。它在特定情況下可能是*可調試的*,但這同樣適用於神經網絡。 在我看來,"我們必須使用可解釋的方法"這一說法是不可行的,這意味著你希望將自己限制在玩具模型上。
35.39K