Khả năng giải thích mô hình không phải là câu hỏi về phương pháp ML mà bạn đang sử dụng (mô hình nền tảng nào, ví dụ như NNs so với mô hình đồ họa so với mã biểu tượng). Bất kỳ nền tảng nào cũng có thể được giải thích khi mô hình đủ nhỏ. Đó hoàn toàn là một câu hỏi về kích thước/độ phức tạp của mô hình. Hành vi của một mã nguồn phức tạp hoặc một mô hình đồ họa phức tạp không thể giải thích được mặc dù bạn có thể đọc cục bộ bất kỳ phần nào của những gì nó làm. Có thể nó *có thể gỡ lỗi* trong những trường hợp cụ thể với nỗ lực lớn -- nhưng điều tương tự cũng đúng với NNs. Theo ý kiến của tôi, tuyên bố "chúng ta phải sử dụng các phương pháp có thể giải thích" là một điều không khả thi, điều đó có nghĩa là bạn muốn hạn chế bản thân mình vào các mô hình đồ chơi.
43,88K