Czytam o dwóch popularnych technikach interpretacji modeli post hoc: LIME i SHAP
Mam problem ze zrozumieniem kluczowej różnicy w tych dwóch technikach.
Aby zacytować Scott Lundberg , mózgiem shap:
Wartości SHAP pochodzą z zalet LIME w szacunkach lokalnych czarnej skrzynki, ale także z teoretycznymi gwarancjami spójności i lokalnej dokładności z teorii gier (atrybuty z innych metod, które zjednoczyliśmy)
Mam problem ze zrozumieniem, czym są te „ teoretyczne gwarancje spójności i lokalnej dokładności z teorii gier ”. Ponieważ SHAP został opracowany po LIME, zakładam, że wypełnia on pewne luki, których LIME nie rozwiązuje. Co to są?
Książka Christopha Molnara w rozdziale na temat Shapley Estimation stwierdza:
Różnica między prognozą a prognozą średnią jest sprawiedliwie podzielona między wartościami cech instancji - właściwością wydajności Shapleya. Ta właściwość odróżnia wartość Shapleya od innych metod, takich jak LIME. LIME nie gwarantuje idealnej dystrybucji efektów. Może sprawić, że Shapley będzie jedyną metodą dostarczenia pełnego wyjaśnienia
Czytając to, mam wrażenie, że SHAP nie jest lokalnym, ale glokalnym wyjaśnieniem punktu danych. Mogę się tutaj mylić i potrzebować wglądu w znaczenie tego powyższego cytatu. Podsumowując moje zapytanie: LIME tworzy lokalne wyjaśnienia. Czym różnią się wyjaśnienia SHAP od LIME?