Sto leggendo su due popolari tecniche di interpretabilità del modello post hoc: LIME e SHAP
Ho difficoltà a comprendere la differenza chiave in queste due tecniche.
Per citare Scott Lundberg , il cervello dietro SHAP:
I valori SHAP derivano dai vantaggi della stima locale della scatola nera di LIME, ma anche da garanzie teoriche sulla coerenza e l'accuratezza locale della teoria dei giochi (attributi di altri metodi che abbiamo unificato)
Ho qualche problema a capire quali siano queste " garanzie teoriche sulla coerenza e l'accuratezza locale dalla teoria dei giochi ". Poiché SHAP è stato sviluppato dopo LIME, suppongo che si riempia di alcune lacune che LIME non riesce a colmare. Cosa sono quelli?
Il libro di Christoph Molnar in un capitolo su Shapley Estimation afferma:
La differenza tra la previsione e la previsione media è equamente distribuita tra i valori delle caratteristiche dell'istanza: la proprietà di efficienza shapley. Questa proprietà imposta il valore di Shapley oltre ad altri metodi come LIME. LIME non garantisce la distribuzione perfetta degli effetti. Potrebbe rendere il valore di Shapley l'unico metodo per fornire una spiegazione completa
Leggendo questo, ho la sensazione che SHAP non sia una spiegazione locale ma globale del punto dati. Potrei sbagliarmi qui e avere bisogno di qualche idea su cosa significhi questa citazione sopra. Per riassumere la mia domanda: LIME produce spiegazioni locali. In che modo le spiegazioni di SHAP sono diverse da quelle di LIME?