Questo è un termine che deriva specificamente da Bayes empirico (EB), in realtà il concetto a cui si riferisce non esiste nella vera inferenza bayesiana. Il termine originale era "forza di prestito", che fu coniato da John Tukey negli anni '60 e reso popolare da Bradley Efron e Carl Morris in una serie di articoli statistici sul paradosso di Stein e sull'EB parametrico negli anni '70 e '80. Molte persone ora usano "prestito di informazioni" o "condivisione di informazioni" come sinonimi per lo stesso concetto. Il motivo per cui è possibile ascoltarlo nel contesto di modelli misti è che le analisi più comuni per i modelli misti hanno un'interpretazione EB.
EB ha molte applicazioni e si applica a molti modelli statistici, ma il contesto è sempre che hai un gran numero di casi (possibilmente indipendenti) e stai provando a stimare un parametro particolare (come la media o la varianza) in ciascun caso. Nell'inferenza bayesiana, si fanno inferenze posteriori sul parametro in base sia ai dati osservati per ciascun caso sia alla distribuzione precedente per quel parametro. Nell'inferenza EB la distribuzione precedente per il parametro è stimata dall'intera raccolta di casi di dati, dopodiché l'inferenza procede come per l'inferenza bayesiana. Quindi, quando si stima il parametro per un caso particolare, si utilizzano sia i dati per quel caso sia anche la distribuzione preventiva stimata, e quest'ultimo rappresenta le "informazioni" o "forza"
Ora puoi capire perché EB ha "prestiti", ma Bayes no. Nel vero Bayes, la distribuzione precedente esiste già e quindi non ha bisogno di essere richiesta o presa in prestito. In EB, la distribuzione precedente è stata creata dai dati osservati stessi. Quando facciamo deduzione su un caso particolare, usiamo tutte le informazioni osservate da quel caso e un po 'di informazioni da ciascuno degli altri casi. Diciamo che è solo "preso in prestito", perché le informazioni vengono restituite quando passiamo a fare deduzione sul caso successivo.
L'idea di EB e "prestito di informazioni" è ampiamente utilizzata nella genomica statistica, quando ogni "caso" è di solito un gene o una caratteristica genomica (Smyth, 2004; Phipson et al, 2016).
Riferimenti
Efron, Bradley e Carl Morris. Il paradosso di Stein nelle statistiche. Scientific American 236, n. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Smyth, GK (2004). Modelli lineari e metodi empirici di Bayes per la valutazione dell'espressione differenziale negli esperimenti di microarray. Applicazioni statistiche in genetica e biologia molecolare Volume 3, Numero 1, Articolo 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS e Smyth, GK (2016). La robusta stima dell'iperparametro protegge dai geni ipervariabili e migliora il potere di rilevare l'espressione differenziale. Annali delle statistiche applicate 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920