Questo tipo di problema è stato studiato nel documento
"Aumento dei dati nelle tabelle di contingenza multidirezionali con totali marginali fissi" di Dobra et al (2006). Let denota i parametri del modello, let denota la tabella di numeri interi non osservata per ogni coppia e lascia che sia l'insieme di tabelle di numeri interi il cui conteggio marginale uguale . Quindi la probabilità di osservare i conteggi marginali è:
doven ( x , y ) C ( S , T ) ( S , T ) ( S , T ) p ( Sθn( x , y)C( S, T)( S, T)( S, T)p ( n | θ ) n θ θ
p ( S, T| θ)= ∑n ∈C( S, T)p ( n | θ )
p ( n | θ )è la distribuzione di campionamento multinomiale. Questo definisce la funzione di probabilità per ML, ma la valutazione diretta è impossibile tranne che per piccoli problemi. L'approccio che raccomandano è MCMC, dove aggiorni alternativamente e campionando da una distribuzione di proposta e accettando la modifica in base al rapporto di accettazione di Metropolis-Hastings. Questo potrebbe essere adattato per trovare un massimo approssimativo su usando Monte Carlo EM.
nθθ
Un approccio diverso userebbe metodi variazionali per approssimare la somma su . I vincoli marginali possono essere codificati come un grafico fattoriale e l'inferenza su potrebbe essere effettuata usando la propagazione delle aspettative. θnθ
Per capire perché questo problema è difficile e non ammette una soluzione banale, si consideri il caso . Prendendo come somma di riga e come somma di colonna, ci sono due possibili tabelle di conteggi:
Pertanto la funzione di verosimiglianza è
l' MLE per questo problema è
che corrisponde all'assunzione della tabella a sinistra. Al contrario, la stima che otterresti assumendo l'indipendenza è
S T [ 0 1 2 0 ]S= ( 1 , 2 ) , T= ( 2 , 1 )ST p(S,T | θ)=3 p 12 p 2 21 +6 p 11 p 21 p 22 p x , y = 3 1 / 3 ] = [ 2 / 9 1 / 9 4 / 9 2 / 9 ]
[ 0210][ 1101]
p ( S, T| θ)=3 p12p221+ 6 p11p21p22
q x , y = [ 1 / 3 2 / 3 ] [ 2 /p^x , y= [ 02 / 31 / 30]
qx , y= [ 1 / 32 / 3] [ 2 / 31 / 3] = [ 2 / 94 / 91 / 92 / 9]
che ha un valore di probabilità inferiore.
maximum-entropy