Nel teorema bayesiano, , e dal libro che sto leggendo, è chiamato il probabilità , ma presumo sia solo la probabilità condizionata di dato , giusto?
La stima della massima verosimiglianza cerca di massimizzare , giusto? Se è così, sono gravemente confuso, perché sono entrambe variabili casuali, giusto? Per massimizzare è solo per scoprire la ? Un altro problema, se queste 2 variabili casuali sono indipendenti, allora è solo , giusto? Quindi massimizzare è massimizzare .x , y p ( x | y ) p(x|y)p(x)p(x|y)p(x)
O forse, è una funzione di alcuni parametri , ovvero , e MLE cerca di trovare che può massimizzare ? O anche che è in realtà i parametri del modello, non una variabile casuale, massimizzare la probabilità è trovare ?θ p ( x | y ; θ ) θ p ( x | y ) y y
AGGIORNARE
Sono un principiante nell'apprendimento automatico, e questo problema è una confusione dalle cose che ho letto da un tutorial di apprendimento automatico. Eccolo, dato un set di dati osservato , i valori target sono e provo ad adattare un modello a questo set di dati , quindi presumo che, dato , abbia una forma di distribuzione denominata parametrizzata da , cioè , e presumo che questa sia la probabilità posteriore , giusto?{ y 1 , y 2 , . . . , y n } x y W θ p ( y | x ; θ )
Ora per stimare il valore di , uso MLE. OK, ecco che arriva il mio problema, penso che la probabilità sia , giusto? Massimizzare la probabilità significa che dovrei scegliere il giusto e ?p ( x | y ; θ ) θ y
Se la mia comprensione della probabilità è sbagliata, per favore mostrami la strada giusta.