Domande taggate «decision-theory»

27
Il paradosso della bella addormentata
La situazione Alcuni ricercatori vorrebbero metterti a dormire. A seconda del lancio segreto di una moneta giusta, ti risveglieranno brevemente una volta (teste) o due volte (code). Dopo ogni risveglio, ti riporteranno a dormire con un farmaco che ti farà dimenticare quel risveglio. Quando si è risvegliato, fino a che …

7
Quanto da pagare? Un problema pratico
Questa non è una domanda di lavoro a domicilio ma un vero problema affrontato dalla nostra azienda. Molto recentemente (2 giorni fa) abbiamo ordinato a un rivenditore la produzione di 10000 etichette di prodotti. Il rivenditore è persona indipendente. Riceve le etichette prodotte dall'esterno e l'azienda effettua il pagamento al …

5
Come gestire i dati gerarchici / nidificati nell'apprendimento automatico
Spiegherò il mio problema con un esempio. Supponiamo di voler prevedere il reddito di un individuo in base ad alcuni attributi: {Età, Genere, Paese, Regione, Città}. Hai un set di dati di allenamento come questo train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 



4
In quali condizioni coincidono gli stimatori dei punti bayesiani e frequentisti?
Con un precedente piatto, gli stimatori ML (frequentista - massima probabilità) e MAP (bayesiano - massimo a posteriori) coincidono. Più in generale, tuttavia, sto parlando di stimatori puntuali derivati ​​come ottimizzatori di alcune funzioni di perdita. ie (Bayesiana) x (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} …


1
Esempio di disuguaglianza rigorosa di Neumann
Sia il rischio di Bayes di uno stimatore rispetto a un precedente , sia il set di tutti i priori nello spazio dei parametri , e sia il set di tutte le regole di decisione (eventualmente randomizzate).δ π Π Θ Δr(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta L'interpretazione statistica della disuguaglianza minimax di John von …

2
Cosa sono le statistiche complete complete?
Ho dei problemi a comprendere statistiche complete complete? Sia una statistica sufficiente.T= Σ xioT=ΣxiT=\Sigma x_i Se con probabilità 1, per alcune funzioni , allora è una statistica completa sufficiente.gE[ g( T) ] = 0E[g(T)]=0E[g(T)]=0ggg Ma cosa significa? Ho visto esempi di uniformi e Bernoulli (pagina 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf ), ma non …

1
L'enigma di un parrucchiere
La mia parrucchiera Stacey ha sempre una faccia felice, ma è spesso stressata nel gestire il suo tempo. Oggi Stacey era in ritardo per il mio appuntamento ed era molto dispiaciuto. Mentre mi tagliavo i capelli mi chiedevo: quanto tempo dovevano essere i suoi appuntamenti standard? (se la preferenza del …


3
MAP è una soluzione a
Mi sono imbattuto in queste diapositive (diapositiva n. 16 e n. 17) in uno dei corsi online. L'istruttore stava cercando di spiegare come la massima stima posteriore (MAP) sia effettivamente la soluzione L(θ)=I[θ≠θ∗]L(θ)=io[θ≠θ*]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , dove θ∗θ*\theta^{*} è il vero parametro. Qualcuno può spiegare come segue? Modifica: …


2
A parte Durbin-Watson, quali test di ipotesi possono produrre risultati inconcludenti?
La statistica del test di Durbin-Watson può trovarsi in una regione inconcludente, dove non è possibile né rifiutare né rifiutare l'ipotesi nulla (in questo caso, di autocorrelazione zero). Quali altri test statistici possono produrre risultati "inconcludenti"? Esiste una spiegazione generale (agitando la mano va bene) per quale motivo questa serie …

1
In che modo uno stimatore che minimizza una somma ponderata di distorsioni quadrate e varianza si adatta alla teoria delle decisioni?
Okay - il mio messaggio originale non è riuscito a ottenere una risposta; quindi, lasciami porre la domanda in modo diverso. Inizierò spiegando la mia comprensione della stima da una prospettiva teorica decisionale. Non ho una formazione formale e non mi sorprenderebbe se il mio pensiero fosse in qualche modo …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.