Questa è essenzialmente una replica di una domanda che ho trovato su math.se , che non ha ottenuto le risposte che speravo. Sia una sequenza di variabili casuali indipendenti, distribuite in modo identico, con e .{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = 1 Considera la valutazione di limn→∞P(1n−−√∑i=1nXi≤n−−√)limn→∞P(1n∑i=1nXi≤n) \lim_{n …
In genere siamo introdotti al metodo degli stimatori dei momenti "equiparando i momenti della popolazione alla loro controparte campionaria" fino a quando non abbiamo stimato tutti i parametri della popolazione; in modo che, nel caso di una distribuzione normale, avremmo bisogno solo del primo e del secondo momento perché descrivono …
Questo è il seguito costruttivista di questa domanda . Se non possiamo avere una variabile casuale uniforme discreta avente come supporto tutte le razionali nell'intervallo , allora la cosa migliore è: [0,1][0,1][0,1] Costruisci una variabile casuale che ha questo supporto, Q \ in \ mathbb {Q} \ cap [0,1] e …
Sto facendo master in statistica e mi viene consigliato di imparare la geometria differenziale. Sarei più felice di conoscere le applicazioni statistiche per la geometria differenziale poiché ciò mi renderebbe motivato. Qualcuno conosce applicazioni per la geometria differenziale nelle statistiche?
Ho un problema con la prova di E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] che molto probabilmente rivelano un più profondo fraintendimento di aspettative e aspettative condizionate. La prova che conosco è la seguente (un'altra versione di questa prova può essere trovata qui ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ …
Il testo di Wackerly et al afferma questo teorema "Sia e denotano rispettivamente le funzioni generatrici del momento delle variabili casuali X e Y. Se esistono entrambe le funzioni generatrici del momento e per tutti i valori di t, allora X e Y hanno la stessa distribuzione di probabilità. " …
Ho pensato a questo problema sotto la doccia, è stato ispirato da strategie di investimento. Diciamo che c'era un albero di soldi magici. Ogni giorno, puoi offrire una somma di denaro all'albero dei soldi e lo triplicherà o lo distruggerà con probabilità 50/50. Noterai immediatamente che in media guadagnerai facendo …
Questo è un trattamento più generale del problema posto da questa domanda . Dopo aver derivato la distribuzione asintotica della varianza del campione, possiamo applicare il metodo Delta per arrivare alla distribuzione corrispondente per la deviazione standard. Lascia un campione di dimensione nnn di variabili casuali non normali iid {Xi},i=1,...,n{Xi},i=1,...,n\{X_i\},\;\; …
Esiste una definizione matematica o algoritmica di overfitting? Spesso le definizioni fornite sono il classico diagramma 2D di punti con una linea che attraversa ogni singolo punto e la curva di perdita di validazione sale improvvisamente. Ma esiste una definizione matematicamente rigorosa?
Ho studiato matematica dieci anni fa, quindi ho un background matematico e statistico, ma questa domanda mi sta uccidendo. Questa domanda è ancora un po 'filosofica per me. Perché gli statistici hanno sviluppato tutti i tipi di tecniche per lavorare con matrici casuali? Voglio dire, un vettore casuale non ha …
Sto studiando le statistiche e spesso mi imbatto in formule contenenti il loge sono sempre confuso se dovrei interpretarlo come significato standard di log, cioè base 10, o se nelle statistiche il simbolo log è generalmente considerato il log naturale ln. In particolare sto studiando la stima della frequenza di …
Lasciate e , . Qual è l'aspettativa di come ?X1∼U[0,1]X1∼U[0,1]X_1 \sim U[0,1]Xi∼U[Xi−1,1]Xi∼U[Xi−1,1]X_i \sim U[X_{i - 1}, 1]i=2,3,...i=2,3,...i = 2, 3,... n → ∞X1X2⋯XnX1X2⋯XnX_1 X_2 \cdots X_nn→∞n→∞n \rightarrow \infty
Il problema è già emerso, ma desidero porre una domanda specifica che tenterà di ottenere una risposta che lo chiarisca (e lo classifichi): In "Poor Man's Asymptotics", si fa una chiara distinzione tra (a) una sequenza di variabili casuali che converge in probabilità in una costante in contrasto con (b) …
Speravo che qualcuno potesse proporre un argomento che spieghi perché le variabili casuali e , con distribuzione normale standard, sono statisticamente indipendenti. La prova di questo fatto deriva facilmente dalla tecnica MGF, ma la trovo estremamente controintuitiva.Y1=X2−X1Y1=X2−X1Y_1=X_2-X_1Y2=X1+X2Y2=X1+X2Y_2=X_1+X_2XiXiX_i Gradirei quindi l'intuizione qui, se presente. Grazie in anticipo. EDIT : i pedici …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.