La mia domanda riguarda il numero richiesto di simulazioni per il metodo di analisi Monte Carlo. Per quanto vedo il numero richiesto di simulazioni per qualsiasi errore percentuale consentito (es. 5) è n = { 100 ⋅ z c ⋅ std ( x )
dove è la deviazione standard del campionamento risultante e z c è il coefficiente del livello di confidenza (ad esempio, per il 95% è 1,96). Pertanto, in questo modo è possibile verificare che la media e la deviazione standard risultante di n simulazioni rappresentino la media e la deviazione standard effettive con un livello di confidenza del 95%.
Nel mio caso, eseguo la simulazione 7500 volte e calcolo i mezzi mobili e le deviazioni standard per ogni serie di 100 campionamenti su 7500 simulazioni. Il numero richiesto di simulazione che ottengo è sempre inferiore a 100, ma l'errore% della media e lo std rispetto alla media e lo std dei risultati interi non è sempre inferiore al 5%. Nella maggior parte dei casi l'errore% della media è inferiore al 5% ma l'errore di std sale al 30%.
Qual è il modo migliore per determinare il numero di simulazione richiesta senza conoscere la media e lo std effettivi (nel mio caso l'esito della simulazione sottoposto è normalmente distribuito)?
Grazie in anticipo per qualsiasi aiuto.
Per avere un'idea di come potrebbe apparire la distribuzione dei risultati della simulazione quando l'iterazione viene eseguita un numero infinito di volte: invece di utilizzare la media e la varianza risultanti dopo n numero di simulazioni, ho deciso di trovare una funzione adatta della distribuzione dei risultati, ma qui n deve riempire% errore consentito. Penso che in questo modo sia possibile trovare risultati più corretti sulla funzione cumulativa di distribuzione correlata, ad esempio, al 97,5%. Perché quando metto a confronto i risultati della simulazione 400 e 7000, le funzioni di adattamento della distribuzione per entrambi i campionamenti si assomigliano e l'unica curva del 2 ° è più liscia. Inoltre, quindi il modello in MATLAB / Simulink non è lineare, sebbene i parametri di input generati siano distribuiti normalmente, l'istogramma dei risultati delle simulazioni non è normale per tale motivo ho usato la "distribuzione di valori estremi generalizzata", che è chiamato "gev" in MATLAB. Tuttavia, non sono del tutto sicuro di questo metodo, grazie per qualsiasi comando in anticipo