Per avere un'idea della matrice di covarianza - senza entrare nei dettagli matematici qui - è meglio iniziare con una matrice 2x2. Quindi ricorda che la matrice di covarianza è un'estensione del concetto di varianza nel caso multivariato. Nel caso 1D, la varianza è una statistica per una singola variabile casuale. Se la tua variabile casuale ha una distribuzione gaussiana con media zero, la sua varianza può definire con precisione la funzione di densità di probabilità.
Ora, se lo estendi a due variabili anziché a una, puoi distinguere tra due casi. Se le tue due variabili sono indipendenti, il che significa che il risultato di un valore non ha alcuna relazione con l'altro valore, è sostanzialmente lo stesso del caso 1D. Il tuoσx x e il tuo σyy dare la varianza di X e y parte della variabile casuale e σx y sarà zero.
Se le tue variabili sono dipendenti, questo è diverso. Dipendente significa che esiste una relazione tra il risultato diX e y. Ad esempio, potresti averlo ogni voltaX è positivo, yè in generale più probabile che sia anche positivo. Questo è dato dal tuo valore di covarianzaσx y.
Dare un esempio per un robot in un caso 2D senza orientamento è un po 'forzato, ma supponiamo che tu abbia un componente casuale lungo la direzione di marcia sul X-asse e sai che questo componente genera anche una deriva sul tuo asse laterale (y). Ad esempio, potrebbe essere una ruota difettosa. Ciò comporterà un'ellisse di incertezza ruotata. Ora, ad esempio, quando in seguito hai qualcosa che misura il tuo realeX posizione, puoi stimare la distribuzione dell'incertezza sul tuo y componente.
Un esempio più rilevante è nel caso 3D, in cui di solito si ha una diversa incertezza lungo la direzione trasversale rispetto alla direzione laterale. Quando si ruota il sistema (cambiando cosìθ) questo ruoterà anche la tua ellisse di incertezza. Si noti che la rappresentazione effettiva è di solito a forma di banana e il gaussiano è solo un'approssimazione. Nel caso EKF è una linearizzazione attorno alla media.
Un ottimo modo per visualizzarlo è usare il concetto dell'ellisse dell'incertezza. Fondamentalmente mostra il1 σlimite per una distribuzione gaussiana multivariata e può essere utilizzato per visualizzare una matrice di covarianza. Una rapida ricerca ha fatto apparire questa demo che ti fornirà anche alcune informazioni aggiuntive su come è costruita la covarianza. In sostanza, le voci diagonali definiscono le estensioni dell'asse, mentre le voci fuori diagonale si riferiscono alla rotazione dell'intera ellisse.
Questo vale anche nel caso 3D. Mi piacerebbe avere più matematica qui, ma forse qualche tempo dopo.