Esistono già diverse risposte che spiegano perché le matrici definite simmetriche positive sono così importanti, quindi fornirò una risposta spiegando perché non sono così importanti come pensano alcune persone, inclusi gli autori di alcune di quelle risposte. Per semplicità, limiterò l'attenzione alle matrici simmetriche e mi concentrerò sull'assia e sull'ottimizzazione.
Se Dio avesse reso il mondo convesso, non ci sarebbe ottimizzazione convessa, ci sarebbe solo l'ottimizzazione. Allo stesso modo, non ci sarebbero matrici definite (simmetriche) positive, ci sarebbero solo matrici (simmetriche). Ma non è così, quindi affrontalo.
Se un problema di programmazione quadratica è convesso, può essere risolto "facilmente". Se non è convesso, è ancora possibile trovare un ottimo globale usando i metodi branch e bound (ma potrebbe richiedere più tempo e più memoria).
Se un metodo di Newton viene utilizzato per l'ottimizzazione e l'Assia in qualche iterato è indefinito, non è necessario "finirlo" per definirlo positivamente. Se si utilizza una ricerca di linea, è possibile trovare le direzioni di curvatura negativa e la ricerca della linea eseguita lungo di esse, e se si utilizza una regione di fiducia, allora esiste una regione di fiducia abbastanza piccola in modo che la soluzione del problema della regione di fiducia raggiunga la discesa.
Per quanto riguarda i metodi Quasi-Newton, BFGS (smorzato se il problema è vincolato) e DFP mantengono una positività positiva dell'Assia o approssimazione dell'Assia inversa. Altri metodi Quasi-Newton, come SR1 (Symmetric Rank One), non mantengono necessariamente una definizione positiva. Prima di perdere la forma, questa è una buona ragione per scegliere SR1 per molti problemi - se l'Assia non è veramente definita positiva lungo il percorso verso l'ottimale, quindi forzare l'approssimazione Quasi-Newton per essere definita positiva può comportare un'approssimazione quadratica scadente alla funzione obiettivo. Al contrario, il metodo di aggiornamento di SR1 è "sciolto come un'oca" e può alterare senza sosta la sua definizione mentre procede.
Per problemi di ottimizzazione non linearmente vincolati, ciò che conta davvero non è l'Assia della funzione oggettiva, ma l'Assia del Lagrangiano. L'Assia del Lagrangiano può essere indefinita anche a un (il) ottimale, e infatti, è solo la proiezione dell'Assia del Lagrangiano nello spazio vuoto del Giacobino dei vincoli attivi (lineari e non lineari) che devono essere semi positivi -definito al massimo. Se modifichi l'Assia del Lagrangiano tramite BFGS e quindi lo costringi ad essere definito positivo, potrebbe essere una scelta terribile ovunque e non funzionare bene. Al contrario, SR1 può adattare i suoi autovalori a ciò che "vede" realmente.
C'è molto di più che potrei dire su tutto questo, ma è abbastanza per darti un sapore.
Modifica : Quello che ho scritto 2 paragrafi è corretto. Tuttavia, ho dimenticato di sottolineare che si applica anche a problemi linearmente vincolati. Nel caso di problemi linearmente vincolati, l'Assia del Lagrangiano è solo (si riduce a) l'Assia della funzione oggettiva. Quindi la condizione di ottimalità del 2 ° ordine per un minimo locale è che la proiezione dell'Assia della funzione oggettiva nello spazio vuoto del giacobino dei vincoli attivi sia semi-definita positiva. In particolare, l'Assia della funzione oggettiva non deve (necessariamente) essere psd ottimale, e spesso non lo è, nemmeno su problemi linearmente vincolati.