Vorrei prevedere i tempi di autonomia per operazioni di algebra lineare densa su un'architettura specifica utilizzando una libreria specifica. Vorrei imparare un modello che approssima la funzione
dimensioni di input runtime
per operazioni come moltiplicare matrice, aggiungere elementi, risolvere triangolare, ecc.
Ho il sospetto che questi runtime siano principalmente prevedibili a causa della regolarità delle operazioni una volta superate le dimensioni del problema che si adattano comodamente alla cache.
Domande:
- Questa ipotesi è realistica? È probabile che la funzione di runtime sia quasi deterministica?
- Posso presumere che questa funzione sarà polinomiale nelle dimensioni degli ingressi? (cioè mi aspetto che la matrice densa si moltiplichi per assomigliare a per e un coefficiente scalare)
- Esiste un lavoro preesistente su questo da qualche parte?
- Il mio piano attuale è di fare la regressione dei minimi quadrati con un regolarizzatore . Altri suggerimenti?
Modifica: per essere chiari, cerco runtime, non FLOP o qualsiasi altra metrica delle prestazioni comune. Sono disposto a limitarmi a una particolare architettura.