Questa osservazione è emersa mentre stavo valutando l'efficienza del tempo di esecuzione di varie implementazioni di un algoritmo di setaccio primario.
La sorpresa è stata scoprire che le differenze tra i migliori algoritmi erano molto inferiori a quelle 30% di accelerazione raggiunto eseguendo il stesso algoritmo (uno dei due) semplicemente passando dall'uso della batteria alla rete elettrica.
Dato che le mie impostazioni di alimentazione non sono impostate per massimizzare la durata della batteria, ho pensato che non sarebbe stata una considerazione così grande.
Qualche idea sul perché questa differenza è così grande?
È dovuto a un throttling indotto da software / sistema operativo (nel qual caso è possibile disattivare il comportamento di throttling in modalità batteria?) Oppure la scelta della fonte di alimentazione influisce direttamente sulle caratteristiche elettriche del chip?
(La mia macchina: Windows XP, Intel Core2Duo, 2 GHz, 2 GB di RAM)
PS: sono consapevole che le prestazioni della scheda grafica dipendono in modo significativo dalla fonte di alimentazione, ad es. discusso qui , ma dal momento che i miei programmi di benchmarking sono programmi di console senza grafica e senza istruzioni di stampa (vengono eseguiti in memoria fino a "fatto"), non mi aspetto che la GPU sia coinvolta ... è vero?