Ho un sistema di elaborazione del segnale digitale che funziona su una macchina x86 veloce usando numeri in virgola mobile a precisione doppia . Mi è venuto in mente che non sto davvero utilizzando l'enorme gamma dinamica della rappresentazione in virgola mobile: tutte le quantità si adattano facilmente all'intervallo ± 32768.
La mia domanda: è possibile che il passaggio a calcoli a punto fisso fornirebbe un vantaggio in termini di precisione numerica (alta priorità) o tempo di calcolo (bassa priorità)?
Naturalmente, la risposta dipende da quanti bit sono disponibili per un calcolo a virgola fissa. Quanti bit di precisione utilizzano i tipici sistemi a virgola fissa? È possibile eseguire in modo efficiente calcoli a punto fisso con, diciamo, 64 bit ( parte intera a 16 bit, parte frazionaria a 48 bit ) su x86-64?
Ho sempre pensato che i calcoli a punto fisso fossero usati solo in situazioni in cui la potenza della CPU è limitata - ha senso usare calcoli a punto fisso quando la potenza della CPU non è un problema?