Con la disponibilità di shader di calcolo sia per DirectX che per OpenGL è ora possibile implementare molti algoritmi senza passare attraverso la pipeline di rasterizzazione e utilizzare invece il calcolo per scopi generali sulla GPU per risolvere il problema.
Per alcuni algoritmi questa sembra diventare la soluzione canonica intuitiva perché intrinsecamente non basata sulla rasterizzazione e gli shader basati sulla rasterizzazione sembravano essere una soluzione alternativa per sfruttare la potenza della GPU (semplice esempio: creare una trama del rumore. Nessun quad deve essere rasterizzato qui ).
Dato un algoritmo che può essere implementato in entrambi i modi, ci sono vantaggi generali (potenziali) in termini di prestazioni rispetto all'uso di shader di calcolo rispetto al percorso normale? Ci sono degli svantaggi a cui dovremmo prestare attenzione (ad esempio, c'è qualche tipo di sovraccarico insolito per passare da / per calcolare shader in fase di esecuzione)?
Ci sono forse altri vantaggi o svantaggi da considerare nella scelta tra i due?