Ad esempio, mentre è l'attuale GPU top di gamma, la GTX 980 ha uno sbalorditivo 72,1 gigapixel / secondo fillrate, che con rendering back-to-front e / o controlli buffer Z, sembra quasi ridicolmente grande, forse anche a risoluzioni di 4k. Per quanto riguarda il conteggio dei poligoni, le moderne GPU possono fare decine o centinaia di milioni di triangoli testurizzati senza intoppi se vengono raggruppate e / o istanziate correttamente.
Con il rendering in avanti, la quantità di frammenti su cui verranno eseguiti gli shader può diventare rapidamente travolgente, ma con il rendering differito, il costo è generalmente più o meno costante, a seconda della risoluzione, e da tempo abbiamo superato un punto in cui la maggior parte delle ombre o gli effetti di post-elaborazione possono essere eseguiti in tempo reale a 1080p.
Ad ogni modo, i fattori limitanti al giorno d'oggi sono più comunemente il conteggio delle chiamate e i costi di ombreggiatura, entrambi i quali sono mantenuti relativamente bassi da un corretto rendering differito e un batch di geometrie, quindi tenendo presente ciò, si sta abbattendo più dei semplici backfaces e out-of- poligoni frustranti di qualche beneficio sostanziale? I costi (tempo CPU / GPU, tempo programmatore) non supererebbero i benefici, per lo più?