Questa è una vecchia domanda, ma volevo menzionare qualcosa.
Il rendering differito colpisce duramente la larghezza di banda della GPU. L'illuminazione passa da 3 a 5+ trame ovunque, per ogni pixel sullo schermo, per ogni luce. È molta larghezza di banda.
Ciò danneggia le GPU mobili, un segmento sempre più importante, più di altri. Sì, sono chip a bassa potenza, ma hanno ancora un po 'di potere shader dietro di loro. Il rendering differito su tali piattaforme farà male. Ciò è particolarmente vero per le piattaforme basate su PowerVR (le GPU mobili attualmente più popolari), in quanto il loro sistema di rendering basato su tile offre già molti dei vantaggi del rendering differito.
Ma più di questo è l'attuale tendenza a mettere GPU sulle CPU. Ora, potresti pensare che questo funzionerebbe solo per i giochi di fascia bassa, ma AMD sta parlando di CPU con un massimo di 400 processori shader o giù di lì; è un po 'di potenza decente. Sì, non eseguirai il più alto dei giochi di fascia alta con le impostazioni complete, ma sarebbe una GPU utile.
Per queste GPU, il passaggio di illuminazione soffrirà. Questi chip attualmente utilizzano la stessa larghezza di banda utilizzata dalla CPU. In effetti, per tali piattaforme potresti voler iniziare a utilizzare le funzioni di rumore rapido per calcolare colori o normali anziché trame.
Il rendering differito è davvero su misura per l'hardware di fascia alta. Con l'attuale "corsa verso il basso" nella progettazione di chip CPU / GPU (a basso consumo, ecc.), Il rendering differito potrebbe essere il futuro solo per coloro che hanno ancora GPU discrete.