Direi non trascurabile affatto. È sia un problema di risorse hardware sia una sfida di sviluppo.
Il più delle volte non è possibile dividere il framerate tra i due occhi; se il tuo gioco di solito funziona a 60 fps, devi correre a 120 fps per lo stesso comfort visivo.
Tuttavia, molte cose possono essere fatte solo una volta per coppia stereo: abbattimento del frustum - al costo di un frustum leggermente più grande (vedi Impostazione delle telecamere 3D nell'ottimizzazione per la realizzazione di giochi 3D stereoscopici su PlayStation® ), abbattimento dell'occlusione, vertice e indicizza caricamenti di array, acquisizioni di scene e rendering su texture ...
Alcune parti della scena possono essere renderizzate una sola volta: ad esempio, un cielo complesso con nuvole, stelle, ecc. Di solito sarà all'infinito, quindi il costo del pixel shader è necessario solo una volta e il secondo rendering può essere una semplice ricerca di trama in il primo target di rendering. In realtà alcuni giochi stereo usano un metodo chiamato riproiezione che si basa su questo approccio per renderlo praticabile per l'intera scena: vedi questo thread su beyond3d per i puntatori a questa tecnica.
Per far fronte alla potenza di elaborazione aggiuntiva richiesta, è possibile ridurre la risoluzione. Dalla mia esperienza personale, è molto più accettabile farlo che ridurre il framerate. Non tentare di disabilitare l'antialiasing, tuttavia: come affermano gli ingegneri Sony nel documento sopra, il rendering su buffer a bassa risoluzione con AA sembra migliore rispetto ai buffer ad alta risoluzione senza AA .
Nota che ci sono altri approcci alla stereovisione nei giochi che non richiedono una TV 3D, come Trioviz . Non posso entrare nei dettagli qui, però (problemi NDA).