Per eseguire il rendering di una scena con una singola sorgente luminosa utilizzando l'ombreggiatura phong, è possibile calcolare il colore finale di ciascun frammento passato nello shader di frammento in base ai componenti ambiente / diffuso / speculare sia del materiale che della sorgente luminosa. Questo può essere facilmente esteso …
L'antialiasing temporale (e altri algoritmi temporali) funzionano abbinando i pixel di questo fotogramma ai pixel dell'ultimo fotogramma e quindi utilizzando tali informazioni. Ho capito che puoi usare le matrici dei frame attuali e finali insieme alle informazioni sui vettori di movimento per abbinare i pixel tra i frame. Quello che …
Il campionamento bicubico è abbastanza buono per campionare un'immagine e ingrandirla, ma è una buona scelta anche per il campionamento verso il basso? Ci sono scelte migliori?
Se si esegue il rendering di un'immagine in 2D, l'aggiunta di effetti di profondità di campo (sfocatura degli oggetti più lontano dalla distanza focale) aggiunge realismo e attira l'occhio sull'oggetto dell'immagine. Con un'immagine 3D (cioè stereo), guardare un oggetto nell'immagine a una data profondità renderà gli oggetti a tutte le …
So che la profondità di campo comporta la sfocatura. Ci sono alcune grandi informazioni su come eseguire una sfocatura gaussiana nella domanda Come viene implementata la sfocatura gaussiana? Ma, a parte questo, come viene implementata la profondità di campo? Quali sono le regole su come offuscare ogni pixel e come …
Utilizzando una distribuzione gaussiana di punti su un piano dell'immagine per calcolare un valore in pixel, quale raggio / deviazione standard fornirà la maggior parte delle informazioni nell'immagine finale? Un raggio troppo grande dà un'immagine sfocata e un raggio troppo piccolo trascura le informazioni più piccole di un pixel in …
Dalla mia comprensione di base, un oggetto buffer vertice funziona in questo modo (pseudo codice): Normalmente, se si volesse dire, disegnare un quadrato, si potrebbero emettere comandi di disegno al tratto. line (0, 0) -> (1, 0) line (1, 0) -> (1, 1) line (1, 1) -> (0, 1) line …
Ci sono 2 fattori principali che sembrano portare a artefatti digitali durante la creazione di immagini JPEG: Aliasing e Compression. Esempio: La conversione di un PNG con caratteri su di esso in un JPEG o il posizionamento di immagini vettoriali su una fotografia comporterà la pixelizzazione sui bordi. L'antialiasing in …
Sto leggendo il libro Physically Based Rendering (Pharr, Humphreys). Nel capitolo sulle luci, parlano di approssimare la potenza totale emessa di diversi tipi di luci. Ad esempio, la potenza totale di una luce puntiforme è intensity * 4 * pi. Qui 4pi rappresenta un angolo solido sull'intera sfera. Questo ha …
Ho studiato computer grafica, dal libro Fundamentals of Computer Graphic (ma la terza edizione), e alla fine ho letto delle proiezioni. Tuttavia, non ho capito esattamente qual è la differenza tra la proiezione ortografica e prospettica? Perché abbiamo bisogno di entrambi, dove vengono utilizzati? Vorrei anche imparare cos'è la trasformazione …
So come funziona la mappatura dell'ombra ma non sto ottenendo la causa dell'acne ombra! Qualcuno può dirmi la causa dell'acne ombra in modo semplice e in che modo è correlato alla risoluzione della mappa di profondità?
In questo momento sto cercando di implementare una sorta di buffer di profondità nel software e ho un grosso problema quando ci scrivo. Avere un mutex è assolutamente eccessivo. Quindi ho creato un numero di mutex pari al numero di thread. Sto bloccando un mutex basato sul pixel corrente (pixel_index% …
JFA (l'algoritmo qui descritto: http://www.comp.nus.edu.sg/~tants/jfa/i3d06.pdf ) può essere utilizzato per ottenere un'approssimazione di un diagramma Voronoi o una trasformazione di distanza. Lo fa nel tempo logaritmico in base alla dimensione dell'immagine risultante, non al numero di semi. Cosa fai se la tua immagine non ha le stesse dimensioni su ciascun …
In che modo gli effetti volumetrici come fumo, nebbia o nuvole sono resi da un raytracer? A differenza degli oggetti solidi, questi non hanno una superficie ben definita con cui calcolare un'intersezione.
L'antialias delle forme 2D si riduce al calcolo della frazione di pixel coperta dalla forma. Per forme semplici non sovrapposte, ciò non è troppo difficile: ritaglia la forma sul rettangolo di pixel e calcola l'area della forma risultante. Ma diventa più difficile se più forme si sovrappongono allo stesso pixel. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.