Utilizzando una distribuzione gaussiana di punti su un piano dell'immagine per calcolare un valore in pixel, quale raggio / deviazione standard fornirà la maggior parte delle informazioni nell'immagine finale? Un raggio troppo grande dà un'immagine sfocata e un raggio troppo piccolo trascura le informazioni più piccole di un pixel in modo che non contribuiscano all'immagine finale. Dov'è il compromesso ottimale? C'è una sola risposta a questa domanda o ci sono circostanze in cui può variare?
Sto pensando a questo in relazione al raytracing ma immagino che si applicherà ugualmente a cose come il ridimensionamento di un'immagine. Laddove le risposte differiscano, sono interessato a ciò che si applica durante il campionamento di un piano di immagine continuo, in modo che le posizioni dei pixel in un'immagine più grande non possano essere utilizzate per determinare un raggio ottimale.