Quando si esegue il downsampling di un'immagine di un fattore intero , il metodo ovvio è impostare i pixel dell'immagine di output sulla media dei corrispondenti blocchi n × n nell'immagine di input.
Ricordo vagamente di aver letto da qualche parte che questo metodo non è ottimale (scusate non ricordo alcun dettaglio)
È vero che esiste un metodo migliore (e in tal caso, dove fallisce il metodo sopra descritto, anche se sembra "ovviamente" corretto)? Non so molto sull'elaborazione del segnale, questa domanda mi interessa solo.