Prendiamo l'immagine A: immagine di 2560 * 1920 pixel a fuoco perfetto. Tagliente come un rasoio. Sono 5 Mpix.
Prendiamo l'immagine B: immagine A ridimensionata a 5120 * 3840. Ora è un file da 20 Mpix, ma non ci sono nuovi dati nell'immagine, quindi - usando il buon senso - è ancora solo un file da 5 Mpix, solo "gonfio".
In teoria, si dovrebbe essere in grado di ridurre gradualmente le dimensioni dell'immagine B fino a quando non viene rilevata una nitidezza ragionevole (avvicinandola il più possibile all'immagine A, anche se senza confrontarle effettivamente a questo punto), e quindi derivare il conteggio dei "megapixel" reali dell'immagine: il dimensioni al di sotto delle quali le immagini stanno iniziando a perdere i dettagli.
Questo valore potrebbe essere facilmente utilizzato per determinare l'utilità di una foto: se la scatto leggermente sfuocata, posso comunque stamparla in dimensioni inferiori e nessuno se ne accorgerà. Oppure, potrebbe aiutare a valutare la qualità dell'obiettivo o del sensore: se una fotocamera da 24 Mpix non è in grado di catturare un'immagine con più di "Veri" 8 Mpix, allora qualcosa non va.
Quindi, andando al sodo: esiste un programma software che fa proprio questo? O sono condannato a scrivere il mio?
Da un commento dell'OP a una delle risposte:
Devo misurare quanti dettagli sta ottenendo il mio scanner per trasparenze positivo, prima di scansionare una raccolta di circa 2000 vecchie diapositive e considerarla digitalizzata. Se lo imposto su 19200 dpi ottici o qualcosa del genere, e continua a produrre immagini con dettagli persi, pari, per esempio, a una fotocamera da 5 Mpix, allora saprò che è male.
Questo è il vero problema che la domanda vuole risolvere. Tutto quanto sopra riguarda una soluzione percepita a quel problema alla radice.