La luna è solo 60 pixel?


65

Nel fare ricerche sulla visione, ho appreso che la visione "20/20" corrisponde a un'acuità visiva di essere in grado di risolvere dettagli di 1 minuto in dimensioni dell'arco, che la maggior parte delle persone ha una visione di circa 20/15 e che a causa dei limiti della fisiologia praticamente nessuno ha una visione migliore della visione 20/10. Questo è un limite massimo per la risoluzione di dettagli di circa 0,5 minuti d'arco.

Secondo Wikipedia, la luna è larga circa 30 arcminuti quando vista ad occhio nudo.

Metti insieme questi, e sembra dire che guardando la luna ad occhio nudo nessuno può vedere più dettagli di quanto sarebbe visibile in un'immagine 60 × 60 della luna
Luna su sfondo nero, 60 × 60 pixel
e che la persona media non può vedere più dettagli di in una versione 40 × 40
Luna su sfondo nero, 40 × 40 pixel

Sembrano così piccoli sul mio monitor. Possono davvero essere tutti i dettagli che posso vedere sulla luna ad occhio nudo?

Risposte:


48

Non mi sembra così inverosimile. Certo, potresti essere spento di alcuni pixel, a causa delle differenze tra l'occhio umano e il monitor di un computer, ma l'ordine di grandezza sembra giusto - il dettaglio nelle tue immagini, visto da vicino, più o meno corrisponde a quello che vedo quando guarda la luna piena.

Certo, potresti provarlo abbastanza facilmente da solo: vai fuori in una notte buia, quando la luna è piena, e vedi se riesci a individuare ad occhio nudo tutti i dettagli che non sono visibili (anche sotto ingrandimento) nell'immagine ridimensionata su abbina la tua vista. Ho il sospetto che potresti essere in grado di vedere qualche dettaglio in più (specialmente vicino al terminatore, se la luna non è perfettamente piena), ma non molto.


Per un test più obiettivo, potremmo provare a cercare le prime mappe o schizzi della luna fatti dagli astronomi prima dell'invenzione del telescopio, che dovrebbe presumibilmente rappresentare il limite di ciò che l'occhio umano nudo potrebbe risolvere. (Avevi bisogno di avere una buona vista per essere un astronomo in quei giorni.)

Ahimè, si scopre che, mentre l'invenzione del telescopio agli inizi del 1600 ha portato su una vera e propria marea di disegni lunari, con ogni astronomo a partire da Galileo stesso correre a guardare la luna attraverso un telescopio e disegnare ciò che hanno visto, molto poche i disegni astronomici (al contrario di quelli puramente artistici) della luna sono noti prima di quel periodo. Apparentemente, mentre quei primi astronomi erano impegnati a compilare carte stellari straordinariamente accurate e a tracciare i movimenti planetari a occhio nudo, nessuno pensava davvero che fosse importante disegnare un'immagine accurata della luna - dopo tutto, se volevi sapere che aspetto aveva la luna, tutto quello che dovevi fare era guardarlo da solo.

Forse questo comportamento potrebbe essere in parte spiegato dalle opinioni filosofiche prevalenti all'epoca, che, influenzate da Aristotele, ritenevano che il cielo fosse il regno dell'ordine e della perfezione, in contrapposizione alla corruzione terrena e all'imperfezione. I "punti" chiaramente visibili sulla faccia della luna, quindi, erano principalmente considerati come un imbarazzo filosofico - non qualcosa da studiare o catalogare, ma semplicemente qualcosa da spiegare.

In effetti, la prima e l'ultima "mappa della luna" conosciuta disegnata esclusivamente sulla base di osservazioni ad occhio nudo fu disegnata da William Gilbert (1540–1603) e inclusa nella sua opera postuma pubblicata da De Mundo Nostro Sublunari . È abbastanza notevole il fatto che la sua mappa includa pochi dettagli, anche rispetto a una minuscola immagine di 40 per 40 pixel, come mostrato sopra:

La mappa della luna di William Gilbert La luna, ridotta a 40 px di raggio e backup fino a 320 px
A sinistra: la mappa della luna di William Gilbert, dal Progetto Galileo ; A destra: una fotografia della luna piena, ridotta a 40 pixel e con backup fino a 320 px.

In effetti, anche gli schizzi della luna pubblicati da Galileo Galilei nel suo famoso Sidereus Nuncius nel 1610, noti per essere basati sulle sue osservazioni telescopiche, non sono molto migliori; mostrano pochi dettagli, tranne vicino al terminatore, e i pochi dettagli sembrano essere imprecisi al confine con fantasiosi. Sono, forse, meglio considerati come "impressioni dell'artista" che come accurate rappresentazioni astronomiche:

Gli schizzi della luna di Galileo da Sidereus Nuncius (1610)
Gli schizzi della luna di Galileo, basati su prime osservazioni telescopiche, da Sidereus Nuncius (1610), tramite Wikimedia Commons. Pochi, se del caso, dei dettagli rappresentati possono essere adattati con sicurezza alle reali caratteristiche lunari.

Molto più accurati disegni della luna, anch'essi basati su prime osservazioni telescopiche, furono prodotti nello stesso periodo da Thomas Harriott (1560-1621), ma il suo lavoro rimase inedito fino a molto tempo dopo la sua morte. La mappa di Harriott inizia effettivamente ad avvicinarsi, e per alcuni aspetti supera, il livello di dettaglio anche della fotografia di 60 pixel sopra, mostrando ad esempio le forme della maria in modo relativamente accurato. Va notato, tuttavia, che è presumibilmente basato su ampie osservazioni che utilizzano un telescopio, su diversi cicli lunari (permettendo ad esempio ai crateri di essere visti più chiaramente quando sono vicini al terminatore):

La mappa lunare di Thomas Harriott, c.  1609 La luna, ridotta a 60 px di raggio e backup fino a 320 px
A sinistra: la mappa lunare di Thomas Harriott, non datata ma probabilmente disegnata c. 1610-1613, basato su prime osservazioni telescopiche, citato da Chapman, A. "Una nuova realtà percepita: mappe lunari di Thomas Harriot" , Astronomia e Geofisica 50 (1), 2009; A destra: stessa fotografia della luna piena come sopra, ridimensionata fino a 60 pixel attraverso e indietro fino a 320 px.

Sulla base di questa parentesi storica, possiamo quindi concludere l'immagine 40 pixel della luna che, come illustrato nella domanda precedente, infatti non rappresentare equamente precisione il livello di dettaglio visibile ad un osservatore nudo, mentre l'immagine di 60 pixel corrisponde anche al dettaglio livello visibile a un osservatore usando un telescopio primitivo dei primi del 1600.

Fonti e ulteriori letture:

  • Kopal, Zdeněk (1969). "Le prime mappe della luna" . The Moon , Volume 1, Issue 1, pagg. 59–66. Disponibile per gentile concessione del SAO / NASA Astrophysics Data System (ADS).
  • Van Helden, Al (1995). "La luna" . Il progetto Galileo (sito web).
  • Articoli di Wikipedia sulla Luna e la selenografia .

Un'ottima risposta alla domanda originale e confronti molto convincenti, grazie.
Patru,

Dopo aver eseguito una calibrazione delle dimensioni; è spento, ma non di molto. Non tenendo conto dell'abilità telescopica dell'occhio (che non è nemmeno 2: 1), direi circa 90x90. A 60x60 posso vedere i manufatti di pixellation.
Giosuè

65

Sì e no.

Sì, è vero che la dimensione apparente della Luna è di 30 arcmin. È vero che l'acuità visiva della maggior parte delle persone è di 1 arcmin. Quindi è vero che se prendi la dimensione angolare del più piccolo dettaglio che puoi vedere sulla Luna e metti un gruppo di quelli allineati in fila, potresti coprire un diametro della Luna con solo una dozzina di loro. In questo senso, hai ragione.

Tuttavia, quando si tenta di riprodurre la situazione sullo schermo di un computer, il confronto si interrompe. Prima di tutto, l'occhio non si vede in "pixel". Come la maggior parte dei sistemi ottici, esiste una funzione di diffusione dei punti , che prende minuscoli dettagli e li diffonde in un punto più ampio. La risoluzione dell'occhio non è la dimensione dei pixel, ma la dimensione della curva a campana che esce dalla funzione di diffusione del punto, che ha bordi morbidi ed è rotonda, ed è ovunque e non è fissa.

Assimili le dimensioni di quel punto più grande con le dimensioni di un pixel su uno schermo digitale, nel tuo confronto. Ma non è lo stesso. La griglia di pixel in quelle miniature è fissa, quindi tutto ciò che cade tra i pixel è perso per sempre. Alias ​​interviene e crea artefatti che non sono presenti nell'immagine originale. La gamma dinamica del monitor non è la stessa della gamma dinamica dell'occhio (l'occhio è molto meglio). I livelli di colore e luminosità sul monitor sono discreti, mentre l'occhio li vede come un continuum. Infine, il centro visivo nel tuo cervello è come un potente computer che applica algoritmi di correzione intelligente all'immagine live.

La lista potrebbe continuare all'infinito. La linea di fondo è: tutti questi effetti si combinano e ti consentono di percepire un'immagine dal vivo leggermente più ricca di quelle miniature morte e congelate che hai pubblicato. Non molto meglio, ma un po 'meglio. Non è come se l'occhio potesse "aggirare" i limiti, ma è più come perdere troppo quando si restringe un'immagine grande in una piccola griglia di pixel fissi sullo schermo del computer.

È molto difficile riprodurre la realtà sullo schermo di un computer. Un modo molto migliore sarebbe quello di catturare un'immagine della Luna di 2000 x 2000 pixel, metterla su un grande monitor super HD e spostarla indietro nel punto in cui la dimensione apparente di quell'immagine è di 30 arcmin. So che non suona soddisfacente nel contesto della tua query originale, ma è una simulazione molto migliore.


Problemi simili compaiono ogni volta che si tenta di mappare la risoluzione di qualsiasi sistema ottico continuo (come un telescopio) su una griglia digitale fissa (come una videocamera).

Supponiamo che tu stia utilizzando un sensore con una dimensione in pixel di 4 micron. Supponiamo che il tuo telescopio abbia una risoluzione lineare in primo piano pari a 4 micron. Potresti essere tentato di dire: fantastico, il sensore corrisponde al telescopio, giusto?

Beh, non proprio. Quando ciò accade, perdi effettivamente un po 'di risoluzione. L'immagine è buona, ma è un po 'più morbida di quanto dovrebbe davvero. Vedi sotto un'immagine della Luna che ho scattato qualche tempo fa, con un sistema con esattamente i parametri sopra indicati.

Si può dire che è un po 'morbido, non dipende proprio dal pixel. Anche la turbolenza gioca un ruolo, ma parte del problema è che la risoluzione lineare è uguale alla dimensione dei pixel.

Clicca l'immagine qui sotto e apri in una nuova scheda; se il tuo browser lo restringe di nuovo per adattarlo alla finestra, fai clic con il pulsante sinistro del mouse sull'immagine grande per espanderla a dimensioni intere - devi farlo per vedere l'immagine a piena risoluzione e notare gli effetti di cui sto parlando. La sfocatura non è visibile su questa piccola versione qui:

Un modo per aggirare quel fenomeno, ad esempio, è far esplodere l'immagine nel telescopio con un barlow fino a quando la risoluzione lineare in primo fuoco è molto maggiore della dimensione dei pixel della fotocamera, forse 4 volte più grande. Fai tutte le tue elaborazioni e poi le riduci, se vuoi, e otterrai un'immagine più nitida. Combinalo con l'accatastamento di più fotogrammi e la qualità complessiva può avvicinare al 100% le prestazioni teoriche del telescopio.


TLDR: i sistemi ottici continui e le griglie discrete di pixel sono cose molto diverse e non possono essere facilmente confrontate.


Spiegazione molto bella e chiara. Vorrei poterti dare più di +1.
Tonny,

3
Perché fermarsi a un'immagine 2000 × 2000? Perché non creare un'immagine 4k × 4k e spostarla più lontano? Ad un certo punto i pixel extra stanno aggiungendo zero dettagli percepiti all'osservatore. Mentre 120 × 120 può aggiungere dettagli sottili oltre 60 × 60, 240 × 240 aggiunge dettagli osservabili effettivi oltre 240 × 240? Immagino di no. Hai ragione sul fatto che l'occhio non è un sistema digitale, ma ci sono dei coni discreti che raccolgono luce, e Nyquist ha voce in capitolo su quante informazioni possono effettivamente attirare a un certo punto.
Phrogz,

1
Questo è sbagliato. Secondo il teorema di campionamento di Nyquist , per modellare una forma d'onda con un limite di frequenza, è necessario campionare al doppio del limite e quindi filtrare passa basso il risultato ricostruito. In altre parole, è un'immagine 120x120 sfocata secondo la funzione di diffusione del punto ideale nell'illustrazione.
Blackbody Blacklight,

@BlackbodyBlacklight Grazie per i dettagli. È passato così tanto tempo da quando Nyquist e io ci siamo stretti la mano che mi ero dimenticato del bit "doppia frequenza". (Tuttavia, questo potrebbe essere ciò che porta il limite superiore da 1 arcminuto a 0,5 arcminuti.) Comunque, il mio punto nell'invocare il nome di Nyquist non era che il limite corretto fosse 60 pixel , ma piuttosto che esiste un limite (presumibilmente inferiore al 2000 ).
Phrogz,

20

Quando guardi la luna "dal vivo", non vedi un'immagine fissa. Stai vedendo un "video": la tua retina sta raccogliendo più immagini nel tempo. Quei pixel devono essere presi in considerazione; ammontano a pixel extra.

Supponiamo che le immagini di 60x60 pixel vengano acquisite da una scena usando una fotocamera montata su treppiede che leggermente tremola. Dalle immagini multiple, è possibile ricostruire un'immagine a risoluzione più elevata.

Hai mai notato come un video dall'aspetto nitido possa apparire sfocato quando messo in pausa o fatto un passo alla volta?

Per inciso, un'altra cosa da ricordare è che un pixel non è un'unità di informazione; a meno che non specifichi quanti bit codificano un pixel. Supponiamo di campionare 60x60 punti, ma con una risoluzione di ampiezza continua e zero rumore. L'immagine di 60x60 pixel contiene quindi informazioni infinite (sebbene, ovviamente, la sua capacità di risolvere i dettagli adiacenti sia ancora limitata).


Questo è un punto eccellente. Anche se i tuoi occhi non si muovono, i cambiamenti atmosferici stanno certamente riflettendo in diversi dettagli.
Phrogz,

1
La "raccolta di più immagini" sono saccadi. Ciascuno è una singola istantanea ad alta risoluzione che il cervello compone in una singola immagine. Per ogni istante percepito dell'immagine, acquisisci una dozzina di istantanee.
TechZen,

2
La messa in pausa di un video rivelerà artefatti di compressione digitale o VHS. Le vibrazioni oculari "sub-pixel" sarebbero già state prese in considerazione in qualsiasi test di acuità visiva. Sfruttare la lente atmosferica, o i momenti di buona visione, è il dominio dell'ottica adattiva e non presumo che il cervello sia capace di quel tipo di elaborazione.
Blackbody Blacklight,

@Phrogz - i "cambiamenti atmosferici" sono chiamati vedere. Vedere non è mai un fattore limitante (o esaltante) per le osservazioni ad occhio nudo. L'unico effetto visibile in questo modo è il luccichio delle stelle, ma il gioco è fatto.
Florin Andrei,

4

Dopo tutte queste risposte astronomiche, aggiungerò una al computer.

I pixel non sono gli stessi su tutti i monitor. Prendi un monitor degli anni '90 e prendi l'ultimo schermo dello smartphone, i 60 pixel non saranno gli stessi.

Come hai calcolato la dimensione dei pixel in base alla precisione della visione?


1
Hai ragione, il modo in cui vedi quei pixel è importante se vuoi che assomigli all'incirca allo stesso modo della luna. Dovresti vedere i 60 pixel su uno schermo a circa 100-120 ppm, ad esempio un monitor da 27 "visto da 6 piedi di distanza o un HDTV da 50" visto da 12 piedi di distanza. Prova la mia calcolatrice . (Nota: non funziona in IE e il diagramma SVG attualmente non funziona in Firefox. Usa Chrome o Safari per i migliori risultati.) La domanda era, tuttavia, non su come farlo apparire come sulla luna, ma su quanti dettagli ci sono è quando vedi la luna ad occhio nudo.
Phrogz,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.