Perché questa immagine satellitare di un aeroplano in movimento mostra bande rosse, verdi e blu con strani artefatti?


12

Mi sono imbattuto in questa immagine satellitare ( http://goo.gl/Wv503u ) catturare un aereo in volo sopra una città. Sto avendo un piccolo problema a spiegare gli effetti di colore causati dal movimento dell'aereo.

Quello che immagino è che l'immagine sia costruita fondendo foto filtrate blu, verde e rossa scattate in momenti leggermente diversi. Questo sembra sufficiente per creare un'immagine a colori e spiegherebbe alcuni artefatti cromatici causati da oggetti in movimento.

Tuttavia, noto che ci sono 2 bande di rosso, verde e blu sulle ali che per me suggeriscono una miscela di più di 3 foto. Inoltre, i colori non sembrano fondersi allo stesso modo sulla coda. Vedo rosso, giallo, magenta, ciano e blu che suggeriscono velocità diverse tra ali e coda (che trovo impossibile) o una sorta di effetto otturatore. Inoltre, vedo alcuni contorni nel naso dell'aereo e il bordo anteriore delle ali. Questi sono causati da un filtro imperfetto degli infrarossi? o c'è qualche componente Luma aggiunto al mix?

Cosa sta succedendo? Cosa si può imparare sulla fotocamera?

Modifica: ho aggiunto uno screenshot di ciò che mostra il mio browser quando faccio clic su quel link aereo in movimento


2
Li ho suddivisi nei loro canali di colore: i.stack.imgur.com/ot8VY.jpg i.stack.imgur.com/uZv0B.png i.stack.imgur.com/JFNhb.png i.stack.imgur.com /toADb.png sembra molto simile al motion blur (blu, verde, rosso è l'ordine migliore) + momenti di scatto leggermente diversi per una fotocamera a 3 ccd. il resto dei manufatti potrebbe essere spiegato con la matematica fatta per passare dallo spazio colore XYZ allo RGB.
PlasmaHH,

Risposte:


9

AJ è corretto qui. Quello che stai vedendo è il risultato del motion blur poiché sia ​​il satellite che l'aereo sono in movimento rispetto al suolo (l'obiettivo desiderato della foto). Quelle belle immagini che vedi in Google Earth e altrove sono il risultato di immagini filtrate rosse, verdi e blu combinate in quella che viene chiamata immagine "Multispectral" (MSI), chiamata perché combina insieme le immagini acquisite su diverse bande dello spettro elettromagnetico in una singola immagine. Di solito, le bande con filtro colorato hanno una risoluzione più bassa (si pensi a 1-2 metri GSD, distanza del campione del suolo, che è la distanza tra due centri di pixel adiacenti) e le coordinate del suolo sono fornite da una scala di grigi del sub-metro (0 essendo buio completo per 255 essendo totalmente bianco) o immagine "panchromatic" (PAN). Il PAN fornisce le coordinate e le informazioni sull'intensità relativa (contrasto). Aggiungi la gestione dell'elevazione (di solito un modello di elevazione digitale o DEM di USGS se ti trovi negli Stati Uniti), ortoortificazione (regolazione dell'immagine in modo che appaia piatta anche se la Terra non lo è), proiezione (la Terra è rotonda, cercando di mettere una sezione di esso in un quadrato anziché in una curva introduce errori) e interpolazione (a causa delle differenze di risoluzione tra PAN e MSI per creare l'immagine finale) e hai il tuo prodotto finale. Per stupire davvero, dobbiamo anche tenere conto dell'angolo del nadir e del sensore (il satellite non è puntato verso il basso, la telecamera è inclinata come il Sole rispetto alla Terra). ortoortificazione (regolare l'immagine in modo che appaia piatta anche se la Terra non lo è), proiezione (la Terra è rotonda, cercando di metterne una sezione in un quadrato anziché una curva introduce errori) e interpolazione (a causa delle differenze di risoluzione tra PAN e MSI per creare l'immagine finale) e hai il tuo prodotto finale. Per stupire davvero, dobbiamo anche tenere conto dell'angolo del nadir e del sensore (il satellite non è puntato verso il basso, la telecamera è inclinata come il Sole rispetto alla Terra). ortoortificazione (regolare l'immagine in modo che appaia piatta anche se la Terra non lo è), proiezione (la Terra è rotonda, cercando di metterne una sezione in un quadrato anziché una curva introduce errori) e interpolazione (a causa delle differenze di risoluzione tra PAN e MSI per creare l'immagine finale) e hai il tuo prodotto finale. Per stupire davvero, dobbiamo anche tenere conto dell'angolo del nadir e del sensore (il satellite non è puntato verso il basso, la telecamera è inclinata come il Sole rispetto alla Terra).

Fonte: 3+ anni di esperienza nel software di imaging geospaziale con RemoteView (strumento Textron Systems) e DigitalGlobe, 4 anni di matematica al college (praticamente ogni corso di calcolo per il college).


+1. Ottimo aggiornamento con termini e dettagli tecnici per le cose che stavo descrivendo.
AJ Henderson

7

La mia ipotesi migliore è che potrebbe avere a che fare con il funzionamento del satellite. Può catturare separatamente immagini rosse verdi e blu e poi combinarle. In questo caso, accaderebbero due cose. Innanzitutto, l'aereo si spostava tra i colpi per ciascun colore.

In secondo luogo, anche il satellite si muoverebbe un po '. Mentre il movimento del satellite potrebbe essere corretto, la quantità di correzione dipenderebbe dalla distanza dal satellite dell'oggetto che viene ripreso. Dato che l'aereo potrebbe essere 7 miglia più vicino al satellite rispetto al suolo, questa correzione potrebbe essere lanciata in modo piuttosto significativo.


2
in realtà penso che questa sia una foto aerea e l'aereo non sia così alto (un paio di migliaia di piedi) e la foto scattata da forse 20 km circa.
PlasmaHH,

1
@PlasmaHH - potrebbe essere, lo stesso ragionamento potrebbe comunque essere applicato (anche se per una fotocamera aerea, mi aspetterei meno scatti sequenziali poiché la fotocamera viene mantenuta più facilmente).
AJ Henderson

1
D'accordo - questa è probabilmente una foto aerea. Fino a poco tempo fa, ieri, ai satelliti non era consentito catturare immagini con una risoluzione superiore a 50 cm. Questa immagine è più simile a 20-30, forse meglio.
Jakub Sisak GeoGraphics,

4

Guardando le immagini, non sono state fornite esclusivamente da un satellite. Lavoro per l'azienda che ha costruito i sensori e le fotocamere per i sensori Digital Globe WV3 e WV4 e ho svolto attività di sensore, compensazione del movimento e altri progetti, nonché analisi della qualità dell'immagine per quei sensori. La risoluzione spaziale dell'immagine che hai pubblicato è oltre la risoluzione disponibile in commercio per quelle piattaforme commercialmente in quel momento. (Gestito da licenza e trattato.)

Credo che gli artefatti che vedi siano un artefatto derivato da un sensore aereo. Normalmente i sensori aerotrasportati sono compensati dal movimento per la transizione dell'immagine attraverso l'area del sensore e tengono conto della velocità relativa del suolo del sensore e della direzione e dell'altitudine che si trova sopra il suolo. In questo caso hai un aereo soggetto, che non viaggia nella direzione in cui il suolo è rispetto al sensore. Pertanto la compensazione del movimento non funziona così bene. Inoltre, esistono diverse geometrie per gli array di sensori e utilizzano maschere e / o strategie di scansione diverse.

Generalmente i sensori di copertura per grandi aree ad alta risoluzione sono array di tipo push-broom, simili ad alcuni scanner e fotocopiatrici per foto / documenti. Quando l'oggetto ripreso non viaggia nello stesso modo del bersaglio a terra, è soggetto a errori di campionamento e artefatti come hai osservato.

Guardando quella posizione su Google Earth, le immagini sono state aggiornate, quindi non ho potuto prendere i dati dell'immagine e ritirare gli artefatti per dirti i movimenti relativi degli oggetti. Tuttavia, dato ciò che hai presentato e la mia conoscenza dei satelliti e delle immagini satellitari disponibili in commercio, dubito che le immagini siano basate sullo spazio.

Ho lavorato in questo campo come scienziato delle immagini per diversi decenni e ti sto dando la mia impressione, ma non ho analizzato i dati per eseguire un'analisi più rigorosa, che implicherebbe fare ipotesi su dati effimeri e progetti di sensori. Ho preso in considerazione il tempo che hai pubblicato e applicato dalla conoscenza dei sensori disponibili, in particolare nell'ambiente dello spazio commerciale.


-2

Penso che sia più l'effetto di un otturatore sul "piano focale", un effetto comune riscontrato sulle fotocamere reflex mentre si fotografano obiettivi in ​​movimento. Se il movimento del soggetto è parallelo alla direzione della corsa dell'otturatore e l'oggetto ha una velocità considerevole, si ottiene un 'allungamento' dell'immagine - qualcosa di abbastanza visibile nell'ala e nei bordi di coda del piano di coda.


1
Perché i manufatti a colori, però?
Leggi il mio profilo
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.