Backup di alta qualità di Google Foto: in che modo Google ottiene una compressione eccezionale e sto perdendo alcuni dati?


21

Sono sicuro che molti di noi hanno utilizzato il backup di alta qualità di Google foto che ci consente di archiviare le foto online gratuitamente.

Di recente, ho pensato di testare la qualità dei caricamenti caricando alcune foto (inferiori a 16 MP) e confrontandole con l'originale in termini di risoluzione, qualità (come si vede dall'occhio) e dimensioni del file.

Sono stato sorpreso di notare che la risoluzione e la qualità erano quasi le stesse dell'originale (nessuna differenza visiva per l'occhio anche ingrandita nella maggior parte dei casi) ma la dimensione del file è stata drasticamente ridotta - almeno 2-3x e anche circa 10x in alcuni casi. Avendo usato RAR per vari tipi di file in passato, sapevo che non si sarebbe avvicinato e non mi sono preoccupato di testarlo.

La domanda è: come fa Google a gestire una compressione così grande senza alcun cambiamento evidente nell'immagine stessa? Scaricano dati sulla posizione o altri dati relativi all'immagine di cui il fotografo dilettante non è a conoscenza?


2
La mia risposta in realtà risponde alla seconda domanda. Non hanno trovato un magico algoritmo di compressione lossless generale come una versione super di ZIP o RAR. Hanno appena migliorato la compressione specifica per JPEG.
Mattdm,

Risposte:


20

Bene, per prima cosa, tutte le foto più grandi di 16 megapixel vengono ridimensionate a 16 MP - quindi, per molte fotocamere di oggi, questo è un calo immediato e ovvio della risoluzione.

Ma anche tutte le altre foto sono compresse , usando un algoritmo di compressione ottimizzante. Non penso che Google esca e dica esattamente quello che fanno, ma è probabilmente il loro algoritmo Guetzli open source . Google afferma:

Le immagini generate da Guetzli sono generalmente più piccole del 20-30% rispetto a immagini di qualità equivalente generate da libjpeg.

Qualunque cosa stiano facendo, i risultati sono piuttosto impressionanti, spesso molto superiori al 20-30%. (Probabilmente ne consegue che Google non considera queste "qualità equivalenti".) Puoi vedere alcuni confronti affiancati in questo post sul blog di Phone Arena .

Ma, alla domanda sul titolo: stai sicuramente perdendo alcuni dati. Questo algoritmo non è magico: utilizza semplicemente un modello percettivo per scartare i dati visivi che la compressione JPEG convenzionale non ha, con conseguenti tassi di compressione più elevati mentre (si spera) non causano più disturbi a cose che si possono effettivamente notare.

Solo tu puoi decidere se stai bene con quello. Se esegui il backup di originali RAW (con backup anche delle regolazioni) e riesci a ricreare i JPEG a piacimento, non ci penserei due volte. Ma se sei seriamente interessato alla fotografia e hai un flusso di lavoro centrato su JPEG - e nonostante lo snobismo RAW online, va bene - probabilmente vorrai almeno mantenere inalterati i file JPEG originali. L'aggiunta di un terabyte di spazio di archiviazione costa solo $ 10 al mese con Google. O se sei un cliente Amazon Prime ($ 100 / anno) ottieni l'archiviazione di foto illimitata effettiva , inclusi i file RAW.



5

Fondamentalmente stanno gettando potenza di elaborazione sul problema, usando approcci intensivi di calcolo che provano vari modi per comprimere l'immagine all'interno delle regole JPG. L'elaborazione è qualcosa che probabilmente Google ha in abbondanza, soprattutto perché salva anche il bandwdith.

Puoi fare lo stesso: il software e i vari servizi sono gratuiti o economici. Il tuo programma / fotocamera semplicemente non ha la potenza di elaborazione per trovare un modo "ottimale" per usare la compressione con perdita di JPG.


Questo è un buon punto, anche se ridurrà le dimensioni dell'immagine solo di una piccola proporzione.
Salman A

4
Caspita, l'algoritmo di Guetzli citato da @mattdm sopra è un maiale! Sul sito github con il software ti dice che ha bisogno di 300 Mb di RAM per megapixel di immagine per l'elaborazione e che richiede anche un minuto di CPU per megapixel!
davidbak,

Si. Fondamentalmente "prova molte combinazioni e poi usa la migliore". Quale Lightroom più vicino né ad esempio la tua fotocamera (in particolare la tua fotocamera) può fare.
TomTom,

Ma dal momento che l'algoritmo sta sostanzialmente ricomprimendo un'immagine JPEG già compressa, non è inferiore a ciò se si applica lo stesso algoritmo all'originale?
Michael

Si. No. Cerca Gützli. Jpeg - fatto in parte dalle telecamere - è fatto VELOCEMENTE. Tehy può dedicare un minuto alla ricerca della codifica ottimale per immagine. Servizi come compressore.io fanno lo stesso. Ottieni riduzioni di dimensioni molto significative con otticamente la stessa immagine.
TomTom
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.