Wikipedia dice
Gli schemi di codifica Base64 vengono comunemente utilizzati quando è necessario codificare i dati binari che devono essere archiviati e trasferiti su supporti progettati per gestire dati testuali. Questo per garantire che i dati rimangano intatti senza modifiche durante il trasporto.
Ma i dati non sono sempre archiviati / trasmessi in binario perché la memoria che le nostre macchine hanno archiviano binario e dipende solo da come li interpreti? Quindi, sia che codifichi lo schema di bit 010011010110000101101110
come Man
in ASCII o come TWFu
in Base64, alla fine memorizzerai lo stesso schema di bit.
Se la codifica finale è in termini di zero e uno e ogni macchina e supporto può gestirli, che importanza ha se i dati sono rappresentati come ASCII o Base64?
Cosa significa "media progettati per gestire dati testuali"? Possono gestire binario => possono gestire qualsiasi cosa.
Grazie a tutti, penso di aver capito adesso.
Quando inviamo i dati, non possiamo essere sicuri che i dati vengano interpretati nello stesso formato in cui intendevamo. Quindi, inviamo dati codificati in un formato (come Base64) che entrambe le parti comprendono. In questo modo anche se mittente e destinatario interpretano le stesse cose in modo diverso, ma poiché concordano sul formato codificato, i dati non verranno interpretati in modo errato.
Se voglio inviare
Hello
world!
Un modo è inviarlo in formato ASCII
72 101 108 108 111 10 119 111 114 108 100 33
Ma il byte 10 potrebbe non essere interpretato correttamente come una nuova riga all'altra estremità. Quindi, usiamo un sottoinsieme di ASCII per codificarlo in questo modo
83 71 86 115 98 71 56 115 67 110 100 118 99 109 120 107 73 61 61
che a scapito di più dati trasferiti per la stessa quantità di informazioni garantisce che il destinatario possa decodificare i dati nel modo previsto, anche se il ricevitore ha interpretazioni diverse per il resto del set di caratteri.