Sto lavorando con un dispositivo incorporato con un protocollo univoco che invia messaggi ad altri dispositivi e sto creando un'applicazione che analizza i pacchetti inviati. Ogni pacchetto contiene 8 byte. Il protocollo è definito come dove il primo byte è l'intestazione e i restanti 7 byte sono i dati.
Stanno provando a passare una particolare stringa ID ma la stringa ID è lunga 8 caratteri (ASCII), quindi non si adatta a 7 byte.
Quello che mi ha detto il mio collega è che trasformeranno gli 8 ASCII byte della stringa originale in intero (decimale) e me ne invieranno 4 byte. Mi hanno detto che avrei dovuto essere in grado di ottenere la stringa originale dai 4 byte. Sto facendo fatica a pensarci su.
Quindi se hai una stringa ID come "IO123456", è 0x49 0x4f 0x31 0x32 0x33 0x34 0x35 0x36 in ASCII .. Come mai puoi comprimerlo in 4 byte trasformandolo in un numero intero e posso ottenere la stringa originale da esso ? Mi sto perdendo qualcosa o il mio collega si sbaglia? Capisco che questa sia una domanda davvero bizzare, ma questo sul serio non ha alcun senso per me.