Come scritto nell'intestazione, la mia domanda è: perché TCP / IP utilizza la codifica big endian durante la trasmissione dei dati e non lo schema alternativo little-endian?
Risposte:
RFC1700 ha dichiarato che deve essere così . (e definito l'ordine dei byte di rete come big-endian).
La convenzione nella documentazione dei protocolli Internet è di esprimere i numeri in decimale e di visualizzare i dati in ordine "big-endian" [COHEN]. Cioè, i campi sono descritti da sinistra a destra, con l'ottetto più significativo a sinistra e l'ottetto meno significativo a destra.
Il riferimento che fanno è a
On Holy Wars and a Plea for Peace
Cohen, D.
Computer
L'abstract può essere trovato su IEN-137 o su questa pagina IEEE .
Sommario:
Il modo in cui viene scelto non fa troppa differenza. È più importante concordare un ordine rispetto a quale ordine è concordato.
Conclude che entrambi gli schemi big-endian e little-endian avrebbero potuto essere possibili. Non esiste uno schema migliore / peggiore e uno può essere utilizzato al posto dell'altro purché sia coerente in tutto il sistema / protocollo.