Sì (e no, non è la velocità di Internet e non è la velocità in sé).
Velocità
La velocità è una formulazione molto imprecisa che mescola due cose diverse che sono ampiamente indipendenti ma interagiscono tra loro: latenza e larghezza di banda.
Inoltre, la velocità che si osserva non è la velocità di Internet . È una miscela molto complessa di molte cose che accadono da un lato (il computer), dall'altro (server) e in mezzo a diversi punti. Quale potrebbe essere una cosa totalmente diversa con il prossimo server a cui accedi, anche se quello è altrettanto lontano (o più lontano).
Larghezza di banda
La larghezza di banda è la quantità di dati che puoi - in teoria - spingere sul filo per unità di tempo. Di solito ci sono limiti rigidi per quello. Il limite massimo sarebbe quello che la linea è in grado di prendere, e poi c'è quello per cui paghi e ciò che il provider ti permetterà (di solito meno!). Spesso i trasferimenti non sono uniformi, iniziano più velocemente e quindi rallentano molto presto.
Ad esempio, ho un uplink 96Mbit / s con una capacità di linea fisica di 112Mbit / s. Questo perché per una maggiore stabilità, viene utilizzata meno larghezza di banda di quanto sarebbe effettivamente possibile. Tuttavia, pago solo per 50Mbit / s (che è abbastanza per le mie esigenze e 10 € al mese in meno), nonostante in realtà ottenga 96Mbit / s. Aspetta ... come funziona? Perché qualcuno dovrebbe pagare più soldi allora? Bene, trasmetto tutto a 96 MB / s, ma il provider, dopo un tempo molto breve (meno di 0,1 secondi) mi bloccherà di nascosto e consentirà di inviare / ricevere più dati solo dopo che è trascorso abbastanza tempo, quindi sono dentro la quota che ho pagato. Quindi, in media, ho i miei 50Mbit / s. Cose molto simili accadono in diverse posizioni in Internet dove passerà anche il tuo traffico (senza che tu lo sappia). Il traffico viene "modellato"
La larghezza di banda su Internet è, per la maggior parte, così grande che - tranne durante gli attacchi DDoS multi-nazione - non è in alcun modo un fattore limitante. Bene, in teoria, e nella maggior parte del mondo, cioè.
Esistono tuttavia colli di bottiglia: uno è alla tua fine, il successivo evidente è alla fine del server ed esiste la reale possibilità che se interagisci con un server in una posizione geografica diversa, in particolare un paese del terzo mondo, quella larghezza di banda totale sarà significativamente peggio di uno dei due. Alcuni paesi nel sud-est asiatico hanno un livello internazionaleuplink che non sono molto più alti di quelli di una manciata di singoli utenti domestici in altri paesi (o anche nello stesso paese). Non so se sia ancora così (le cose cambiano così velocemente nel mondo), ma per esempio in Tailandia, accedere a un server nello stesso paese era 4 volte più veloce dell'accesso a un server in un altro paese, per proprio quel motivo. Lo stesso sarebbe valido se si tentasse di accedere a un server nel proprio paese.
Anche se la larghezza di banda all'interno della tua posizione potrebbe essere elevata, è la connessione più lenta della catena che limita la quantità di dati che puoi passare (proprio come in una tubatura dell'acqua). Una distanza più lunga significa che generalmente vi sono maggiori opportunità di incontrare un collegamento lento (o congestionato).
Latenza
La latenza è il tempo impiegato da un segnale per arrivare alla tua posizione (o qualsiasi posizione particolare) da un certo punto.
Innanzitutto, c'è la velocità della luce, che è (non) costante e, essendo un limite fisico duro, non può essere aggirata. Perché sto dicendo "(non) costante"?Bene, perché la realtà è anche peggio della teoria. La velocità della luce è davvero un limite superiore, misurata nel vuoto. In un cavo di rame o addirittura più in un cavo a fibre ottiche, la velocità misurabile della luce è facilmente inferiore del 30% rispetto al vaccino, più la distanza effettiva è più lunga. Questo non solo perché il cavo non è perfettamente in linea retta, ma anche perché la luce viaggia lungo la fibra a zig-zag, rimbalzando sulle pareti (riflessione interna totale). È una sfida difficile (questo significa: impossibile) rendere la velocità della luce significativamente più veloce. Non che non si possa farlo usando un mezzo diverso, ma un mezzo con una maggiore velocità della luce significa cambiare l'indice di rifrazione, quindi ridurre e infine perdere la riflessione interna totale. Ciò significa che a meno che il segnale non vada in una linea perfettamente dritta,
Quindi, in sintesi, c'è un ritardo più o meno fisso che è inevitabile, e sebbene non si noti nelle trasmissioni locali (LAN, o alcuni chilometri), diventa molto evidente quando il segnale attraversa mezzo continente. Oltre a questo limite fisico rigido, ci sono ritardi introdotti da router intermedi, e possibilmente il tuo uplink locale (il famigerato "ultimo miglio").
Ad esempio, su una tipica connessione Internet domestica basata su ATM, hai un ritardo di circa 4 ms solo per i tuoi datagrammi incapsulati inutilmente in PPP e suddivisi in frame ATM di dimensioni 53 byte, inviati su DSLAM, instradati all'interno la rete ATM del provider, ed essere riassemblato prima di accedere nuovamente a una rete IP. Il motivo per cui questo è fatto è storico. C'era una volta, ATM sembrava un buon piano per consentire telefonate di alta qualità a bassa latenza su lunghe distanze. C'era una volta, negli anni '80, ma purtroppo i fornitori di telecomunicazioni si muovono lentamente.
Anche per molte installazioni che hanno "fibra" nel loro nome, in realtà il filo di rame viene utilizzato per l'ultima dozzina di metri, la fibra non finisce raramente in strada (anche se esiste una vera fibra per il seminterrato).
Un tipico router Internet aggiungerà qualcosa nell'intervallo da 0,05 a 0,2 millisecondi al tuo ritardo, ma a seconda di quanto sia occupato (forse non è il massimo), questo potrebbe benissimo essere un millesimo di secondo. Non è molto, ma considera che avere 6-8 router tra te e il server di destinazione non è affatto insolito, e potresti averne 12-15 su una distanza più lunga! Puoi provare a correre tracert some.server.name
per vederti.
Una linea che è stata tagliata e sfruttata dalla NSA o dalla SVR (quindi praticamente ogni linea principale che va da / verso il continente asiatico, o attraverso il Mar Rosso, il Mare Indiano o l'Oceano Atlantico) avrà almeno altri due millisecondi circa di latenza aggiunta per le cose di spionaggio che stanno facendo, forse di più. È noto che alcune nazioni (o almeno sono altamente sospettate) non solo osservano il contenuto e bloccano determinati intervalli di IP, ma addirittura effettuano un ampio filtraggio / blocco attivo di contenuti politicamente / ideologicamente inappropriati. Ciò può comportare ritardi molto più lunghi.
Pertanto, anche per posizioni "vicine", ci si può aspettare da 15 a 25 ms di ritardo, ma per qualcosa in un altro paese, dovresti aspettarti ~ 100 ms, in un altro continente 150-250 ms, se sei sfortunato 400-500 Signorina.
Ora, nonostante tutto, sembrerebbe che questo non faccia molta differenza perché questo è solo un ritardo iniziale una tantum, che difficilmente noti. Destra?
Purtroppo, questo non è del tutto vero. La maggior parte dei protocolli che trasmettono quantità significative di dati come ad es. TCP, utilizzano una forma di limitazione della larghezza di banda basata sul riconoscimento, quindi la quantità di dati che è possibile spingere sul filo dipende dal tempo impiegato per fare un giro completo (andata e ritorno) ancora). Questo non è accurato al 100% perché TCP tenta di ottimizzare la produttività utilizzando uno dei numerosi algoritmi di windowing piuttosto complessi che inviano un paio di datagrammi prima di attendere il riconoscimento.
Sebbene ciò possa in qualche modo mitigare l'effetto, il principio di base rimane tuttavia: ciò che è possibile inviare (o ricevere) è finalmente limitato dal tempo necessario per ricevere i riconoscimenti. Alcuni altri protocolli con requisiti in tempo reale più rigorosi e requisiti di affidabilità meno importanti ( pensa alla telefonia IP) usa una strategia diversa con problemi diversi (che non elaborerò).
Puoi vedere quale latenza ha un grande impatto se confronti una scarsa implementazione TCP (Microsoft Windows) con una migliore (Linux). Mentre entrambi parlano lo stesso protocollo e sembrano fare esattamente la stessa cosa, non affrontano altrettanto bene la compensazione della latenza.
Possiedo un computer desktop (processore 6700K, 64 GB di RAM, Windows) e una Synology DiskStation (chip ARMv8 a bassa potenza, 1 GB di RAM, Linux). Il computer desktop, collegato allo stesso router, pur essendo molte volte più potente, non può saturare completamente la linea da 50 Mbit / s durante il download da server nazionali o all'interno dell'UE (15-20ms RTT), anche con numerosi download simultanei in volo. La mite DiskStation non ha problemi a saturare completamente la linea su un singolo download, ottenendo una produttività maggiore del 15-20% - stesso cavo, stesso tutto.
Sulla mia rete locale (dove la latenza è ben al di sotto di un millisecondo) non c'è alcuna differenza evidente tra i due. Questo è l'effetto della latenza.
Velocità ... di nuovo
In sintesi, sì, puoi aspettarti che la "velocità" diminuisca all'aumentare della distanza, principalmente perché aumenta la latenza e in una certa misura perché potresti avere connessioni a larghezza di banda inferiore nel mezzo. Per la maggior parte, l'effetto dovrebbe essere comunque tollerabile.