Per rispondere immediatamente alla tua domanda: No, il World Wide Web come lo conosciamo ora non dipende da HTTP. Non è mai dipeso da HTTP. Tutto ciò che serve è un protocollo su un trasporto affidabile che un client può utilizzare per richiedere una risorsa da un server. Qualunque cosa con questi requisiti minimi lo farà. Ora utilizza HTTP perché quello era il miglior protocollo disponibile quando il Web stava diventando popolare. Quando arriva qualcosa di meglio di HTTP, come sembra essere il caso di SPDY , allora anche HTTP passerà alla storia come protocolli prima di esso.
Tuttavia, dipende dall'HTML e, in misura minore, dalle varie tecnologie che sono cresciute attorno ad esso, come CSS, JavaScript, ecc. Anche l'HTML 5 di oggi sarebbe riconoscibile come HTML 20 anni fa e per lo più analizzabile dai browser di quel tempo , e un sito web ben fatto di oggi sarà effettivamente il lavoro nelle più antiche browser conosciuti (come un sito web ben fatto di 20 anni fa, sarà effettivamente il lavoro nei browser di oggi).
Il resto di questa risposta è tratto dalla mia esperienza e può essere ignorato, ma ...
Finora le risposte esistenti hanno citato principalmente riferimenti da oggi, il che è sfortunato, poiché Internet di oggi contiene pochissime informazioni sui tempi precedenti al "boom delle dot-com" della fine degli anni '90. Alcuni di questi riferimenti non corrispondono alla mia esperienza: ero su Internet anni prima che fosse aperto al pubblico e avevo una buona visione per vedere l'ascesa del Web.
HTTP è stato progettato per essere un protocollo efficiente nel trasferimento di pagine Web e altri file da e verso server. Ha affrontato varie carenze dell'FTP che lo rendono una scelta tutt'altro che pratica per servire le pagine Web. In particolare, all'epoca FTP era utilizzato principalmente in modalità "attiva", poiché firewall e NAT erano quasi inesistenti. L'FTP aveva una modalità "passiva" dal 1985, ma non era davvero necessario fino a quando gran parte di Internet ha iniziato a muoversi dietro le loro tende di ferro. In entrambe le modalità, la necessità di aprire più connessioni per trasferire file era inefficiente nella migliore delle ipotesi; L'HTTP potrebbe sovraperformare notevolmente l'FTP (o anche Gopher) che era importante quando praticamente la connessione di casa di tutti era dialup e dialup molto lento .
E mentre alcune pagine Web venivano servite tramite Gopher, ciò era principalmente dovuto al fatto che i comuni client Web dell'epoca supportavano diversi protocolli: HTTP, FTP e Gopher. Dovevano, per guadagnare la condivisione della mente. In questo momento, "la ricerca in Internet" è stata effettuata con un programma chiamato Archie, che ti parlava solo di file su siti FTP. Quindi hai dovuto usare Veronica o Jughead per cercare Gopherspace. C'era anche WAIS, forse il primo motore di ricerca full text significativo, ma ciò che Wikipedia non ti dirà a riguardo è che era una merda enormemente ingegnerizzata e non riuscivi a trovare nulla a meno che non sapessi in quale sito cercarlo iniziare con.
Ricordo ancora, nel 1995 o giù di lì, di avere avuto conversazioni nel corso di diverse settimane con un ricercatore di AIDS sul Web e di aver cercato di convincerlo che avrebbe dovuto provare questa cosa di Mosaic. Ciò che alla fine lo ha convinto è che Johns Hopkins aveva appena creato un database medico di cui aveva bisogno sul Web, tramite HTTP, e un browser Web era l'unico modo per accedervi. Ho avuto molte conversazioni con varie persone in modo simile.
All'epoca, al fine di ottenere un punto d'appoggio, gli agenti degli utenti Web avrebbero comunemente supportato FTP e Gopher, in modo che le persone potessero utilizzare un singolo programma per visualizzare o scaricare qualsiasi risorsa tramite uno di questi protocolli. Ha funzionato e il Web è decollato, ma anche il download di una pagina Web di solo testo è stato dolorosamente lento a 2400 bps e molte persone (me compreso) non avevano ancora nulla di meglio quando la Rete è stata finalmente aperta al pubblico. Spesso era più veloce telnet nel tuo account shell Unix ed eseguire lynx
lì o telnet al pubblico lynx
che l'Università del Kansas gestiva. L'università aveva molta larghezza di banda e in quel modo dovevi vedere solo uno schermo alla volta (ci sono voluti circa quattro secondi per aggiornare un terminale 80x24 a 2400 bps).
Quindi, da un singolo programma, indipendentemente dal fatto che fosse lynx
, mosaic
o dal client di riferimento che il CERN ha scritto ma che nessuno ha mai usato, è possibile accedere praticamente a qualsiasi cosa su Internet in quel momento, dal momento che questi programmi generalmente nascondevano o de-enfatizzavano il trasporto specifico utilizzato . (Cioè, nessuno ha guardato la loro barra degli indirizzi anche allora. E Lynx non mostrerebbe l'URL corrente se non lo hai richiesto espressamente.)
Poiché HTTP era più veloce e più flessibile di altri protocolli e HTML era chiaramente un linguaggio più potente per rappresentare un documento di quanto fosse disponibile in precedenza, il suo decollo era praticamente inevitabile. Gopher non ha mai avuto una possibilità; esisteva in forma significativa solo per pochi anni. E FTP rimane ancora utile dal momento che è un po 'meglio a trasferire file di grandi dimensioni o strutture di directory in una sola volta (a patto di avere tar
ed gzip
e conoscere gli incantesimi segreti) e fino a poco tempo fa era meglio per il caricamento dei dati.
Il punto che sto cercando di guidare verso casa qui è che il Web è agnostico per i trasporti. Doveva essere per iniziare, e il fatto che lo sia significa che quasi sicuramente continuerà ad essere in uso per decenni - o addirittura secoli - a venire.