Attualmente stiamo sviluppando un sito che attualmente ha 8 milioni di pagine uniche che cresceranno immediatamente a circa 20 milioni e infine a circa 50 milioni o più.
Prima di criticare ... Sì, fornisce contenuti unici e utili. Elaboriamo continuamente dati non elaborati da record pubblici e eseguendo alcuni scrubbing di dati, rollup di entità e mappatura delle relazioni, siamo stati in grado di generare contenuti di qualità, sviluppando un sito abbastanza utile e anche unico, in parte a causa dell'ampiezza del dati.
Il suo PR è 0 (nuovo dominio, nessun link), e ci viene spiderato ad una velocità di circa 500 pagine al giorno, mettendoci a circa 30.000 pagine indicizzate finora. A questo ritmo, occorrerebbero oltre 400 anni per indicizzare tutti i nostri dati.
Ho due domande:
- Il tasso dell'indicizzazione è direttamente correlato al PR, e con questo intendo è abbastanza correlato che acquistando un vecchio dominio con un buon PR ci porterà a un tasso di indicizzazione praticabile (nelle vicinanze di 100.000 pagine al giorno).
- Esistono consulenti SEO specializzati nell'aiutare il processo di indicizzazione stesso. Altrimenti stiamo andando molto bene con la SEO, specialmente on- page, inoltre, la concorrenza per le nostre parole chiave "long-tail" è piuttosto bassa, quindi il nostro successo dipende principalmente dal numero di pagine indicizzate.
Il nostro principale concorrente ha raggiunto circa 20 mm di pagine indicizzate in poco più di un anno, insieme a una classifica di Alexa del 2000.
Qualità degne di nota che abbiamo messo in atto:
- la velocità di download della pagina è abbastanza buona (250-500 ms)
- nessun errore (nessun errore 404 o 500 durante il ragno)
- utilizziamo gli strumenti per i webmaster di Google e effettuiamo l'accesso quotidianamente
- URL amichevoli in atto
- Ho paura di inviare sitemap. Alcuni post della community SEO suggeriscono un nuovo sito con milioni di pagine e nessuna PR è sospetta. C'è un video di Google di Matt Cutts che parla anche di una messa in scena di siti di grandi dimensioni , al fine di evitare un maggiore controllo (circa alle 2:30 nel video).
- I collegamenti a siti cliccabili forniscono tutte le pagine, non più di quattro pagine di profondità e in genere non più di 250 (-ish) collegamenti interni su una pagina.
- Il testo di ancoraggio per i collegamenti interni è logico e aggiunge gerarchicamente rilevanza ai dati nelle pagine dei dettagli.
- In precedenza avevamo impostato la velocità di scansione al massimo sugli strumenti per i webmaster (solo circa una pagina ogni due secondi, max). Di recente l'ho riportato a "lascia decidere a Google" che è ciò che è consigliato.