Google non è in grado di caricare tutte le risorse di pagina che causano errori di script e potrebbe danneggiare il nostro SEO


8

Siamo appena arrivati ​​al fatto che la maggior parte dei nostri siti Web presenta gli stessi errori, ma non sappiamo come risolverlo.

https://search.google.com/test/mobile-friendly

Sembra che alcuni script sui siti Web non vengano inclusi. Pensiamo che questo abbia un impatto sui nostri risultati SEO organici. Abbiamo provato i passaggi del test ottimizzato per dispositivi mobili di Google, ma nessun risultato. Abbiamo cercato la settimana passata ora, ma non ho ancora trovato una soluzione.

Eventuali suggerimenti? Fatecelo sapere!

L'errore:

Pagina parzialmente caricata

Non è possibile caricare tutte le pagine delle risorse. Ciò può influire sul modo in cui Google vede e interpreta la tua pagina. Risolvi i problemi di disponibilità per le fonti che possono influire sul modo in cui Google interpreta la tua pagina. ''


Questo è spesso causato da quegli script non consentiti in robots.txt. Su un sito WordPress, la disattivazione wp-contentpuò causare tali problemi. Il tuo robots.txt mi sembra perfetto, almeno ora. L'hai cambiato di recente?
Stephen Ostermiller

1
Sei arrivato al fondo di questo ormai? Stiamo riscontrando problemi simili su dozzine di siti Web. Ogni test dà risultati diversi, a volte carica tutto, a volte non riesce a caricare poche risorse, css, js o immagini e quindi genera un errore e invia e-mail su non compatibili con i dispositivi mobili.
Goran Usljebrka,

Risposte:


1

Googlebot sarà in grado di leggere molto Javascript, ma non tutto. Se il tuo file robots.txt è configurato per consentire la scansione dei tuoi file .js, è probabile che il tuo javascript sia troppo complesso per essere visualizzato da Google.

Di conseguenza, potresti dover continuare a testare diverse versioni del tuo javascript con il test ottimizzato per dispositivi mobili per determinare una versione che Google può elaborare correttamente. Più complesso è il tuo javascript, più è probabile che Google non riesca a leggerlo. Prova a semplificare il tuo Javascript nel miglior modo possibile.


Non credo, dato che ho lo stesso identico problema con un elenco di 10 jse jpgfile. Quindi, considerando la tua spiegazione, per quanto riguarda i jpgfile.
Pmpr,

1

"Pagina caricata parzialmente" deve fornirti un elenco di risorse che googlebot non è stato in grado di caricare. Inizia con la verifica di tali risorse per l'accessibilità.

  • Quindi, prova questo: esegui il test mobile-freindly due volte. Innanzitutto, http: // versione, quindi https: // versione. Questo per verificare se la versione https del sito sta tentando di caricare risorse dalla versione http e viceversa. Tra i due test, se si nota una differenza nel numero di risorse non caricate, accedere a tali risorse.

  • Per avere una visione migliore di ciò che viene caricato e quando, testare il sito su gtmetrix.com. Questo ti darà le risorse caricate in ordine cronologico e anche in formato cascata.

  • Sul fronte del codice, ridurre il numero di javascript. Ho guardato la fonte di uno dei siti e vedo circa 20 include javascript. Sono molte le richieste HTTP dallo stesso dominio. Aggiungete a ciò le richieste di immagini, CSS, font ecc. Provate a unire i file js e css in uno o due file ciascuno.


Questo non affronta bene la domanda. Sto riscontrando lo stesso identico problema con lo strumento Test amichevole per dispositivi mobili di Google, non è stato possibile caricare le risorse di report con l'elenco di 10 jse jpgfile, posso scaricare da solo senza alcun problema!
Pmpr,

1

Quando si utilizza questo test, si noti che molti pixel / script di tracciamento degli annunci (anche i pixel di Google e i pixel di DoubleClick (Google possiede DoubleClick)) potrebbero essere bloccati dal proprio file robots.txt che non è possibile controllare. Ho visto questa prima mano in uno dei miei siti: Google ha bloccato la scansione del proprio pixel DoubleClick da parte di Googlebot. Devi chiederti: "Googlebot serve a identificare i contenuti della tua pagina, non seguendo i pixel tracker. Anche i pixel di tracciamento di Google stanno bloccando il proprio Googlebot. Quindi, perché dovrei preoccuparmi se sono i pixel tracker a essere bloccati?" E lo vedo anche con il pixel di Facebook.

Tuttavia, se si tratta di un file robots.txt che controlli e non ha nulla a che fare con il tracciamento dei pixel, è probabilmente qualcosa che devi affrontare. Ora, se hai una parte del tuo sito Web solo per l'appartenenza o una parte del tuo sito Web solo per l'amministratore ed è collegata dalla home page, potresti prendere in considerazione gli attributi di link-cloaking o nofollow in modo che Googlebot non lo faccia prova a seguirlo nella tua pagina. Tuttavia, si deve chiedere se Google vuole che tu consenta a Googlebot di superare una sezione riservata ai membri o all'amministratore del tuo sito Web, che probabilmente non è secondo me.

Questa è la mia opinione, comunque. A meno che non riusciamo davvero a far rispondere il team di ingegneria SEO di Google, stiamo tentando di tentare nel buio e dobbiamo solo usare la nostra migliore intuizione di buon senso qui.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.