Google Search Console

Google Search Console è una piattaforma di Google finalizzata alle attività SEO, permette di comunicare con i robot di Google, ottenendo importanti dati sull'indicizzazione del sito web e segnalazioni di eventuali errori e problemi.

Inoltre è possibile apportare e segnalare a Google tutte le eventuali correzioni necessarie per una corretta indicizzazione, compreso l'invio della sitemap.xml del proprio sito web.

 

Le funzioni principali della Google Search Console:

 

Dashboard, verifica dello stato attuale:

Errori di scansione, analisi delle ricerche, sitemap.

 

Messaggi: 

Aspetto nella ricerca:

Dati strutturati, schede informative, evidenziatore di dati, miglioramenti HTLM, accelerated mobile pages.

 

Traffico di ricerca:

Analisi delle ricerche, link che rimandano al tuo sito, link interni, azioni manuali, targeting internazionale, usabilità sui dispositivi mobili.

 

Indice Google:

Stato dell'indicizzazione, parole chiave per la rete di contenuti, risorse bloccate, rimozione URL.

 

Scansione:

Errori di scansione, statistiche di scansione, visualizza come Google, tester dei file robots txt, sitemap, parametri URL.

 

Problemi di sicurezza: 

Altre risorse:

Siti web senza errori! 

Verificati da Google mediante Search Console, nessun errore DNS, nessun errore nella connettività dei server e nessun errore nel recupero dei file Robots.txt

Ottieni il massimo nell'indicizzazione del Tuo Sito web!

 

Errori DNS (Domain Name System)

Un errore DNS indica che Googlebot non riesce a comunicare con il server DNS; è possibile che il server non sia disponibile o che esista un problema di routing del DNS del dominio. La maggior parte degli avvisi od errori DNS non incidono sulla capacità di Googlebot ad accedere al sito, ma potrebbero essere sintomo di elevata latenza, che potrebbe incidere negativamente sugli utenti.

 

Errore del server

Un errore del server può indicare diverse problematiche; Googlebot non è riuscito ad accedere agli URL, la richiesta è scaduta o il sito è risultato occupato.

E' possibile che Google non riesca ad accedere al sito perché il server è troppo lento per rispondere, oppure perché è il sito stesso che blocca Google, di conseguenza, Googlebot abbandona la richiesta.

 

Errore dei robot?

Si tratta di un errore nel recupero del file robots.txt del sito.

Prima che Googlebot esegua la scansione del sito, approssimativamente una volta al giorno, Googlebot recupera il file robots.txt per ricevere istruzioni su quali pagine non deve eseguire la scansione.

Se il file robots.txt esiste ma non è raggiungibile, viene posticipata la scansione anziché rischiare di eseguire la scansione di URL indesiderati.

In questo caso, Googlebot tornerà sul tuo sito e ne eseguirà la scansione, solo quando riuscirà ad accedere al file robots.txt.

 

 

Il file robots.txt è un file di testo che consente di specificare come si desidera che il sito venga sottoposto a scansione, nel file robots.txt è possibile includere sezioni per un crawler specifico o per tutti i crawler, con istruzioni relative alle parti che è possibile o meno sottoporre a scansione.

Edito da Luciano Soldatini


Scrivi commento

Commenti: 0