Perché Google segnala che alcune pagine del mio sito sono "Bloccate da robots.txt

Google Search Console può mostrare un avviso indicando che alcune pagine del tuo sito non sono indicizzate perché bloccate dal file robots.txt. Questo messaggio non è necessariamente un errore, ma una segnalazione tecnica utile per comprendere come Google interagisce con il tuo sito.

Cos'è il file robots.txt

Il file robots.txt è un semplice file di testo che si trova nella radice del sito web (es. www.tuosito.it/robots.txt) e serve a comunicare ai motori di ricerca quali parti del sito devono essere esplorate (scansionate) e quali devono essere escluse.

Ad esempio:

makefile
CopiaModifica
User-agent: * Disallow: /wp-admin/ Disallow: /cart/

In questo caso, viene chiesto ai crawler (incluso Googlebot) di non accedere alla dashboard di WordPress e alla pagina del carrello.

Perché alcune pagine risultano bloccate

Le pagine possono risultare bloccate dal file robots.txt per diverse ragioni:

  • Scelta tecnica consapevole: alcune sezioni del sito non devono essere indicizzate perché non rilevanti per i motori di ricerca, come ad esempio il carrello, la pagina di checkout o l’area riservata.

  • Contenuti duplicati o tecnici: per evitare che Google indicizzi contenuti che si ripetono o URL generati automaticamente (filtri, parametri, pagine di sistema).

  • Errore involontario: a volte alcune pagine importanti possono essere bloccate per sbaglio, compromettendo la loro visibilità nei risultati di ricerca.

Come verificare cosa viene bloccato

Se stai utilizzando un plugin SEO come SEOPress, puoi controllare il contenuto del file robots.txt direttamente dal back-end di WordPress:

  1. Accedi alla Bacheca di WordPress.

  2. Vai su SEO > Avanzato > robots.txt.

  3. Controlla le righe presenti: ogni riga con Disallow: indica un percorso che viene escluso dalla scansione.

In alternativa, puoi semplicemente digitare nel browser l'indirizzo www.tuosito.it/robots.txt per visualizzare il file attivo.

Devo intervenire?

Dipende dal contenuto bloccato:

  • Se le pagine escluse non sono rilevanti per la SEO (es. /wp-admin/, /cart/, /checkout/), allora il blocco è corretto e voluto.

  • Se invece vengono escluse pagine che dovrebbero essere indicizzate (es. articoli, pagine informative, categorie), è consigliabile rivedere la configurazione.

Come risolvere il problema

Se individui un blocco non desiderato, puoi procedere in questo modo:

  1. Accedi alle impostazioni di robots.txt nel tuo plugin SEO (ad esempio SEOPress).

  2. Rimuovi o modifica la riga Disallow: relativa alla pagina che desideri rendere indicizzabile.

  3. Salva le modifiche.

  4. Torna in Google Search Console e richiedi una nuova scansione della pagina tramite la funzione "Controlla URL".

Il file robots.txt è uno strumento essenziale per gestire la visibilità del tuo sito sui motori di ricerca. Le segnalazioni di Google Search Console sono utili per assicurarsi che le pagine importanti non vengano escluse per errore. È sempre consigliabile effettuare una verifica periodica e, in caso di dubbi, rivolgersi a un professionista SEO per una revisione tecnica accurata.

Hai trovato utile quest'articolo?