Come posso bloccare un sito web particolare nei motori di ricerca di Google?

Per bloccare un determinato sito Web sul tuo server di hosting da Google e altri robot dei motori di ricerca, puoi creare un file "robots.txt" per la directory principale del sito web. Un file robots.txt ordina agli spider dei motori di ricerca di eseguire la scansione o di evitare i siti ospitati su un server Web. Specificare l'agente utente, come GoogleBot, per bloccare o utilizzare un carattere jolly per bloccare il sito da tutti gli spider. In alternativa, inserisci il metatag "noindex" nel codice HTML per impedire ai motori di ricerca di indicizzare una singola pagina sul tuo sito.

Robots.txt File

1.

Aprire una pagina vuota in un editor di testo, ad esempio Blocco note.

2.

Digita o copia e incolla il seguente codice nel file di testo. Questo codice impedisce a Google Spider di indicizzare tutte le cartelle e le sottocartelle sul sito.

User-agent: GoogleBot Disallow: /

Utilizzare il seguente formato per bloccare tutti i motori di ricerca solo da una cartella denominata "MyFolder".

User-agent: * Disallow: / MyFolder /

3.

Fai clic su "File", quindi su "Salva". Digita "robots.txt" nel campo Nome file, quindi fai clic su "Salva" per salvare il file.

4.

Carica il file robots.txt nella directory per bloccare Google e altri motori di ricerca sul tuo server Web.

metatag

1.

Apri la pagina HTML per bloccare un editor di codice.

2.

Inserisci il seguente metatag subito dopo il tag:

3.

Salvare il file, quindi caricare la code page sul server Web. Il metatag indica ai robot di ignorare la pagina.

Suggerimenti

  • Per indicizzare tutti i contenuti del tuo sito, rinunciare all'uso di un file robots.txt. Il file è necessario solo se si desidera bloccare una o più directory sul server di hosting.
  • Puoi bloccare l'indicizzazione dei file immagine in modo che le tue immagini non vengano visualizzate in Google Immagini. Utilizza il codice seguente per bloccare l'indicizzazione di GoogleBot di tutte le immagini GIF sul tuo sito:
  • User-agent: Googlebot
  • Non consentire: /*.gif$

Avvertenze

  • Il file robots.txt può essere sovrascritto da spammer senza scrupoli e altri. Tuttavia, la maggior parte delle aziende legittime rispetta le regole specificate nei file robots.txt.
  • Nota che diversi spider possono interpretare i file robots.txt in modi diversi.

Raccomandato