Uw PHP -powered webserver reageert op elke gebruiker of zoekmachine die uw website doorzoekt . Als u een subdomein hebt gemaakt met duplicate content , is het best om zoekmachines te blokkeren van de toegang tot die pagina's . U gebruikt de " robots.txt " bestand om subdomeinen te blokkeren wordt gecrawld . Dit bestand is een gewoon tekstbestand dat u kunt maken en bewerken met Kladblok . Het moet in de root directory worden geplaatst op uw webserver . Instructies 1 Klik op de knop Windows "Start " en type " notepad " in het zoekvak . Druk op "Enter " om de Notepad tekst editor te starten . Open een nieuw document Copy 2 en plak de volgende code in het nieuwe document : . User-agent : * Disallow : / 3 Sla het bestand op en zorg ervoor dat u de naam " robots.txt " . 4 Open uw server console of het bedieningspaneel . Elke hosting provider heeft zijn eigen interface , dus volg de gebruikelijke procedure om in te loggen en vervolgens naar de hoofdmap van uw subdomein . 5 Upload het robots.txt- bestand naar het subdomein hoofdmap op uw PHP webserver . Zoekmachines zijn nu geblokkeerd en alle mappen en bestanden op dit subdomein .
|