Drupal gebruikt een zoekmachine blokkeert methode voor alle webservers te voorkomen dat zoekmachines de integratie van de webpagina's het dient in een zoekmachine database. Dit wordt vaak gebruikt voor websites die niet beschikken over voor het publiek toegankelijke gegevens , of om te voorkomen dat zoekmachines het aanvragen van overmatig verkeer van een website . Instructies 1 Zoek de " robots.txt " bestand in de hoofdmap van uw Drupal website . De hoofdmap is ook de locatie van uw homepage , maar de locatie op de webserver zal variëren afhankelijk van het besturingssysteem dat u gebruikt om te draaien Drupal . Kopen van 2 Maak een leeg bestand met de naam " robots . txt "in je hoofdmap als het nog niet bestaat . Drupal versie 5 en later zal een robots.txt-bestand standaard te maken , maar je kunt ook dit bestand toe te voegen als het niet al is. 3 Open het robots.txt-bestand in een . teksteditor 4 Vervang de inhoud van het robots.txt- bestand met de volgende : User-agent : * Disallow : / Dit vertelt alle Web zoekmachines om alle content overslaan . User agent houdt de zoekmachine , de ' * ' is een wildcard , wat betekent dat iedereen . De " /" betekent de wortel , of "top ", van uw website . Daarom , door niet toe te staan de wortel , alle inhoud op alle pagina's op de website - die hiërarchisch " lager " dan de wortel - wordt overgeslagen 5 Sla het bestand robots.txt . . Als uw webserver maakt gebruik van een webpagina cache , reset het zo dat de nieuwe pagina wordt verzonden naar zoekmachines als ze vragen het robots.txt- pagina .
|