Web bots zoals Web crawlers en spiders kam het internet naar gegevens op webpagina's , de volgende links en catalogiseren van content. Hoewel dit biedt bedrijven een manier om de blootstelling te verhogen door middel van zoekmachine zichtbaarheid , sommige Web bots zijn niet zo handig , dus als website ontwikkelaar moet je een manier te creëren om bots te vangen tijdens de pagina uploadt , en hanteren ze een speciale manier . Gebruik ColdFusion te zoeken voor het identificeren van kenmerken in de naam van een toegang user agent , dan is omgaan met de web bot dienovereenkomstig . Wat je nodig hebt ColdFusion-server Tekst editor Toon Meer Aanwijzingen 1 Stel een variabele om de user agent , of webbrowser /browsing opdrachtgever , van de bezoeker : = LCase( CGI.http_user_agent ) /> kopen van 2 Opzetten van een "if " statement naar de agent informatie te controleren : < br > 3 Verleng de " if" statement te controleren voor gemeenschappelijke Web bots . Dit voorbeeld controleert voor de Google spider bot: = LCase( CGI.http_user_agent ) /> < cfif ( zoeken ( 'google' , VERZOEK . UserAgent ) ) > /passende maatregelen nemen in het optreden van de Google bot * /< /cfif >
|