Używam następującego pliku robots.txt dla witryny: Celem jest umożliwienie googlebotowi i bingbotowi dostępu do witryny z wyjątkiem strony /bedven/bedrijf/*
i zablokowanie indeksowania witryny przez inne boty.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
Czy ostatnia reguła User-agent: * Disallow: /
zabrania wszystkim robotom indeksowania wszystkich stron w witrynie?
robots.txt
tak czy inaczej
robots.txt
, a przynajmniej Disallow: /
zasady. Jeśli twoja osobista strona internetowa wbija się w ziemię, ponieważ programista botów nigdy nie pomyślał, że serwer może być Raspberry Pi na niewłaściwym końcu połączenia 256 kbit, przydatne jest takie ogólne wyłączenie.