Mam kilka dynamicznie generowanych adresów URL.
Czy mogę użyć wyrażenia regularnego, aby zablokować te adresy URL w pliku robots.txt?
Mam kilka dynamicznie generowanych adresów URL.
Czy mogę użyć wyrażenia regularnego, aby zablokować te adresy URL w pliku robots.txt?
Odpowiedzi:
Wyrażenia regularne nie są poprawne w pliku robots.txt, ale Google, Bing i niektóre inne boty rozpoznają pewne dopasowanie wzorca.
Powiedz, że jeśli chcesz zablokować wszystkie adresy URL, które mają example
dowolne miejsca w adresie URL, możesz użyć wpisu z symbolem wieloznacznym *
User-agent: *
Disallow: /*example
Możesz także użyć znaku dolara $, aby określić, że adresy URL muszą kończyć się w ten sposób. Więc jeśli chcesz zablokować wszystkie adresy URL, które kończą się example
, ale nie adresy URL, które mają example
inne adresy URL, możesz użyć:
User-agent: *
Disallow: /*example$
Więcej informacji dogłębne dla Google można znaleźć tutaj: Robots.txt Specyfikacje , Bing tutaj: Jak utworzyć plik robots.txt i jest interaktywny przewodnik na Moz tutaj