Odpowiedzi:
W katalogu głównym witryny poddomeny dodaj plik o nazwie robots.txt zawierający:
User-agent: *
Disallow: /
Dzięki temu roboty indeksujące w ogóle nie indeksują witryny. Nie muszą być posłuszni, ale główni będą.
noindex
do indeksu i innych stron w subdomenie
Użycie pliku robots.txt w subdomenie pomoże (i Google będzie tego przestrzegać), ale kolejnym krokiem, który możesz zrobić, jest określenie na koncie Google Webmasters, że nie chcesz, aby ta subdomena była indeksowana. Możesz także użyć metatagu na wszystkich stronach w subdomenie:
<meta name="robots" content="noindex">
Jeśli zdarzy się, że jest to witryna, której używasz tylko do testów wewnętrznych, ograniczenie widoczności do określonego zestawu adresów IP w pliku hostów wirtualnych spowoduje dalsze ukrycie witryny.
meta
tag noindex na każdej stronie, możesz zamiast tego zwrócić X-Robots-Tag
nagłówek odpowiedzi HTTP z serwera dla określonej poddomeny - musisz to zrobić tylko raz.
Rozwiązania Kenzo i Paula są dobre, możesz umieścić metatagi noindex na swoich stronach internetowych i dodać plik robots.txt, aby zabronić robotom.
Ale moim zdaniem najlepszym rozwiązaniem jest użycie uwierzytelnienia hasła w swojej subdomenie. To jedyne rozwiązanie, na które masz pewność, że roboty mogą uzyskać dostęp do Twojej witryny i zindeksować ją. Jeśli używasz Apache, możesz zaimplementować htpasswd .
... obecnie wyświetla się w wynikach SEO?
Inne odpowiedzi dotyczą bardziej proaktywnego zapobiegania indeksowaniu (pod) domeny (co jest głównie tym, o co pytasz w pytaniu), a nie aktywnego usuwania stron z wyników wyszukiwania, co może być bardziej tym, czego szukasz, sądząc po twoje drugie pytanie .
Nadal musisz zablokować witrynę w pliku robots.txt i podać meta
tag noindex (lub X-Robots-Tag
nagłówek odpowiedzi HTTP), jak podano w innych odpowiedziach, ale musisz także zablokować dostęp do swoich stron, zwracając kod stanu 404 lub 410.
Więcej informacji na ten temat można znaleźć na stronie pomocy Narzędzi Google dla webmasterów:
Wymagania dotyczące usuwania treści
Gdy już to wszystko wykonasz, możesz użyć narzędzia Usuń adresy URL w Narzędziach Google dla webmasterów. Dotyczy to jednak tylko pojedynczych adresów URL, a nie całej witryny, ale to dopiero początek. (Google stwierdza, że korzystanie z robots.txt, noindex i serwowania 404 jest wymagane do korzystania z narzędzia do usuwania GWT).
Jeśli jednak nadal chcesz, aby zwykli użytkownicy mieli dostęp do witryny po wpisaniu adresu URL, oznacza to problem - ponieważ Twoje treści nie są już dostępne. Możesz podać hasło, jak sugeruje Zistoloen, jednak domyślnie zwróci 403 (Zabronione), które musisz zastąpić, aby zwrócić 404/410. Możesz ukryć swoje treści, zwracając 410 do Googlebota i pozwalając wszystkim innym wejść - ale co z ludźmi, którzy klikają wyniki w SERP?
Ale jeśli chcesz, aby Google usunął Twoje treści w jak najkrótszym czasie, musisz usunąć je z Internetu „Google”.