Na początek
Muszę przeprosić tych, którzy opowiadają się za TL; DR. Na górze zamieściłem listę linków, których Google nie lubi, tylko dla Ciebie!
To jedna z moich słynnych długich odpowiedzi. Ale to ważne, a czasem krótka odpowiedź po prostu nie da rady. Jeśli mnie znasz, czasami zostawiam komentarze z „Krótką odpowiedzią. Nie.” Lub Tak, jak dyktuje taka okazja. To nie jest jedna z tych okazji.
Linki, których Google nie lubi.
To tylko krótka lista rodzajów linków, których Google nie lubi i które mogłyby być postrzegane jako Black Hat. Może być więcej.
- Wymiana linków: Wymiana linków w quid pro quo. Link do mnie, a ja link do ciebie.
- Płatne linki: linki, które kupujesz od firmy lub osoby.
- Linki w zamian za usługi lub produkt: wszelkie linki, do których produkt lub usługi są zwracane za link. Kolejne quid pro quo.
- Publikowanie artykułów: Publikowanie przez gości to jedno, jednak nie są mile widziane witryny do przesyłania artykułów / marketingu, w których ten sam artykuł pojawia się w kilku miejscach.
- Zautomatyzowane łącza: tam, gdzie łącza są tworzone za pomocą automatyzacji, często przez oprogramowanie.
- Linki oparte na widżetach lub błędach: gdzie program JavaScript lub podobne urządzenie tworzy linki dynamicznie / automatycznie.
- Artykuły reklamowe: artykuły zaprojektowane jako reklama. Należy zastosować Nofollow.
- Linkuj reklamy: tutaj link reklamowy może przekazywać wartość. Należy zastosować Nofollow.
- Linki oznaczone marką handlową: wszelkie linki, które mają określoną wartość handlową. Należy zastosować Nofollow.
- Katalogi internetowe: chociaż istnieją katalogi wysokiej jakości, niektóre oferują mniejszą lub niewielką wartość. Przesyłanie danych do katalogu, zwłaszcza przesyłanie masowe, należy podejmować z rozwagą i rozwagą. Należy zastosować Nofollow.
- Linki na całej stronie: Dowolny link w nagłówku, stopce lub pasku bocznym, który tworzy linki na każdej stronie lub bardzo wielu stronach.
- Linki Blogroll: Często jest to zestaw linków w jednym blogu do innych blogów.
- Podpisy na forum i blogu: Linki utworzone w bloku podpisów użytkowników.
- Komentarze na forum i blogu: Nadmierne użycie linków na forach i blogach. Często jest to metoda marketingu zwrotnego umożliwiająca uczestnictwo w forach i blogach, a nawet sekcjach komentarzy na stronie w celu pozostawienia linku.
- Zbyt zoptymalizowany tekst linku: linki, które mają na celu rangę dla określonych słów kluczowych.
- Kontekstowo nieistotne linki: linki, które nie są związane z tematem strony łącza i / lub strony docelowej.
- Nieistotne geograficznie linki: Linki na stronie internetowej, na którą jest ukierunkowany geograficznie, gdzie strona docelowa nie jest odpowiednia.
- Nieistotne dla języka linki: Linki na stronie internetowej w jednym języku, gdzie strona docelowa jest innym językiem.
- Prędkość łącza: skokowa prędkość łącza zwrotnego, która jest sygnałem szybkiego budowania łącza zwrotnego.
- Link Networks: Udział w schemacie budowy sieci lub sieci.
- Witryny z komunikatami prasowymi: Korzystanie z witryny PR do generowania ruchu i linków.
- Witryny z zakładkami: Korzystanie z witryny z zakładkami do tworzenia ruchu i linków.
- Strony zasobów: Chociaż może to być całkowicie akceptowalna czynność dla właściciela strony do tworzenia stron zasobów, te linki mogą być postrzegane jako spam. Strony zasobów często mogą być zbyt szerokie i duże. Preferowane są mniejsze listy. Należy zastosować Nofollow.
- Nadmierne linki w mediach społecznościowych: Wskazane jest uczestnictwo w mediach społecznościowych, jednak tworzenie wielu kont w mediach społecznościowych może być postrzegane jako gra.
- Pojedyncze lub ograniczone linki słów kluczowych: Linki z jednym lub kilkoma słowami kluczowymi są postrzegane jako gry. Preferowany jest w pełni semantyczny tekst linku.
- Linki poza treścią: Chociaż w niektórych przypadkach jest to całkowicie akceptowalne, nadmierne linki znajdujące się poza treścią, często następujące po treści, mogą być postrzegane jako gry.
- Linki reklamowe: niektóre witryny uczestniczą w mechanizmach adware łączących słowa kluczowe z wyskakującymi reklamami JavaScript.
Rzeczy naprawdę się zmieniły w ciągu ostatnich kilku lat, a zwłaszcza w ciągu ostatniej dekady. I masz rację co do większości SEO, które muszą jeszcze przejść do rzeczywistości, która stoi przed nami dzisiaj. Zgadłeś, że najważniejsza rada to linki przychodzące (linki wsteczne). Zabawne jest to, jak daleko naprawdę stoi za poradami SEO. Dokonano zmian w punktach orientacyjnych, a pozycjonowanie wydaje się być opóźnione o co najmniej 5 lat.
Nie oszukujmy się, jest to OGROMNY temat, który może przynieść korzyści z odrobiną historii. Oferuję trochę tego. Potem przejdę do zagadki, z którą wszyscy stoimy najlepiej, jak umiem (i tak z pewną stronniczością). Więc proszę wybacz mi, jeśli nie wszystko dobrze rozumiem lub nie obejmuję wszystkich aspektów. Tak jak powiedziałem, to ogromny temat. Plus się starzeję.
Widok historyczny
Często odwołuję się do oryginalnej pracy badawczej napisanej w 1997 roku przez dwóch studentów Siergieja Brina i Lawrence Page z Uniwersytetu Stanforda. To był początek Google i mówi nam wiele o tym, jak myśli Google. Czasami odnoszę się także do przełomowych punktów w historii Googles, w których zaszły znaczące zmiany. Wiem dla niektórych z was, że się starzeje, ale proszę, zostańcie ze mną (nauczyłem się nie mówić niedźwiedzia / gołego). W oryginalnym artykule nie zdziwiłoby Cię to, że PageRank przy użyciu linków zwrotnych jest omawiany. Ale to, co się mówi, często ignorowane.
Stary model strony PR6 z 2 linkami wychodzącymi, każdy przekazujący PR3, nigdy nie był naprawdę dokładny. Choć w pewnym stopniu tak się dzieje, historia jest znacznie większa. Na przykład, jeśli się nad tym zastanowić, ponieważ każda strona łączy się z inną, istnieje wartość, która nie jest odpowiednio obliczana bez ponownego przeglądania wskaźników dla każdej strony w kółko. Tak się dzieje. Ale pomyśl także o tym, każda witryna z dużą liczbą PageRank przekazałaby wówczas nienaturalnie ogromne rangi. Dzięki temu modelowi witryny o niższym rankingu byłyby prawie niemożliwe, aby uzyskać rangę pozbawioną linków z określeń, które Google określa super-autorytety. Aby temu przeciwdziałać, dla każdej witryny / strony z dużymi wynikami autorytetów tworzone są limity uprawnień. Dodatkowo, każde łącze jest oceniane, jeśli istnieje, pod względem jakości w oparciu o kilka prostych kryteriów i otrzymuje ocenę od 0 do .9. To, co jest faktycznie przekazywane, to ranga oparta na limicie uprawnień obliczonym przez wartość łącza. Łatwo zauważyć, że strona PR6 nie przechodzi przez PR3, ale coś znacznie niższego. Efektem tego jest stworzenie bardziej naturalnej krzywej w schemacie PageRank, którą można dostosować.
W dawnych czasach, gdy koła były kwadratowe, możliwe było utworzenie kilku witryn, które łączą się ze sobą, aby zbudować profil rangi. Spamerzy wiedzą to zbyt dobrze. Aby to zadziałało, należałoby stworzyć witrynę super autorytetu, która następnie oszczędniej i strategicznie przekazuje rangę określonym stronom, które następnie łączą się ze sobą. Jest to połączenie topologii „szprychy i piasty” z topologią „siatki”, w której strona superużytkownika służy jako centrum do zaszczepiania siatki. Zrobiłem to, co prawda, w czasach, kiedy był to naprawdę problem. Ale nie trzeba było długo czekać na spamerów. Oczywiście w tym momencie zdemontowałem mój schemat linków. DUH! Nie jestem głupi.
Więc co zrobił Google? Wykorzystano informacje, które można łatwo zebrać. W tej chwili w historii rejestracja witryny była ograniczona. Rozwiązania sieciowe, na przykład, były jedynym miejscem, w którym można zarejestrować witryny .com, .org i .net. Również w tym czasie rejestracje nie były prywatne. Były publiczne. Znacznie łatwiej było tworzyć relacje (zwane klastrami w semantyce lub dziedzinami w nauce) między stronami, używając informacji rejestracyjnych, co dokładnie zrobiła Google. Dla każdej witryny w wyszukiwarce informacje rejestracyjne zostały zebrane i zapisane w specjalnej semantycznej bazie danych, która tworzyłaby relacje przy użyciu dowolnych i wszystkich informacji dostępnych w ramach rejestracji. Ponadto Google zaczął mapować adresy IP na witryny, hosty internetowe, firmy, ASN (numer AS) na podstawie rejestracji APNIC, lokalizacji GEO, w tym krajów i lokalizacji itp. Relacje między witrynami i sieciami były również częścią semantycznej bazy danych. Częścią tego, co było potrzebne, był sposób na ustanowienie zaufania do stron, a zatem początek TrustRank często jest całkowicie ignorowany w świecie SEO. Chociaż obecnie znacznie trudniej jest nawiązać te relacje, Google uznał, że warto zostać rejestratorem, aby ominąć rejestrację prywatną i dodać do narzędzia nowe narzędzia, w tym informacje znalezione na samych stronach. Nie zajmę się tym wszystkim, ale wystarczy powiedzieć, że Google może posunąć się do zidentyfikowania niepodpisanego dzieła autora przy użyciu niektórych z tych technik. Ale wiedz o tym. Witryny powiązane z innymi witrynami o niższej jakości lub w hostach lub sieciach o niższej jakości, cierpią pukanie do swojego TrustScore. Dotyczy to również elementów znalezionych w informacjach rejestracyjnych. Często Google może wykryć potencjalną stronę ze spamem wyłącznie na podstawie informacji rejestracyjnych, hosta lub sieci. To naprawdę działa.
Inną częścią tego procesu było przyjrzenie się wzorcom połączeń przy użyciu ustalonych map wzorców opartych na znanych technikach schematów połączeń. Ponadto przy użyciu sztucznej inteligencji i metod uczenia się można wykrywać nowe wzory, potwierdzać je i automatycznie aktualizować bazę danych wzorców.
Jest to coś, w czym Google trzyma ludzką rękę. Google wykorzystuje ludzi do sprawdzania jakości witryny w ramach systemów AI, które określają jakość witryn i znajdują nowe wzorce linków. Od czasu do czasu Google nawet zwracało się do użytkowników o pomoc w identyfikacji witryn o niskiej jakości i schematów łączenia z tego właśnie powodu. Wykorzystał te nowe informacje, aby nie tylko badać, celować i aktualizować wzorce łączy, ale także zaszczepić naukę sztucznej inteligencji w celu wykrycia innych istniejących schematów.
Co więc ma wspólnego z całą tą wiedzą?
Firma może i powinna mieć możliwość linkowania do swoich innych stron bez obawy o karę i może, o ile jest to w granicach, które przestrzega każdy rozważny i uczciwy webmaster. Również linki przychodzące, które podążają za tą samą mantrą, powinny być w porządku. Korzystając z tej ogromnej semantycznej bazy danych i bazy danych wzorców linków, Google wykonuje całkiem przyzwoitą robotę, identyfikując witryny, które łączą się ze sobą w sposób naturalny. Ale jest nowy problem.
Co nowego
Schematy łączenia stają się coraz bardziej wyrafinowane i złożone. Niektórzy z nas wiedzą o błędzie linku JC Penny sprzed kilku lat. To sprawiło, że Google stał się paranoikiem i był zajęty, ponieważ postanowił raz na zawsze zakończyć ten problem. Ale nie jest to łatwe zadanie, jak można sobie wyobrazić.
Istnieje również mnóstwo witryn utworzonych w celu zwiększenia ruchu związanego z wyszukiwaniem, które tworzą ogromne ilości linków do witryn. Znamy te strony; te witryny z wynikami SEO, które zdrapują Alexę i inne dane oraz prowadzą do oryginalnych witryn, o których mowa. Możemy dodawać witryny zawierające słowa kluczowe, witryny whois i tak dalej. Google postrzega je jako bardzo niską jakość z pewnymi wyjątkami, takimi jak domaintools.com i robtex.com. Ponadto oryginalny algorytm przekazywania rang był postrzegany jako motywator do poszukiwania nienaturalnych linków z witryn katalogowych, blogów, forów itp.
Chociaż niektóre witryny wygrały bitwy i linki do rankingu, Google słusznie zdecydowało, że preferowane są linki naturalne. W ramach tego Google zdyskontował linki przychodzące jako sygnał rankingowy. Zakładam, że krok pierwszy był tak prosty, jak dostosowanie limitów uprawnień. To, co było akceptowalnym linkiem całkowicie niezależnym od właściciela witryny utworzonym przez te śmieciowe strony, jest obecnie postrzegane jako bardzo realna część systemu rankingowego. W społeczności SEO zawsze było dyskutowane, że dobry stosunek dobrych linków do linków o niskiej wartości w porównaniu do innych stron był czymś, co można osiągnąć. Ale dzisiaj (czyli od marca 2015 r.) Za pomocą narzędzia do wypowiadania się wydaje się, że Google woli, aby te linki niskiej jakości nie występowały, i wywierać presję w dół, aby złagodzić te linki za pomocą tego narzędzia. Wydaje się, że chodzi o uporządkowanie indeksu linków. Na przykład topalternate.com i aolstalker.com mogą tworzyć setki i tysiące linków do dowolnej witryny. Dzięki narzędziu do rezygnacji Google dostrzega szansę, że webmasterzy powinni wykorzystać kontrolę nad tym, jak Google widzi link przychodzący. Podczas gdy z jednej strony linki o niskiej wartości nie są szkodliwe, Google woli, aby zniknęły.
Google woli naturalne linki.
Zagadka
Tworzenie linków przez webmastera staje się coraz trudniejsze. Podczas gdy SEO dyskutują w nieskończoność o wszystkich metodach tworzenia linków przychodzących, stało się to prawie niemożliwe i trwało to bardzo długo. Jak zauważyłeś, choć istnieją webmasterzy, do których można się zbliżyć, większość z nich jest zbyt zajęta budowaniem własnych treści i linków przychodzących. Ironiczne co? To stało się trochę szalone karmienia. Przestałem szukać linków przychodzących wiele lat temu, kiedy wysiłek spowodował tak mało linków. Przestałem też, gdy w niektórych patentach Google było jasne, że tego typu linki będą dalej badane.
Są jednak dobre wieści. Sortuj
Google myśli częściowo, że zaangażowanie jest królem wraz z treścią. Tworzenie szumu to wszystko szum. Media społecznościowe są postrzegane jako nowy system budowania linków i autorytetów. Google coraz bardziej szuka mediów społecznościowych, autorytetu i zaangażowania. Problem jest taki. Nie wszystkie witryny oraz rzeczywiście bardzo wartościowe i prawdziwie autorytatywne (pod względem treści) witryny są odpowiednie dla nowego paradygmatu mediów społecznościowych. Pomyśl na przykład o wszystkich badaniach napisanych przez profesorów, inżynierów i liderów myśli (w tym inżynierów Google)? Badania nie są zbyt ekscytujące, a profesor nie będzie prawdopodobnie angażował się w media społecznościowe w celu promowania treści dla mas, gdy wyraźnie dotyczy to segmentacji rynku.
Tym, co zastępuje linki przychodzące w oczach Googlesa, jest zaangażowanie społeczne. Chociaż w tym wysiłku jest dwoistość; z jednej strony Google preferuje zaangażowanie społeczne, z drugiej strony Google rabuje linki z Twittera, Facebooka itp., preferując linki z LinkedIn, Google+ i tak dalej, tylko po to, by ostatnio ponownie spojrzeć na Facebooka, gdzie dostęp jest ograniczony. Zawsze uważałem, że Twitter robi więcej na rzecz zaangażowania społecznego niż jakiekolwiek inne media społecznościowe, a jednak te linki są tymczasowe. ulotne i wciąż dyskontowane.
Google dokonał wielkiego skoku w tym kierunku myśli 17 czerwca 2015 r., Co niektórzy nazywają aktualizacją Aktualności / Trend. Chociaż niewiele wiadomo na temat tej aktualizacji, jedno jest całkowicie jasne. Witryny z trendami zajmują wyższą pozycję. Wynika to z faktu, że przy tak wielu zapytaniach opartych na trendach Google chciał upewnić się, że witryny te zajmują wysoką pozycję, aby odebrać połączenie. Jeśli więc twoja strona nie jest oparta na trendach, zobaczysz pukanie do swoich pozycji od 17 czerwca. To wskazówka, ludzie!
Gdzie nadal działają linki przychodzące.
Jednym słowem (głównie). Branding. Lub coś podobnego. Chociaż trudno jest zyskać popularność w brandingu witryny, która nie jest marką biznesową ani produktową, w końcu musisz stworzyć szum, podążanie za sygnałami brandingu naprawdę pomaga. W szczególności, wspomniane w treści, wymienione w odniesieniu do innej marki, wymienione jako użyteczny produkt itp. Przy tak wielu blogerach porusza się igła, mając wybitne treści, do których ludzie chcą w pełni sami linkować. Zastanów się, ile razy MOZ jest cytowany i powiązany? Uważamy tę stronę za super autorytet, ale tak się nie zaczęło. Gdy każdy artykuł został napisany i odkryty, powstały linki. Ponieważ coraz więcej linków jest tworzonych, a ludzie podążają za nimi, webmasterzy chętniej tworzą podobne linki. Pomyśl o tym w ten sposób. W internetowej grze SEO tak wielu ludzi chce wejść na rynek i zgromadzić fortunę dla siebie. W związku z tym większość nie jest oryginalnymi myślicielami i papuguje to samo ole 'cr @ p de jure w kółko. Wiele osób goni za nagłówkami SEO i prowadzi do stron z autorytetem w celu: po pierwsze, wykazania się swoimi umiejętnościami w społeczności; dwa, aby pokazać swoją wiedzę na ten temat; po trzecie, aby dodać swoje szczególne podejście do tematu, ustanawiając się tym samym jako przywódca myśli; i cztery, miejmy nadzieję, że zyskają autorytet w tym, z kim się łączą (ponieważ jest to również postrzegane jako czynnik w oczach Googlesa). Ale chociaż wiemy, że 99% tych witryn jest nadal śmieciami, strony te łatwo wyróżniają się na tle innych, które są oparte na faktach i przemyślane w swojej prezentacji, unikając trendów i zabraniając nieba, mogą mieć jakiś prawdziwy autorytet. Wygląda na to, że śmieciowi wygrywają.
Nie każdy rynek treści nadaje się do tego poziomu działalności. Jednak tam, gdzie ma to miejsce, nie ma wątpliwości, że media społecznościowe mogą wyświetlać Twoje treści przed tymi, którzy będą linkować do tych treści i tymi, którzy chcą wejść do gry. Kuszące dla starego faceta takiego jak ja, ale ból w dupie, jeśli nie znosisz bycia towarzyskim.
Tam, gdzie witryna skutecznie tworzy cenne linki przychodzące, są popularne, modne, zaangażowane społecznie, ludzie chcą linkować i promować swoją pracę. <rant>
O tak. Pomaga także powtórzyć to, co uchodzi za powszechną wiedzę społecznie liberalną, nawet jeśli jest to czysty byk. Żadnych wysokich brwi. Po prostu chwyć za wiszące nisko owoce i zaprezentuj je w ciekawy sposób z ładnymi zdjęciami (kolejny ranking Google). Kiedy już nad tym pracujemy, zrób film (jeszcze jeden czynnik). Śmiało, tańcz i zaśpiewaj własne teksty do już popularnej melodii. To naprawdę pomaga! Zróbmy homogenizację Internetu i wypełnijmy go niepotrzebnymi śmieciami? </rant>
(Boże, to była zabawa!)
Czarny kapelusz kontra biały kapelusz
Jeśli chodzi o Black Hat kontra White Hat, znasz różnicę. Schematy łączenia bez względu na to, jak małe są Black Hat, a naturalne i uczciwe linki to White Hat. To naprawdę jest takie proste. A Google postawił sobie za cel każdego, kto szuka przewagi, która jest nawet trochę podejrzana.
Zachęcamy do wysłania tweeta z odpowiedzią. ;-) (żartuję)