Sprawdzasz linki prowadzące do Twojej strony. Widzisz kilka cennych witryn branży, kilka bezwartościowych spamerskich stron oraz sporo takich, o których nie wiesz co myśleć. Czy jest to powód do zmartwień?

W tym artykule omówimy jak możemy się chronić przed szkodliwymi linkami prowadzącymi do naszej strony oraz jak używać Disavow Tool.

Chroni nas algorytm Google'a

Lat temu kilka linki ze szkodliwych stron były bardzo drażliwym tematem. Google tresowało webmasterów w linkowaniu za pomocą kija i marchewki. Dobre łącza skutkowały wzbijaniem się w wynikach, natomiast strony z tymi słabymi (tzn. wychodzącymi ze stron, o których Google nie miał zbyt dobrego zdania) dostawały po głowie kijem i spadały w dół. Niektórzy szybko się zorientowali, że ten kij można było skierować w kogoś innego, na przykład w konkurencję, nasyłając na nich linkowy spam - i tak nawet strony cieszące się zaufaniem Google'a mogły zostać poważnie skrzywdzone.

W 2016 poważnie się to zmieniło. Jeden z pracowników Google'a, Gary Illyes powiedział na facebooku, że teraz złe linki będą zwyczajnie pomijane. Poniżej rozmowa przełożona na polski o włączeniu Pingwina 4,0 do głównego algorytmu.

alt

Gary Illyes: Tradycyjnie algorytmy webspamowe degradowały całe serwisy. Z tym [uaktualnieniem] udało nam się zrobić tak, że spam jest dewaluowany, a nie powoduje degradacji ORAZ jest wszystko działa bardziej precyzyjnie ORAZ wszystko dzieje się w czasie rzeczywistym. Gdy to ujrzy już światło dzienne, to jestem święcie przekonany, że ludzie się z tego ucieszą, z czego ja się z kolei cieszę.

Barry Schwartz: Możesz wyjaśnić dewaluować vs degradować?

(...)

Gary Illyes: Degradowanie to zmiana rankingu strony. Dewaluacja to bardziej 'o, patrz, ta strona jest ubabrana w śmieciach. Upewnijmy się, że nie wpłyną one na jej ranking.

Barry Schwartz: Dziękuję. Czyli teraz nie trzeba wyrzekać się [disavow] linków pod pingwina. Wy i tak je dewaluujecie, więc nie ma po co robić tego ręcznie.

Gary Illyes: Konkretnie pod pingwina to już jest mniej powodów, prawda, ale jeśli widzisz śmieci, możesz pomóc nam pomóc Tobie i użyć go [Disavow Tool]. Działania manualne dalej są na swoim miejscu, więc jeśli ktoś regularnie próbuje spamować, zespół od działań manualnych może zastosować ostrzejsze zaradcze wobec takiej strony.

Tyle teoria ponad rok temu. Co wykazał zeszły rok? Praktyka pokazuje, że nowy algorytm poprawnie identyfikuje złośliwe linki i nie bierze ich pod uwagę, o ile więc

  • pozyskałeś kilka wartościowych linków
  • napełniasz stronę oryginalnymi wpisami
  • nie robisz nic sprzecznego z polityką Google

to nie masz się czego obawiać, nawet jeśli w stronę celują setki niechcianych łączy.

Warto jednak pamiętać, że żaden algorytm nie jest doskonały. Wciąż znajduje się pewna szara strefa stron, z których hiperłącza mogą wpłynąć na relacje z Googlem - przykładowo najpierw raptownie podbić pozycję, a potem ściągnąć kłopoty, z karą ręczną włącznie. Na szczęście możemy załatać tę dziurę.

Możemy chronić się sami z Disavow Tool

Disavow Tool to sposób na ręczne wyrzeczenie się odpowiedzialności za niechciane linki uderzające w stronę. Polega na wysłaniu pliku .txt z domenami, które robią nam problem. Po jakimś czasie łącza prowadzące do nas z tych stron przestaną wpływać na nasz ranking. Przy czym korzystanie z niego jest nieco niebezpieczne. Google support radzi:

alt

Kluczowym sformułowaniem jest "i masz pewność, że powodują one problemy". Pewność, że coś jest nie tak, mamy przy karach ręcznych oraz nagłych spadkach rankingu, których nie sposób wyjaśnić uczciwymi działaniami konkurencji, albo okazjonalnymi skrętami algorytmów.

Rzeczone narzędzie powinno być używane z respektem, jak ostry nóż, który można wbić sobie w oko. Google zaleca, by przed jego użyciem skontaktować się z właścicielem niechcianej strony i poprosić go o usunięcie linków. Czy jednak zrobimy to pod presją czasu - pozostaje zależne już tylko od nas.

Dlaczego trzeba być ostrożnym? Gdyż niechcąco denuncjując dobrą stronę pozbawimy się jej wpływu, a na odmianę losu trzeba czekać długie tygodnie. Możliwe też, że Google w jakiś sposób korzysta z tych danych do poprawiania algorytmu i chce mieć pewność, że lądują tam tylko najgorsze śmieci.