50 powodów, przez które Twoja strona zasługuje na karę od Google

50 powodów, przez które Twoja strona zasługuje na karę od Google

SEO 4 komentarze do 50 powodów, przez które Twoja strona zasługuje na karę od Google

Google od początku istnienia przyświeca jeden cel: by dostarczyć swoim użytkownikom jak najdokładniejszych wyników wyszukiwania. Cel ten koncern realizuje poprzez stałe udoskonalanie swoich algorytmów wyszukiwania, dzięki którym tylko najlepsze strony zostają pokazane na tych pozycjach, na które naprawdę zasługują.

Choć z punktu widzenia zwykłego użytkownika brzmi to bardzo dobrze ? jest w końcu zaopatrywany w wartościową, odpowiadającą jego potrzebą treść ? dla nas, twórców stron i sklepów internetowych, wcale nie jest to tak kolorowe: stajemy się bowiem narażeni na różnego rodzaju kary, będące konsekwencjami znalezienia przez Google czegoś złego w naszych serwisach.

Czym tak właściwie są kary od Google?

Już od kilkunastu lat Google zmienia swoje algorytmy. Pierwsze zmiany dało się zaobserwować w grudniu 2000 roku, kiedy to do użycia został oddany specjalny pasek Google ? był to jednocześnie pierwszy raz, kiedy PageRank został publicznie pokazany w ?zjadliwej? i przyjaznej dla oka formie. Od tego czasu rozpoczęła się pogoń za poprawą jakości wyników wyszukiwania. Wraz z czasem Google starało się wyeliminować z nich bezwartościowe treści i pomóc tym lepszym wybić się na wyższe pozycje. To właśnie wtedy został wprowadzony system kar.

Pierwsze większe skutki jego wprowadzenia zostały zauważone w 2012 roku, kiedy to światek webmasterski ?zaatakował? niesławny Pingwin ? w trakcie jednej nocy uderzył w więcej niż jedną na dziesięć pozycji w wynikach wyszukania. Wiele ze stron, które zostały uznane za mało wartościowe zostało kompletnie wymazanych z wyników, zmuszając osoby pracujące nad ich optymalizacją do intensywnej pracy. Od tego czasu specjaliści od SEO zaczęli na bieżąco śledzić wszystko to, co Google robi wiedząc, że elastyczność pod tym względem okaże się kluczowa i starając się przygotować na kolejne aktualizacje algorytmów.

Rozpoznawanie kary

O działaniach ręcznych zostaniemy poinformowani na naszym profilu narzędzi dla webmasterów. Jeśli nie ma tam żadnej informacji o niezgodności naszej strony z wytycznymi Google istnieje szansa na karę nałożoną przez algorytm wyszukiwarki. Co wskazuje na otrzymanie takiej kary? Dostaliśmy ją gdy:

  • Nasza strona internetowa nie pojawia się w wynikach wyszukiwania po wpisaniu jej nazwy. To dość poważna sytuacja ? nawet gdy strona nie pojawia się pod jakimikolwiek innymi (unikalnymi) słowami kluczowymi, pod tym po prostu powinna się pokazywać.
  • Witryna pod frazami, pod którymi wcześniej występowała na pierwszej stronie wyników teraz pojawia się na dalszych stronach bez jakichkolwiek zmian z naszej strony.
  • PageRank naszej strony gwałtownie spadł, nawet do zera.
  • Cała strona nagle została usunięta z indeksu Google.
  • Zapytanie site:naszadomena.pl nie zwraca żadnych rezultatów.
  • Gdy już znajdziemy naszą stronę w wynikach wyszukiwania, zazwyczaj znajduje się w nich tylko jej podstrona.

Jeżeli jesteśmy świadkami któregokolwiek z powyższych sytuacji, możemy uznać, że zostaliśmy ukarani przez algorytm Google.

Dlaczego Google ukarało naszą stronę?

Poniżej zajdziemy listę najczęstszych przyczyn otrzymywania jakichkolwiek kar od Google.

  1. Kupowanie linków ? choć wielu użytkowników sądzi, że Google nie ma prawa wykrywać kupionych linków (i odróżniać je od tych ?naturalnych?), faktem jest, iż taka akcja jest próbą manipulowania PageRankiem, a w związku z tym może mieć wpływ na obniżkę pozycji naszej strony w wyszukiwarkach.
  2. Systemy wymiany linków ? to numer jeden na celowniku Google, lepiej się ich wystrzegać na swoich stronach.
  3. Zbyt częste wymienianie linków ? podczas gdy wymiana linków była niegdyś ?niewinną? taktyką promocji własnych witryn w wyszukiwarkach, jej nadużywanie doprowadziło do tego, iż została uznana za próbę manipulowania wynikami. Choć jedna czy dwie wymiany nie zaszkodzą, ich większa ilość może się wydać podejrzana.
  4. Duplicate content ? Jeżeli na naszej stronie treści danych podstron są powtarzane na wielu różnych podstronach lub też w innych serwisach internetowych, treści te stają się mniej użyteczne z punktu widzenia Google, a strony, na których się znajdują mogą zostać ukarane.
  5. Nadużywanie tagów H1 ? pewne jest, iż odpowiednia struktura treści jest w stanie wspomóc SEO ? H1 pozwala dać Google do zrozumienia, o czym tak naprawdę jest strona. Nadużywanie tego tagu jest obecnie uznawane za próbę podbicia danych słów kluczowych w Google.
  6. Wewnętrzne błędy 404 ? Google chce mieć pewność, iż dbamy o treści znajdujące się na naszej stronie i na bieżąco monitorujemy wszelkie błędy pojawiające się we wnętrzu. Pojawianie się błędów 404 na stronie w czasie jej przeglądania może sugerować, że użytkownicy nie dostają czegoś, czego szukają.
  7. Linki ze stron w innym języku ? choć może się to wydawać nie do końca fair (dużo z nas ma klientów z zagranicy, którzy chcą nas polecić na swoich stronach). Duże ilości linków z przypadkowych stron mogą być poważnym problemem.
  8. Naszpikowane słowami kluczowymi treści ? istnieje mnóstwo porad i dziwnych zasad związanych z natężeniem słów kluczowych w tekstach. Prawdą jest, iż żadna z nich nie została udowodniona, a bardzo duże natężenie słów kluczowych w tekście może być dla Google sygnałem, że coś jest nie tak. Gdy robot wykryje, że strona zawiera nienaturalną liczbę słów kluczowych, może ją ukarać.
  9. Linki w stopce ? nienaturalne umieszczanie linków do obcych stron w stopce może doprowadzić do kary.
  10. Brakujące dane w mapie strony ? Google korzysta z wykonanych w XML map by przetworzyć strukturę strony i dowiedzieć się, jak została złożona w całość. Należy się w związku z tym upewnić, że mapa strony jest dostępna i jest zawsze aktualna.
  11. Ukryte linki ? wszystkie znajdujące się na naszej stronie linki powinny być użyteczne i widoczne dla jej użytkowników. Wszystko, co jest ukryte może zostać uznane za podejrzane. Nigdy nie twórzmy linków o tym samym kolorze, co tło strony lub przycisku, na jakim się znajdują. Nawet wtedy, gdy mamy dobre zamiary.
  12. Nieaktywne linki zewnętrzne ? jeżeli nie dbamy o to, by każdy z przedstawianych przez nas linków zewnętrznych był aktualny, Google może uznać, że nie dbamy o potrzeby naszych użytkowników i nie zwracamy uwagi na to, że są zasypywani błędami 404.
  13. Ukryte treści ? jedna z mniej etycznych strategii pozycjonowania zakłada ukrywanie przepełnionych słowami kluczowymi treści. Według Google to postępowanie karygodne.
  14. Nadużywanie anchorów ? Wraz z aktualizacją algorytmu (Pingwinem) nadużywanie tekstu anchorowego jest bardzo niepolecane, gdyż wskazuje na jego nienaturalność. Nieczęsto w końcu osoby chcące umieścić odsyłacz do naszej strony publikują go ze słowem kluczowym, które my akurat pozycjonujemy.
  15. Nie korzystanie z hreflangu ? ?hreflang? został stworzony po to, by wskazać Google na celowe umieszczenie duplicate contentu ? na przykład dla różnych wersji językowych strony. Kwestią sporną jest, czy korzystanie z niego jest w stanie pomóc, ale pewne jest, iż tak naprawdę nie ma możliwości, by ono nam zaszkodziło.
  16. Niedziałanie strony ? gdy nasza strona internetowa nie działa lub działa bardzo wolno, irytuje się zarówno webmaster, odwiedzający ją, jak i robot wyszukiwarki internetowej. Jeżeli Google nie może znaleźć naszej strony, łatwiej dla niego będzie wyrzucić ją z indeksu niż odsyłać odwiedzających ją na niedziałający serwis.
  17. Domeny ze słowami kluczowymi ? podczas gdy nazwy domen nie są same w sobie ryzykowne, te zawierające w sobie słowa kluczowe mogą się takie okazać. Weźmy na to, iż linkujemy do naszej strony z anchorem będącym adresem do naszej strony Internetowej lub sklepu. Google może uznać to za manipulację ? jeżeli już mamy domenę ze słowem kluczowym, musimy wyposażyć ją w odpowiedniej jakości treść ? tylko wtedy Google nie pomyśli, że próbujemy nabrać ludzi na to, by kliknęli w ten link.
  18. Wypożyczanie linków ? wielu ekspertów uważa, iż wypożyczanie linków nie jest równoznaczne z ich kupowaniem ? tak naprawdę jednak te dwie rzeczy można uznać za równoznaczne.
  19. Używanie sieci blogowych ? Google uważa, iż wielkie rodzajów sieci może wskazywać na potencjalną manipulację wynikami wyszukiwania ? zwłaszcza, gdy postawiona na nich strona zawiera masę bezwartościowych linków przychodzących.
  20. Linki referencyjne ? Google nie jest uprzedzone co do linków afilacyjnych, jednak ich duża liczba jest w stanie zwrócić jego uwagę ? w negatywnym tego wyrażenia znaczeniu. Mimo, iż linki referencyjne można ukryć poprzez przekierowania, Google jest w stanie to wykryć ? lepiej więc na tym za bardzo nie polegać.
  21. Linki typu site-wide ? wszyscy musimy w jakiś sposób łączyć ze sobą strony, aczkolwiek Google wciąż stara się odnaleźć wzory nienaturalnego linkowania tego typu. Klasycznym przykładem na takowe jest umieszczanie notki o swoich prawach autorskich w stopce, na przykład przy udostępnianiu darmowego szablonu. Nie dodajmy do tego typu lnków atrybutu ?nofollow? ? po prostu je usuńmy!
  22. Nadużywanie meta keywords ? meta keywords nie są uwzględniane przez Google w ustalaniu rankingu, lecz lepiej jest upewnić się, że nie ma się ich więcej niż pięć na stronę.
  23. Powolne ładowanie strony ? jeżeli nasza strona ładuje się bardzo wolno, odwiedzający ją będą się łatwo frustrować. Na szybkość ładowania ma wpływ bardzo wiele różnych czynników, więc ciężko doradzić, w jaki sposób zaradzić problemom z nią związanym.
  24. Treści z mieszarki ? jeżeli treści, które kupujemy są zbyt tanie, a ich cena znacznie odstaje od tej rynkowej, możemy zobaczyć coś podejrzanego ? najprawdopodobniej pochodzą z mieszarki, czyli specjalnej aplikacji mieszającej słowa artykułu i tworzącej kilkadziesiąt jego wersji. Korzystanie z tego typu tekstów jest w stanie przynieść wiele złego nie tylko dla pozycji naszej strony w wyszukiwarkach, ale i wrażeń, jakie płyną z przeglądania naszej witryny lub sklepu.
  25. Spam komentarzowy ? mimo, iż większość systemów komentowania ma funkcję automatycznej detekcji spamu, część komentarzy nadal przejdzie zabezpieczenia. Dokładnie śledźmy to, co dzieje się u nas w komentarzach, by nie nagromadziło się w nich dużo spamu. Jeżeli będzie to częsty proceder, wprowadźmy moderację lub kompletnie zlikwidujmy możliwość komentowania.
  26. Black-hatowe porady ? jeżeli na naszej stronie piszemy na temat manipulowania rankingami wyszukiwarek black-hatowymi (niezgodnymi z wytycznymi i normami) sposobami, możemy się spodziewać szybkiej kary.
  27. Shackowana strona ? jeżeli nasza strona lub sklep padnie ofiarą hackerów, działajmy szybko ? Google bowiem szybko postara się o usunięcie jej z wyników wyszukiwania. Najlepiej zapobiegajmy hackowaniu, a gdy już do niego dojdzie, szybko przywróćmy stronę z backupu.
  28. Zbyt szybkie budowanie linków ? naturalną sprawą jest to, iż po stworzeniu strony chcemy, aby znalazła się szybko jak najwyżej w wyszukiwarce. Nie przesadzajmy jednak ze zdobywanej linków. Dużo linków wskazujących na to samo miejsce sprawia wrażenia automatyki. Nie podbijamy sztucznie profilu linkowego: wprowadzajmy stopniowe zmiany powoli.
  29. Spam-reporty ? Google opublikowało na swoich łamach specjalny formularz do zgłaszania spamu. Nasza strona mogła być przez ten formularz zgłoszona ? czy to złośliwie, czy to w wyniku zobaczenia przez użytkowników treści, które się na niej znajdują.
  30. Linki z forum ? każdy z nas kiedyś używał sygnaturki na forach do promowania własnej strony internetowej. Czasem tego typu linków znajduje się po prostu zbyt dużo. Jeżeli już taki zdobywamy, zadbajmy, by znajdował się na dobrym, tematycznym forum. Rozważmy także użycie atrybutu ?no-follow?.
  31. Ukrywanie sponsorów/partnerów ? posiadanie sponsora to nic złego. Nie próbujmy zatem ukryć odsyłaczy do jego stron. Podążajmy jednak za zasadami, nadając im atrybut ?nofollow?.
  32. Problemy z robots.txt ? plik robots.txt powinien być wykorzystywany do blokowania robotów ? nie należy go jednak nadużywać. Korzystać z niego powinno się tylko wtedy, gdy niektóre roboty stanowią dla nas poważny problem, na przykład zabierając dużo transferu.
  33. Linki do podejrzanych stron ? nigdy nie łączmy naszej strony z witrynami o podejrzanym zabarwieniu, wątpliwych w kwestii legalności czy etniczności. Powinno się unikać linkowania do stron porno, hackerskich oraz opisujących malware (lub zawierających go). Postarajmy się również usunąć linki do stron, które wcześniej były karane ? jeżeli oczywiście będziemy w stanie się o tym dowiedzieć.
  34. Landing pages ? wiele osób korzysta z tworzenia wielu mniejszych, naszpikowanych łowami kluczowymi stron internetowych mających jedno zastosowanie: wbić się szybko na określone słowo kluczowe i kierować na stronę docelową. Google uważa to za bardzo złą praktykę.
  35. Przesadzanie z optymalizacją ? Google nie lubi widzieć na stronach zbyt wiele dobrego. Zbytnia optymalizacja oznacza zazwyczaj, że nieco przesadziliśmy, zbyt obsesyjnie podchodząc do tematu i pokonując w tej kwestii całą konkurencję.
  36. Advertorials ? sprzedaż treści na stronie (wraz z linkami w niej zawartymi) była kontrowersją jeszcze zanim wprowadzone zostały aktualizacje algorytmów (Panda, Pingwin). Technika ta polega na kupowania artykułów na stronach wraz z możliwością publikacji linku w ich treści. Istnieją dowody na to, iż jest to karalne, a przez to ? jest też niepolecane.
  37. Zbyt wiele linków wychodzących ? zawieranie zbyt dużej liczby linków prowadzących do innych stron może wskazywać na proceder związany z ich wymianą o celach manipulacyjnych.
  38. Przekierowania ? jeżeli zostaliśmy ukarani, przekierowanie poszkodowanej strony może przenieść tę karę na inną domenę. Co więcej, efekty tej kary wcale nie znikną, gdy usunie się przekierowanie. By być bezpiecznym lepiej po prosty tego nie robić.
  39. Kody błędów ? poza błędem 404 Google nie lubi obserwować również kilku innych rodzajów błędów. 302 (świadczący o tymczasowym przeniesieniu strony) nie jest idealny ? lepiej zastosować przekierowanie. Lepiej radzić sobie z błędami, niż później żałować, że się tego nie zrobiło.
  40. Podwójne tagi meta ? niektóre z narzędzi umożliwiających blogowanie (wliczając w to CMSy) sprzyja tworzeniu podwójnych tagów meta. Podczas gdy same w sobie nie są w stanie doprowadzić do kary, mogą być oznaką duplicate contentu ? z tego właśnie względu powinno się je zlikwidować.
  41. Złośliwe backlinki ? Jeżeli mamy wielkiego pecha, nasz konkurent może próbować poradzić sobie z nami przez umieszczenie linku do naszej strony na stronach ze złośliwym oprogramowaniem. Jest to prosty sposób, by to nasza strona została ukarana.
  42. Słowa kluczowe ?na celowniku? ? Google posiada własną liczbę słów kluczowych, które najczęściej pojawiają się w spamie. ?Tanie kredyty? jest jednym z tych słów. Najlepiej zatem uważać na stosowanie tego typu słów kluczowych.
  43. Przemycanie linków ? nie próbujmy być sprytni publikując linki w skryptach. Google doskonale rodzi sobie w analizowaniu skryptów i wybieraniu linków, które nie powinny się w nich znajdować.
  44. Słabe jakościowo strony mobilne ? Google zazwyczaj jest w stanie wykryć poprawnie połączenie wersji mobilnej strony z jej ?normalną? wersją. Jeżeli jednak popełnimy błąd przy tworzeniu tej pierwszej, takie połączenie może być problemem. Zadbajmy w szczególności o określenie prawidłowego user-agenta.
  45. Zbyt mało linków zewnętrznych ? Google lubi otrzymywać informacje do treści, do których się odnosimy. Jeżeli nie dzielimy się nimi, możemy wskazywać, iż próbujemy przyciągnąć ruch do siebie w nienaturalny sposób.
  46. Zła reputacja strony ? przez przypadek mogliśmy zakupić stronę z nie do końca dobrą przeszłością, a to jest w stanie przysporzyć nam nie lada problemów. Niestety tutaj rozwiązaniem, które się sprawdzi, a jednocześnie nie będzie kosztować nas masę pieniędzy będzie po prostu zakup domeny.
  47. Kradzież treści ? nawet jeśli sami nie kradniemy treści, ktoś inny może to zrobić. Przysparza to nie lada problemów, gdyż usunięcie tego typu treści może się wiązać z koniecznością wysłania wielu maili do ich autorów, a nawet wszczęciem postępowania sądowego.
  48. Zbyt wiele reklam ? reklamy są w porządku tak długo, gdy na stronie pełnią rolę drugorzędną. Nie mogą nigdy dominować na witrynie, zasłaniając tekst czy w znacznym stopniu odciągając od niego uwagę.
  49. Używanie farm treści i linków ? już od czasu Pandy korzystanie z farm linków i treści (czyli miejsc nastawiających się tylko na wyszukiwarki, niezawierających żadnych wartościowych treści) było bardzo słabym sposobem na pozycjonowanie. Zamiast korzystać z tego typu treści zainwestujemy w coś innego.
  50. Uwaga na szybkie cuda ? jeżeli ktoś twierdzi, że zna magiczny sposób na błyskawiczne wyniki ? niekoniecznie jest specjalistą. Jedynym sposobem zarówno na to, jak i na osiągnięcie wysokich pozycji w wyszukiwarce jest długofalowa praca.

Jak poradzić sobie z karą?

Gdy już wykryliśmy najbardziej prawdopodobną przyczynę dostania kary, jesteśmy dopiero w połowie drogi do jej wyeliminowania ? jeżeli w ogóle będzie ono możliwe. Każdy problem wymaga naturalnie nieco innego rozwiązania, ale należy pamiętać przede wszystkim o tym, by:

  • Nie panikować ? nawet o wiele większe od naszej strony padają ofiarami kar.
  • Usunąć wszystkie możliwe przyczyny kary ? jeśli jest to problem z naszą stroną zapoznajmy się z wytycznymi wyszukiwarek i zastosujmy się do nich. Jeśli problemem są linki, przeprowadźmy gruntowną analizę i pozbądźmy się tych które nasz szkodzą.
  • Zgłosić ponowne rozpatrzenie ? jeżeli oczywiście kara była nałożona manualnie.
  • Użyć narzędzia disavow ? przede wszystkim w sytuacjach, w których danych linków nie jesteśmy w stanie się pozbyć ręcznie. Google nie będzie zwracało uwagi na linki na podstronach, które zgłosimy przez owe narzędzie.
  • Przeczekać ? zwłaszcza w przypadku kar algorytmicznych. Czasem przyswojenie zmian oraz zgłoszeń disavow zajmuje Google nieco czasu, podobnie, jak konieczność ponownego zaindeksowania naszej strony.

Czasem zdarza się tak, iż nie jesteśmy w stanie nic zrobić, by uratować domenę. W większości przypadków jednak wystarczy nieco wysiłku i ciężkiej pracy, by móc przywrócić ją do dawnej świetności.

 

Artykuł został przygotowany przez zespół Netss. 

Netss

4 Comments

  1. Wojciech 6 grudnia 2013 at 14:48

    Dobry wpis, naprawdę mało jest stron z zebraną wiedzą. Dzięki

  2. krzych 6 grudnia 2013 at 16:50

    Gratuluję tłumaczenia pojęcia „duplicate content” :) Podwójne treści to byłyby, gdyby w tym samym tekście się powtarzały. Tu chodzi o powielone treści czyli łopatoligicznie zdupliowane czyli krótko mówiąc „zerżnięte” od kogoś innego.

  3. wrona.it 6 grudnia 2013 at 19:42

    Fajnie zebrane informacje – rzeczowo i na temat. Niemniej odpowiedzmy sobie na pytanie – dlaczego topy nadal okupują strony linkowane nienaturalnie i pytanie nr 2 : co z tą jakością? To jest mit – wystarczy zerknać na topy po każdym updacie. Strony firmowe lecą w otchłań ich miejsce zajmują np zaspamowane profile / wpisy z for / zapleczówki. Celem nie jest jakość, tylko przychody z Adwords…

    Dzisiaj czasy są takie, że nie ma co przyzwyczajać się do domeny, tylko zdobywać ruch ze stron satelit (landing page), przekierowań i innych, czarnych metod.

    Śmieszą mnie opinie o brandzie, brandem można nazwać coca colę czy allegro, ale nie stronę lokalnej pralni czy pizzeri – filtry lecą na frazy komercyjne, nie brandowe (nazwe firmy), no chyba że w celu pokazówki, tak jak to było z jakimś tam bankiem jakiś czas temu.

  4. Sławek z Netteria.NET 18 listopada 2016 at 15:07

    Świetny artykuł. Mam jednak jedną uwagę a w zasadzie wątpliwość. Chodzi o hreflang. Wyszedłem z założenia, że jeśli moja oferta na jednej z stron jest kierowana do odbiorcy polskiego to nawet mimo, że i tak mam tylko jedną wersję językową, to oznaczę, że to wersja polska. I chyba przedobrzyłem ponieważ dla google.com nawet jak wpiszę nazwę firmy to wszystko się pokazuje, konta na portalach społecznościowych, itd. tylko nie adres strony:) A przecież Polacy też korzystają z adresu google.com a nie tylko google.pl. Czyli chyba jednak istnieje sytuacja w której może zaszkodzić ten atrybut.

Leave a comment

Back to Top