Negatywne skutki "czarnego SEO"

A A A
14-07-2012 15:39:36
6535 Czytań

Na temat zagadnień związanych z SEO (ang. Search Engine Optimization) i pozycjonowaniem stron, mogą Państwo poczytać w poprzednim artykule. Można tam przeczytać czym jest pozycjonowanie stron www, czym jest linkowanie, jak powinna wyglądać optymalizacja kodu stron www. Poruszona tam tez została sprawa doboru firmy która zajmuje się linkowaniem i pozycjonowaniem. Z pozoru prosty, wybór może niestety w późniejszym czasie odbić się negatywnie zarówno, w wynikach wyszukiwarek, jak i na portfelu Klienta zlecającego pozycjonowanie firmie "krzak". Wpisując w google frazę "pozycjonowanie stron", lub "pozycjonowanie", oczom internauty ukażą się niezliczone ilości firm oferujących zagadnienie tutaj poruszone. Niemniej podobnie jak w każdej innej branży, także i w tym przypadku możemy trafić na firmę oferującą niski, bądź też bardzo marny poziom usług. Czemu się tak dzieje?

Przede wszystkim koszty i związane z nimi oszczędności. Wszystkie akcje związane z promocją witryny wymagają nakładów finansowych: wykup powierzchni reklamowej na linki czy bannery, zakup kredytów w renomowanych katalogach stron, czy też płatna reklama w boksach reklamowych. Wszystkie wymienione sposoby będą generowały koszty, które ponosi właśnie firma pozycjonująca jeśli stosuje etyczne metody pozycjonowania.

Pozycjonowanie - zagrożenia

Technikom "białego SEO" poświęciłem uwagę w poprzednim artykule, dlatego teraz skupimy się na zagrożeniach (filtrach) , które powodowane mogą być przez zakazane (nieetyczne) metody SEO - zwane "czarnym SEO" (Black Hat SEO), które podzielić można na wdrażane po stronie serwisu www (ang.Onsite SEO ; przez właściciela, projektanta, lub "speca od pozycjonowania") i na wykonywane na zewnątrz (Ofsite SEO ; przez firmę pozycjonującą: spam, SWL, boty). Jeśli chodzi o te pierwsze to szanujący się programista www zadba o to żeby oddawany Klientowi serwis nie łamał tych niepisanych zasad i był zgodny z zasadami netykiety (ang. net - sieć ; fr. etiquette - zachowania się ). Niemniej drugiej kwestii czyli działań poza naszym serwisem nie jesteśmy w stanie kontrolować już w takim stopniu. Dlatego jeśli podczas rozmowy z przedstawicielem takiej firmy usłyszymy że w ciągu tygodnia nasz serwis wskoczy do pierwszej 10-tki w wyszukiwarce to warto się zastanowić czy w ogóle kontynuować dialog. Wiadomo przecież że pozycjonowanie to proces czasochłonny, wymagający regularnych nakładów pracy i kosztowny (czasowo i finansowo). W tym miejscu należałoby zadać sobie więc dwa pytania:

  • Czy firma która za pozycjonowanie bierze 100 zł miesięcznie, jest w stanie robić to w sposób legalny i etyczny?
  • Jakie będą konsekwencje nieetycznych działać pozycjonujących?

Jeśli chodzi o pytanie pierwsze to odpowiedź zależna jest od wielu czynników - miedzy innymi od tego, czy firma pozycjonująca jest w posiadaniu wysoko ustawionych serwisów i katalogów o PR > 5 (ang. Page Rank), przy użyciu których pozycjonuje strony Klientów. Jeśli tak, to jest to jak najbardziej wykonalne. Niemniej bardzo często zdarza się że katalogi takie to zwykłe farmy linków o niskim ratingu i PR równym 0, lub 1. A to, w połączeniu z innymi metodami agresywnej wymiany linków, używaniem spam botów i identycznym opisem pozycjonującym w każdym katalogu, może okazać się zgubne dla pozycjonowanego serwisu w przypadku używania poniższych technik

  • Handel linkami
  • Automatyczne generowanie treści
  • Upychanie i/lub ukrywanie słów kluczowych
  • Płatne likowanie katalogów
  • IP cloaking (treść zależna od tego czy czytający to człowiek czy bot)
  • Spamowanie linkami (fora, księgi gości, komentarze, blogi)
  • Używanie botów (np xRumer)
  • Przekierowania
  • SWL - linkowanie w stopce lub boksach wielu stron pozycjonowanych

Jakie więc mogą być konsekwencje powyższych działań? Najpopularniejszą metodą jakie stosują wyszukiwarki internetowe są filtry. Filtr nie będzie nałożony jeśli strona jest pozycjonowana zgodnie z założeniami Google. Niemniej jeśli nie stosujemy się do tych wytycznych mamy się czego obawiać gdyż filtry w wielu przypadkach nakładane są "z automatu" samoczynnie przez algorytm wyszukiwarki. Analizując każdą spośród 25 miliardów stron w indeksie, Google samo decyduje czy strona łamie zasady czy nie. Stosowane jest to zarówno przy stronach agresywnie linkujących "polecane strony" jak i przy farmach linków czy SWL. Niemniej nawet jeśli nasza strona nie narusza zasad w taki sposób żeby filtr został nałożony automatycznie, to jest jeszcze okazja żeby zrobił to moderator ręcznie (hipoteza), gdy strona podczas indeksowania wskazywać będzie na jakieś niezbyt pewne zagrożenie. Wtedy treść strony zanalizować może człowiek sam decydując czy jest powód nałożenia filtra.

Rodzaje filtrów kar i blokad

  • Jednym z popularniejszych filtrów które są nakładane na stronę lub jej fragmenty (na linki w stopce gdy ich ilość wskazuje na wymianę linkami a zawartość różni się merytorycznie) to nadanie atrybutu nofollow. Strony linkowane w ten sposób odnotowują spadek ponieważ dla wyszukiwarki taki BL staje się niewidoczny a co za tym idzie spada pozycja linkowanej strony w google.
  • "Ban", który jest najrzadziej spotykaną karą jednak najbardziej bolesną dla właściciela witryny. Ban nakłada się z reguły za działania techniczne po stronie strony. Nie ma na niego wpływ ilość i jakoś linków, a budowa strony: ukryte treści, sztuczne subdomeny, przekierowania. Od tego typu kary można się odwołać po ręcznej korekcie strony i wykluczeniu przyczyn bana. Czas rozpatrzenia zażalenia jest jednak na tyle długi że nieobecność w wyszukiwarce będzie odczuwalne dla właściciela strony a i tak nie gwarantuje sukcesu.
  • Sandbox czyli tak zwana piaskownica, jest nie tylko karą na daną chwilę ale i utrapieniem dla kolejnych firm pozycjonujących. Nadanie tego filtru sprawia że strona jest niewidoczna w wyszukiwarce na daną frazę/słowo/frazy. Kara jest najczęściej przyznawana stronom świeżo pozycjonowanym, które są silnie podbijane pod jedno słowo kluczowe. Aby uniknąć kary, należy nie przekraczać 50-70% linków z jednym anchor textem i umiarkowanie, rozsądnie linkować (rozkładać w czasie ilość linków). Ten typ kary trwa nawet kilka miesięcy a wychodzenie z filtra nie jest łatwe, przede wszystkim należy konsekwentnie linkować tak by stopniowo zmniejszając udział filtrowanej frazy.
  • Duplicate Content jest to filtr przeciwdziałający indeksowaniu przez wyszukiwarkę zdublowanej treści. Tyczy się to zarówno podstron i linków w obrębie jednego serwisu jak i treści na zewnątrz. W pierwszym przypadku winna może być budowa strony. Przykładem takim jest CMS Wordpress w którym wyświetlić można zawartość np z poziomu strony głównej linkiem - www.adres.pl/tytul-artykulu#more a kiedy indziej linkiem z menu - www.adres.pl/tytulartykulu. Dwa linki, jedna treść. Choć nad nałożeniem w tym przypadku filtra można dywagować to jednak powielenie tej samej streści na dwóch różnych stronach nie pozostawia wątpliwości. Kiedy to się dzieje? Wariant pierwszy to właściciel strony "kradnie" tekst z innej witryny. Wariant drugi to ktoś kradnie zawartość z naszej. Wariant trzeci to treść kojarzona z naszym linkiem w katalogach, gdzie opis w setkach katalogów, jest identyczna. I nie niezależnie czy padliśmy ofiarą kradzieży my, czy to niedopatrzenie firmy pozycjonującej idącej na łatwiznę dając ten sam opis na zasadzie ctr+v, strona taka można zostać usunięta z indeksu.

Jak sprawdzić czy na naszą stronię nałożony jest filtr, lub jej to grozi? Przede wszystkim można ocenić to dzięki statystykom - nagły spadek wyświetleń pod daną frazą (narzędzia dla webmasterów Google) i/lub spadek odwiedzin. Po drugie można zbadać przyrost lub spadek linków zwrotnych do naszej strony. Użyć można do tego darmowego narzędzia jakim jest Majestic SEO, który pokaże nam jak w czasie rozkładał się przydział BL do naszej domeny. Pamiętajmy że zarówno my możemy analizować tak akcje firmy pozycjonującej, jak i przyszły pozycjoner sprawdzić może jakie działania były już u nas robione (czy mieliśmy firmę która coś popsuła). Nagłe wzrosty i spadki, oznaczajać mogą bowiem agresywne linkowanie botami, które zostało np usuwane przez moderatorów for i blogów jak i nałożenie filtra na anchory lub SWL

Słowniczek Pojęć


  • Black Hat SEO - Czarne SEO - metody etycznie nie tolerowane przy pozycjonowaniu.
  • White hat SEO - Białe SEO - techniki akceptowane i dopuszczalne w pozycjonowaniu.
  • Anchor linku - element budowy odnośnika tekstowego najczęściej opisujący zawartość strony docelowej. Wyszukiwarka interpretuje taki odnośnik porównując adres strony ze słowem w anchorze co poprawia pozycje strony pod to słowo kluczowe.
Łukasz Medyński
Autor: Łukasz Medyński
Zajmuję się tworzeniem nowoczesnych i oryginalnych stron internetowych opartych o najnowsze rozwiązania i technologie, zgodnych z obowiązującymi standardami. Od 2010 roku rozwijam autorski System Zarządzania Treścią, który zbiera pozytywne opinie wśród naszych dotychczasowych Klientów.

Dodajesz opinię jako: Gość

Opinie (0), bądź pierwszy

Przykładowe Realizacje