Pozycjonowanie stron WWW

A A A
03-07-2012 01:52:56
4383 Czytań

Termin "pozycjonowanie" pojawił się około 2002 r. Wcześniej funkcjonował anglojęzyczny "web positioning", który polegał na działaniach poprawiających pozycje strony internetowej w wynikach wyszukiwarek internetowych. Webmasterzy oraz właściciele stron od lat na wiele sposobów dążą do tego by ich serwisy znajdowały się na wysokich pozycjach . Początkowo nie było to trudne, gdyż wynik w wyszukiwarce opierał się na słowach kluczowych podanych w meta tagach w kodzie strony a ilość stron też była wielokrotnie mniejsza. Niemniej ze względu na łatwą manipulację słowami kluczowymi, które nadużywane przez webmasterów sprawiało że użytkownik był wabiony na stronę o innej zawartości niż wskazywały na to słowa kluczowe, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do zawartości jaką prezentowała strona www: znajdujących się w niej tekstów, linków, tagów.


Od czego zacząć, czyli optymalizacja kodu i funkcjonalność.

Osiągnięcie trwale wysokich wyników, musi mieć swoje podstawy w pracy programisty:

  • dobrze napisanej i z optymalizowanej strukturze kodu..
  • przejrzystości i dostępności do podstron
  • w unikatowej zawartości.

W tym momencie należy zwrócić uwagę na to iż zawartość merytoryczna strony bardzo często nie jest zależna od programisty który tworzy serwis na zlecenie firmy. W 90% przypadków teksty umieszczone w serwisie przekazuje programiście Klient, który często nie zdaje sobie sprawy z tego jak ważne są zawarte w nich słowa i frazy, które później będą (lub właśnie nie będą) działały na korzyść pozycjonowania. W tym właśnie momencie jeśli taka możliwość jest, osoba tworząca stronę (lub optymalizująca ją) powinna materiały przeredagować, nie umniejszając ich wartości merytorycznej. To jednak bardzo często jest trudne, gdyż Klient nie życzy sobie jakichkolwiek modyfikacji treści. Wtedy pozostają już zabiegi natury technicznej, czyli:

  • Czysta i poprawna struktura kodu. Kod strony który nie jest widoczny na pierwszy rzut oka dla człowieka, powinien poprawnie przechodzić walidację. Tagi i atrybuty używane do pisania strony powinny być obsługiwane przez zdefiniowany typ dokumentu. Co prawda bardzo często nie patrzy się na wyniki sprawdzenia poprzez walidator i niektórzy nie trzymają się ścisło wytycznych co do sposobu kodowania to jednak trzeba pamiętać, że krytyczne błędy będą tak samo źle odczytywane przez roboty indeksujące. Nie zamknięty tag (znacznik), nie zdefiniowany anchor, czy błędnie umieszczony arkusz stylów, będzie działał na robota indeksującego jak tytuł pracy magisterskiej z kilkoma błędami ortograficznymi. Po prostu recenzent odłoży na bok nie czytając dalej.
  • Lekkość. Kod strony powinien zawierać tylko minimum kodu. Jak to osiągnąć nie tracąc na funkcjonalności? Po pierwsze Kaskadowy Arkusz Stylów (ang. Cascading Style Sheets ; w skrócie CSS ). Zapisany w tym języku plik zawiera spis dyrektyw jak przeglądarka ma wyświetlać stronę. Za pomocą CSS ustala się nie tylko parametry (szerokość, wysokość) elementów strony, ale także tła danych elementów, czy reakcje na czynność użytkownika (zmiana koloru linka po najechaniu myszką). Druga sprawa to język javascript, który podobnie jak wspomniane wcześniej style, powinien znajdować się oddzielnych plikach nie zaśmiecając kodu wynikowej strony.
  • Słowa kluczowe. Choć już nie mające znaczenia jak niegdyś, poprawne należy dobrać słowa kluczowe w meta tagu keywords. Słowa kluczowe powinny wskazywać jednoznacznie na zawartość serwisu oraz pokrywać się z słowami/frazami użytymi w treści strony (artykułach, akapitach). Ważne by słowa kluczowe pisać w mianowniku l.p. Dodatkową formą umieszczania słów kluczowych są tagi. można je umieszczać w chmurach tagów, w stopce strony lub w artykułach. Dzięki nim w prosty sposób można wyszukać treść na stronie zawierającą dane frazy/słowa.
  • Odnośniki. Wszelkiego rodzaju linki powinny zawierać atrybuty title i alt. Dodatkowo warto zwrócić uwagę na fakt że lepszą "moc" mają linki tekstowe niż obrazkowe dlatego też lepszy efekt dla pozycjonowania da link określony w CSS w danym rozmiarem i nałożonym tłem obrazka niż obrazek umieszczony pomiędzy tagiem <.a>.
  • Nagłówki. Zawartość nagłówków jest istotnym czynnikiem całej tej układanki. Nagłówki dzielimy ze względu na ich moc na co wskazuje ich numeracja <.h1>, <.h2>, <.h3> . Teoretycznie każdy z nich ma swoje atrybuty jak rozmiar ale zawsze istnieje możliwość modyfikacji tych wartości przez wspomniany wcześniej arkusz stylów CSS. Niezależnie jednak od wyglądu jaki otrzyma czytający na ekranie monitora, roboty indeksujące czytają nagłówki nadając im odpowiednią ważność. Dlatego też w nagłówkach na ile to możliwe, umieszczać się powinno słowa i frazy pokrywające się ze słowami kluczowymi oraz najlepiej oddające zawartość podstrony. Niezależnie od tego czy umieścimy w formie nagłówka logotyp, czy tytuł artykułu.
  • Wytłuszczenie ważnej treści. Co prawda koliduje to z pierwszym podpunktem odnośnie lekkości i czystości kodu, to jednak wskazanie robotom ważnych elementów (fraz, słów) ma znaczenie. Z semantycznego punktu widzenia powinno się do tego używać tagu <.strong>, ponieważ w przeciwieństwie do <.b> nie tylko pogrubia dla czytelnika daną treść, ale i pokazuje robotom indeksującym że dany element jest ważny. Niemniej na ten temat zdania są podzielone i bardzo często spotyka się strony bez tego tagu a pogrubienie definiuje się w CSS.
  • Linki wewnętrzne. Linki wewnętrzne powinny pozwolić w łatwy sposób dostać się robotom indeksującym do wszystkich podstron serwisu. Pospolitym stwierdzeniem jest że robot powinien w maksymalnie trzech "ruchach" dostać się do najgłębszej podstrony. Przykładem mogą być artykuły do których umieszczony jest na stronie głównej link którym robot wchodzi do kategorii artykułów (1 ruch), następnie wchodzi do wybranej kategorii (2 ruch), by ostatecznie móc zindeksować każdy artykuł na danej podstronie (3 ruch).
  • Przyjazne linki. Powody używania przyjaznych linków są dwa. Po pierwsze aspekt wizualny dla czytającego. Po drugie szybsze indeksowanie przez roboty. Człowiek widząc w pasku adresu stronę w postaci http://adres.pl/article.php?id=1 nie wie co czyta, dopóki nie zagłębi się w treść artykułu. Podobnie robot indeksujący. Jeśli już uda mu się przedostać poprzez tak zbudowany link zawierający bardzo często trudne dla niego znaki jak "&", to nadal nie zbierze słów którymi mógłby zdefiniować daną podstronę. Dlatego tak istotne jest obecnie wykorzystanie mode_rewrite w celu stworzenia "ładnych linków" w postaci http://adres.pl/artykul-1-tytul.html.

Wybór firmy pozycjonującej

Powyższe czynności to już krok do sukcesu. W przypadku niepoprawnie zbudowanej strony nawet dobra firma pozycjonująca nic nie zdziała bez wprowadzania swoich własnych poprawek. Gdy jednak kod jest poprawny i zoptymalizowany pozostaje nam znalezienie firmy która przystąpi do kolejnego etapu - pozycjonowania. W tym momencie należy zwrócić na bardzo ważną sprawę. Źle dobrana firma pozycjonująca może naszej stronie nie tylko nie pomóc, ale i zaszkodzić. Wykorzystywanie bowiem przez niektóre tanie firmy zakazanych technik, w pierwszym momencie faktycznie może podnieść stronę w wynikach wyszukiwania, jednak takie działania szybko mogą doprowadzić do nałożenia filtru na naszą domenę przez wyszukiwarkę.

Do nieetycznych i zakazanych technik do których namawiają kiepskie firmy pozycjonujące (lub wdrażają je same jeśli mają dostęp do serwera Klienta) zaliczyć można:

  • Gromadzenie dużych ilości słów kluczowych.
  • Ukrywanie fraz przed czytającym a serwowanie robotom indeksującym (ustawianie niewidzialności frazom, umieszczanie słów w kolorze tła).
  • Serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User agent) specjalnie spreparowanej wersji strony.

Niemniej zakupując pozycjonowanie nie wiemy jakie inne techniki "czarnego SEO" na które Klient nie ma już wpływu, stosuje firma pozycjonująca. Zagrożenia jakie mogą pojawić się dla naszej strony to stosowanie:

  • SWL'a (System Wymiany Linków) co w krótkim czasie pozwala uzyskać dużą ilość linków zwrotnych do naszej strony.
  • Stosowanie xRumer'a i innych spam botów, które rejestrując się na forach, czy księgach gości umieszczają linki do pozycjonowanych w ten sposób stron.

Jakie zatem etyczne i bezpieczne sposoby pozostają firmie pozycjonującej? Należy pamiętać że pozycjonowanie polega w dużej mierze na umieszczaniu linków zwrotnych do pozycjonowanego serwisu. Niemniej nie powinno być to robione agresywnie w postaci spamu lub na tzw. farmach. Służą do tego bowiem katalogi stron lub formy reklamy. Jest to często proces czasochłonny i kosztowny ponieważ dobre katalogi często pobierają opłatę za dodanie strony szczególnie jeśli same posiadają wysoką pozycję w wyszukiwarkach. Do tego należy pamiętać że pozycjonowanie strony odnosi najlepsze efekty, gdy zawartość stron linkowanych ze sobą jest zbliżona oraz strona linkująca posiada wysoki PR (ang. Page Rank) Czemu tak się dzieje?

Ponieważ algorytmy wyszukiwarek analizują to na zasadzie: Skoro ta strona jest linkowana na tej "wysoko umieszczonej" stronie więc sama też musi być dobra. Dlatego kluczem do sukcesu jaki przynosi linkowanie jest duża ilość linków zwrotnych (ang. Back Links ; w skrócie BL), które firma pozycjonująca umieści na dobrych i renomowanych stronach o zbliżonej tematyce i zbliżonych słowach kluczowych.

Łukasz Medyński
Autor: Łukasz Medyński
Zajmuję się tworzeniem nowoczesnych i oryginalnych stron internetowych opartych o najnowsze rozwiązania i technologie, zgodnych z obowiązującymi standardami. Od 2010 roku rozwijam autorski System Zarządzania Treścią, który zbiera pozytywne opinie wśród naszych dotychczasowych Klientów.

Dodajesz opinię jako: Gość

Opinie (0), bądź pierwszy