Optymalizacja

Dobra droga, czyli jak przygotować się do pozycjonowania serwisu?

Przygotowując stronę www do zajęcia wysokiej pozycji, należy zadbać o właściwą strukturę wszystkich komponentów. Audyt pomoże w zapoznaniu się ze stanem faktycznym. Obnaży słabe punkty i pozwoli zaplanować przyszłe działania mające na celu naprawę mankamentów.

A. Parametry i dane podstawowe
a. 1. Miejscem, z którego użytkownicy powinni rozpoczynać przeglądanie serwisu, jest strona główna. Dlatego jej notowania powinny być najwyższe, jeśli chodzi o wyniki wyszukiwania na słowa ogólne. Bardziej szczegółowe zapytania zawierające frazy „długiego ogona” powinny kierować ruch do zakamarków serwisu związanych z faktami lub przedmiotami w ofercie.
a. 2. Parametr „site” pozwoli się zorientować, ile odsłon witryny znajduje się w zasobach przeglądarki. Na liście wyszukiwania pokażą się wszystkie zindeksowane podstrony.
a. 3. Wersja mobilna staje się coraz ważniejszym narzędziem w walce o wysokie pozycje, a po wejściu nowego indeksu promującego strony obsługujące urządzenia mobilne, fakt posiadania tej wersji będzie oznaczał być albo nie być. Nowy indeks „mobile first” da fory serwisom reagującym na szerokość ekranu urządzenia obsługiwanego.

B. Sekcja „head”.
b. 1. Dwa tagi w sekcji head szablonu strony przekładają się bezpośrednio na to, jak pokazuje ją przeglądarka. Dlatego optymalizacja tytułów i opisu jest tak ważnym zadaniem. Wpis z tagu „title” wyświetlany jest w pierwszej linii rekordu. Trzecia linia to opis z tagu „description”. Jest dość pojemny i można w nim napisać coś chwytliwego i zachęcającego, co sprowokuje użytkowników do odwiedzenia strony, ale to, czy tam pozostaną, zależeć już będzie od treści.

C. Zawartość serwisu oraz key words.
Właśnie treść ma wpływ na utrzymanie zainteresowania klientów i ich powroty. Skuteczne pozycjonowanie musi obejmować kroki podjęte w kierunku uatrakcyjnienia zawartości, a przy tym zadbać o występowanie i właściwą strukturę słów kluczowych.
c. 1. Strona główna jest wizytówką witryny, dlatego powinna wprowadzać w temat w jak najszerszym zakresie, tak by myślący obrazami widz zobaczył klarowny przekaz zgodny z jego dotychczasowymi doświadczeniami. Zatem tekst witający użytkowników powinien być zawarty, co najmniej w jednym akapicie o pojemności dwieście do trzystu znaków. Czym dalej użytkownik będzie się oddalał od strony głównej, szczegółowość materii powinna rosnąć i gość raczony odpowiedziami na bardziej zawiłe pytania.
c. 2. W arsenale HTML znajduje się zestaw nagłówków (h1 – h6), które są ważne dla robotów wyszukiwarek. Staramy się zachować hierarchię, czyli kaskadową kolejność. Nagłówki nie muszą być wykorzystane wszystkie. Ważne jest, tylko by stosować je malejąco.
c. 3. Nie przesadzajmy z reklamą. Wskazane w tej materii wyczucie trzeba stosować jak złoty środek i lek na wszystko. Wiadomo, że internet stoi na reklamie i wiele rzeczy dzięki reklamie jest dostępne za darmo, jednak wszystko ma swoje granice.
c. 4. Słowa kluczowe i frazy „long tail” najlepiej weryfikować w wyszukiwarce. Jej sugestie są pełne przykładów wyszukiwań, które przeprowadzali internauci. Dodatkowo dobrze jest zweryfikować popularność słów, używając do tego narzędzia od Google, czyli AdWords.
c. 5. Unikamy jak ognia duplikowania treści. Teksty bezwarunkowo muszą być oryginalne. Roboty nie mają problemów z namierzeniem duplikatów przeniesionych za pomocą metody, kopiuj, wklej. Coraz lepiej radzą sobie też z gramatyką i stylem wypowiedzi.

D. Indeksacja w powiązaniu z dostępnością.
Optymalizacja stron internetowych jest poplecznikiem algorytmu wyszukiwania i wspiera roboty w ich pracy. Upłynnia też porozumieniu klienta z serwerem.
d. 1. Plik robot. txt ma być dostępny dla programów indeksujących. Z niego dowiadują się, co mogą, a czego nie mogą robić w serwisie. Jeśli go nie ma, algorytm ma ścieżkę decyzyjną na takie okazje i sam podejmuje działania. Wtedy może dojść do indeksacji stron, które lepiej, żeby nie były odwiedzane przez roboty.
d. 2. Często zdarzają się błędy w komunikacji po stronie serwera, a także u klienta. Należy przewidzieć takie ewentualności i stworzyć dla nich stosowne przekierowania. Błędy mają skróty od 300 do 310 oraz 400 do 451.
d. 3. Jeśli planujemy rozbudowę serwisu, zamiast komunikatu „strona w budowie” lepiej zamieścić informację na stronie głównej o zakresie i czasie restrukturyzacji, a plik wyjąć okresowo z indeksacji.
d. 4. Mapa serwisu pomaga robotom dokonywać indeksację. Jak każda mapa powinna być ułatwieniem. Można skorzystać z automatycznego narzędzia z zasobów Google do tworzenia sitemap.

E. Wersja dla urządzeń mobilnych.
Pozycjonowanie i optymalizacja pod wpływem już wspomnianego indeksu pierwszeństwa dla wersji mobilnych zmieni się znacznie. Nowy parametr będzie stawiać na strony obsługujące smartfony.
e. 1. Zmiana struktury szablonu HTML, dostosowująca go do reakcji na rodzaj urządzenia nie jest dziełem karkołomnym. Choć wymaga korekty w arkuszach stylów. Jednak wykonana prawidłowo pozwoli na szybką reakcję kodu źródłowego.

F. System linków wewnętrznych i zewnętrznych.
Optymalizacja i pozycjonowanie nie może pominąć komunikacji w obrębie serwisu i korytarzy teleportacyjnych, jakimi są linki wychodzące, a w szczególności te, które prowadzą do strony z zewnątrz.
f. 1. Linki przychodzące powinny pochodzić z serwisów w logiczny sposób powiązanych tematycznie z treścią linkowanej strony. Unikać należy „farm linków”. Są przypadkowe i łatwo przeoczyć czarną owcę.
f. 2. Wewnętrzna komunikacja powinna być klarowna. A informacja dostępna najwyżej w dwóch lub trzech skokach, a linki do pustych stron nie są polecane.