Akademia Ekonomiczna w Krakowie
Wydział Zarządzania
Katedra Informatyki
Pozycjonowanie w wyszukiwarkach internetowych - projektowanie i promocja serwisów WWW
Praca magisterska napisana pod kierunkiem naukowym
prof. dr hab.
Spis treści:
Wstęp - Dlaczego pozycjonowanie w wyszukiwarkach jest istotne
Pozycjonowanie (SEO - Search Engine Optimization) - polega na zbudowaniu strony (optymalizacji pod kątem wyszukiwarek) w taki sposób, aby dla najbardziej popularnych słów kluczowych związanych z tematyką strony, umieścić ją wśród pierwszych wyników wyświetlanych przez wyszukiwarki.
Pozycjonowanie strony internetowej jest jej najlepszą a zarazem najtańszą reklamą - nie musimy wydawać ogromnych pieniędzy na kampanie reklamowe. To klienci dotrą do naszej strony szukając oferty poprzez wyszukiwarki. Wysokie pozycje w wyszukiwarkach są bardzo ważne również z tego względu na ogromną popularność wyszukiwarek - praktycznie każdy szukając produktu lub usługi korzysta z wyszukiwarek.
Promocja strony w Internecie jest o tyle ważna, że firma może mieć bardzo atrakcyjną stronę i konkurencyjną ofertę jednak, jeśli w wynikach wyszukiwania pojawi się na dalekim miejscu - nikt jej nie znajdzie. Użytkownicy szukający np. firmy czy produktu przejrzą zapewne tylko pierwszą (lub ewentualnie 2 kolejne) stronę wyników w wyszukiwarce.
Pozycjonowanie dotyczy słów kluczowych, które będą wpisane w wyszukiwarce.
Celem niniejszej pracy jest przedstawienie metod tworzenia witryn przyjaznych wyszukiwarkom oraz optymalizacji już istniejących. Główny nacisk położony będzie na przedstawienie technik pozycjonowania.
Praca dotyczy zarówno serwisów statycznych jak i dynamicznych. Przedstawia uniwersalne techniki pozycjonowania dla wszystkich wyszukiwarek oraz techniki przydatne w pozycjonowaniu w wyszukiwarce Google, gdyż w pewnym sensie pod kątem tej wyszukiwarki realizowane są projekty pozycjonowania w praktyce.
Techniki marketingowe stosowane w Internecie
Rynek reklamy Internetowej
Dostęp do Internetu na świecie
W roku 2005 dostępu do Internetu posiadało około 15,7 % ludzkości, czyli ponad miliard osób. Najwięcej internautów jest w Azji - ponad 364,2 milionów. W Europie liderami są państwa skandynawskie - przykładowo Szwecja i Finlandia - w tych państwach z Internetu korzysta odpowiednio 68 i 70% populacji. Oprócz wymienionych powyżej krajów w Europie najwięcej internautów pochodzi z Niemiec - 48,7 milionów. Kolejne miejsca zajmują Brytyjczycy (37,8 milionów), Włosi (28,8), Francuzi (26,2). Polacy z 10,6 milionami internautów zajmują 7 miejsce.
Tabela 1. Dostęp do Internetu na świecie
Region/Państwo |
Liczba internautów (mln) |
Procent populacji |
Wzrost liczby internautów (2000-2005) |
Afryka |
22,7 |
2,5% |
403% |
Azja |
364,2 |
9,9% |
218% |
Europa |
290,1 |
35,9% |
176% |
Środkowy Wschód |
18,2 |
9,6% |
454% |
Ameryka Północna |
225,8 |
68,1% |
108% |
Ameryka Południowa |
79,0 |
14,3% |
337% |
Australia i Oceania |
17,6 |
52,9% |
132% |
Świat |
1018,0 |
15,7% |
182% |
Węgry |
3,0 |
30,3% |
326% |
Czechy |
4,8 |
47,0% |
380% |
Słowacja |
2,2 |
42,3% |
250% |
Polska |
10,6 |
27,8% |
278% |
Irlandia |
2 |
50,7% |
162% |
Finlandia |
3,2 |
62,5% |
70% |
Szwecja |
6,8 |
74,9% |
68% |
Holandia |
10,8 |
65,9% |
177% |
Hiszpania |
17,1 |
38,7% |
218% |
Francja |
26,2 |
43,0% |
208% |
Włochy |
28,8 |
48,8% |
118% |
Wlk. Brytania |
37,8 |
62,9% |
145% |
Niemcy |
48,7 |
59,0% |
103% |
Unia Europejska |
230,0 |
49,8% |
147% |
Źródło: Internet World Stats
Analiza powyższych danych pokazuje, iż liczba internautów systematycznie rośnie. Na świecie w latach 2000 - 2005 liczba ta wzrosła o około 182%. Nic nie zapowiada, alby ta tendencja miała ulec zmianie. Prognozy dla Polski są optymistyczne - w drugiej dekadzie liczba internautów powinna przekroczyć 50% mieszkańców kraju.
Na szczególną uwagę zasługuje znaczny wzrost użytkowników Internetu w krajach rozwijających się takich jak Polska, Węgry, Czechy czy Słowacja.
Mimo przygaśnięcia bumu Internetowego, który miał miejsce w drugiej połowie lat 90-tych w Stanach Zjednoczonych i który odbił się szerokim echem w Europie, Internet i usługi z nim związane rozwijają się w znakomitym tempie. Przykładem może być tu chociażby duża liczba sklepów internetowych, portali czy wortali, które powstały w ostatnich latach.
Wzrost liczby internautów sprzyja rozwojowi rynku reklamy internetowej - reklamodawcy będą w stanie dotrzeć do większej ilości osób.
Dostęp do Internetu w Polsce
Na wstępie krótkiej analizy rynku reklamy internetowej warto przedstawić, jakie są możliwości dotarcia do użytkowników. Obecnie (dane za rok 2005) odsetek Polaków korzystających z Internetu wynosi około 28%. Odsetek ten systematycznie rośnie, jednak dynamika przyrostu nowych użytkowników nieznacznie spadła w ostatnich latach. Jest to spowodowane znacznym nasyceniem rynku usług internetowych w dużych miastach. W miastach powyżej 500000 mieszkańców dostęp do Internetu posiada 38,5 % mieszkańców, podobnie w miastach powyżej 200000 - odsetek wynosi 34,9% (dane: Megapanel PBI/Gemius)
Rysunek 1. Odsetek Polaków z dostępem do Internetu
Źródło: SMG/KRC Net Track
Prognoza Międzynarodowej Unii Telekomunikacyjnej (ITU) zakłada, iż uzyskanie dostępu do Internetu przez 50% Polaków będzie możliwe najwcześniej w roku 2010. Jednak spadająca dynamika dostępu sprawia, że ta prognoza może nie być możliwa do zrealizowania. Prognoza została sporządzona w 2003 roku i zakładała na rok 2005 współczynnik dostępu do Internetu na poziomie 30% (faktyczne dane to 28%).
Rysunek 2. Prognoza - odsetek osób mających dostęp do Internetu w Polsce
Źródło: ITU
Wydatki na reklamę online w Polsce
Rynek reklamy internetowej w Polsce rozwija się niezwykłe dynamicznie - dynamika w roku 2004 wyniosła aż 74%. W roku 2005 co prawda spadła ona do poziomu 58,2%, lecz jest to również znakomity wynik, gdyż wydatki na reklamę wyniosły 140 milionów złotych. IAB (Interactive Advertising Bureau) szacuje, iż przez kolejne 2 lata dynamika utrzyma się na poziomie z 2005 roku, a wydatki na reklamę osiągną poziom blisko 300 milionów złotych w roku 2007.
Rysunek 3. Wydatki gotówkowe na reklamę internetową w mln złotych (bez barterów)
Źródło: IAB Polska (* - dane szacowane)
Internet jest obecnie najszybciej rozwijającym się medium reklamowym. W roku 2005 tylko Outdoor oraz Internet rozwijały się szybciej niż średnia rynku, która wyniosła 13,5%. Szacunki IAB Polska mówią, że w ciągu najbliższych 3 lat wydatki na reklamę online mogą osiągnąć poziom 7%.
Tabela 2. Dynamika wzrostu wydatków na reklamę
|
2003 |
2004 |
2005 |
Zmiana 04/05 |
Telewizja |
51,3% |
49,9% |
49,2% |
- 0,7 |
Magazyny |
18,0% |
16,2% |
15,7% |
- 0,5 |
Dzienniki |
13,5% |
14,6% |
14.4% |
- 0,2 |
Outdoor |
8,2% |
8,5% |
9,4% |
+ 0,9 |
Radio |
6,6% |
7,8% |
7,6% |
- 0,2 |
Inernet |
1,3% |
2,0% |
2,7% |
+ 0,7 |
Kino |
0,9% |
1,0% |
1,0% |
0,0 |
Źródło: Starlink
W 2005 roku wszyscy główni udziałowcy rynku reklamowego w Polsce zanotowali wzrost dynamiki przychodów. Reklama internetowa pozostawiła inne media daleko w tyle - jej dynamika wyniosła blisko 60%, kolejne miejsce zajął Outdoor (reklama zewnętrzna) z dynamiką nieznacznie powyżej 26,1%.
Rysunek 4. Dynamika wzrostu rynku reklamowego
Źródło: Starlink
Na podstawie powyższych danych możemy prognozować dalszy dynamiczny wzrost reklamy online. Doświadczenia innych krajów europejskich pokazują, iż dynamika ta może osłabnąć dopiero po osiągnięciu poziomu 5% udziału w wydatkach na reklamę ogółem.
Wydatki na reklamę online na świecie
Światowe wydatki na reklamę internetową wynoszą obecnie około 4,6% wydatków reklamowych. Jest to kolejny argument potwierdzający tezę wzrostu wydatków na tą formę reklamy w Polsce.
Rysunek 5. Wydatki na reklamę online na świecie - udział w wydatkach na media w 2005 r.
Źródło: Zenith Optimedia
W roku 2008 wydatki na reklamę internetową mogą wzrosnąć ponad dwukrotnie w porównaniu do roku 2004 i wynieść blisko 30 miliardów dolarów.
Tabela 3. Światowe wydatki na reklamę według klas mediów w latach 2004 - 2008 (w mln USD)
|
2004 |
2005 |
2006* |
2007* |
2008* |
Telewizja |
141 510 |
146 827 |
155 659 |
164 768 |
176 069 |
Dzienniki |
113 729 |
118 107 |
122 559 |
127 058 |
131 724 |
Magazyny |
52 227 |
52 739 |
55 069 |
57 802 |
60 569 |
Radio |
32 714 |
33 631 |
34 941 |
36 422 |
38 134 |
Outdoor |
21 892 |
23 231 |
24 916 |
26 948 |
29 289 |
Internet |
14 093 |
18 147 |
22 433 |
26 406 |
29 902 |
Kino |
1 517 |
1 656 |
1 794 |
1 934 |
2 094 |
Źródło: Zenith Optimedia (* - prognoza)
Reklamodawcy w Polsce
W roku 2005 największy udział w reklamie online utrzymała branża finansowa, nieznaczny spadek zanotowała branża telekomunikacyjna. Wzrost w branży finansowej związany jest głównie z rozwojem e-commerce i usług finansowych w sieci. Wzrost w branży transportowej związany był kampaniami reklamowymi tanich linii lotniczych. W znacznym stopniu wzrosły wydatki w branży FMCG (Fast Moving Consumer Goods - Dóbr szybko zbywalnych), najwięksi reklamodawcy jak np. P&G czy Unilever znacznie rozbudowali swoje kampanie reklamowe w ciągu ostatnich lat.
Wzrost wydatków reklamowych w Internecie spowodowany w dużej mierze wzrostem liczby reklamodawców. Liczba firm reklamujących się w Internecie w roku 2005 wzrosła aż o 77%. Na ten wzrost składają się głównie małe i średnie przedsiębiorstwa.
IAB szacuje, że wydatki na reklamę znacznie wzrosną w sektorach spożywczym oraz usług turystycznych.
Tabela 4. Wiodące branże reklamowe w polskim Internecie
|
2003 |
2004 |
2005 |
Finanse |
28% |
27% |
26% |
FMCG |
5% |
15% |
19% |
Telekomunikacja |
29% |
20% |
19% |
Transport |
14% |
12% |
18% |
Technologia |
8% |
6% |
5% |
Pozostałe |
16% |
20% |
13% |
Źródło: IAB Polska
Opinie o korzyściach wynikających z inwestowania w reklamę online
Internet uzupełnia i poszerza możliwości, jakie dają tradycyjne media (95%)
Bardziej precyzyjne dotarcie do określonych grup docelowych (84%)
Internet zapewnie wyższy zwrot z nakładów na reklamę (75%)
Nowe formy pozwalają na podniesienie efektywności przekazu reklamowego (62%)
(Źródło: eMarketer.com, AAF, n=121; klienci=22; agencje=48; media=23; badacze=28)
Głównymi korzyściami działań marketingowych w Internecie są:
Pozyskanie nowych klientów,
Utrzymanie dotychczasowych,
Zapewnienie „widoczności w sieci”, czyli rozreklamowanie strony WWW, czyli poniekąd oferty firmy,
Zbudowanie odpowiedniego wizerunku firmy.
Cechą charakterystyczną reklamy internetowej jest możliwość stosunkowo precyzyjnego dotarcia do grupy docelowej, dlatego jest ona znacznie lepiej odbierana niż jakakolwiek inna forma reklamy.
Rodzaje form reklamowych w Internecie
Początkowo formy reklamowe, przypominały reklamy prasowe - to użytkownik decydował czy skupić wzrok na reklamie - np. na bannerze. Następnie pojawiły się formy typu „pull” - związane to było z powstaniem nowych technologii (np. technologii Flash). Zmuszają one internautów do chwilowej przerwy i oglądnięcia reklamy pojawiającej się na ekranie na pierwszym planie.
Obecnie istnieje wiele form reklamowych, najpopularniejsze z nich przedstawione zostaną poniżej.
Formy bannerowe - są to prostokątne reklamy graficzne umieszczane w konkretnym miejscu strony WWW. W grupie tej można wyróżnić:
Banner i button to jedne z najstarszych form reklamowych stosowanych w Internecie. Mimo to nadal są bardzo chętnie wykorzystywane. Wymiary bannera zostały zaproponowane przez Internet Advetising Bureau (IAB) oraz Coalition for Advertising Supported Information and Entertainment (CASIE):
Pełnowymiarowy (468x60 pikseli),
Pełnowymiarowy z pionowym paskiem nawigacyjnym (392x72 piksele),
Półwymiarowy (234x60 pikseli),
Pionowy (120x240 pikseli),
Kwadratowy przycisk (125x125 pikseli),
Przycisk typu 1 (120x90 pikseli),
Przycisk typu 2 (120x60 pikseli),
Przycisk mikro (88x31 pikseli).
Billboard - następca bannera. Standardowy wymiar (wg IAB) to 728x98 pikseli. Umieszczany jest głównie na górze strony.
Skyscraper (ang. wieżowiec) - jest to reklama pionowa, zwykle umieszczana na lewym lub prawym krańcu witryny. Najczęściej spotykany rozmiar to 120x600 pikseli lub 160x600 pkseli (wide skyscrapper). Zaletą tej formy jest większa powierzchnia reklamowa, nietypowy układ oraz podwyższona ekspozycja treści.
Rectangle - reklama śródtekstowa, otacza ją treść witryny. Najczęstsze rozmiary to: 180x150, 300x250, 336x280 pikseli. Rectangle często jest postrzegany jako treść witryny, a nie jako reklama.
Bannery powinny szybko się wczytywać, ich rozmiar powinien mieścić się w granicach 10 do 15 kB. Badania skuteczności bannerów wskazują, że współczynnik click-through (stosunek wejść na stronę do kliknięć bannera) wynosi około 0,5 - 2% i ciągle spada. Zatem celem reklamy bannerowej staje się głównie oddziaływanie na świadomość użytkowników.
Wniosek nasuwa się więc sam. Bannery stosujemy obecnie do prowadzenia kampanii promocyjnych mających na celu wzrost świadomości marki lub produktu. Jeśli firma chce cokolwiek sprzedać, musi odwołać się do reklamy tekstowej.
Reklamy typu „pop” - pojawiają się w osobnym oknie przeglądarki, podczas wizyty użytkownika na witrynie internetowej. Dzielimy je na:
Pop-up - okno otwierające się nad oknem przeglądarki, zwykle kwadratowe o rozmiarze 250x250 pikseli. Jest to jedna z najbardziej irytujących form, często domyślnie blokowana w najnowszych przeglądarkach,
Pop-under - okno otwierające się pod oknem przeglądarki. Zwykle ma większą powierzchnię niż pop-up - do 800x600 pikseli,
Interstitial - trwająca kilka sekund pełnoekranowa animacja pojawiająca się po załadowaniu strony.
Reklamy na warstwie - pojawia się bezpośrednio na stronie, w osobnej, nałożonej warstwie. Mimo, że pojawia się bez otwierania dodatkowych okien, postrzegana jest jako inwazyjna - dlatego powinna być stosowana niezbyt często. Zwykle są to reklamy wykonane w technologii flash. Rodzaje reklam w warstwie:
Brandmark (shaped pop-up) - jest to reklama graficzna, niekoniecznie prostokątna, ukazująca się nad oknem przeglądarki (w przeciwieństwie do reklamy typu pop-up, nie znajduje się w osobnym oknie) lecz w osobnej warstwie,
Top layer - to animacja ukazywana na przezroczystej warstwie, nałożonej na stronę. Przydatna w kampaniach brandingowych. Ta forma reklamy daje niezwykle duże możliwości kreacyjne,
Expand - reklama podobna do bannerowej, z tą różnicą, że po najechaniu myszka reklama „rozwija się”, zwiększając swoją powierzchnię. Drugim rodzajem tej reklamy jest reklama „zwijana” - początkowo pojawia się jako rozwinięta, a po kilku sekundach ekspozycji powraca do formy zwiniętej. Umożliwia łatwiejszą (i bardziej efektowną) prezentację bardziej złożonych produktów i usług,
Scroll - reklama pojawiająca się w określonym miejscu na stronie, nawet podczas przewijania strony w górę lub w dół w przeglądarce. Posiada zazwyczaj znacznik zamykania (x), którego kliknięcie unieruchamia reklamę.
Reklamy „wysyłane” użytkownikom:
E-mailing - Są to e-maile zawierające treści reklamowe wysyłane są do użytkowników (którzy wyrazili na to zgodę - dlatego nie ma tu mowy o spamie) kont pocztowych. Jest to stosunkowo efektywna metoda dotarcia do internautów, z racji tego, iż sami wybierają oni tematykę z jakiej chcą otrzymywać reklamy i wiadomości,
Newsletter - jest to reklama zawarta w treści wiadomości email. Dociera na skrzynki e-mail użytkowników serwisu, którzy wyrazili chęć otrzymywania go (dokonali subskrypcji). Odbiorcy dokonujący subskrypcji są zainteresowani daną tematyką, dlatego newsletter może być uznawany za efektywną i przyswajalną formę reklamy.
Pozycjonowanie w wyszukiwarce - (SEO - Search Engine Positioning) polega na zbudowaniu strony (optymalizacji pod kątem wyszukiwarek) w taki sposób, aby dla najbardziej popularnych słów kluczowych związanych z tematyką strony, umieścić ją wśród pierwszych wyników wyświetlanych przez wyszukiwarki. Jest to reklama tekstowa, opis i link do serwisu znajdzie się na stronie wyników wyszukiwarki. Pozycjonowanie to przykład reklamy typu „pull” - dociera ona tylko do osób zainteresowanych daną tematyką. W Polsce jest wykorzystywane na wielokrotnie mniejszą skalę niż na świecie.
Reklama kontekstowa w wyszukiwarce - związana z pozycjonowaniem. Jest to system promocji konkretnych np. produktów. Przykładem takiej reklamy są „boksy reklamowe”. Link do strony z krótkim opisem produktu pojawia się w specjalnie wyróżnionym miejscu po wpisaniu do wyszukiwarki przez internautę danego słowa kluczowego. Lista słów kluczowych ustalana jest przez klienta, który tworzy i zarządza reklamą.
Akcje sponsoringowe - obejmują nietypowe działania marketingowe w Internecie - np. artykuły sponsorowane, prezentacje logo, konkursy, łączenie wielu form reklamowych. Jest to bardzo dynamicznie rozwijająca się kategoria.
Reklama w serwisach branżowych - polega na zarejestrowaniu firmy w serwisie branżowym(wortalu). Serwis pozwala firmom zaprezentować własną ofertę w zakresie produktów i usług (aplikacji, szkoleń i innych) dla wybranych kategorii danej branży. Ma ona na celu porządkowanie informacji z branży oraz ułatwianie kontaktów handlowych. Serwisy branżowe umożliwiają dwa warianty uczestnictwa, na przykładzie serwisów xtech.pl są to:
wpis bezpłatny - który pozwala na stworzenie wizytówki teleadresowej firmy i określenie jej profilu działalności.
wpis płatny - obejmujący udział w katalogu branżowym dostawców. Wpis ten posiada kilka wariantów - w zależności od potrzeb zainteresowanej firmy. Obejmuje on zapytania ofertowe, wpis do katalogu branżowego, katalogu produktów, szkoleń, aplikacji i innych..
Dodatkowo istnieje możliwość dalszej reklamy na stronach serwisu jako np. partner serwisu, firma tygodnia, produkt tygodnia, pole tygodnia itp. Są to reklamy m.in. w postaci buttonów i bannerów oraz w newsletterze.
Zaletą tego typu serwisów jest fakt, iż są one specjalistyczne oraz skierowane zarówno do firm z branży jak i do ich klientów. Bardzo skuteczny jest również mechanizm zapytań ofertowych umożliwiający klientom dotarcie do wielu firm poprzez wypełnienie jednego formularza.
Ogłoszenia - tekstowe ogłoszenia, często opatrzone grafiką umieszczane w Internetowych serwisach ogłoszeniowych (np. gratka.pl, trader.pl, aaaby.pl). Obecnie mamy do czynienia z migracją ogłoszeń z prasy do sieci. IAB szacuje, że w styczniu 2007 roku liczba użytkowników w serwisach ogłoszeniowych wyniesie 3 miliony.
Udział form reklamowych w Internecie
W roku 2005 istotny wzrost udziału wydatków na reklamę zanotowała reklama toplayer oraz reklama w wyszukiwarkach. Tylko w ciągu roku był to wzrost rzędu 5%. Na szczególną uwagę zasługuje ta druga, gdyż jest jednocześnie tanią i skuteczną formą reklamy. Systematycznie spada udział bannerów oraz e-mailingu. Reklamy typu pop-up i pop-under były źle postrzegane przez internautów, dlatego zostały prawie całkowicie zarzucone.
Rysunek 6. Formy reklamowe w Internecie
Źródło: IAB Polska
Mechanizm działania wyszukiwarek i katalogów. Analiza popularności na polskim rynku.
Wprowadzenie do usług wyszukiwania
Usługi wyszukiwawcze możemy podzielić na dwie grupy: wyszukiwarki i katalogi. Ważne jest tutaj rozróżnienie tych pojęć ponieważ pozycjonowanie w katalogach odbywa się odmiennych zasadach niż pozycjonowanie w wyszukiwarkach. Podstawową różnicą jest fakt, iż wyszukiwarka wykorzystuje specjalne programy - roboty internetowe - tworzące bazę stron. Natomiast w przypadku katalogu baza ta tworzona jest przez ludzi - redaktorów.
Często mylone są te pojęcia - przykładowo serwis Yahoo! Często określany jest jako wyszukiwarka. Klikając przycisk „Serach” (Wyszukaj) nie korzystamy jak wydawać by się mogło z wyszukiwarki, lecz z katalogu.
Serwisy wyszukujące wykorzystują często po połączenie wyszukiwarki z katalogiem. W takich przypadkach klasyfikacja opiera się na tym jakie, źródło jest pierwszorzędne. Jeżeli serwis pobiera większość danych z katalogu, a wyszukiwarka jest źródłem uzupełniającym to serwis klasyfikowany jest jako katalog. Przykładem jest tutaj serwis MSN Serach.
Mechanizm działania wyszukiwarek - informacje ogólne
Wyszukiwarki tworzą indeks stron internetowych na podstawie informacji z robotów internetowych, które cały czas odwiedzają nowe i aktualizują już zaindeksowane strony. Każda wyszukiwarka posiada swojego robota. Określa on ranking stron dla odnalezionych tam słowach kluczowych bazując na skomplikowanych algorytmach (są tajemnicą każdej firmy i zmieniają się stosunkowo często - gdyby np. Google ujawnił w jaki sposób tworzy ranking stron to każdy zastosowałby się do tego i wyszukiwanie straciłoby sens).
Mechanizm funkcjonowania wyszukiwarek - trzy główne komponenty:
Roboty internetowe (roboty indeksujące, pajączki, ang. spider, crawler): odwiedzają strony WWW przechodząc po znalezionych łączach.
Moduł indeksujący: Analizowane są informacje tekstowe zawarte na stronach WWW. Nazwy odwiedzonych stron umieszczane są w bazie danych, wraz ze słowami i frazami jakie zostały na nich odnalezione. Każda strona dla znalezionej frazy (słowa) otrzymuje „ranking”, określający w jakim stopniu dana strona związana jest z daną frazą (słowem). Wyszukiwarka przypisuje różne wagi do każdego znalezionego słowa, w zależności czy znajduje się ono np. w tytule strony, metatagach, nagłówkach czy na początku dokumentu. Przypisywanie wag słowom kluczowym dokonuje się poprzez algorytm, który ustala ranking stron (ranking ustalany jest też na podstawie innych kryteriów np. Page Ranku (omówionego w dalszej części pracy) czy obecności w katalogu powiązanym z wyszukiwarką). Każda wyszukiwarka posiada unikalny algorytm łączący słowa kluczowe z wagami.
Procesor zapytań: Użytkownicy wyszukiwarek odnajdują strony na podstawie zapytań - wpisanych słów lub fraz kluczowych. Procesor odnajduje wszystkie strony, które są związane z zapytaniem użytkownika. Następnie wyświetlana jest uporządkowana lista stron, które najlepiej spełniają kryteria użytkownika.
Korzystając z wyszukiwarki nie przeszukujemy Internetu bezpośrednio, przeszukujemy tylko tekstową bazę danych utworzoną na podstawie wszystkich znalezionych przez robota internetowego stron WWW.
Bazy wyszukiwarek aktualizowane są praktycznie codzienne. Z kolei częstotliwość aktualizacji informacji o wybranej stronie zależy od rankingu strony nadawanego przez dany serwis wyszukujący oraz ilości łączy prowadzących do danej strony (informacje mogą być aktualizowane kilka razy dziennie lub np. raz w miesiącu).
Strony są odnajdywane przez wyszukiwarkę względem zadanych przez użytkownika słów kluczowych (słowa kluczowego). Jeśli pod jednym słowem strona jest bardzo wysoko to nie oznacza, że pod innym słowem będzie podobnie.
Ciekawostką jest to, iż m.in. Google dba o to, aby wyniki wyszukiwania się zmieniały, żeby nie było takiej sytuacji, że strona jest ciągle na tym samym miejscu.
Nie trzeba zgłaszać strony do żadnej wyszukiwarki, robot indeksujący podążając po linkach sam trafi na stronę. Błędem jest zgłaszanie strony do setek wyszukiwarek. Warto ten czas poświęcić na optymalizację witryny.
Katalogi internetowe - informacje ogólne
Katalogi internetowe są to spisy witryn internetowych, tworzone przez ludzi - redaktorów. Aby strona znalazła się w katalogu należy ją do niego zgłosić. Redaktor danego katalogu ocenia stronę i decyduje czy umieścić ją w spisie.
Katalogi zawierają całe witryny, a nie pojedyncze strony WWW. Przez witrynę rozumiemy tutaj zbiór połączonych ze sobą stron internetowych poświęconych danej tematyce (w ramach danej domeny).
Zgłaszając stronę do katalogu podajemy zwykle krótki opis i słowa kluczowe związane ze stroną. Wybieramy również odpowiednią kategorię (jedną lub więcej, jeśli zezwala na to regulamin katalogu, a strona jest wielotematyczna) i podkategorie. Katalogi zwykle mają strukturę hierarchiczną - przykładowo stronę dealera sprzedającego samochody marki Opel umieścimy w katalogu Onetu w kategorii:
Firmy wg branż
Motoryzacja
Dealerzy samochodów
Opel-dealerzy
Katalogi same się nie uaktualniają. Jeśli chcemy zmienić opis w katalogu należy to zgłosić redaktorowi danego katalogu.
Użytkownicy większości katalogów mogą wyszukiwać strony w dwojaki sposób:
Przeglądając poszczególne kategorie,
Wyszukując strony na podstawie słów kluczowych.
Warto dodać stronę jednocześnie do wyszukiwarki i „współpracującego” z nią katalogu - możemy poprawić w ten sposób pozycję rankingową. Często w wynikach wyszukiwarek przy adresach URL znalezionych stron umieszczane są informacje, że strona znajduje się w katalogu w określonej kategorii.
Dlaczego warto zgłosić stronę do jak największej liczby katalogów?:
Katalogi często połączone są z wyszukiwarką - np. wyszukiwarka Onetu w pierwszej kolejności wyświetla strony, które znajdują się połączonym z nią katalogu,
Zwykle katalogi to popularne strony, a linki prowadzące z takich stron zwiększają Page Rank w Google - bardzo ważny czynnik wpływający na ranking strony,
Potencjalni klienci korzystają nie tylko z opcji „wyszukaj w Internecie”, ale także z opcji „wyszukaj w katalogu”,
Katalogi są posegregowane tematycznie, więc umieszczamy stronę w odpowiedniej kategorii - ktoś kto będzie szukał firm z branży np. automatyki być może od razu wejdzie do tej kategorii i tam znajdzie stronę.
Nawet mało popularny katalog ma jednak swoich użytkowników - potencjalnych klientów (jeśli nie dodamy strony, nie znajdziemy się w katalogu).
Najpopularniejsze polskie serwisy wyszukiwawcze i katalogi - wnioski i prognozy
Przed rozpoczęciem pozycjonowania jakichkolwiek stron należy ustalić, pod kątem których wyszukiwarek będziemy optymalizować stronę. Dokładne statystyki popularności wyszukiwarek i katalogów znajdują się na stronie www.ranking.pl.
Oto niektóre z nich:
Tabela 5. Wyszukiwarki-domeny - polscy użytkownicy (maj 2006)
Lp |
Wyszukiwarka-domena |
Udział w rynku |
1 |
google.com |
78,7% |
2 |
onet.pl |
9,8% |
3 |
wp.pl |
7,7% |
4 |
msn.com |
1,2% |
5 |
interia.pl |
1,2% |
6 |
yahoo.com |
0,5% |
7 |
szukacz.pl |
0,3% |
8 |
netsprint.pl |
0,2% |
9 |
altavista.com |
0,1% |
10 |
o2.pl |
0,1% |
Źródło: Ranking.pl
Tabela 6. Wyszukiwarki-domeny - zagraniczni użytkownicy (maj 2006)
Lp |
Wyszukiwarka-domena |
Udział w rynku |
1 |
google.com |
77,2% |
2 |
onet.pl |
7,4% |
3 |
wp.pl |
4,6% |
4 |
msn.com |
3,3% |
5 |
yahoo.com |
2,8% |
6 |
interia.pl |
1,6% |
7 |
altavista.com |
1,0% |
8 |
aol.com |
0,4% |
9 |
netsprint.pl |
0,3% |
10 |
seznam.cz |
0,2% |
Źródło: Ranking.pl
Tabela 7. Wyszukiwarki-silniki - polscy użytkownicy (maj 2006)
Lp |
Wyszukiwarka-silnik |
Udział w rynku |
1 |
79,8% |
|
2 |
OnetSzukaj |
9,9% |
3 |
NetSprint |
8,2% |
4 |
MSN |
1,2% |
5 |
Yahoo |
0,5% |
6 |
Szukacz |
0,3% |
7 |
Altavista |
0,1% |
Źródło: Ranking.pl
Tabela 8. Wyszukiwarki-silniki - zagraniczni użytkownicy (maj 2006)
Lp |
Wyszukiwarka-silnik |
Udział w rynku |
1 |
79,6% |
|
2 |
OnetSzukaj |
7,4% |
3 |
NetSprint |
5,1% |
4 |
MSN |
3,3% |
5 |
Yahoo |
2,9% |
6 |
Altavista |
1,0% |
7 |
Szukacz |
0,2% |
8 |
Overture |
0,2% |
Źródło: Ranking.pl
Zarówno wśród polskich jak i zagranicznych użytkowników najpopularniejszym silnikiem wyszukiwawczym jest Google (działa on m.in. w domenie google.com i pl, oraz interia.pl) - ma on blisko 80% udziału w rynku. Dystans do kolejnego silnika jest ogromny, OnetSzukaj wśród polskich użytkowników to blisko 10% (zagranicznych - ponad 7%). Kolejny w stawce NetSprint (związany z Wirtualną Polską) cieszy się ponad 8% popularnością (ponad 5% wśród zagranicznych użytkowników). Kolejne silniki wyszukiwawcze mają już niewielkie znaczenie.
Analizując powyższe statystyki, łatwo stwierdzić, iż pozycjonowanie dotyczyć będzie w głównej mierze Google, w dalszej kolejności Onetu i Wp. Te trzy serwisy mają łącznie wśród polskich i zagranicznych użytkowników ponad 90% udział w rynku.
Prognozy
W roku 2003 wszystkie trzy analizowane silniki cieszyły się podobną popularnością. Jednak w kolejnych latach zauważamy systematyczny, znaczny wzrost popularności silnika Google, który osiąga obecnie około 80%. Silniki OnetSzukaj i NetSprint w tym samym okresie traciły popularność i notują teraz udział w rynku poniżej 10%. Nic nie wskazuje na to, aby proporcje miały się zmienić i Google z pewnością utrzyma wyraźnie dominującą pozycję na rynku. Zatem pozycjonowanie będzie się skupić właśnie na tym silniku.
Rysunek 7. Popularność silników wyszukiwawczych w latach 2003 - 2006
Źródło: Ranking.pl
Zbiór polskich katalogów:
Pozycjonowaną witrynę najlepiej dodać do jak największej ilości katalogów, ponieważ w ten sposób zwiększamy prawdopodobieństwo jej odnalezienia zarówno przez internautę jak i przez roboty internetowe.
Tabela 9. Zbiór polskich katalogów
Lp. |
Adres katalogu |
Lp. |
Adres katalogu |
1 |
katalog.onet.pl |
51 |
katalog.nowatorski.pl |
2 |
katalog.wp.pl |
52 |
www.totu.pl |
3 |
szukaj.gazeta.pl/katalog |
53 |
katalog.zambrow.org |
4 |
directory.google.com |
54 |
www.economist.pl |
5 |
katalog.interia.pl |
55 |
www.polska.pl/katalog |
6 |
start24.pl |
56 |
|
7 |
katalog.hoga.pl |
57 |
katalog.epf.pl |
8 |
webwweb.pl |
58 |
katalog.szperaj.pl |
9 |
dmoz.org |
59 |
katalog.twojecentrum.pl |
10 |
gooru.pl |
60 |
www.linuxfan.pl/linki |
11 |
katalog.gery.pl |
61 |
www.e-biznes.pl/katalog |
12 |
dodaj.pl |
62 |
www.adlex.fr.pl |
13 |
nova.home.pl |
63 |
www.kkf.pl |
14 |
katalog.wow.pl |
64 |
www.maszefirmy.pl |
15 |
www.polonia.net |
65 |
www.bbfselsoft.prezentacje.pl |
16 |
www.of.pl |
66 |
linkownia.naszefirmy.pl |
17 |
www.yellowpages.pl |
67 |
biznespolska.pl/firmy |
18 |
www.cnl.pl |
68 |
www.ogrodnik.com.pl/katalog.htm |
19 |
deepweb.home.pl |
69 |
eduseek.interklasa.pl/katalog |
20 |
katalog.heyo.pl |
70 |
katalog.anonser.pl |
21 |
katalog.internauci.pl |
71 |
firmy.dom.pl |
22 |
www.mocnyweb.pl/ |
72 |
katalog.robart.pl |
23 |
panoramafirm.com.pl |
73 |
www.firmybudowlane.pl |
24 |
www.polska.com.pl |
74 |
www.aol.pl |
25 |
katalog.razdwatrzy.com |
75 |
katalog.bajery.pl |
26 |
katalog.webhelp.pl |
76 |
katalog.biss.pl |
27 |
www.fp.pl |
77 |
www.dodajstrone.pl |
28 |
www.twoje-miasto.pl |
78 |
katalog.eggs.pl |
29 |
www.katalogfirm.pl |
79 |
katalog.jeja.pl |
30 |
bazafirm.interia.pl |
80 |
katalog.bej.pl |
31 |
teleadreson.com.pl |
81 |
katalog.eportal.pl/links.php |
32 |
interklub.com.pl |
82 |
firmy.eportal.pl |
33 |
www.pi.polished.net |
83 |
www.zeszyty.pl/polecamy.php |
34 |
katalog.adverts.pl |
84 |
katalog.zy.pl |
35 |
www.profesor.pl/katalog.php |
85 |
www.pcmaniak.pl |
36 |
www.portal.21.pl |
86 |
www.probiz.pl/reg.php |
37 |
www.asp.pl |
87 |
neta.info/pomorskiefirmy/katalog1 |
38 |
www.kps.pl |
88 |
www.webinfo.pl |
39 |
katalog.f6.pl |
89 |
www.hyperlinks.pl |
40 |
katalog.kopia.biz |
90 |
www.salamandra.org |
41 |
www.combiz.pl |
91 |
www.promocja.akcjasos.pl/katalog |
42 |
www.vizz.pl |
92 |
www.ipis.pl/firma_rodzaj_lista.php |
43 |
katalog-stron.boxbanner.com |
93 |
katalog.fazi.pl |
44 |
katalog.ingwar.eu.org |
94 |
www.signs.pl/links.php |
45 |
www.goldmine.pl |
95 |
www.odi.pl |
46 |
katalog.din.pl |
96 |
www.infoport.pl/webdir |
47 |
katalogstron.com.pl |
97 |
|
48 |
katalog-stron.pl |
98 |
|
49 |
www.region.com.pl/firmy.php |
99 |
|
50 |
katalogfirm.com.pl |
100 |
|
Źródło własne
Tabela 10. Katalogi - polscy użytkownicy (maj 2006)
Lp |
Katalog |
Udział w rynku |
1 |
katalog.onet.pl |
35,3% |
2 |
katalog.wp.pl |
27,9% |
3 |
directory.google.com |
10,9% |
4 |
gazeta.pl |
6,0% |
5 |
start24.pl |
3,6% |
6 |
interia.pl |
3,4% |
7 |
dmoz.org |
2,7% |
8 |
startowy.com |
2,2% |
9 |
katalog.hoga.pl |
2,2% |
10 |
webweb.pl |
1,5% |
Źródło: Ranking.pl
Tabela 11. Katalogi - zagraniczni użytkownicy (maj 2006)
Lp |
Katalog |
Udział w rynku |
1 |
katalog.onet.pl |
35,0% |
2 |
katalog.wp.pl |
20,6% |
3 |
directory.google.com |
12,1% |
4 |
gazeta.pl |
8,7% |
5 |
start24.pl |
5,1% |
6 |
dmoz.org |
3,2% |
7 |
interia.pl |
3,2% |
8 |
polska.pl |
2,0% |
9 |
webweb.pl |
1,7% |
10 |
katalog.gery.pl |
1,4% |
Źródło: Ranking.pl
Popularność katalogów nie jest tak istotna, witrynę należy umieścić w jak największej liczbie katalogów, nawet jeśli ich popularność jest bardzo mała.
Techniki pozycjonowania - projektowanie stron przyjaznych wyszukiwarkom i katalogom
Cel pozycjonowania
Jest nim dotarcie z witryną internetową do jak największej grupy odbiorców, którzy są naszymi potencjalnymi klientami. Istnieje tutaj prosta zależność. Im lepsza pozycja w najpopularniejszych wyszukiwarkach, tym większe szanse na pozyskanie klientów.
Większość użytkowników wyszukiwarek internetowych przegląda tylko pierwszą lub pierwsze dwie strony wyników wyszukiwania. Jeśli nasza strona będzie w trzeciej dziesiątce lub dalej nie przyniesie nam ona prawie żadnych korzyści.
Pozycjonowanie ma na celu nie tylko zwiększenie sprzedaży produktów lub usług, ale również zapewnienie długotrwałej reklamy oraz zabiegi związane z budową marki w Internecie.
Projekt witryny - wstęp do optymalizacji
Kryteria oceny strony
Witryna powinna być przede wszystkim czytelna i przyjazna użytkownikowi. Jest to punkt wyjścia do stworzenia serwisu przyjaznego również wyszukiwarkom oraz katalogom.
Oto krótka charakterystyka pięciu podstawowych zasad projektowania witryn. Zasady te łączą się dużej mierze z zagadnieniami użyteczności (web usability) i dostępności (web accessibility) stron internetowych, które jednak nie są tematem niniejszej pracy.
Czytelność
Nie chodzi tutaj o możliwość przeczytania zawartości strony na komputerze projektanta. Czytelność jest tu rozumiana jako możliwość poprawnego wyświetlenia witryny pod różnymi przeglądarkami, systemami operacyjnymi, na różnym sprzęcie. To wszystko jest szczególnie ważne, jeśli chodzi o dodawanie witryn do katalogów. Nigdy nie wiemy jaką konfiguracją oprogramowania i sprzętu dysponuje redaktor. Jeśli strona okaże się nieczytelna to z pewnością nie zostanie umieszczona w katalogu. Użytkownik również niechętnie będzie odwiedzał stronę, która nie wyświetla się poprawnie.
Łatwy, intuicyjny mechanizm nawigacji
Nawigacja powinna umożliwiać użytkownikowi szybkie dotarcie do zasobów witryny.
Internauta zawsze powinien wiedzieć, w jakiej części witryny się znajduje. Powinien mieć dostęp do wyszukiwarki, strony głównej, strony pomocy z dowolnego miejsca witryny. Ważne jest również umieszczenie mapy strony, co będzie również pomocne dla robotów internetowych. Intuicyjny i standardowy mechanizm nawigacji będzie ważny szczególnie dla mniej doświadczonych użytkowników Internetu.
Konsekwentny układ i wygląd
Elementy takie jak zdjęcia, elementy graficzne, czcionki, kolory, schemat nawigacji powinny być konsekwentnie stosowane na wszystkich stronach witryny. Ta spójność ułatwi użytkownikowi orientację i sprawi, że będzie się czuł swobodnie. Oczywiście wszystko to będzie ważne podczas decyzji redaktora o dodaniu witryny do katalogu.
Szybkie ładowanie
Internauci (także redaktorzy katalogów) korzystają nie tylko z szybkich stałych łączy lecz również ze znacznie wolniejszych połączeń modemowych. Dlatego zawsze należy projektować witrynę tak, aby ładowała się szybko (można tu przyjąć granicę 30 sekund) w przypadku korzystania z modemu. Należy zatem m.in. unikać grafik i animacji dużych rozmiarów, a obrazy starać się wykorzystywać wielokrotnie. Czas ładowania się strony ważny jest również dla widoczności w wyszukiwarkach - jeśli robot internetowy dotrze do strony i prosi serwer o jej przesłanie, a strona ładuje się zbyt długo lub serwer udziela spóźnionych odpowiedzi to strona może nie zostać umieszczona w bazie stron danej wyszukiwarki.
Możliwość łatwego odnalezienia witryny w sieci
Zasada ta dotyczy kilku aspektów. Po pierwsze witryna powinna mieć intuicyjny adres - przykładowo polska firma o nazwie „Hektor” powinna mieć adres www.hektor.pl, adres www.hektor-nalepszy.sklep.net będzie gorszym, mniej intuicyjnym adresem na dodatek gorzej ocenionym przez roboty internetowe (dla polskich stron preferowana jest domena „pl”).
Użytkownicy powinni również móc w łatwy sposób znaleźć poszukiwane produkty lub usługi - nikt nie będzie prowadził żmudnych poszukiwań. Wyszukanie informacji nie powinno internaucie zająć więcej niż 7 - 8 kliknięć. Poprawna ekspozycja produktów i usług będzie kolejnym istotnym czynnikiem dla redaktora danego katalogu. Konieczne jest również umieszczenie łatwo widocznych danych kontaktowych (np. w stopce, w dziele „o firmie” czy w dziale „kontakt”)
Warto umieścić np. sekcję najczęściej zadawanych pytań (FAQ) - często podobne zapytania internauci zastosują podczas korzystania z wyszukiwarki. Posiadając stronę FAQ zaindeksowaną przez robota internetowego danej wyszukiwarki będzie szansa, iż strona pojawi się w miarę wysoko w wynikach wyszukiwania (jeśli spełnione zostaną oczywiście inne warunki, o których będzie mowa w dalszej części pracy).
Komponenty składowe stron
Ze strukturą witryny łączą się również pojęcia komponentów składowych stron.
Wyróżniamy trzy rodzaje komponentów: tekstowy, łączy oraz popularności. Oto ich krótka charakterystyka:
Komponent tekstowy
Dotyczy on umieszczenia na stronie odpowiedniej ilości słów (w odpowiednich miejscach na stronie), które docelowi odbiorcy będą wpisywali do wyszukiwarki, poszukując tej strony.
Komponent łączy
Ważny jest odpowiedni sposób połączenia ze sobą stron w obrębie witryny. Umożliwi on robotowi internetowemu dotarcie do wszystkich stron witryny i wpłynie pozytywnie na pozycję rankingową.
Komponent popularności
Wiąże się z zapewnieniem wielu odnośników do pozycjonowanej strony. Im strona linkująca jest bardziej popularna i związana z tematem pozycjonowanej strony tym lepiej. Należy także dodać stronę do katalogów internetowych.
Sposoby budowy powyższych komponentów przedstawione zostaną w dalszej części tego rozdziału.
Wnioski dotyczące projektu witryny
Na projekt zoptymalizowanej witryny składa się spełnie nie zdefiniowanych postulatów oraz osiągnięcie odpowiedniego udziału przedstawionych komponentów składowych.
Przestrzeganie powyższych wskazówek w połączeniu z zagadnieniem optymalizacji kodu pod kątem wyszukiwarek pozwoli stworzyć witrynę przyjazną zarówno wyszukiwarkom i redaktorom katalogów, jak i użytkownikom końcowym.
Zasady optymalizacji kodu omówione są w dalszej części tego rozdziału.
Dodatkowo korzystając z zasad „web usablility” oraz „web accessability” możliwe jest stworzenie serwisu doskonale zaprojektowanego dla wszystkich odbiorców.
Zalecenia dotyczące kodu
Zawartość sekcji <BODY>
Treść strony głównej
Strona główna jest bardzo ważna - należy zamieścić na niej „kwintesencję” działalności firmy, jej ofertę. Treść tworzymy w oparciu o wcześniej ustalone słowa kluczowe i frazy!
Ważne (najważniejsze) informacje powinny się znaleźć możliwie jak najwyżej w kodzie HTML. Strona główna powinna zawierać co najmniej 50 - 100 słów.
Najważniejsze strony powinny być najdalej 2 kliknięcia od strony głównej.
To co znajduje się pomiędzy znacznikami BODY indeksują prawie wszystkie
wyszukiwarki. Niektóre nie zapamiętują więcej niż pierwsze 64 KB tekstu. Część wyszukiwarek nie indeksują stron posiadających mniej niż 100 słów.
Słowa kluczowe powinny być uwydatnione, znajdować się blisko siebie, na początku zdania, wysoko w kodzie HTML i stanowić 3 - 7% ogólnej liczby słów na stronie (każde).
Zalecane jest by wszystkie wystąpiły po raz pierwszy w pierwszych 2-3 zdaniach.
Poszczególne słowa powinny leżeć blisko siebie, najlepiej jeśli będą tworzyć frazy, powinny znaleźć się w tej samej formie gramatycznej w jakiej zostały użyte w metaznaczniku keywords.
Przykład:
Tak sobie:
Smith Brothers Inc has been selling FOOD for your PUPPIES for over 50 years
Lepiej:
Smith Brothers Inc has been selling PUPPY FOOD for over 50 years.
Najlepiej:
PUPPY FOOD is our primary business.
Opisywanie podstron
Należy również zadbać o to, aby podstrony były również odpowiednio zoptymalizowane pod wyszukiwarki i skonstruowane zgodnie z założeniami przyjętymi na stronie głównej. Trzeba jednak pamiętać, że niektóre znaczniki META i tytuły będą inne i muszą odpowiadać treści podstrony. Podstrony będą również zaindeksowane w wyszukiwarkach.
Kod html - skrypty, arkusze stylów i atrybuty <BODY>
Wszystkie skrypty (PHP, JavaScript i inne), kaskadowe arkusze stylów CSS powinny się znaleźć w plikach zewnętrznych. Ułatwi to działanie robotów indeksujących.
Elementy <BODY> takie jak np. „margin” czy „padding” także powinny się znaleźć w arkuszu CSS. Podobna sytuacja jest w przypadku formatowania np. tabel. Generalnie jak największa część formatowania powinna się znaleźć w arkuszach CSS.
Nagłówki
Nagłówki (H1 oraz H2) muszą być koniecznie zastosowane - są zwykle indeksowane przez roboty i mają duże znaczenie. Należy oczywiście zastosować odpowiednie style CSS, aby nadać im odpowiedni format. Nagłówek H1 jest najważniejszy, powinien znaleźć się możliwie jak najwyżej w kodzie strony.
Tytuły dokumentów, nazwy kategorii, nazwy produktów (zwłaszcza jeśli zawierają słowa kluczowe) powinny być wykonane za pomocą tagów <H1>,...,<H6>.
Opisywanie linków
Jako dodatkowe działanie można zastosować opisywanie linków poprzez atrybut TITLE=”opis odnosnika”:
<A HREF="sterowniki.asp" CLASS="header" TITLE="Sterowniki PLC, sterowniki CNC - szeroki wybór sterowników">Sterowniki PLC i CNC</A>
Linki do podstron powinny być w miarę możliwości nazywane na podstawie słów kluczowych.
Komentarze
Nie są zapamiętywane przez żadną wyszukiwarkę (nie powinny jednak zawierać zbyt dużo słów kluczowych - może to zostać potraktowane jako spam).
Opisywanie zdjęć
Każde zdjęcie powinno być opisane atrybutem „ALT” - wiele robotów indeksujących korzysta z zawartych tam informacji. Zdjęcia powinny być opisywane zgodnie z tematyka strony - powinny zawierać słowa kluczowe, ale z umiarem. Opis nie musi w 100% opisywać zdjęcia, ma łączyć się z zawartością strony i słowami kluczowymi.
W ALT'ach należy (jeśli nie są to rysunki funkcjonalne np. „wstecz) powielać fragmenty opisu strony. Dotyczy to zwłaszcza banner'ów oraz logo.
Url, doctype, tytuł i metaznaczniki
Uwaga wstępna
Część robotów indeksujących przy ustalaniu rankingu bierze pod uwagę deklarację dokumentu. Premiowany jest standard HTML 4.01 oraz w większym stopniu XHTML w dowolnej wersji. Przykładowo dla HTML 4.01 deklaracja dokumentu będzie wyglądała następująco:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
- umieszczana jest ona na samym szczycie kodu HTML.
Tytuł strony
Powinien znaleźć się bezpośrednio po znaczniku <HEAD> - <TITLE> Tytuł strony </TITLE>. Powinien zawierać nazwę strony oraz kilka słów kluczowych zwięźle podsumowujących tematykę strony (działalność firmy). Słowa kluczowe nie powinny się powtarzać, nie jest także zalecane używanie nazwy firmy (jeśli klient ją zna to znaczy, że o nas już wie i do nas trafi). Wielkość liter nie jest istotna. Onet zapamiętuje tylko 95 znaków z tego znacznika, Google około 60 - 75. Konkurencja robi podobnie.
Tytuł jest zapamiętywany przez wszystkie roboty indeksujące - jest to jedno z głównych kryteriów w rankingu stron. Tytuł pojawi się jako link do naszego serwisu w wynikach wyszukiwania. Dlatego powinien zachęcać do kliknięcia i w żadnym wypadku nie powinien być listą słów kluczowych.
Podane poniżej meta tagi nie są wszystkimi jakie można zastosować, ale są to najważniejsze i te, które powinny się znaleźć w <HEAD>. Powinny też wystąpić w podanej kolejności. Podzielone są na 2 części zgodnie z atrybutem NAME i HTTP-EQUIV
Wybrane atrybuty typu „NAME”
Opis strony (Description)
Krótkie podsumowanie działalności firmy. Zaleca się użycie maksymalnie 16 słów i unikanie powtórzeń. Należy używać słów kluczowych, ale nie zwrotów lub ciągów słów, które występują w innych znacznikach. Opis umieszczany jest zaraz po tytule.
<META NAME="DESCRIPTION" CONTENT="Opis stony">
Element META DESCRIPTION często pojawia się zaraz po tytule w opisie strony w wynikach wyszukiwania. Ma też zadanie marketingowe - ma zachęcać do odwiedzenia serwisu.
Najważniejsze wyrazy powinny znajdować się na początku opisu. Warto powtórzyć wyrazy z tagu TITLE w opisie strony. Wyszukiwarki zazwyczaj indeksują pierwszych 200 znaków opisu, opis powinien zatem składać się z 150-200 znaków. 250 uznawane jest za maksimum. W opisie dane słowo nie powinno być powtórzone więcej niż 3-4 razy.
Słowa kluczowe
Są bardzo złożonym zagadnieniem i zostaną omówione są w następnym podrozdziale.
<META NAME="KEYWORDS" CONTENT="słowa kluczowe, frazy">
Informacje dla robotów (Robots)
Tag instruuje roboty wyszukiwarek jak mają indeksować serwis. Tag jest bezużyteczny - roboty nie zwracają na niego najmniejszej uwagi - nie ma sensu go umieszczać. Należy użyć pliku robots.txt (opisanego w dalszej części tego rozdziału). Co może być indeksowane określały parametry:
NOINDEX - zapobiega indeksowaniu strony przez roboty,
INDEX - pozwala robotom indeksować dokument HTML,
NOFOLLOW - zabrania robotom indeksowania stron, do których linki znajdują się na stronie,
FOLLOW - pozwala robotom indeksować wszystkie strony, do których dotrze poprzez linki na odwiedzanej stronie,
NOIMAGEINDEX - zapobiega indeksowaniu grafiki na stronie HTML - tekst może być indeksowany.
<META NAME=ROBOTS CONTENT="noindex,follow">
Autor strony
Informacja o autorze strony.
<META NAME="author" CONTENT="Autor strony">
Odpowiedź (Reply-to)
Informacja o adresie e-mail autora strony
<META NAME= "reply-to" CONTENT= "info@searchengines.pl">
Język strony
<META NAME="Language" CONTENT="pl">
Wybrane atrybuty typu „HTTP-EQUIV”
Kodowanie znaków
Ustawienie kodowania czcionek (standard polski):
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=iso-8859-2">
Lub:
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=UTF-8">
Przekierowanie (Refresh)
Załadowanie strony „www.nastepna.pl” 60 sekund po załadowaniu bieżącej. Przekierowanie krótsze niż 30 sekund może zostać potraktowane jako spam! Należy ograniczyć używanie tego metaznacznika do minimum.
<META HTTP-EQUIV=Refresh CONTENT="60; URL=http://www.nastepna.pl/">
Słowa i frazy kluczowe
Słowa kluczowe (keywords)
Są to słowa oraz frazy według których klienci będą szukać produktów oraz firm zajmujących się np. określonymi produktami lub grupami produktów.
Słowa (frazy) kluczowe nie koniecznie muszą w 100% odzwierciedlać asortyment czy działalność firmy, mają przede wszystkim być tymi słowami, które potencjalny klient wpisze do wyszukiwarki szukając produktu lub firmy. (Muszą być oczywiście adekwatne do zawartości strony).
Przed wybraniem słów kluczowych należy:
Zastanowić się poprzez jakie słowa kluczowe strona (firma, produkt, usługa) będzie szukana przez klienta - możemy zapytać klientów,
Sprawdzić w wyszukiwarkach (np. po jakich słowach pojawiają się firmy z naszej branży),
Wziąć pod uwagę błędy (w pisowni słów kluczowych przez klienta),
Porównać słowa kluczowe z konkurencją - może nasuną się nowe pomysły,
Sprawdzić popularność konkretnych zapytań w wyszukiwarkach,
Sprawdzić własne statystyki dotyczące słów kluczowych.
Wybór słów kluczowych:
Wybierając słowa kluczowe trzeba postawić się w sytuacji klienta - zarówno tego znającego się na temacie jak i tego, który o danej dziedzinie wie nie wiele,
Dla każdej strony (kategorii produktów) wybieramy około 1-5 głównych słów (fraz) kluczowych, na których najbardziej nam zależy oraz kolejne 3-5 dodatkowych słów, które mają mniejsze znaczenie, ale również mogą być istotne dla klienta. Można na początku wybrać np. 20-30 słów i z nich wyselekcjonować 4-10 najważniejszych. Znajdując dużo słów kluczowych mogą nam przyjść nowe pomysły,
Klient szuka konkretnego produktu lub korzyści, które ten produkt mu dostarczy. Nie ma sensu pozycjonować słów kluczowych, które są nazwą firmy lub nazwą specyficznych produktów (wyjątek jest w przypadku, gdy marka jest bardzo znana - np. coca-cola, junkers, adidasy itp.). Jeżeli internauta wie o firmie to porostu wejdzie na jej stronę, a nie będzie szukał jej w wyszukiwarce,
Rzadko szukane są pojedyncze słowa, częściej dwu-członowe frazy (czasami trój-członowe) - na nich należy się skupić. Należy pomyśleć nad różnymi kombinacjami słów. Jest to bardzo ważne gdyż klient będzie starał się zawęzić wyniki wyszukiwania,
Nie wolno umieszczać słów kluczowych, których nie ma w treści dokumentu. Jeśli w metatagu KEYWORDS umieścimy dane słowo kluczowe to musimy je potem zamieścić na stronie,
Należy pamiętać, że w oparciu o wybrane słowa kluczowe będziemy tworzyć treść strony,
Wybrane słowa kluczowe będą się musiały również znaleźć (przynajmniej te najważniejsze) w <TITLE> i <DESCRIPTION>.
Narzędzia do wyszukiwania słów i fraz kluczowych:
http://www.wordtracker.com - trzeba się najpierw zarejestrować. Podawane są sugestie słów związanych z danym biznesem oraz dodatkowe słowa, które można z nimi połączyć
http://inventory.overture.com/d/searchinventory/suggestion/
http://www.digitalpoint.com/tools/suggestion/
https://adwords.google.com/select/KeywordSandbox
http://boksy.onet.pl/ranking.html - pokazuje dzienną ilość wyświetleń danego słowa oraz słów pokrewnych w wyszukiwarce Onet.
Dane z pierwszych trzech nie odnoszą się bezpośrednio do Polski, ale Wordtracker może być naprawdę bardzo pomocny. Również narzędzie Google jest bardzo dobre.
Tylko portal onet.pl udostępnia narzędzie, dzięki któremu można sprawdzić średnią dzienna ilość wyświetleń danego słowa oraz słów pokrewnych.
Zalecana częstotliwość słów kluczowych to około 3-7%, maksymalnie 9% (jest to stosunek słów kluczowych do wszystkich słów).
Narzędzia do określania częstotliwości słów kluczowych:
Keyword density analyzer: http://www.webjectives.com/keyword.htm
KeywordCount: http://www.KeywordCount.com
Analiza słów kluczowych:
http://www.keywordcount.com,
http://www.webjectives.com,
http://www.widexl.com (ciekawa analiza meta tagów).
Zalecenia dodatkowe:
Warto część słów wprowadzić bez polskich znaków, a jeśli są np. anglojęzyczne to ich polski odpowiednik (jeśli wcześniej ustalimy, że jest on wyszukiwany), również słowa inaczej pisane niż wymawiane.
Słowa ustawiamy w kolejności od najbardziej do najmniej ważnych,
Należy unikać powtórzeń, ale słowo może (maksymalnie) wystąpić 3-4 razy w różnych frazach (chodzi tu o tag „keywords”)
W sumie 75 - 125 znaków (może być więcej).
Należy unikać „stop words” - czyli np. „i”, „do”, „lub”, „na” itp. Wyszukiwarki pomijają te słowa, a na naszej stronie zajmują cenne miejsce - np. w tagu KEYWORDS.
Słowa kluczowe powinny zostać rozmieszczone zgodnie ze wskazówkami przedstawionymi w poprzednim podrozdziale.
Google Page Rank (PR)
PageRank jest to wartość liczbowa wyliczana przez specjalny program, który ocenia wartość strony na podstawie liczby stron, które zawierają link do danej strony. Jest to unikalna technologia firmy Google.
Page Rank (PR) mówi jak ważna jest dana strona w Internecie. Jeśli jedna strona „linkuje” do drugiej, to tak jakby oddawała głos na tą drugą stronę. Im więcej głosów otrzyma strona, tym według Google, jest ważniejsza. Oczywiście istotne znaczenie ma „ważność” strony, która głosuje na inną stronę - im jest „ważniejsza”, tym ważniejszy głos. Page Rank obliczany jest właśnie na podstawie tych (mniej lub bardziej) ważnych głosów.
Page Rank jest jednym z głównych czynników decydujących o rankingu strony w wynikach wyszukiwania Google.
Nie wszystkie linki (głosy) są liczone, przykładowo linki z tzw. farm linków (są to strony, które powstały tylko po to, aby linkować do innych. Zawierają często setki lub tysiące linków. Takie strony są karane przez Google i umieszczane na „czarnej liście”. Nie powinno się linkować do tych stron, gdyż również my możemy zostać ukarani. Z drugiej strony nie mamy wpływu na to czy taka farma linkuje do naszej, wiec z tego powodu nasz ranking nie będzie obniżony) nie mają wpływu na Page Rank. Oczywiście „głosy” stron nieznanych przez Google (niezaindeksowanych) nie wpłyną na PR. Każda strona może tylko raz „zagłosować” na daną stronę - jeśli pojawi się więcej niż jeden link, będzie on traktowany jako jeden. Strona nie może także „głosować” na samą siebie - przeczyłoby to idei PR i pozwalało na manipulacje.
Obliczanie PR:
Gdy powstawał Page Rank, wzór dal strony „A” był następujący:
PR(A) = (1 - d) + d[PR(t1)/C(t1) + … + PR(tn)/C(tn)], gdzie:
t1 … tn - to strony linkujące da strony A
C - to liczba linków wychodzących ze strony A
d - to zmienny czynnik, zwykle przyjmował wartość 0,85
Zatem każda strona, która posiada linki wychodzące, przekazuje Page Rank stronom, do których linkuje. Przekazywana jest stała wartość (zwykle własny Page Rank razy 0,85) nie zależnie od ilości linków. Ta stała wartość dzielona jest równomiernie między wszystkie strony, do których prowadzą odnośniki. Możemy zatem stwierdzić, że link ze strony z PR = 4, która ma kilka linków, jest cenniejszy niż link ze strony z PR = 7, która ma dziesiątki lub setki linków.
Ale czy na pewno? Tego nie wiemy. PR przyjmuje wartości całkowite z przedziału <1,10>. Są to jednak tylko „etykiety” - wiedząc, że bazowo każda strona ma PR = 1, a Google ma zaindeksowanych kilka miliardów stron to istnieje ogromna liczba PR do rozdystrybuowania w sieci i strony przyjmują PR znacznie większy niż 10. Wartości PR podzielone zostały na 10 części (10 etykiet), którym zostały przypisane właściwe wartości PR. Różnice między PR = 1, PR = 2, …, PR = 10 nie muszą być jednakowe, są one najprawdopodobniej logarytmiczne. Innymi słowy istnieje osobna, pomocnicza, skala PR, która przykładowo przypisuje: PRpomocniczy = 1 to PR = 1, PRpomocniczy od 1 do 10 to PR = 2, PRpomocniczy od 10 do 100 to PR = 3 itd. Za skalą logarytmiczną (lub podobną) przemawia fakt, iż trudniej podnieść PR strony, która ma wysoki PR, niż tej z niższym.
W takim wypadku powyższa teoria nie musi być prawdziwa i link ze strony o PR = 7 może być cenniejszy, gdyż przekazywany PR może być 1000 razy większy niż w przypadku strony z PR = 4. Jakąkolwiek skala jest wykorzystywana przez Google, jednego możemy być pewni - im więcej linków do naszej strony, tym większy PR.
Możemy sprawdzić jedynie „etykiety” PR, do właściwego PR nie mamy dostępu.
Istotne jest to, iż strona „głosując” (przekazując swój PR) na inna stronę (nie wewnątrz witryny) nie traci całego własnego Page Ranku, jedynie jego niewielką część. Jednak warto się zastanowić, na których stronach zamieścić odnośniki zewnętrzne - najlepiej na tych z najmniejszym PR, wtedy najmniej stracimy. Ciekawym sposobem na to, aby nie tracić PR jest umieszczanie linków, które nie są rozpoznawalne przez Google. Na przykład linki umieszczone w formularzach lub poprzez JavaScript:
<form name=”formularz” action=”http://www.mojawitryna.pl/mojastrona.html”>
<a href=”javascript:document.myform.submit()”>Kliknij tutaj!</a>
(kod JavaScript zamieszczony powinien być w zewnętrznym pliku, do którego dostęp zablokowany jest poprzez robots.txt).
PR jest obliczany sposobem iteracyjnym dla wszystkich stron zaindeksowanych przez Google. Algorytm ciągle się zmienia i jest tajemnicą, a obliczanie Page Ranku jest dość czasochłonne (wyniki aktualizowane są około raz na kwartał) więc nie sposób przewidzieć jaki wpływ na nasz PR będą miały linki zewnętrzne.
Linki wewnętrzne:
Witryny mają też tzw. wewnętrzny Page Rank, każda strona ma PR = 1, który jest dystrybuowany poprzez linki wewnętrzne. Całkowity maksymalny PR witryny nie uwzględniając linków zewnętrznych jest równy liczbie stron (może być on mniejszy w przypadku nieodpowiedniej struktury linków). Zatem dzięki odpowiedniemu linkowaniu większy PR może być skierowany na strony, na których zależy nam najbardziej. Możemy zatem zwiększać Page Rank poprzez dodawanie do witryny nowych stron. Należy jednak uważać, aby nie dodawać stron identycznych lub bardzo podobnych do już istniejących - Google traktuje to jako spam i obniża ranking witryny.
Przykłady przekazywana PR wewnątrz witryny
(na podstawie kalkulatora wyliczającego Page Rank dostępnego na stronie:
Założenia:
Strona nie posiada linków zewnętrznych,
Na witrynę składa się 13 stron i każda na początkowy PR = 1,
Schemat stron (wykorzystywany w dalszych przykładach) wygląda następująco:
Rysunek 8. Schemat stron ukazujący przekazywanie Page Ranku
Rysunek 9. Przykład 1 (wszystkie strony połączone ze sobą)
W takim przypadku każda strona posiada PR równy 1. Osiągnięty zostaje również maksymalny PR dla całej witryny (jest on równy liczbie stron, czyli 13)
Rysunek 10. Przykład 2 (PR skierowany na stronę główną)
Wszystkie strony linkują do strony głównej i na odwrót. Dodatkowo strony E, F, G linkuja do strony B, strony H, I, J do C i K, L, M do D oraz na odwrót. Uzyskujemy w ten sposób wysoki PR strony głównej, przy zachowaniu całościowego PR równego 13.
Rysunek 11. Przykład 3 (PR skierowany na stronę główną i podstrony 1-go poziomu)
Wszystkie strony linkują do strony głównej i podstron B, C, D, które linkują między sobą. Dodatkowo strona B linkuje do stron E, F, G strona C do H, I, J, strona D do K, L, M. Dzięki temu strona główna i jej podstrony B, C i D osiągają stosunkowo wysoki PR, kosztem podstron najniższego poziomu. PR dla całej witryny jest maksymalny (13).
Rysunek 12. Przykład 4 (nieprawidłowo połączone strony)
Strona A linkuje do pozostałych i na odwrót. Strony B, C, D linkują między sobą. Strony E, F, G linkują między sobą, podobnie H, I, J oraz K, L, M. Dodatkowo strona B linkuje do stron E, F, G strona C do H, I, J, strona D do K, L, M. Ponadto do strony B linkuje strona E, do strony C strona H i do strony D strona K.
Takie połączenie sprawia, iż maksymalny PR nie zostaje osiągnięty i wynosi w tym przypadku niecałe 9. Niski PR osiąga strona główna, a podstrony drugiego poziomu (B, C, D) notują bardzo niski wskaźnik. Stosunkowo wysoki PR osiągają strony K, L, M.
Powyższy przykład jest ilustracją tego jak nie należy łączyć ze sobą stron w obrębie witryny.
Rysunek 13. Przykład 5 (pozbawienie strony głównej wysokiego PR)
Strona A linkuje do pozostałych, natomiast żadna nie linkuje do niej. Dodatkowo wszystkie strony linkują do stron B, C, D, a strona B linkuje do stron E, F, G strona C do H, I, J, strona D do K, L, M. Ponadto strony E, F, G linkują między sobą, podobnie H, I, J oraz K, L, M. Maksymalny PR = 13 zostaje osiągnięty, jednak strona główna osiąga niezwykle niski PR. Strony drugiego poziomu (B, C, D) notują dość wysoki PR.
Sposoby na zwiększenie PR stron:
Zapewnienie jak największej liczby linków zewnętrznych,
Dodanie nowych stron do witryny,
Zapewnienie odpowiedniej struktury linków wewnętrznych - skierowanie PR na konkretne strony.
Obecność w katalogach, szczególnie w DMOZ.
Link Popularity (LP)
Z Page Rank wiąże się pojęcie „link popularity”, określa ono ilość zindeksowanych stron, które posiadają linki do danej strony. LP jest miernikiem popularności strony wśród najlepszych wyszukiwarek (także polskich). Brany jest on pod uwagę podczas ustalania rankingu stron w procesie wyszukiwawczym (wyszukiwania informacji).
Aby sprawdzić LP należy wpisać do wyszukiwarki: link:http://adres-strony.pl, wpisując oczywiście odpowiedni adres. Opcja ta jest dostępna w większości wyszukiwarek.
Należy tutaj wziąć pod uwagę, iż strona z LP równym np. 20 może mieć PR wyższy niż ta z LP równym np.100. Łączy się to z przekazywaniem PR - ważniejsze są linki prowadzące ze stron o wyższym PR.
Czego nie lubią wyszukiwarki
Oto niektóre elementy, których wyszukiwarki „nie lubią”:
Zbyt duża ilość słów kluczowych
Ramki, jeśli już są użyte to koniecznie należy zastosować tag NOFRAMES.
Sposób radzenia sobie z problemem ramek opisany jest w artykule „Search Engines and Frames” dostępnym na stronie: http://www.searchenginewatch.com/webmasters/article.php/2167901.
Flash, Shockwave, video, jeśli strona jest w całości zrobiona w flashu to należy ją „objąć” znacznikami html.
Strony generowane dynamicznie - np. tytuł poprzez cgi albo asp - niektóre roboty nie są w stanie poprawnie odczytać adresów url,
Strony z hasłem, ustawiające cookie,
Aplety Java,
PDF (wyjątek Google),
Linki dynamiczne (te bardziej złożone są często błędnie odczytywane, choć Google coraz lepiej sobie radzi z tym problemem).
Najczęściej popełniane błędy
Niniejsza praca związana jest z tym, jakie działanie należy przedsięwziąć, aby witryna znalazła się na wysokich miejscach w wynikach wyszukiwania. Warto jednak również przedstawić najczęściej popełniane błędy. Będzie to szczególnie pomocne podczas analizowania już istniejących witryn i pomoże podjąć decyzję o tym co koniecznie trzeba poprawić aby uzyskać wysoką pozycję rankingową.
Oto kilka najczęściej popełnianych przez webmasterów błędów:
Próba pozycjonowania pojedynczej strony na zbyt wiele słów kluczowych
Jeśli strona pozycjonowana jest na kilkanaście lub więcej słów, ich zagęszczenie dla danej strony jest niskie, co powoduje że poszczególne słowa na stronie mają mniejsze znaczenie. Odbija się to na pozycji rankingowej. Przykładem klasycznego błędu jest umieszczenie w tagu tytułowym kilkunastu słów kluczowych. Pomijając już fakt, iż taki tytuł będzie zbyt długi to waga słów kluczowych będzie niska, a roboty internetowe bardzo niechętnie „patrzą” na tytuły składające się wyłącznie z listy słów kluczowych.
Wskazówka do poprawy błędu: jak zostało to przedstawione w tym rozdziale pojedynczą stronę powinno się pozycjonować na 1-5 głównych słów (fraz) kluczowych i ewentualnie 3-5 dodatkowych. Jeśli z analizy danej strony wynika, że dotyczy ona tematu, z którym związanych jest zbyt wiele słów kluczowych to należy rozważyć stworzenie na przykład 2 stron zamiast jednej. Można także z części znikomo popularnych słów zrezygnować. Nie należy również na jednej stronie powtarzać danego słowa zbyt wiele razy (kilkanaście można przyjąć za górną granicę, a gęstość słów kluczowych nie powinna przekraczać 7-9%).
Identyczne metatagi i tytuły na wszystkich stronach witryny
Często zdarza się, iż webmasterzy, korzystając z szablonów stron pozostawiają niezmienione metatagi KETWORDS oraz DESCRIPTION, a co gorsza tytuły. Jak zostało to przedstawione we wcześniejszych częściach pracy tytuł jest jednym z najważniejszych składników strony wpływających na ranking strony w wyszukiwarce. Dlatego (podobnie jak metaznaczniki) powinien być unikalny dla każdej strony i precyzyjnie przygotowany.
W takim wypadku tracona jest możliwość umieszczenia w tych znacznikach unikalnych słów kluczowych dla danej strony. Jest to bardzo często spotykany, poważny błąd.
Wskazówka do poprawy błędu: metatagi KEYWORDS, DESCRIPTION oraz przede wszystkim tytuły powinny być starannie przygotowane dla każdej pozycjonowanej strony. Przed zamieszczeniem strony na serwerze należy zawsze sprawdzić, czy omawiane fragmenty zostały przygotowane i czy czasem np. tytuł nie jest zdaniem w rodzaju „Tytuł nowej strony - program Abc”.
Stosowanie ramek
Ramki nie są „lubiane” przez wyszukiwarki i strony, na których są stosowane zdobywają zwykle niższy ranking.
Wskazówka do poprawy błędu: Nie stosować ramek, a jeśli już z jakichś powodów muszą być wykorzystane to należy w tagu „NOFRAMES” umieścić tekstową wersję strony głównej i zoptymalizować ją pod kątem wyszukiwarek, tak jak każdą inną stronę.
Stosowanie dużej ilości tekstu w formie grafiki
Pozycjonując stronę należy zawsze pamiętać, że tylko tekst zwykły tekst wypływa na ranking, tekst graficzny mimo, iż atrakcyjnie wygląda i przyciąga uwagę nie poprawi rankingu.
Wskazówka do poprawy błędu: Nie należy oczywiście rezygnować z tekstu graficznego, lecz należy umieścić jego odpowiedniki w postaci normalnego tekstu. Warto również zastosować bardziej złożone metody łączenia tekstu z grafiką przy wykorzystaniu kaskadowych arkuszy stylów (CSS).
Źle dobrane słowa kluczowe
Sposób dobierania słów kluczowych został opisany we wcześniejszej części rozdziału.
Wskazówka do poprawy błędu: Zły dobór słów kluczowych wiąże się również z pozycjonowaniem strony na zbyt niszowe słowa. Należy zawsze dobierać słowa kluczowe tak, aby pokrywały się one w miarę możliwości z tymi, poprzez które internauci będą szukać danej strony.
Zły schemat nawigacji
Często zdarza się, iż na stronie znajdują się odnośniki wyłącznie w postaci JavaScript'u lub grafiki flash'owej. Nie wszystkie roboty internetowe potrafią za takimi łączami podążać. Przykładowo Google potrafi odczytać tylko niektóre łącza flash'owe.
Wskazówka do poprawy błędu: Nie należy definitywnie rezygnować z tego typu łączy (mogłaby to być kosztowana przebudowa strony). Należy jednak zawsze umieścić tekstowe odpowiedniki tych łączy.
Umieszczanie strony powitalnej z wyborem języka
Strona główna jest zwykle tą, na pozycjonowaniu której zależy nam najbardziej. Nie jest dobrym pomysłem umieszczanie na niej informacji o wyborze języka. Faktyczna strona główna znajduje się wtedy o jeden poziom niżej, co również niekorzystnie wpływa na ranking.
Wskazówka do poprawy błędu: Zdecydowanie należy zrezygnować ze strony powitalnej i w widocznym miejscu na stronie głównej umieścić linki umożliwiające zmianę języka. Linki powinny być tekstowe, opatrzone flagami państwowymi.
Określenie preferencji dotyczących zachowań robotów internetowych
Czasem z pewnych powodów jest konieczność wykluczenia danej strony lub jej części z indeksowania przez roboty internetowe.
Mogę to być powody takie jak na przykład:
strona jest w budowie, a znajduje się na serwerze,
witryna nękana jest przez niewiadomego pochodzenia robota internetowego, który sztucznie generuje ruch, a nie chcemy żeby indeksował witrynę.
Należy wtedy umieścić w katalogu głównym serwera plik o nazwie robots.txt. Jest to standardowy protokół wykluczania z indeksu serwera lub katalogu.
Aby zapobiec indeksowaniu całej witryny przez wszystkie roboty internetowe należy stworzyć plik robots.txt o następującej treści:
User-agent: *
Disallow: /
Aby usunąć witrynę tylko z wyszukiwarki Google i zapobiec przemierzaniu jej w przyszłości tylko przez Googlebota (robota internetowego wyszukiwarki Google):
User-agent: Googlebot
Disallow: /
Każdy port musi mieć oddzielny plik robots.txt. Jeśli serwer udostępnia zawartość za pośrednictwem protokołu http oraz HTTPS, dla każdego z nich należy stworzyć osobny plik robots.txt i umieścić go w odpowiedniej lokalizacji. Aby na przykład zezwolić robotom na indeksowanie wszystkich stron HTTP, a zakazać indeksowania stron HTTPS, należy przygotować pliki w następujący sposób:
Dla protokołu HTTP (http://serwer.pl/robots.txt):
User-agent: *
Allow: /
Kilka kolejnych przykładów
Aby usunąć dany katalog z listy indeksowanych zasobów
User-agent: Googlebot
Disallow: /katalog/danykatalog
Aby usunąć wszystkie pliki określonego typu (na przykład .jpg):
User-agent: Googlebot
Disallow: /*.jpg$
Aby usunąć strony generowane dynamicznie:
User-agent: Googlebot
Disallow: /*?
Aby usunąć z indeksu wszystkie grafiki:
User-agent: Googlebot-Image
Disallow: /
Należy oczywiście pamiętać, aby pod żadnym pozorem nie wykluczać z indeksowania plików CSS - może to zostać potraktowane jako spam (uniemożliwi robotom odczytanie formatowania i wykrycia np. tekstu w kolorze tła).
Szczegółowe informacje na temat pliku robots.txt znajdują się na stronie http://www.robotstxt.org/wc/norobots.html.
Porównanie specyfikacji trzech najpopularniejszych polskich wyszukiwarek
Tabela 12. Specyfikacja trzech najpopularniejszych polskich wyszukiwarek
ELEMENT STRONY WWW |
SPECYFIKACJA DZIAŁANIA SILNIKÓW I WYSZUKIWAREK |
||
|
WP - NETSPRINT |
ONET - INKTOMI |
|
TYP DOKUMENTU I ZAWARTOŚĆ <HEAD> |
|||
Deklaracja dokumentu |
Najlepiej podać - na pewno nie zaszkodzi;) <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"> |
||
Tytuł |
Powinno się umieścić słowa kluczowe. Max. 90 znaków. Widoczne w opisie - max. 70 znaków. |
Bardzo ważny, zaraz po adresie. Do 110 znaków, tyle też jest widoczne. |
Bardzo, bardzo, bardzo ważny. Max. 95 znaków i tyle widoczne w opisie. Słowa kluczowe! |
META Description |
Praktycznie bez znaczenia, ale nie jest lubiany spam w tych tagach. Keywords - kilka. Najlepiej krótkie, a treściwe. |
Ważne (mniej niż keywords) |
-ważne, ale mniej niż w netsprincie. 150 znaków. |
META Keywords |
|
Bardzo ważne |
Ważne, ale mniej niż w netsprincie, 75 znaków. |
NAME=ROBOTS |
Informacje dla robotów nie wpływają na ranking |
||
NAME="author" |
Nieistotny |
||
NAME= "reply-to" |
Nieistotny |
||
NAME="Language" |
Nie istotne, ale należy umieścić |
||
META Refresh |
Poniżej 30 sekund traktowane jest jako spam |
Może być podobnie jak w Google |
Może być podobnie jak w Google |
MAME= ”revisit-after” |
Ignorowane przez roboty wyszukiwarek - nie ma możliwości ustalenia kolejnych odwiedzin strony. Ten tag jest bezużyteczny, nie należy go zamieszczać. |
||
ZAWARTOŚĆ STRONY - <BODY> |
|||
Długość tekstu |
50 - 600 słów. |
- |
100 - 250 słów. Preferuje mniejsze strony. Maksymalna norma to 300 słów. |
Nagłówki <H> |
Ważne, <h1> powinien wystąpić jeden raz z najważniejszymi słowami kluczowymi (na początku ale nie pierwszy), w dalszej kolejności <h2>, <h3>... Używamy oczywiście odpowiednich stylów CSS. |
Pomocne. Słowa kluczowe, które się w nich znajdują mają pewną, ale niezbyt dużą wartość. Nie umieszczać na samym początku <body>. |
Istotne |
Opisywanie zdjęć - „ALT” |
Mało ważne. Maksymalnie 7 słów. |
Niewielkie znaczenie. |
Niewielkie znaczenie. |
Komentarze |
Ignoruje |
Ignoruje |
Ignoruje |
Słowa kluczowe |
Liczą się słowa zawarte w treści. (Blisko url'a?). Lubi słowa kluczowe blisko siebie i na początku zdań. U „góry” kodu. Liczą się tylko dwa pierwsze wystąpienia danego słowa |
Możliwość dużego nasycenia słowami kluczowymi |
Można „naszpikować” stronę słowami kluczowymi. Powinna być wysoka częstotliwość słów kluczowych. |
Znacznik <b> <i> <u> |
Zwraca małą uwagę na <b> - należy tam umieścić słowa kluczowe. |
Nie należy umieszczać na samym początku strony |
Warto użyć |
Linki wewnątrz serwisu |
Powinny zawierać słowa kluczowe strony, do której prowadzą. Tytuły w linkach nie mają znaczenia. Nie powinno być zepsutych linków. |
Jak najwięcej powinno prowadzić do strony głównej, powinny zawierać „anchor text”. |
Jak najwięcej powinno prowadzić do strony głównej, powinny zawierać „anchor text”. |
Mapa witryny |
Ułatwia robotom dostęp do całego serwisu |
||
Zawartość strony |
Niezwykle istotna - Googlebot nie patrzy na meta. Analizuje więc treść pod kątem słów kluczowych i fraz. Jak największy stosunek treści do kodu. Max. 3-7 % słow kluczowych (w stosunku Do całkowitej treści). |
Słowa w treści strony są punktowane w dalszej kolejności. |
3-7% słów kluczowych. |
CZYNNIKI ZEWNĘTRZNE |
|||
Polskie znaki |
Rozróżniane |
||
Wielkość liter |
Bez znaczenia |
||
Obecność w katalogu |
DMOZ |
Katalog WP - to jeden z 3 czynników (oprócz netsprint i klikohitu.) |
OKO - Ogólnopolski Katalog Onetu |
Adres strony głównej |
Podobno kilka procent pozycjonowania. |
Bardzo ważny czynnik (najważniejszy? - kilkanaście procent?) jeśli w adresie występuje słowo kluczowe. |
Ważne są tu słowa kluczowe. |
Adres podstrony |
Istotny |
Bardzo istotne jest występowanie słów kluczowych. |
Warto użyć tu słów kluczowych. |
Odległość podstrony od strony głównej |
Maksymalnie 2 kliknięcia od strony głównej. Im bliżej tym robot łatwiej znajdzie podstronę. |
Im bliżej tym lepiej. Najlepiej max. 2 kliknięca. |
Im bliżej tym lepiej. Najlepiej max. 2 kliknięca. |
Page Rank |
Bardzo ważny, choć jego rola ostatnio nieco zmalała. Waga linków zależy od popularności stron linkujących. |
Mniejsze znaczenie (WP korzysta też z Google) |
W niewielkim stopniu? |
KlikoHot, DirectHit - odwiedzalność i czas pozostawania na stronie |
? Prawie na pewno nie. |
Wykorzystywany przy najpopularniejszych słowach. |
Nie? |
Prędkość ładowania |
Istotna. Jeśli strona zbyt długo się ładuje to może być problem z dodaniem do katalogu. Jeśli jest niedostępna to robot ją pominie. |
Jeśli strona zbyt długo się ładuje to może być problem z dodaniem do katalogu. Jeśli jest niedostępna to robot ją pominie. |
Jeśli strona zbyt długo się ładuje to może być problem z dodaniem do katalogu. Jeśli jest niedostępna to robot ją pominie. |
Linki zewnętrzne |
Budują Page Rank, najlepiej jeśli są nazwane słowami kluczowymi. Bardzo ważne - patrz PR. |
- |
- |
Źródło opracowanie własne
Specyfikacja wybranych zagranicznych wyszukiwarek i katalogów
Rozdzaił ten jest próbą przedstawienia ogólnych informacji na temat niektórych czynników wpływających na ranking w poniższych wyszukiwarkach i katalogach.
ALTAVISTA (http://www.altavista.com)
Wyszukiwanie wspierane jest przez katalogi internetowe Open Directory oraz LookSmart. Czynnikiem decydującym o kolejności wyświetlania jest obecność słowa lub frazy w tytule, znacznikach meta description i keywords oraz pierwszych kilku linijkach dokumentu. AltaVista wyróżnia w rankingu pierwsze strony serwisu (o najkrótszym adresie), zwłaszcza przy wyszukiwaniu pojedynczych słów. Premiowane są te strony główne serwisów, do których prowadzi duża liczba odnośników z innych serwisów internetowych. Nie indeksuje: stron do rejestrowania, XML, Appletow Java, komentarzy, plików PDF. Słowa kluczowe powinny się znajdować jak najwyżej w kodzie html. Prędkość ładowania jest istotna. Indeksowane są tylko dwa pierwsze wystąpienia słowa kluczowego (najlepiej użyć w TITLE i na górze strony), szukane są one również w tagach <H>. Preferowana długość strony to 600-900 słów. Tytuł jest ważny, najlepiej jeśli jest unikalny w ramach serwisu i należy w nim umieścić najważniejsze słowa kluczowe. Znaczniki meta mają niewielki wpływ na ranking, ale na wszelki wypadek lepiej jest ich użyć. Wyszukiwarka „lubi”: mało frekwencyjne słowa, dobrą nawigację po serwisie, czysty HTML, brak zepsutych linków, słowa kluczowe jako linki wewnętrzne, słowa kluczowe jako nazwy plików. Jako spam traktuje: powtórzenia tych samych lub podobnych słów kluczowych, stosowanie słów kluczowych niewystępujących w dokumencie, meta refresh poniżej 30 sekund, niewidoczny lub mikroskopijny tekst, zgłaszanie stron o tej samej treści, ale różnych adresach url.
EXCITE (http://www.excite.com)
Korzysta z LookSmart własnego katalogu aktualnych informacji i multimediów. Za istotne uznaje: tytuł strony, zawartość Tagów keywords i description, częstotliwość występowania poszukiwanego słowa lub frazy w tekście dokumentu.
O miejscu w rankingu decydują również takie czynniki jak: ilość odnośników z innych stron internetowych, obecność w katalogach stron: Excite, LookSmart, Open Directory.
Strona zawierająca tylko kilka słów, w tym słowo kluczowe będzie dużo wyżej notowana niż dłuższy dokument. (nie można jednak z tym przesadzać bo strona będzie nieczytelna).
HOT BOT (http://www.hotbot.com)
Katalogi stron pochodzą z Open Directory. W większości przypadków na pierwszej stronie wyświetlane są rezultaty z serwisu Direct Hit, następne pochodzą z wyszukiwarki Inktomi. Direct Hit sprawdza, które strony z wyników wyszukiwania są oglądane najczęściej i najdłużej .W ten sposób znajdowane są najbardziej popularne strony. Jest to pierwsze 10 wyników.
Nie indeksuje: ramek, stron zakładających obowiązkowe cookie, url ze specjalnymi znakami. Nie „lubi” wolnych stron może to spowodować wyrzucenie strony z indeksu
Ranking ustalany jest na podstawie treści i częstotliwości słów kluczowych. Preferuje strony 100 - 250 słów. Tytuł jest najważniejszą częścią, tu powinny znaleźć się najważniejsze słowa kluczowe, nie powinien on przekraczać 100 znaków. Znaczniki meta są bardzo ważne: description powinien mieć około 150 znaków, keywords - około 75 znaków.
Toleruje około 3-7% słów kluczowych w stos. do całkowitej treści, najważniejsze powinny się znaleźć w adresie i tytule strony. Warto ich również używać w nazwach odnośników i plików. Jako spam traktuje: często powtórzone słowa kluczowe, meta refresh, nadmierne powtarzanie treści - podobne lub nieomal identyczne strony, niewidoczny tekst, niepowiązane ze sobą słowa kluczowe
Yahoo! (http://www.yahoo.pl)
Od czerwca 2000 rezultaty wyszukiwania uzupełniane są przez serwis wyszukiwawczy Google. Wyniki wyszukiwania pojawiają się w kolejności: kategorie Yahoo, strony www, strony zaindeksowane przez wyszukiwarkę Google, wiadomości z serwisu Yahoo!, informacje ze sklepów Yahoo! Kolejność wyświetlania zależy również od następujących czynników:
Multiple search term matches - strony, kategorie i dokumenty z większą liczbą znalezionych słów kluczowych są notowane wyżej niż te, w których poszukiwane słowa występują tylko raz.
Usytuowania słów kluczowych - strony, w których poszukiwane słowa zostały znalezione w tytule dokumentu są wyżej notowane niż strony posiadające słowa kluczowe w komentarzu, treści dokumentu lub adresie.
Hierarchia kategorii - znalezione kategorie stron, które znajdują się wysoko w „hierarchii Yahoo!” są wyżej notowane niż kategorie bardziej zagłębione.
Długie ładowanie strony może spowodować wyrzucenie z indeksu.
Zawartość strony jest istotna, decyzja należy do edytora kategorii, ważne jest również odpowiednie przypisanie strony do kategorii.
Tytuł strony i metaznaczniki wpływają na ranking. Ilość odnośników do witryny jest również istotna. Katalog korzysta tutaj z Google link popularity.
DMOZ (www.dmoz.org)
Jest to katalog. Ocena i co za tym idzie ranking strony zależy od redaktora kategorii.
Tytuł jest niezbyt istotny, ale pomocny. Wykorzystuje Google link popularity. Lubi odpowiednio dobrana kategorię, właściwe słowa kluczowe i opis. Prędkość ładowania również jest istotna
YANDEX (www.yandex.pl)
Indeksuje wszystkie strony www - zarówno statyczne jak i te, których zawartość jest generowana dynamicznie z bazy danych. Wykrywa duplikaty stron, które są usuwane z indeksu, ale mogą być pokazywane w rezultatach wyszukiwania. Kopie na innych serwerach (mirrory), zapętlone odnośniki, skrypty z taką samą zawartością są wykrywane i mogą być usuwane z indeksu.
Płatne pozycjonowanie
Istnieje możliwość płatnego pozycjonowania w wyszukiwarkach. Najpopularniejsze formy to:
Linki sponsorowane - po danym słowie kluczowym strona pojawia się w wynikach na jednym z pierwszych 3 miejsc (pierwszy wynik na rys. 14 wśród standardowych wyników wyszukiwania),
Boksy reklamowe - po danym słowie kluczowym, po prawej stronie wyników wyszukiwania umieszczany jest boks, gdzie jest link i bardzo krótki opis witryny (prawa kolumna na rys. 14).
Rysunek 14. Boksy reklamowe w Google
Koszty płatnego pozycjonowania:
OnetBoksy (połączenie linków sponsorowanych i boksów reklamowych) - działają na zasadzie aukcji, ustalamy maksymalną cenę jaką jesteśmy w stanie zapłacić za kliknięcie w boks (ceny rzędu kilku, kilkudziesięciu groszy). Im większa stawka zostanie podana tym większa szansa, że reklama wyświetli się częściej i w bardziej widocznym miejscu wśród wyników wyszukiwania. Cena za pojedyncze kliknięcie (CPC - cost per clck), podawana przez użytkownika jest ceną maksymalną. Nie oznacza to, że aż tyle będzie płacił. System pobiera za kliknięcie tylko tyle, ile wystarczyłoby, żeby znaleźć się w tym samym miejscu. Różnica między wpisanym przez maksymalnym CPC, a faktycznie zapłaconym może być nawet. stukrotna. O tym, jakie jest szacowane faktyczne CPC dla danego słowa przy podanym maksymalnym CPC można dowiedzieć się klikając w opcję "Prognozuj liczbę odwiedzin". Ustalany jest również dzienny budżet, czyli ile maksymalnie chcemy zapłacić za kampanię.
WP - boksy reklamowe - działają podobnie jak te na Onecie.
Linki sponsorowane - opłata ze wyświetlenie linku (można podać dowolną ilość słów kluczowych). Minimalny koszt kampanii to 600 PLN. Możliwość regionalizacji - np. wyświetlanie tylko dla osób z Małopolski. Za darmo można otrzymać projekt kampanii.
Google AdWords - cennik oparty jest na systemie koszt za kliknięcie. Ułatwia to kontrolowanie kosztów i oznacza, opłaty tylko wtedy, gdy użytkownik kliknie na reklamę. Mechanizm podobny do tego na Onecie.
Generalnie, aby pozycjonowanie płatne przyniosło znaczące efekty, trzeba poświęcić sporą kwotę - min. kilkaset PLN miesięcznie. Jest to droga, ale skuteczna reklama firmy (sprawdziła się w portalach xtech.pl znacznie podnosząc liczbę odwiedzin).
Pozycjonowanie w systemach tworzonych dynamicznie
Systemy statyczne i dynamiczne
Istnieją dwa podstawowe metodologie tworzenia stron Internetowych. Statyczne strony WWW wykorzystują język HTML, nie komunikują się z bazą danych. Natomiast dynamiczne strony WWW cechują się tym, iż mogą pokazywać aktualne informacje bez konieczności dokonywania zmian w tych dokumentach. Mogą więc służyć do prezentowania informacji, które często się zmieniają.
Zasadnicza różnica między statycznymi i dynamicznymi stronami WWW polega na technice ich wytwarzania. Każda strona statyczna, będąc częścią składową większego serwisu internetowego, musi być wcześniej przygotowana przez internetowego twórcę. Ostateczny kształt, struktura i schemat organizacyjny takiego serwisu musi być znany już na etapie projektowania i przygotowywania. Strony dynamiczne, w przeciwieństwie do stron statycznych, generowane są na bieżąco przez serwer HTTP na podstawie zmiennych i parametrów przekazanych przez przeglądarkę internetową. W procesie generowania strony WWW udział bierze współpracujący z serwerem rezydentny moduł lub program zewnętrzny, który interpretuje polecenia zawarte w skrypcie. Wygenerowany w ten sposób dokument w całości opiera się na kodzie (znacznikach) HTML.
Dynamiczne strony WWW spotykamy codziennie, korzystając z Internetu. Portale, sklepy internetowe, systemy zarządzania treścią (CMS), gry sieciowe - wszystkie te witryny korzystają z baz danych i skryptów wykonywanych po stronie serwera.. Jest wiele technologii umożliwiających realizację tego typu witryn, np. Połączenie PHP i MySQL czy ASP i MSSQL.
Pojęcie stron generowanych dynamicznie często mylone jest z dynamicznym HTML'em, który ma niewiele wspólnego z technologią dynamicznego generowania stron DHTML, jest jedynie zbiorem rozszerzeń języka HTML, który umożliwia tworzenie interaktywnych i multimedialnych stron WWW w całości przetwarzanych po stronie przeglądarki internetowej.
Metody pozycjonowania w systemach dynamicznych
Google już od dłuższego czasu indeksuje strony generowane dynamicznie, w tym strony ASP czy PHP oraz strony ze znakami zapytanie w adresie URL. Zaleca się jednak, aby liczba parametrów występujących w adresie URL nie przekraczała czterech. Mimo wszystko strony dynamiczne utrudniają indeksację i mogą zostać pominięte lub źle zaindeksowane. Istnieje tutaj ryzyko „zapętlenia się” robota indeksującego.
W przypadku zauważenia błędów w indeksacji stron (można to sprawdzić w wynikach wyszukiwania) lub gdy strony nie zostają w ogóle zaindeksowane Google sugeruje stworzenie ich statycznych kopii. Oczywiście w takim przypadku trzeba koniecznie użyć pliku robots.txt, aby zablokować dostęp do stron dynamicznych. Dzięki temu nie będziemy mieli do czynienia z duplikatami stron uznawanymi za spam.
Dodatkowo przydatna może być mapa witryny, którą można zgłosić za pomocą usługi Google Sitemaps. Umożliwia ona zgłoszenie wszystkich adresów URL do indeksu Google oraz otrzymywanie raportów dotyczących widoczności stron w Google. Usługa ta nie gwarantuje jednak uwzględnienia wszystkich stron mapy witryny w wynikach wyszukiwania.
W związku z częstymi problemami z indeksacją stron dynamicznych, szczególnie w przypadku dużych serwisów, warto rozważyć dwa sposoby pozwalające na lepszą widoczność w wyszukiwarkach. Pierwszy z nich to stworzenie alternatywnego systemu stron statycznych, omówiony on zostanie w następnym podrozdziale na przykładzie projekty firmy xtech.pl. Drugi to wykorzystanie narzędzia pozwalającego na „przepisywanie” adresów. Dla serwera Apacze narzędzie to nazywa się „mod_rewrite”, a dla IIS - ISAPI_Rewrite (URL Rewrite engine for IIS). Idea ich działania jest podobna, poniżej przedstawiony został opis „mod_rewrite”.
Mod_rewrite
Moduł ten powala na zamianę adresów URL na bardziej „przyjazne” dla robotów internetowych oraz dla użytkowników serwisu. Przykładowo pozwala on na zamianę adresu:
http://www.strona-firmowa.pl/produkty/wyswietl.php?id=572
na: http:///www.strona-firmowa.pl/produkty/572
Dzięki temu możemy nie tylko stworzyć proste linki, ale również ukryć przed użytkownikiem informację, w jakim języku napisane są skrypty.
Aby rozpocząć przepisywanie adresów utworzyć w katalogu głównym swojego serwera plik .htaccess oraz umieścić w nim odpowiednie wpisy.
Jeśli nie nie pojawi się błąd nr 500 to znaczy, że moduł został zainstalowany.
Oto przykład prostego przepisania (linia .htaccess musi być pusta!):
RewriteEngine on
RewriteRule ^stary\.html$ nowy.html
Pierwsza linia zawiera informację o aktywacji mod_rewrite, natomiast druga - regułę przepisywania. Domyślnie przepisywany jest adres URL wywołania strony. Oto składnia:
RewriteRule maska_przepisania docelowy_adres [opcje]
Reguła szukać będzie szukać pliku o nazwie stary.html i jeśli go znajdzie zamieni na adres: nowy.html. Definicje maski przepisania konstruowane są za pomocą wyrażeń regularnych. Przykładowo [0-9] to znak z podanego zakresu; (…) to grupowanie; $1, $2,… to parametry. Warto tutaj skorzystać z dokumentacji Perla.
Bardziej zaawansowany przykład:
RewriteEngine On
RewriteRule ^produkt/([0-9][0-9])/$produkt.php?id=$1
Szukany ciąg znaków zaczyna się od „produkt/”, po nim następują dwie cyfry. Zatem przepisanie wygląda następująco:
produkt.php?id=52 zamienia się w: produkt/52/
Znaki ^ oraz $ informują o dopasowywaniu od początku do końca tekstu źródłowego. Jeśli je pominiemy to wyrażenie regularne będzie szukać wzorca w dowolnym miejscu, np. maska ^/nowe/$ nie będzie działać na tekst /produkty/nowe/promocja, ponieważ tekst powinien zawierać tylko „/nowe/”. Natomiast maska /nowe/ będzie pasować.
Aby zapobiec zapętleniu się reguł należy pamiętać, iż po przepisaniu adresu, następuje ponowne wywołanie strony - już z nowym adresem - wtedy ponownie zostają wykonane reguły zapisane w pliku .htaccess. Należy zatem tak stworzyć reguły, aby raz przepisany adres nie był kolejny raz przepisywany przez tę samą regułę np.:
RewriteEngine On
RewriteRule (.*) /pokaz.php/$1
Pierwszy przebieg:
tekst: produkty/52
wynik: /pokaz.php/produkty/52
Drugi przebieg:
tekst: /pokaz.php/produkty/52
wynik: /pokaz.php/pokaz.php/produkty/52
Reguła ta będzie wykonywana w nieskończoność. Oto poprawna wersja reguły:
RewriteEngine On
RewriteRule ^([^.]*)$ /pokaz.php/$1
Pierwszy przebieg wygląda podobnie jak w poprzednim przykładzie, natomiast drugi zwróci błąd, gdyż przepisywany tekst zawiera już kropkę. Zwykle kropka pojawia się tylko w nazwie pliku - w tym przypadku jest to pokaz.php.
Inną metodą jest użycie RewriteCond w celu sprawdzenia, czy adres nie zawiera rzeczywistego katalogu i nazwy pliku - jeśli tak, oznacza to, że posiadamy już adres w ostatecznej postaci.
RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule (.*) /pokaz.php/$1
Oba dopasowania RewriteCond sprawdzają zawartość wywołanego adresu - pierwsze sprawdza, czy adres nie prowadzi do pliku (parametr -f), natomiast drugie czy nie jest to katalog (parametr -d). Po pierwszym przebiegu i wykonaniu reguły zmienna REQUEST_FILENAME będzie zawierać już nazwę pliku tj. pokaz.php.
Projekt xtech.pl
Projekt pozycjonowania serwisów internetowych firmy xtech.pl dotyczy pozycjonowania systemów dynamicznych.
Cel:
Celem projektu jest zwiększenie widoczności w wyszukiwarkach stron dotyczących katalogów branżowych, firm, produktów, realizacji, wydarzeń (i innych) znajdujących się na witrynach trzech serwisów branżowych: www.automatyka.pl, www.wodkaneko.pl oraz www.energetyka.xtech.pl. Pierwszy aspekt celu sprecyzowany został jako znalezienie się (dla jak największej liczy stron) na pierwszej lub drugiej stronie wyników dla słów kluczowych związanych z katalogami branżowymi oraz na pierwszej stronie dla specyficznych produktów, realizacji itp. Drugi natomiast dotyczy zwiększenia oglądalności serwisów branżowych.
Projekt rozpoczął się w październiku 2004 roku, a pierwsza faza realizacji projektu zakończyła się w styczniu 2005. Kolejna faza, z uwagi na ograniczone zasoby, przewidywany jest na koniec roku 2006.
Założenia:
Podstawowym założeniem projektu jest pozycjonowanie serwisów dynamicznych poprzez stworzenie alternatywnego systemu stron statycznych pod adresem www.katalog.xtech.pl nazywanego dalej „katalogiem xtech”.
Kolejnym założeniem jest umieszczenie w katalogu wszystkich informacji dotyczących firm, produktów, realizacji, wydarzeń, wydawnictw, wiadomości oraz przede wszystkim katalogów branżowych wszystkich serwisów (zawierają one najważniejsze słowa kluczowe związane tymi branżami). Jest to o tyle trudne, gdyż stron, które należy wypozycjonować jest około 20000. Składa się na to obecnie:
2658 stron o zarejestrowanych firmach,
11999 stron o produktach,
759 o wydarzeniach,
366 o realizacjach,
204 o publikacjach,
2817 o wydarzeniach,
Kilkaset stron dotyczących katalogów branżowych.
Katalog xtech zawiera oczywiście o wiele więcej stron, gdyż należy wziąć pod uwagę „strony pośredniczące”, czyli grupujące np. po 20 realizacji, 50 produktów itd., zgodnie z informacją, iż strona powinna zawierać nie więcej niż 50-100 linków (przykładowo nie można umieścić na jednej stronie 11999 linków do stron o produktach).
Istotnym postulatem jest to, iż w momencie odwiedzenia katalogu xtech użytkownik powinien skorzystać z linku przekierowującego do właściwych serwisów (automatyki, wodkaneko lub energetyki) ponieważ celem jest zwiększenie oglądalności właśnie tych serwisów.
Wykonanie stron przewidziano w języku XHTML 1.0.
W realizację projektu zaangażowany został dział IT (2 osoby) wraz ze wsparciem działu marketingu oraz pozostałych pracowników firmy podczas otwartych spotkań projektowych. Nie przewidziano udziału firm zewnętrznych.
Realizacja i wdrożenie
Pierwszą częścią projektu było stworzenie pewnego rodzaju bazy wiedzy na temat pozycjonowania (tworzyłem ją w okresie od października do listopada 2004),
Następnie cały zespół stworzył projekt odpowiedniej drzewiastej struktury stron począwszy od strony głównej katalogu xtech, poprzez strony dotyczące katalogów branżowych, aż po dedykowane strony dotyczące poszczególnych firm czy produktów. Struktura została stworzona w oparciu o zasady przekazywania Page Ranku wewnątrz witryny (omówionej w rozdziale 3.4), tak aby „nakierować” PR przede wszystkim na strony dotyczące katalogów branżowych oraz aby nie nakierowywać na PR na stronę główną, z pozycjonowania której nie byłoby żadnej korzyści (zbyt ogólna tematyka strony mówiąca o trzech serwisach branżowych). Wiąże się to z założeniem, iż użytkownicy powinni zostać jak najszybciej „nakierowani” na właściwe serwisy branżowe,
W kolejnym etapie przygotowałem szablony stron poszczególnych poziomów (zaprojektowanej wcześniej drzewiastej struktury),
Przygotowane zostały teksty, które powinny się znaleźć na stronach odzwierciedlających katalogi branżowe. W tym etapie brał udział dział marketingu,
Następnie wszystkie informacje (wraz z wyszczególnieniem najważniejszych fragmentów) zawarte w bazy wiedzy o pozycjonowaniu wraz z przygotowanymi tekstami zostały przekazane osobie odpowiedzialnej za wygenerowanie systemu stron statycznych. Generowanie odbyło się z wykorzystanie mechanizmów .NET,
Bardzo ważne było, aby roboty internetowe szybko odwiedziły katalog xtech, dlatego na stronach głównych serwisów branżowych umieszczone zostały linki prowadzące właśnie do tego katalogu. Było to możliwe dzięki dobrej pozycji serwisów w Google (i nie tylko) - ich PR waha się od 4 do 5,
Po wykonaniu powyższych etapów, katalog xtech umieściłem w kilkudziesięciu katalogach internetowych (po uprzednim ustaleniu opisów i słów kluczowych związanych z katalogiem xtech),
Ostatni etap projektu dotyczył monitorowania wyników przy pomocy narzędzia WebTrends.
Wyniki projektu
Mimo, iż projekt nie został jeszcze zakończony, dane od stycznia do sierpnia 2006 pozwalają na wstępną analizę wyników projektu.
Analiza wyników wyszukiwania w Google
Do końca sierpnia Google zaindeksował ponad 30000 stron, co świadczy o niemal całkowitej indeksacji (Cały katalog xtech zawiera niewiele więcej stron).
Nie na wszystkie najpopularniejsze słowa znajdujące się na stronach odzwierciedlających katalogi branżowe (np. „czujniki”, „rury”, itp.) udało się znaleźć na pierwszych dwóch stronach wyników. Natomiast dla mniej popularnych (np. „kalibratory”) oraz dla wielu fraz (np. „dedykowane układy sterowania”) cel został osiągnięty.
Jeśli chodzi o specyficzne produkty, firmy, realizacje itd., to po wpisaniu ich nazw w wyszukiwarce Google link prowadzący do katalogu xtech znajduje się zwykle na pierwszym miejscu.
Wniosek płynący z tej części analizy to konieczność „lepszego” przygotowania tekstów umieszczanych na stronach opisujących katalogi branżowe. Przewidziane jest to w kolejnej fazie projektu.
Analiza oglądalności (na podstawie danych z WebTrends)
Pozwoli ona odpowiedzieć na pytania jaka jest popularność katalogu xtech oraz jaki wpływ ma katalog na oglądalność stron serwisów branżowych.
Na początek warto zaznaczyć różnice pomiędzy odwiedzającym, wizytą, a odsłoną. Liczba odwiedzających to liczba osób, która odwiedziła katalog. Jeden odwiedzający może wygenerować kilka wizyt. Podczas wizyty użytkownik odwiedza strony, liczba wizyt jest liczbą unikalnych odwiedzonych stron. Natomiast liczba odsłon jest to liczba odwiedzonych stron, przy czym pojedyncza strona może zostać „odsłonięta” (wyświetlona) więcej niż jeden raz.
Rysunek 15. Odsłony na stronach katalogu xtech
Źródło własne
Rysunek 16. Wizyty na stronach katalogu xtech
Źródło własne
Jak widać na powyższym wykresie już w pierwszym miesiącu istnienia systemu odwiedzony on został ponad 20000 razy. W lutym liczba ta wzrosła ponad dwukrotnie, a kolejnym miesiącu również się zwiększyła. Tak wysoka oglądalność spowodowana była jednak w dużej mierze poprzez najważniejsze w branży targi „Automaticon”, które co roku generują wzmożony ruch na stronach największego serwisu firmy xtech.pl - www.automatyka.pl. W kolejnych miesiącach oglądalność spadała od około 29000 do około 22000. Spowodowane to było tym, iż wiele osób poznało serwisy branżowe i zaczęło szukać informacji bezpośrednio na nich, a poprzez Google szukało innych stron. Świadczy o tym m.in. fakt, iż codziennie do firmy dzwoni kilka osób, które znalazły się w katalogu xtech, ale chciałby skorzystać z korzystać z serwisów branżowych jednak z różnych powodów nie klikają na linki przekierowujące do tych serwisów.
Ważną informacją jest tutaj wzmianka o sezonowości branż inżynierskich - miesiące wakacyjne cechują się zdecydowanym obniżeniem aktywności zarówno wśród firm jak i ich klientów.
W przypadku odsłon można wyciągnąć podobne wnioski.
Rysunek 17. Liczba wejść na strony serwisów branżowych prowadząca z katalogu xtech
Źródło własne
Ważnym aspektem projektu pozycjonowania było zdobycie dla serwisów branżowych nowych użytkowników, którzy trafią na nie poprzez katalog xtech. Wysoka liczba wejść (przekierowań) w marcu wiąże się ze wspomnianymi wcześniej teragami Automaticon. W kolejnych miesiącach liczba przekierowań nieznacznie malała wynosząc dla:
automatyka.pl między 584 a 931,
wodkaneko.pl między 305 a 820,
energetyka.xtech.pl między 197 a 768.
Warto zaznaczyć tutaj, iż serwisy zostały wymienione w kolejności względem czasu funkcjonowania i aktualnej obszerności zgromadzonych danych.
Rysunek 18. „Wejścia” z Google, Onet oraz bezpośrednie na strony katalogu xtech
Źródło własne
Jak widać na powyższym wykresie najwięcej wejść do katalogu xtech prowadziło z wyszukiwarki Google. Ich liczba malała do około 10000 miesięcznie w związku z malejącą liczbą odwiedzin katalogu (Rys. 11, rys. 12). Wejścia z wyszukiwarki Onet miały podobną tendencję, lecz w dużo mniejszej skali, z uwagi na zdecydowanie mniejszą popularność wyszukiwarki. Na uwagę zasługuje wysoka liczba bezpośrednich wejść na strony katalogu, co nie jest pożądanym zjawiskiem (celem jest zwiększenie odwiedzalności serwisów branżowych).
Podsumowując: w okresie styczeń - sierpień 2006 strony katalogu xtech odwiedziło ponad 250000 internautów, którzy wygenerowali ponad 750000 odsłon. Natomiast na strony serwisów branżowych trafiło poprzez katalog xtech blisko 15000 użytkowników. Liczba ta nie uwzględnia internautów, którzy poprzez katalog Utech poznali serwisy branżowe, stając się ich użytkownikami.
Wynik ten został uznany jako bardzo dobry, ale kolejna faza projektu powinna zapewnić jeszcze większy „ruch” na stronach zarówno katalogu jak i serwisów branżowych.
Analiza statystyk i utrzymanie pozycji rankingowej
Posiadając witrynę www ważne jest aby prawidło monitorować odwiedziny na stronach. Będzie to pomocne, aby dowiedzieć się więcej zarówno o popularności poszczególnych stron jak i o użytkownikach, którzy je odwiedzają. Umiejętnie wyciągane wnioski wskazują drogi rozwoju serwisu Internetowego tak aby osiągnąć lepszą oglądalność, zwiększyć zadowolenie klientów oraz wypromować towary, usługi i idee.
Statystyki pozwalają zdobyć wiedzę o popularności witryny, o użytkownikach. Umożliwią również zwiększenie efektywności witryny i zoptymalizowanie jej pod kątem użytkowników.
Firmy posiadające serwisy internetowe, chcą wiedzieć czy dobrze zainwestowały swoje pieniądze, dlatego na rynku pojawiła się szeroka gama systemów monitorowania.
Takie systemy możemy podzielić na 3 główne typy:
Liczniki odwiedzin (jest to najprostsza metoda, niosąca jednak niewiele informacji. Zamieszczając na stronie licznik dowiemy się jedynie ile razy dana strona została wyświetlona),
Systemy analizujące logi serwera (omówione w kolejnym podrozdziale),
Systemy wykorzystujące skrypty instalowane na stronach (omówione w podrozdziale 5.2)
Analiza logów serwera
Logi serwera są to pliki tekstowe (dla dużych serwisów mających kilkaset tysięcy odsłon mają one kilkadziesiąt megabajtów), w których zapisywane są informacje o całym ruchu na witrynie. Są tam informacje o pobraniu z serwera każdego elementu - pliku html, obrazka, dźwięku; informacje o IP użytkownika i wiele innych. Angażując się przykładowo w reklamę bannerową można na podstawie analizy logów zbadać jej skuteczność. Aby analiza logów miała sens, ilość zgromadzonych informacji musi być odpowiednio duża.
Popularne płatne programy do analizy logów to WebTrends, Analog czy NetTracker.
Analiza logów serwera ma jeden duży minus - należy pomijać (wykorzystując dany program podając odpowiednie IP) wizyty robotów internetowych, które generują „sztuczny” ruch na stronach - trzeba zatem samodzielnie tworzyć bazę IP robotów.
Program WebTrends pokazuje wiele informacji takich jak np. liczbę odwiedzin w poszczególnych okresach, wyszukiwarki które przekierowały na naszą stronę czy system operacyjny użytkownika (podobne informacje jak w przypadku instalowania skryptów na stronach).
W dziale IT firmy Astor przeprowadzono badanie porównujące działanie dziewięciu programów analizujących logi. Wynik był dość zaskakujący, gdyż różnice między poszczególnymi danymi wynosiły do 20 - 30 %.
Darmowe programy tego typu zwykle mają niezbyt atrakcyjny webowy interfejs graficzny. Dlatego niewskazane jest zamieszczanie na witrynie linku do tego interfejsu. Graficznie w miarę dobrze prezentuje się jedynie program AWStats. Problem pojawia się również z uprawnieniami w momencie, gdy chcemy użytkownikom pokazać tylko niektóre dane.
Jednak mimo tych minusów analiza logów jest wręcz niezbędna dla wewnętrznych potrzeb serwisu (jak chociażby wspomniana analiza kampanii bannerowych).
Usługi firm instalujących skrypty na stronach
Na rynku istnieje wiele firm oferujących systemy monitoringu odwiedzin na stronach WWW. Poniżej przedstawione zostanie porównanie dwóch systemów: darmowego stat4u oraz płatnego stat.pl.
Stat4u
Serwis internetowy stat4u jest programem do generowania statystyk odwołań do stron WWW. Wypełniany jest odpowiedni formularz, gdzie podawany jest między innymi adres email, na który przesyłany jest odpowiedni kod HTML. Jest on wklejany przez użytkownika na stronę, dla której ma być naliczana statystyka odwiedzin. Od tej pory można dokładnie śledzić oglądalność serwisu Internetowego. System Stat4u umożliwia poznanie takich informacji jak np:
Liczba odwiedzających (w poszczególnych dniach, miesiącach, w weekendy itp.),
Data i godzina oraz nazwa lub adres komputera, z którego wchodził oglądający,
Ilość unikalnych użytkowników,
Zestawienia geolokalizacyjne,
Przeglądarki i systemy operacyjne użytkowników,
Najczęstsze słowa i frazy kluczowe wpisywane do wyszukiwarek, po których znaleziono stronę,
Oraz wiele innych informacji oraz ich zestawień.
System jest bezpłatny, lecz istnieje również płatna wersja systemu - stat4u PRO - nie wymaga ona umieszczania logo na stronach i nie emituje reklam. Funkcje dostępne w wersji komercyjnej są identyczne jak w wersji darmowej.
Program nie ma jednak atrakcyjnego graficznie interfejsu - wszystkie dane przedstawiane są na jednej stronie www w postaci tabelek i wykresów, takich jak przedstawiony poniżej:
Rysunek 19. Fragment interfejsu systemu stat4u
Stat.pl
Jest to system dla tych, którzy chcą w łatwy i czytelny sposób mieć ciągłe dane o ruchu na swojej witrynie. Pozwala zoptymalizować witrynę pod kątem uprawnień dla poszczególnych użytkowników. System nie wymaga dodatkowego sprzętu ani oprogramowania.
Pozwala monitorować zarówno małe witryny jak i te największe. Istnieje również możliwość monitorowania witryn wykonanych w technologii Flash. Witryny mogą być wykonane w technologiach takich jak: HTML, ASP, PHP, JSP.
System dostarcza takich informacji jak:
Ilość odsłon, wizyt,
Ilość unikalnych wizyt,
Jaki był czas pozostawania na stronach,
Jakie pliki użytkownicy ściągnęli na swój komputer,
Ilu użytkowników odwiedziło bezpieczne strony witryny (SSL),
Skąd trafili użytkownicy - np. bezpośrednio, przez wyszukiwarki, katalogi internetowe, z innych stron,
Jakie słowa kluczowe zostały użyte w wyszukiwarkach, aby trafić na witrynę,
geolokalizacja - miasta, województwa, państwa, kontynenty z których pochodzą użytkownicy,
Systemy operacyjne, przeglądarki, wersje językowe, rozdzielczości, liczba kolorów,
Szerokość wizyty - stosunek liczby stron witryny, które użytkownik odwiedził podczas wizyty, do ogólnej liczby stron witryny. Szerokość wyrażana jest procentowo (w rozbiciu na wybrany okres czasu) w odniesieniu do wszystkich stron witryny,
Głębokość strony w wizycie - liczba stron odwiedzonych przez użytkownika przed dotarciem na poszukiwaną przez niego podstronę,
Ścieżka wizyty - jest to ciąg podstron odwiedzonych po sobie przez jednego użytkownika podczas trwania jednej wizyt,
Ranking ścieżek wizyt, czyli ścieżki, jakimi użytkownicy poruszają się po serwisie. Są one pokazywane w postaci list skryptów odpowiadających stronom, które były kolejno odwiedzane przez użytkowników w trakcie wizyt,
Profil wizyty - zbiór stron, które użytkownik odwiedził w trakcie wizyty. W odróżnieniu od statystyki "Ścieżki wizyt", nie są tutaj brane pod uwagę kolejność odwiedzania stron oraz fakt kilkukrotnego odwiedzenia danej strony.
Interfejs został stworzony w technologii Macromedia Flash i aby z niego korzystać wystarczy przeglądarka internetowa z zainstalowanym pluginem Flash w wersji 6.
Dane są przedstawione w czytelny sposób i bardzo łatwo do nich dotrzeć.
Poniżej widoczny jest fragment przedstawiający odsłony względem województw:
Rysunek 20. Fragment interfejsu systemu stat.pl
Aby skorzystać z systemu Należy wypełnić formularz rejestracyjny. Następnie tworzone są odpowiednie skrypty JavaScript. Każdy skrypt należy wkleić do kodu strony internetowej (w obrębie sekcji body, lub bezpośrednio w pliku „swf” w przypadku stron wykonanych w technologii flash), która ma być monitorowana. Jeżeli dany skrypt zostanie wklejony do kilku stron to w systemie te strony będą traktowane jak jedna strona.
Aby wejść do systemu można zalogować się na stronie stat.pl. Można również na własnej witrynie umieścić link do systemu z odpowiednimi parametrami (będą one widoczne w adresie przeglądarki, gdyż system ma interfejs webowy). Ważne jest tutaj, aby dać użytkownikom odpowiednie uprawnienia.
Obecnie istnieje kilka wersji systemu:
stat PBI - wersja darmowa, przeznaczona dla stron domowych, hobbystycznych, blogów. Składa się na nią niezależne monitorowanie 2 stron (grup stron), promocja witryny poprzez ranking, logo i ankiety, brak reklam komercyjnych. W tej wersji są dostępne 129 statystyk,
statOptimum - wersja płatna 120 PLN rocznie dla witryn o oglądalności do 100 000 odsłon miesięcznie. W ofercie jest niezależne monitorowanie 30 stron, monitorowanie FLASH, brak reklam i ankiet, brak obowiązku umieszczenia logo stat.pl oraz14 dni bezpłatnego okresu testowego. Nadaje się szczególnie dla małych i średnich firm, dla wortali temetycznych. W tej wersji dostępne jest 139 statystyk oraz statystyki QuickStats - możliwość szybkiego uzyskania informacji liczbowych pod względem najważniejszych parametrów z całej witryny ogółem oraz w podziale na poszczególne strony,
statBiznes - oferta dla dużych witryn firmowych, sklepów internetowych, agencji interaktywnych, portali. W ramach tej wersji jest niezależne monitorowanie 100 stron, analiza zachowania użytkownika, monitoring PHP, ASP, stron szyfrowanych, SSL, monitorowanie FLASH, kliknięć w linki. Do dyspozycji jest 14 dni bezpłatnego okresu testowego, pełna funkcjonalność statystyk oraz integracja z CMS. StatBiznes to około 170 statystyk oraz QuickStats. Abonament roczny waha się między 600 a 6000 PLN rocznie w zależności od ilości odsłon,
statBiznesPRO - jest to oferta dla e-commerce, będąca rozszerzeniem statBiznes. W ramach tej wersji dostępnie jest jest niezależne monitorowanie 200 stron, analiza zachowania użytkownika, monitoring FLASH, kliknięć w linki, monitoring PHP, ASP, stron szyfrowanych SSL oraz 14 dni bezpłatnego okresu testowego. Dostępna jest pełna funkcjonalność statystyk. Możliwa jest również integracja z CMS. Cena waha się między 900 a 9000 PLN rocznie.
Zakończenie
Etyka pozycjonowania serwisów internetowych
Zadaniem wyszukiwarek jest dostarczenie jak najlepszych wyników przeszukiwania Internetu. Usługi pozycjonowania stron powinny zmierzać to tego samego celu - lepszego indeksowania zasobów oraz trafniejszych wyników poszukiwań.
Istnieje kilka podstawowych zasad związanych z pozycjonowaniem w wyszukiwarkach. Ich przestrzeganie świadczy o profesjonalizmie oraz jakości świadczonych usług. Oto najważniejsze z nich:
Nie działanie na szkodę klienta - nie można stosować działań nieetycznych, które mogą prowadzić nawet do trwałego usunięcia strony z indeksu wyszukiwarki lub katalogu.
Takie działania to:
Tworzenie kodu HTML wbrew specyfikacji języka hipertekstowego, dostępnej pod adresem http://www.w3.org/, tak aby oszukiwać mechanizmy wyszukiwawcze - na przykład nadmierne, nieuzasadnione wykorzystanie znaczników <H1>
Manipulacja słowami kluczowymi:
Nadmierne umieszczanie ich w treści strony tylko po to, aby uzyskać większe nasycenie słów - na przykład nielogiczne akapity tekstu, treść w postaci słów kluczowych oddzielonych przecinkami,
Umieszczanie ich w meta tagach niezgodnie z ich przeznaczeniem lub tworzenie własnych meta tagów do tego celu,
Umieszczanie ich w komentarzach i innych fragmentach kodu, niewidocznych dla wszystkich użytkowników odwiedzających stronę (np. ukryte warstwy, warstwy przesunięte poza ekran monitora, tekst w kolorze tła),
Wykorzystywanie słów kluczowych nieadekwatnych do zawartości merytorycznej witryny, naruszających dobre imię i prywatność osób fizycznych oraz nazw firm, organizacji i znaków handlowych niedotyczących witryny, a w przypadku znaków chronionych - wykorzystywanie ich wbrew woli właściciela.
Rejestracja w wyszukiwarkach i katalogach:
Stron o identycznej lub prawie identycznej treści pod kilkoma różnymi adresami internetowymi (domenami),
Tych samych stron pod inną nie mającą odzwierciedlenia w zawartości merytorycznej witryny (np. tytułowanie postaci „ABC...”, „123 ...”),
Z wykorzystaniem nieprawdziwych, nie odpowiadających zawartości merytorycznej witryny informacji (zbyt długie lub nieprawdziwe opisy, podawanie nieistniejących adresów email w formularzach rejestracyjnych, brak zgodności strony z kategorią tematyczną i wersją językową katalogu).
Prezentowanie innego kodu źródłowego strony robotom indeksującym, a innego użytkownikom - w szczególności redaktorom katalogów na czas rejestracji wpisu - do osiągnięcia wyższych pozycji (jest to tzw. „cloaking”)
Opracowanie zoptymalizowanych stron internetowych przeznaczonych wyłącznie dla robotów, na których następuje natychmiastowe przekierowanie na docelową stronę serwisu („doorway pages”). Przyjmuje się, że dopuszczalny minimalny czas przekierowania wynosi 30 sekund.
Przywłaszczenie całości lub części chronionego lub zoptymalizowanego kodu HTML z innych witryn internetowych. Powielanie kodu HTML własnego serwisu i tworzenie stron nieniosących ze sobą wartości dodanej dla odwiedzających je użytkowników, a w szczególności:
Tworzenie stron zawierających specjalnie spreparowany tekst tworzący pewne logiczne fragmenty ze zwrotami spamowymi („weaving”, „dilution”, „phrase stitching”)
Tworzenie stron zawierających specjalnie spreparowany tekst składający się z niepowiązanych między sobą logicznie wyrażeń i treści spamowych („dumping”)
Tworzenie stron zawierających tylko i wyłącznie odnośniki do innych stron
Tworzenie stron wyświetlających tylko i wyłącznie inne strony w ramce/ramkach
Tworzenie poddomen dla sekcji serwisu, które nie posiadają odrębnych, kluczowych funkcjonalności lub nie stanowią bogatego i unikalnego pod względem merytorycznym źródła informacji
Tworzenie serwisów i stron internetowych zawierających odnośniki do danego serwisu w celu zwiększenia ich ilości (zwiększenie wartości parametru "link popularity") i poprawienia pozycji serwisu w rankingach systemów wyszukiwawczych.
Nie zmniejszanie funkcjonalności strony,
Przestrzeganie regulaminu wyszukiwarek oraz katalogów, a w przypadku zmian w regulaminach jak najszybsze dostosowane się do nowych zasad. W przypadku wątpliwości co do interpretacji jakiegokolwiek punktu regulaminu specjalista powinien podjąć działania zmierzające do ich wyjaśnienia, przed podjęciem jakichkolwiek dalszych kroków związanych z pozycjonowaniem.
Nie wprowadzanie w błąd użytkowników - na przykład pozycjonowanie strony na słowo, niezwiązane z treścią strony,
Nie obrażanie użytkowników,
Przestrzeganie przepisów prawa - praw autorskich, zasad umieszczania marek czy znaków handlowych,
Nie przywłaszczanie pracy innych osób bez zgody odpowiednich osób,
Przedstawienie rzetelnych informacji co do własnego wykształcenia, certyfikatów, umiejętności, doświadczenia czy wykorzystywanych standardów,
Przedstawienie harmonogramów działania, efektów działalności, listy klientów,
Równorzędne traktowanie konkurujących ze sobą klientów - zakaz „specjalnego” traktowanie jednego z nich w zamian za dodatkowe korzyści,
Składanie realnych deklaracji - nikt nie może zagwarantować pierwszego miejsca w wynikach wyszukiwania, gdyż nie ma na to bezpośredniego wpływu. Zakaz deklarowania zbyt szybkich wyników - trzeba tutaj uwzględnić m.in. specyfikację strony WWW czy działania konkurencji,
Przedstawienie zastosowanych technik pozycjonowania na każde życzenie klienta oraz informowanie klienta o prowadzonych działaniach - np. o opisach umieszczanych w katalogach,
Raportowanie efektów prowadzonych działań,
Ochrona prywatności i anonimowości klienta - zachowanie poufności informacji, które nie są dostępne publicznie,
Dołożenie wszelkich starań, aby osiągnąć jak najlepsze rezultaty, oczywiście w ramach dozwolonych technik pozycjonowania. Śledzenie narzędzi do przeszukiwania Internetu oraz mechanizmów działania wyszukiwarek.
Rozwój wyszukiwarek, rynku pozycjonowania
Stworzenie wyszukiwarki spełniającej wymagania rozbudzone przez obecny stan rozwoju systemów wyszukiwawczych jest nie lada wyzwaniem.
Najtrudniejsze jest zbudowanie mechanizmu, który zrozumiałby i zaspokoił w pełni potrzeby informacyjne użytkownika. Obecnie zagadnienie to sprowadza się do to odpowiedzi na pytanie: które dokumenty są najbardziej podobne do zapytania użytkownika? Już dziś istnieją modele określające to prawdopodobieństwo: logicznie, wektorowo, probabilistycznie, czy lingwistycznie. Jednak nie są one i z pewnością nieprędko będą w stanie „zrozumieć” tekst.
Do tej pory powstały setki wyszukiwarek, przetwarzają one głównie tekst, lecz coraz wyraźniej widać potrzebę wyszukiwania dokumentów innego typu - np. grafiki, muzyki, czy filmów. Obecnie są one wyszukiwane poprzez tekst, który je opisuje. Nie możliwe jest np. wczytanie zdjęcia znanego pisarza i uzyskanie informacji na jego temat.
Przyszły rozwój wyszukiwarek będzie niewątpliwie związany z rozwojem technicznym Internetu (podłączaniem nowych klas urządzeń jak np. telefonia komórkowa czy sprzęt audio/video; komunikacją głosową), rozwojem usług oferowanych przez Internet, a także z integracją gromadzonej wiedzy oraz samouczenia się wyszukiwarek ze standardowymi mechanizmami wyszukiwania.
Obecnie czas reakcji na zapytanie użytkownika wynosi zwykle poniżej jednej sekundy. Jednak trudno oczekiwać, iż będzie tak nadal, ponieważ wyszukiwarki będą musiały sprostać coraz bardziej złożonym wymaganiom. Nie trudno sobie wyobrazić, iż użytkownik będzie w stanie poczekać kilka godzin zanim wyszukiwarka znajdzie dla niego odpowiednią ofertę pracy. Mogą zatem powstać zupełnie nowe typy wyszukiwarek z całkowicie inną strukturą niż obecna.
Również sam proces wyszukiwania może ulec zmianie z jednokrokowego (zapytanie-odpowiedź) na wielokrokowe (np. Zapytanie-odpowiedź-automatyczne sformułowanie dodatkowych podcelów wyszukiwania-ponowne wyszukiwania-integracja odpowiedzi-odpowiedź).
Powstaje coraz więcej wyszukiwarek specjalistycznych, zawierających informacje z konkretnej dziedziny, uwzględniając jej specyfikę.
Wyszukiwarki będą próbowały również „zrozumieć” użytkownika. Swego rodzaju behawioralna analiza zachowań użytkownika będzie polegała np. na próbie ustalenia dlaczego klika na dany link w wynikach czy na podpowiedziach w przypadku braku rezultatów.
Łączy to się również z zagadnieniem wyszukiwania spersonalizowanego. Jest to próba zrozumienia preferencji pojedynczego użytkownika na podstawie np. historii wyszukiwania, monitoringu kliknięć w konkretne wyniki czy analizy czasu przebywania na poszczególnych stronach. Na podstawie powyższych działań wyszukiwarka będzie mogła wyświetlić takie wyniki dla danego użytkownika, którymi prawdopodobnie będzie on zainteresowany.
Istniejącą od niedawna usługą, która jest dopiero we wczesnej fazie rozwoju jest wyszukiwanie lokalne. Polega ono na serwowaniu wyników bliskich geograficznie na podstawie IP komputera. Przykładowo wpisując w do wyszukiwarki hasło „pizzeria” można pokusić się o założenie, że użytkownik szuka pizzerii w swojej okolicy a nie w przeciwległej części kraju. Wyniki mogą być również zawężane np. na podstawie podanego kodu pocztowego. W skład wyszukiwania lokalnego wchodzi również analiza danych teleadresowych umieszczonych na danej stronie. Z pewnością omówiona właśnie usługa będzie się dynamicznie rozwijać w przyszłości. Jej pierwsze wdrożenia to Google Local oraz Yahoo! Local.
Usługi wyszukiwawcze mogą rozwinąć się w wielu kierunkach. Przykładowo może powstać lokalna wyszukiwarka w telefonie komórkowym połączona z wyszukiwarka produktów i czytnikiem kodów kreskowych umieszczonym w telefonie. Widząc w sklepie produkt i wczytując jego kod można by zobaczyć na wyświetlaczu mapę sklepów w okolicy również oferujących ten sam produkt, wraz z ceną. W tym momencie klient mógłby wybrać tańszą ofertę innego sklepu, który np. prowadzi akcję promocyjną dla danego produktu.
Wydaje się to niemożliwe, ale jeszcze nie tak dawno wiele usług, dostępnych obecnie, wydawało się jakże odległe…
Podsumowanie
Ciągle rosnąca ilość informacji magazynowana w sieci Internet powoduje, iż trzeba będzie zadawać bardziej konkretne zapytania, aby uzyskać satysfakcjonujące wyniki. Konkurencja będzie ogromna, a znalezienie się na szczycie wyników wyszukiwania coraz trudniejsze. Konieczne jest zatem odpowiednie wypozycjonowanie witryny, aby nie zniknąć wśród miliardów zaindeksowanych stron, dokumentów, grafiki, muzyki czy filmów.
Aby pozycjonowanie było skuteczne warto monitorować trendy w rozwoju usług wyszukiwawczych. Łatwiej bowiem utrzymać wysoką pozycję niż ją zdobyć. Należy śledzić trendy na rynkach bardziej zaawansowanych (USA, Wielka Brytania) oraz implementować przyjęte tam rozwiązania z odpowiednim wyprzedzeniem.
Z pewnością rynek usług wyszukiwawczych będzie rozwijał się bardzo dynamicznie, a wprowadzane usługi znacznie zmienią i rozwiną znane dotąd techniki pozycjonowania.
Spis tabel
Spis rysunków
Źródła
Doświadczenie zawodowe:
Praca w portalach xtech.pl (październik 2004 do teraz),
Praktyki w Rubikon Software (sierpień 2004),
Administrowanie stroną bocheńskiego MOSiRu (luty 2004 - grudzień 2004).
Szkolenie:
Szkolenie „Jak skutecznie pozyskiwać klientów i promować firmę za pomocą wyszukiwarek internetowych”, FIN Consulting, 27.09.2006 Warszawa.
Bibliografia:
„Pozycjonowanie w wyszukiwarkach internetowych” Shari Thurow.
Artykuły:
Mark Pilgrim - „Dive into accessibility” (web accessability),
http://www.e-marketing.pl/artyk/artyk41.php (web usability),
Justyna Adamczyk - „Projektowanie witryny - co warto wiedzieć”.
Strony Internetowe:
Raporty roczne IAB (Interactive Advertising Bureau) z lat 2003 - 2005 (www.iab.pl),
www.web-marketing.pl,
www.searchengines.com,
www.ranking.pl,
www.webworkshop.net,
www.robots.txt.org,
www.xtech.pl,
www.ipipan.waw.pl/ (Instytut Podstaw Informatyki PAN),
home.pl/pomoc/kursy/rewrite,
www.isapirewrite.com,
www.iismods.com,
www.stats.pl,
www.google.com/webmasters/sitemaps/about?hl=pl,
www.pcworld.pl/artykuly/8874_1.html.
4