Pozycjonowanie stron w wyszukiwarkach internetowych - kurs

1. Historia wyszukwiarek internetowych

Wyszukiwarki internetowe przebyły długą drogę, zanim stały się podstawowym narzędziem do poszukiwania informacji we współczesnym świecie. W początkowym stadium ogólnoświatowej sieci (ang. World Wide Web) nikt nie zakładał, że jej rozwój będzie tak dynamiczny, aby wymagał dodatkowych nakładów odpowiedzialnych za ułatwienie dostępu do treści.

Ośrodki badawcze na całym świecie uruchamiały usługi WWW na swoich serwerach podłączonych do Internetu, usprawniając w ten sposób międzynarodową współpracę nad projektami naukowymi. Współtwórca sieci, Tim Berners-Lee, starał się początkowo udostępniać i aktualizować listę wszystkich web-serwerów w jednym miejscu. Jednak sama lista stron, tak intensywnie zwiększająca swoją liczbę, nie dawała możliwości szybkiego dotarcia do potrzebnych informacji. Biorąc przykład z programów przeszukujących zawartości serwerów przy pomocy takich protokołów jak FTP i Gopher, zaczęto zastanawiać się nad możliwością zastosowania podobnej technologii w przypadku WWW. Do 1993 roku istniały jedynie ręcznie zarządzane strony, w których odnośniki do treści w Internecie były katalogowane. Posłużyły one Oscarowi Nierstraszowi z Uniwersytetu Genewskiego do napisania serii skryptów w języku Perl, które w określonych odstępach czasowych pobierały skategoryzowane strony i przetwarzały do odpowiedniego formatu, co pozwoliło na stworzenie przeszukiwalnej bazy danych - indeksu.

W czerwcu 1993 w Instytucie Technologicznym w Massachusetts (MIT), Matthew Gray stworzył pierwszego na świecie robota internetowego - WWW Wanderer, który miał za zadanie oszacować ówczesną wielkość ogólnoświatowej sieci. Przemierzał on strony używając odnośników, które znalazł po drodze. Zainspirowani programiści z całego świata zaczęli tworzyć własne roboty. W grudniu tego samego roku pojawił się protoplasta dzisiejszych wyszukiwarek - JumpStation. Była to pierwsza wyszukiwarka internetowa składająca się z trzech bazowych elementów: robota przeszukującego, indeksu stron oraz strony z formularzem do wpisywania szukanych informacji. Jednak z powodu ograniczonych zasobów systemu na którym JumpStation działała, potrafiła ona pobierać jedynie tytuły i nagłówki napotkanych stron. Niedługo po tym światło dzienne ujrzał WebCrawler - strona oferująca pełnotekstowe wyszukiwanie treści ze swojego indeksu. Standardem stała się możliwość przeszukiwania zawartości całych stron internetowych na podane słowo kluczowe.

2. Czym jest pozycjonowanie stron?

Najprościej mówiąc pozycjonowanie polega na takim dostosowaniu strony, by po wpisaniu w wyszukiwarce danej frazy, nasza witryna ukazała się na jak najwyższej pozycji w wynikach wyszukiwania. Jest to niezwykle skuteczny sposób promocji stron internetowych, przynoszący niewiarygodne korzyści i znaczny wzrost popularności pozycjonowanego serwisu. Z tego względu powstało mnóstwo firm świadczących usługi pozycjonerskie, niestety są one zbyty drogie dla przeciętnego posiadacza niekomercyjnej witryny. Dlatego postanowiliśmy opisać tutaj podstawowe zagadnienia dotyczące pozycjonowania i optymalizacji stron WWW. Dzięki zgromadzonym tu informacjom każdy właściciel witryny internetowej może podnieść jej pozycję w rankingu wyszukiwarek bez większych nakładów finansowych.

3. Optymalizacja kodu strony

Pozycjonowanie warto zacząć od dopracowania swojego serwisu i optymalizacji kodu pod kątem wyszukiwarek internetowych. Najlepiej wykonywać te czynności jeszcze w trakcie projektowania strony, kierując się określonymi zasadami, które zostały przedstawione poniżej.

3.1. Struktura strony

Wraz z rozwojem technologii używanych przez wyszukiwarki, zaczęły powstawać wytyczne dla osób tworzących witryny internetowe (webmasterów). Każda firma miała swoją listę zasad ułatwiających robotom zaindeksowanie strony. Z czasem algorytmy stawały się coraz bardziej optymalne, wytyczając określone standardy budowy stron. Jeżeli webmasterowi zależało na znalezieniu się w wynikach wyszukiwarki musiał on tych reguł przestrzegać. Kluczową wartością dla użytkownika korzystającego z wyszukiwarki jest otrzymanie poszukiwanych informacji, dlatego selekcja wyników jest niezbędną rzeczą w tym procesie. Roboty indeksujące muszą w odpowiedni sposób rozpoznać treści znajdujące się na stronie, dlatego jej budowa powinna opierać się na standardach dokładnie opisujących to.

Pierwszą i podstawową rzeczą, na której należy się skupić jest treść witryny. Jest ona przeznaczona dla ludzi, a nie dla wyszukiwarek. Przynajmniej takie powinno być założenie. Informacje na stronie powinny być przedstawione w sposób przejrzysty i nie odbiegać w znacznym stopniu od tematu strony. Kluczowym elementem jest również poprawność gramatyczna i ortograficzna tekstu. Warto poświęcić temu trochę więcej czasu, gdyż przez błędy strona może zostać pominięta w wynikach wyszukiwania. Ludzie odwiedzający taką stronę mogą potraktować ją jako nieprofesjonalną i utracą zaufanie do treści, którą chcemy im przekazać.

Dobrze jest zawrzeć na początku krótkie streszczenie czego dotyczy podana informacja. Ułatwi to użytkownikom określenie trafności strony pod względem szukanej treści, a roboty wyszukiwarek otrzymają skondensowaną porcję danych do przetworzenia. Podzielenie tekstu na paragrafy i nadanie im odpowiednich tytułów usprawnia dotarcie do konkretnej informacji w obrębie całej witryny oraz ułatwia czytanie dłuższych treści. Należy postarać się o wypunktowanie najważniejszych części tekstu poprzez pogrubienie ich. Pożądane jest, aby treść na stronie była napisana w sposób unikalny. Kopia informacji jest przez wyszukiwarki traktowana jako mniej wartościowa.

Oprócz treści strona posiada całą otoczkę, w skład której wchodzą między innymi: nawigacja, wygląd, multimedia. Zazwyczaj na witrynę internetową składa się wiele podstron poświęconych różnym zagadnieniom. Użytkownikowi należy w przystępny sposób udostępnić możliwość przejścia do pozostałej zawartości strony. W tym celu tworzy się zbiór odnośników (menu) w widocznym miejscu, aby ułatwić to zadanie osobie odwiedzającej witrynę. Jeżeli treści niektórych podstron są ze sobą powiązane, warto zadbać o połączenie ich odnośnikami odpowiednio opisującymi zawartość na którą wskazują.

Adresy do poszczególnych dokumentów są widoczne dla użytkownika, dlatego trzeba zadbać o ich czytelność i opisowość. Osoba odczytująca adres internetowy powinna móc wywnioskować co się pod nim znajduje.

Układ i kolorystyka witryny odgrywają dużą rolę w odbiorze treści. Kontrast tekstu w stosunku do tła nie może utrudniać czytania i męczyć wzroku. Należy wystrzegać się niejednoznacznych elementów strony, których funkcjonalność nie jest widoczna na pierwszy rzut oka. Układ witryny i rozmieszczenie elementów nie powinny bardzo różnić się pomiędzy podstronami. Najważniejsze treści muszą znaleźć się na samej górze, gdyż w takiej kolejności są interpretowane przez roboty wyszukiwarek.

Technologia rozpoznawania zawartości plików graficznych w wyszukiwarkach nie pozwala jeszcze na stwierdzenie co przedstawia dany obraz, dlatego ilustracje muszą zostać starannie opisane, a pliki nazwane w odpowiedni sposób. Podpisy pod zdjęciami umieszczonymi w treści powinny jednoznacznie wyjaśniać ich zawartość, ale nie mogą być zbyt długie. Z całą stanowczością należy unikać umieszczania informacji tekstowej w postaci obrazów.

3.2. Słowa kluczowe

Słowa kluczowe są to słowa i frazy w treści strony, za pomocą których użytkownicy mogą znaleźć witrynę w wyszukiwarce internetowej. Wybór słów kluczowych podczas optymalizacji strony jest ważnym elementem pozwalającym zwiększyć liczbę odwiedzin witryny. Należy przeprowadzić ostrożną analizę tego jakich fraz szukają użytkownicy w połączeniu z tematem strony, oraz fraz używanych przez konkurencję. Najważniejsze, aby wszystkie słowa kluczowe dotyczyły treści, która znajduje się w witrynie.

Warto zastanowić się nad szczegółowością wytypowanych fraz, gdyż zbyt ogólne zwroty są popularne w wynikach wyszukiwania i występują na wielu stronach. Użytkownicy szukający konkretnych informacji łatwiej odnajdą stronę zoptymalizowaną na konkretne słowa kluczowe.

Umieszczenie słów kluczowych jedynie wśród tekstu może okazać się niewystarczające. Strona internetowa składa się z wielu elementów, w których można je zawrzeć. Podstawowym miejscem jest tytuł podstrony, za który odpowiedzialny jest znacznik „title” w kodzie strony, to pierwsza rzecz jaką widzi użytkownik w wynikach wyszukiwania, dlatego też powinien on być jednoznaczny i adekwatny do zawartości. Pierwsze kilka wyrazów może zaważyć o odwiedzeniu strony przez osobę szukającą informacji. Kolejnym istotnym czynnikiem wpływającym pozytywnie na optymalizację jest wybór odpowiedniej domeny internetowej dla strony. Nie może być ona zbyt długa, gdyż będzie mało przyjazna dla ludzi, jednak warto użyć w niej najważniejsze słowo kluczowe dotyczące zawartości witryny. Na tym samym poziomie należy rozpatrywać adres każdej podstrony, który wraz z użytą domeną tworzy nierozłączną całość. Tutaj jednak dowolność w wyborze jest dużo szersza, dlatego warto skrupulatnie dobrać odpowiednie wyrażenie opisujące zawartość podstrony, ale nie można jednak tworzyć zbyt długich zlepków słów.

Wyszukiwarki internetowe uznają hierarchię nagłówków na stronach, dlatego warto pomyśleć nad umieszczeniem odpowiednich słów kluczowych w tytułach stron oraz podtytułach odnoszących się do paragrafów tekstów znajdujących się w treści. Z punktu widzenia optymalizacji korzystnym jest tytułowanie dłuższych akapitów, ale również skorzystać mogą na tym osoby czytające, gdyż szybkie przeskanowanie nagłówków wzrokiem pozwoli na szybsze znalezienie żądanej informacji.

Przy optymalizacji słów kluczowych najważniejszy jest rozsądek. Nie można nadużywać ich w żadnym z wymienionych wyżej miejsc, gdyż wyszukiwarki uznają to za próbę manipulacji i przestaną wyświetlać stronę w swoich wynikach wyszukiwania. Do analizy słów kluczowych warto użyć narzędzi, które sprawdzą gęstość ich rozmieszczenia w treści oraz zaproponują inne powiązane tematycznie, a popularne wśród użytkowników. Wiele wyszukiwarek oferuje własne narzędzia, przeważnie bezpłatne, które wskażą odpowiednią drogę w doborze słów kluczowych.

3.3. Nagłówek (head)

Istotne informacje, na które zwracają uwagę roboty wyszukiwarek znajdują się w nagłówku strony, czyli pomiędzy <head> a </head>.

TITLE
Najważniejszym elementem nagłówka (pod względem pozycjonowania) jest znacznik TITLE, który zawiera tytuł strony wyświetlany w wynikach wyszukiwania jako link do znalezionej witryny. Powinien zatem być krótki i sugestywny. Należy pamiętać, że lepiej oceniane są przez pajączka te słowa, które znajdują się bliżej początku dokumentu HTML lub bliżej początku sekcji, a więc gdyby słowem wpisanym przez użytkownika w wyszukiwarce było "księgarnia internetowa", to strona o tytule:

<title>Księgarnia internetowa – największa i najtańsza</title>

mogłaby uzyskać wyższą pozycję, niż strona o tytule:

<title>Największa i najtańsza księgarnia internetowa</title>

META DESCRIPTION
Nieco mniejsze znaczenie niż Title ma znacznik Description. Powinien on zawierać krótki i zwięzły opis witryny zachęcający do jej odwiedzenia, ponieważ wyświetlany jest zwykle w wynikach wyszukiwania zaraz po tytule serwisu. W Description także największe znaczenie mają wyrazy znajdujące się najbliżej początku znacznika. Przykładowy opis wygląda następująco:

<META name="description" content="Opis strony"/>

META KEYWORDS
Znacznik META Keywords był niegdyś jednym z najważniejszych elementów branych pod uwagę przy tworzeniu rankingu stron. Obecnie jego znaczenie jest bardzo małe, ale mimo to warto go umieścić w kodzie swojej strony. W Keywords zawarte są tak zwane słowa kluczowe. Jest to zbiór kilku oddzielonych od siebie przecinkami, najważniejszych, najczęściej występujących w treści witryny wyrazów. Dobrze jest tutaj umieścić wyrazy zawarte w tytule strony, ale trzeba pamiętać, by słowa kluczowe się nie powtarzały. Przykładowy znacznik META Keywords wygląda następująco:

<META name="keywords" content="słowo1, słowo2, słowo3, słowo4"/>

META ROBOTS
Znacznik Robots instruuje mechanizmy wyszukiwarek, jak mają indeksować serwis. Za pomocą odpowiednich parametrów określa się, gdzie można wpuścić robota i co ma indeksować. Najczęściej znacznik Robots używany jest z parametrami index, follow, ale istnieją też inne:

  1. index – pozwala robotom indeksować dokument HTML;
  2. noindex – zapobiega indeksowaniu strony przez roboty;
  3. follow – pozwala robotom indeksować wszystkie strony, do których dotrze poprzez linki w danej witrynie;
  4. nofollow – nie pozwala robotowi indeksować stron, do których linki znajdują się w dokumencie;
  5. all – to samo, co index, follow;
  6. none – to samo, co noindex, nofollow.

Przykładowy znacznik META Robots wygląda następująco:

<META name="robots" content="index, follow"/>

Istnieje też wiele innych znaczników META, takich jak Language, Author, Copyright itp., jednak nie mają one większego wpływu na miejsce witryny w wynikach wyszukiwania.

3.4. Właściwa część strony (body)

Znaczniki META mają już coraz mniejsze znaczenie, a roboty wyszukiwarek przywiązują coraz większą wagę do właściwej treści serwisu, dlatego należy zwrócić szczególną uwagę na odpowiednie przygotowanie tej części witryny.

NAGŁÓWKI H1 - H6
Pojawienie się szukanego słowa w nagłówku H1 – H6 jest korzystne dla pozycji strony. Warto więc tytuły artykułów, aktualności i innych rzeczy w serwisie umieszczać pomiędzy znacznikiem <h1> a </h1>, <h2> a </h2>, <h3> a </h3> itd. w zależności od ważności danego wyrażenia, np.:

<h1>Pozycjonowanie stron WWW</h1>

Wygląd nagłówków H1 - H6 można łatwo określić przy użyciu arkusza styli CSS.

WYRÓŻNIENIE WAŻNIEJSZYCH SŁÓW
Warto ważniejsze słowa w treści strony (a szczególnie niektóre słowa kluczowe) wyróżnić np. pogrubieniem (<b>Tekst pogrubiony</b> albo <strong>Tekst pogrubiony</strong>), podkreśleniem (<u>Tekst podkreślony</u>) lub kursywą (<i>Tekst pochyły</i> albo <em>Tekst pochyły</em>). Dzięki temu wyróżnione wyrazy mają większe znaczenie dla wyszukiwarek.

OPISY I KOMENTARZE PLIKÓW GRAFICZNYCH
Niemałe znaczenie mają komentarze i opisy plików graficznych umieszczane w znacznikach IMG, np.:

<img src="obrazek.gif" alt="słowo kluczowe" title="słowo kluczowe"/>

Należy jednak zachować umiar i nie przesadzać z ilością słów kluczowych w komentarzach, gdyż efekt może być odwrotny do zamierzanego.

4. Linki

Przedstawione powyżej elementy jedynie wspomagają pozycjonowanie stron. Prawdziwa moc kryje się w linkach, które wiodą do danej witryny. Sztuka polega na odpowiednim doborze treści odsyłaczy, serwisów do wymiany i umieszczania linków oraz wielu innych czynników. Link popularity (czyli ilość odsyłaczy ze stron zaindeksowanych przez wyszukiwarkę, prowadzących do określonej witryny) jest jedną z kluczowych wartości przy układaniu rankingu stron, dlatego też należy poświęcić więcej uwagi opisanym tu zagadnieniom.

4.1. Katalogi stron WWW

Dodawanie linków najlepiej jest zacząć od katalogów stron, dzięki czemu można na początek za darmo zyskać nieco stałych odsyłaczy. Swoją stronę powinno się umieszczać w katalogach stosujących linki bezpośrednie, bez różnego rodzaju przekierowań. W pierwszej kolejności warto dodać stronę do najpopularniejszych katalogów, takich jak:

DMOZ - największy na świecie katalog stron, posiadający tysiące klonów, dzięki  czemu dodając do niego swoją witrynę, automatycznie zyskuje się bardzo dużą ilość linków, niestety póki zgłoszony serwis zostanie zaakceptowany przez redaktorów i faktycznie opublikowany w katalogu mija zwykle kilka miesięcy;

Katalog Onet.pl - najbardziej popularny wśród polskich internautów katalog stron jednego z największych polskich portali internetowych - Onet.pl. Obecnie zawiera około kilkuset tysięcy adresów precyzyjnie posegregowanych w szczegółowych kategoriach tematycznych;

Katalog WP.pl - jeden z największych polskich katalogów stron WWW w portalu Wirtualna Polska. Obecność witryny w tym katalogu jest jednym z kluczowych elementów, branych pod uwagę przy tworzeniu rankingu stron w wyszukiwarce WP. Niestety, umieszczenie strony w tym katalogu jest płatne;

Promocyjnie.com.pl - promocja - bardzo mocny katalog, stworzony na unikalnym skrypcie, do ktorego można dodawać tylko unikalne wartościowewpisy. Ma 3 pozycje w google pod b. trudnym hasłem jak "promocja" a co więcej posiada az PR 4.

Aksera.com - Silny, szybkoindeksujący katalog stron. Posiada wysoki Page rank. Katalog jest oparty o unikalny skrypt, zas domena ma której stoi jest bardzo stara z 2002 roku co sprawia, że ów katalog jest b. silny

Dobre linki można zdobyć ze stron zwanych pressel pages, tudzież preclami, które są oparte o skrypt Wordpressa. Jednak zbyt duży wysyp takowych w sieci spowodował, że straciły one moc. Ważne aby w tych czasach starać się szukać stron zupełnie unikalnych takich jak np strona pdo tytułem: Strategie marketingowe. Zauważmy, że nie znajdziemy na tej stronie zduplikowanych wpisów, co także jest bolączką większości Wordpressów.

Oprócz stron wymienionych powyżej, istnieje niezliczona ilość mniejszych katalogów, które także mogą się przyczynić do wzrostu popularności naszejwitryny. Aby ułatwić sobie zadanie, można skorzystać z tak zwanych multirejestratorów, czyli specjalnych formularzy dostępnych na stronach WWW albo programów dających możliwość zgłoszenia serwisu do dużej liczby katalogów i wyszukiwarek jednocześnie, jednak większość osób zajmujących się pozycjonowaniem odradza stosowanie tego typu rozwiązań. Jako argument można podać opinię, że wyszukiwarki "lubią" naturalny przyrost ilości linków, a opublikowanie kilkuset identycznych odsyłaczy jednego dnia trudno uznać za naturalne.

4.2. Wymiana linków

Kolejny sposób na zwiększenie popularności witryny to wymiana linków z innymi stronami. Aby wymiana była uczciwa, oba serwisy muszą mieć podobną popularność, by nikt na tym nie stracił. Największe znaczenie mają odsyłacze ze stron podobnych pod względem tematycznym oraz takich, które posiadają wysoką wartość PageRank. Zwracając uwagę na PageRank, nie powinno się zapominać, że im więcej hiperłączy do stron zewnętrznych znajduje się w danym serwisie, tym każde z nich ma mniejszą "moc", możliwe więc, że łącze ze strony o PR równym 3, ale nie zawierającej innych linków od naszego, bardziej przyczyni się do wzrostu wartości pozycjonowanej witryny, niż łącze ze strony o PR równym 5, jednak posiadającej wiele różnych odnośników do stron zewnętrznych. Dość ważny jest także tak zwany anchor tekst, czyli treść linka, np.:

<a herf=http://www.twojastrona.pl>anchor text</a>

Anchor tekstem powinny być nasze słowa kluczowe. Warto pamiętać, by treść linków była zróżnicowana, np. podczas pozycjonowania serwisu pod słowem "książki" można różnicować anchor tekst dodając inne wyrazy ("tanie książki", "ciekawe książki" itp.), natomiast pozycjonując witrynę pod kilkoma słowami kluczowymi, dobrze jest, aby w każdym kolejnym linku używać innej frazy kluczowej. Z długością anchor tekstu nie powinno się przesadzać, gdyż pełna "siła" odsyłacza rozkłada się na każde słowo, a zatem największą wartość mają linki zawierające tylko jeden wyraz. Mówiąc o wymianie odsyłaczy, należy także wspomnieć o systemach wymiany linków, takich jak np. Linkor czy Linkuj. Zasada działania jest prosta: należy zgłosić swoją witrynę w systemie, a następnie na każdej podstronie umieścić specjalnie wygenerowany kod, który odpowiada za wyświetlanie łączy do innych stron biorących udział w wymianie, a w zamian na tych witrynach pokazywany jest odsyłacz do Twojego serwisu. Takie sposoby pozycjonowania mają wiele zalet, ale też i wad. Przede wszystkim można zyskać sporo dodatkowych odsyłaczy. Niestety, dużo do życzenia pozostawia jakość tych linków, gdyż w takich systemach uczestniczą zwykle mało wartościowe strony, a do tego łącza przydzielane są dynamicznie, bez wiedzy użytkownika. Między innymi dlatego wiele osób odradza korzystanie z tego typu rozwiązań. Lepsze od rotacyjnych są statyczne systemy wymiany linków (np. LinkORN czy LinkMe), głównie przez fakt, iż hiperłącza są stałe, a nie przydzielane dynamicznie przy każdym odświeżeniu strony, natomiast użytkownik ma pełną kontrolę nad swoimi odsyłaczami. Wymieniając się linkami warto sprawdzić, czy właściciel partnerskiego serwisu nie jest oszustem. Strona, na której umieszczono nasz odsyłacz musi być zaindeksowana przez Google'a, inaczej jest on bezwartościowy. Niektórzy używają sztuczek polegających na umieszczeniu znacznika META Robots z parametrem noindex, nofollow lub none (informują one robota wyszukiwarki, by nie indeksował strony, bądź nie brał pod uwagę łączy zewnętrznych), wstawiają atrybut rel="nofollow" w kodzie odsyłacza itp. Negatywny wpływ może mieć także umieszczanie hiperłączy do stron zbanowanych (usuniętych z indeksu za naruszenie zasad) przez Google'a, tzw. farm linków bądź miejsc zawierających treści pornograficzne, faszystowskie, rasistowskie, hazardowe itp.

4.3. Inne sposoby zdobywania linków

Przy promocji serwisu należy wykazać się pomysłowością i odrobiną sprytu. Oprócz rejestrowania strony w katalogach i wyszukiwarkach, wymiany i kupowania linków istnieją inne sposoby na zdobywanie odsyłaczy mających tak duży wpływ na popularność witryny oraz jej pozycję w rankingu wyszukiwarek. Można wykorzystać np. księgi gości dostępne w różnych serwisach internetowych i pozostawić po sobie pamiątkę w postaci linka do swojej strony. Warto uwzględnić również fora dyskusyjne. Niektóre z nich zawierają bowiem dział przeznaczony do prezentacji własnych witryn (np. forum.webhelp.pl czy forum.pozycjoner.org). Godne uwagi są jeszcze grupy dyskusyjne, a szczególnie takie jak pl.comp.www.nowe-strony stworzone specjalnie po to, by użytkownicy mogli przedstawiać swoje serwisy. Innym sposobem jest umieszczenie "reklam" strony w popularnych portalach ogłoszeniowych, między innymi Pajęczyna, Dwukropek itp. Stosując te opcje należy dbać o netykietę i nie przesadzać z natarczywym zachwalaniem i reklamowaniem witryny.

5. Mapa witryny

Mapa strony (ang. sitemap) jest szczególnym plikiem XML, w którym znajduje się lista adresów podstron danej strony. Sitemapa służy głównie do poinformowania robotów wyszukiwarek internetowych o wszystkich adresach, które webmaster chciałby aby były zaindeksowane. Jest to niemal odwrotna sytuacja do pliku robots.txt, w którym wskazane adresy są zabronione do indeksacji. Dzięki mapie strony robot nie musi przemierzać całej witryny za pośrednictwem odnośników, wystarczy że pobierze i przeanalizuje plik XML. Im więcej adresów zostanie umieszczone w mapie strony, tym większa możliwość zaindeksowania wszystkich, co wiąże się z liczbą potencjalnych wyświetleń w wynikach wyszukiwania.

Dla użytkowników plik XML nie jest najczytelniejszą formą przekazania informacji, dlatego warto zastanowić się nad stworzeniem osobnej podstrony z listą adresów do wszystkich podstron, tak aby umożliwić osobom odwiedzającym dotarcie do treści ukrytych głębiej i niedostępnych na pierwszy rzut oka. Warto zadbać o ułożenie odnośników w przejrzysty sposób, wydzielając ważniejsze elementy strony w sekcje i podsekcje. Dodanie krótkich opisów do każdej z nich pomoże odwiedzającym w zrozumieniu i nawigowaniu po witrynie, dając zarazem wartościową treść robotom wyszukiwarek.

Dobrze stworzona mapa strony umożliwi szybkie rozeznanie się w strukturze strony i dotarcie bezpośrednio do poszukiwanej informacji. Posiadanie dwóch wersji map strony jeszcze bardziej zwiększy prędkość indeksacji.

Odnośnik do sitemapy powinien znaleźć się na stronie głównej witryny, dzięki temu roboty będą miały ułatwiony i szybszy dostęp do niej. Należy sprawdzić poprawność wszystkich adresów podanych robotom oraz użytkownikom, a każda zmiana w strukturze adresów strony powinna być odzwierciedlona w sitemapie.

6. Spamowanie wyszukiwarek

Spamowanie (zaśmiecanie) polega na próbie oszukania wyszukiwarki poprzez użycie nieetycznych metod pozycjonowania mających na celu podniesienie pozycji strony w wynikach wyszukiwania. Powoduje to znaczny spadek efektywności wyszukiwarek, dlatego ich właściciele, chcąc utrzymać swój produkt na rynku, starają się przeciwdziałać manipulacji wynikami wyszukiwania. Są więc zmuszeni do opracowywania technik antyspamowych, które w przypadku wykrycia nadużycia mogą spowodować znaczny spadek witryny w rankingu wyszukiwarki lub nawet jej całkowite usunięcie z indeksu (zbanowanie). Wymyślono już wiele technik spamerskich. Dawniej były one skuteczne, jednak rozwój serwisów wyszukiwawczych sprawił, że są one uznawane za spam. Nieustannie wymyśla się nowe sposoby oszukiwania wyszukiwarek. Nawet jeśli obecnie przynoszą one efekty, w przyszłości mogą zostać potraktowane jako spam. Poniżej zostały przedstawione najczęściej spotykane techniki spamerskie, których nie należy nigdy stosować.

6.1. Przeładowanie strony słowami kluczowymi

Jednym z najczęściej spotykanych rodzajów spamu w wyszukiwarkach jest zbyt duże nagromadzenie słów kluczowych na stronie. Kilkakrotne występowanie poszukiwanej frazy w treści witryny (w tym także znacznikach Title, META Keywords, META Description, opisach plików graficznych itd.) ma korzystny wpływ na pozycję strony w wynikach wyszukiwania. Jednak niektórzy nie dość, że powielają ten sam wyraz w META Keywords i Description, to jeszcze wstawiają go w znacznikach takich jak Copyright, Author, Generator, Subject. Jeszcze kilka lat temu, gdy wyszukiwarki tworzyły ranking stron głównie na podstawie słów kluczowych zawartych w Keywords takie techniki przynosiły efekty. Obecnie mechanizmy wyszukiwarek są wyczulone na tego rodzaju nadużycia, a np. dla Google META tagi nie mają większego znaczenia. Należy także uważać przy opisywaniu plików graficznych:

<img src="obrazek.gif" alt="opis obrazka" />

Zbyt częste używanie pozycjonowanej frazy w parametrze ALT znaczników IMG może zostać uznane za spam. Trudno określić, jaki poziom występowania słów kluczowych jest bezpieczny. Zwykle przyjmuje się, że wszystkie słowa kluczowe występujące na stronie nie powinny przekraczać 8-9% treści całej witryny.

6.2. Słowa kluczowe sprzeczne z treścią strony

Dla niektórych właścicieli stron liczy się tylko ilość odwiedzin generowanych przez wyszukiwarki, nie zwracając uwagi na ich jakość. Wstawiają więc w znacznikach META, warstwach stylów CSS, opisach alternatywnych słowa kluczowe nieadekwatne do zawartości serwisu. Są to zazwyczaj bardzo popularne frazy (np. SMS, mp3), których użycie powinno spowodować pojawienie się witryny na wysokiej pozycji pod tymi właśnie wyrazami i w efekcie zwiększyć ruch na stronie. W konsekwencji jednak witryna zazwyczaj spada rankingach i traci w oczach odwiedzających.

6.3. Niewidoczny tekst

W celu zwiększenia ilości wystąpień pozycjonowanej frazy w treści strony lub ukrycia słów niezwiązanych z tematyką serwisu stosuje się czasem niewidoczny tekst (invisible text), najczęściej w kolorze tła. Dzięki temu jest on praktycznie niezauważalny dla użytkownika, jednak czytają go roboty wyszukiwarek przy indeksowaniu witryny. Technika ta często łączona jest z małym tekstem (tiny text) napisanym zwykle czcionką o wielkości jednego piksela, której osoby odwiedzające stronę nie są w stanie dostrzec. Mechanizmy wyszukiwarek potrafią wykryć takie nadużycia, niestety pojawiły się bardziej zaawansowane sposoby ukrywania tekstów jak np. przykrycie słów obrazkiem lub wykorzystanie arkusza styli CSS.

6.4. Farmy linków

Jako farmę linków (link farm) określa się stronę, na której znajduje się bardzo duża ilość odsyłaczy do witryn zewnętrznych mających na celu podwyższenie ich pozycji w wyszukiwarkach. Rzeczywistość jest jednak inna. Google nie bierze zwykle pod uwagę łącz pochodzących z farmy linków. Umieszczanie hiperłączy do takich stron może poważnie zaszkodzić naszej witrynie, dlatego lepiej omijać je jak najdalej.

6.5. Brak wartościowej treści

Najlepiej oceniane przez wyszukiwarkę są strony posiadające konkretną, unikalną i niepowtarzalną zawartość. Czasem spotyka się jednak witryny, na których została powielona treść z innych, wcześniej już istniejących stron. Do takich działań uciekają się często webmasterzy chcący za wszelką cenę zwiększyć popularność swojego serwisu i kopiują artykuły z cudzych witryn. Również właściciele sklepów internetowych, w nadziei na zwiększenie sprzedaży, tworzą kopię posiadanego serwisu, zmieniając jedynie nazwę domeny i modyfikując szatę graficzną. Takie strony narażone są na całkowite usunięcie z indeksu wyszukiwarki za tak zwane duplicate content (powielenie zawartości). Nawet, jeśli przewinienie nie zostanie wykryte przez mechanizmy antyspamowe, istnieje duże prawdopodobieństwo, że autor powielonego tekstu lub osoba z konkurencyjnej branży zgłosi występek administratorom danej wyszukiwarki.

6.6. Cloaking

Technika zwana cloakingiem polega na podstawieniu określonym przeglądarkom internetowym specjalnie przygotowanej wersji strony. Robota wyszukiwarki również można potraktować jako swego rodzaju przeglądarkę i stworzyć skrypt, który w przypadku wykrycia crawlera pokazuje mu wersję witryny maksymalnie dostosowaną do wymagań wyszukiwarki, inną niż widzi reszta użytkowników serwisu. Cloaking umożliwia także wyświetlenie witryny o zupełnie innej tematyce, niezwiązanej z wyrażeniem poszukiwanym przez internautę, np. po wpisaniu w wyszukiwarce słowa "pozycjonowanie" zostaje pokazana strona pornograficzna. Opracowano już jednak techniki pozwalające na wykrycie cloakingu przez crawlera. Serwisy takie jak Google posiadają pajączki podszywające się pod daną przeglądarkę internetową (Internet Explorer, Netscape itd.), może także ulec zmianie ich nazwa i numer IP. Cloaking jest bardzo kontrowersyjnym tematem w pozycjonowaniu. Używa się go czasem w dobrych intencjach, np. wyświetlenie konkretnym przeglądarkom specjalnie dostosowanej dla nich strony lub zmiana jej wersji językowej w zależności od lokacji geograficznej użytkownika (określanej na podstawie jego numeru IP). Niestety, roboty nie potrafią odróżnić, w jakim celu zastosowano tę technikę, dlatego należy unikać cloakingu, gdyż jego wykrycie powoduje często trwałe usunięcie witryny z indeksu wyszukiwarki.