subscribe
POWIĘKSZ SWÓJ INTERES
Zadzwoń teraz : +48 603 213 680

Kurs pozycjonowania

Spis tematów:

  • 1 WSTĘP, SŁOWNIK I SAMA IDEA POZYCJONOWANIA
  • 2 WYSZUKIWARKI, PROCENTY ORAZ ZŁOTY TRÓJKĄT
  • 3 SŁOWA KLUCZOWE, FRAZY I ANCHOR TEKSTY
  • 4 SŁOWA KLUCZOWE I ICH KONKURENCYJNOŚĆ
  • 5 KOMENDY WYSZUKIWAREK
  • 6 PAGE RANK I POPULARITY
  • 7 ZNACZNIKI META
  • 8 OPTYMALIZACJA KODU STRON – WALIDACJA W3
  • 9 FORMAT I MERYTORYKA
  • 10 NAGŁÓWKI, ZNACZNIKI
  • 11 ŚLEPE ROBOTY A GRAFIKA
  • 12 KOTWICE – ANCHOR TEKSTY
  • 13 KATALOGOWANIE
  • 14 BLOGI, STRONY, KATALOGI – INWESTYCJA W ZAPLECZE
  • 15 ROBOTS, SITEMAP
  • 16 PRZYJAŹNIE I NIEWYRAŹNIE
  • 17 JEDNA DOMENA CZY DWIE DOMENY ?
  • 18 PRZEKIEROWANIE 301 – REDIRECT W HTACCESS

 

1 WSTĘP, SŁOWNIK I SAMA IDEA POZYCJONOWANIA

Pozycjonowanie – umieszczenie frazy jak najwyżej w wynikach wyszukiwania – oczywiście frazy kluczowej kierującej do pozycjonowanej strony www.

Pozycjonowanie dzielimy na :

Pozycjonowanie naturalne WHITE SEO budowanie zaplecza i linków zwrotnych anchor tekstów

 

Pozycjonowanie stron (ang. Search engine optimization – SEO, Web Positioning) jest techniką pozwalającą na prawie dowolne zmiany w wynikach wyszukiwania tzw. SERP wyszukiwarek internetowych.

Słownik pozycjonera:

* SERP – (ang. Search engine results position) – wyniki wyszukiwania w wyszukiwarce

* PR – PageRank – matematyczny algorytm stworzony przez Google, na podstawie którego obliczana jest ważność znalezionych stron dla każdego zapytania a także liczbowy efekt działania tego algorytmu.

* TPR – (ang. Toolbar PageRank) – PageRank wyświetlany w postaci zielonego paska na pasku narzędziowym zainstalowanym w przeglądarce stron WWW tzw Google Toolbar

* GDPR – (ang. Google Directory PageRank) – PageRank publicznie dostępny w katalogu Google

* RPR – (ang. Real PageRank)

* AT – Anchor Text – tekst/wyrażenie zawarte w <a href= adres pozycjonowanej strony> wyrażenie pozycjonowane </a>

* Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada „Content is King” – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content

* Duplicate Content Penalties – Tworzenie kliku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony

* IBL – Inbound Links – Ilość linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor text-em

* Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki

* Link exchange – Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR

* Link popularity – Wartość otrzymana dla zapytania (link:adres strony)

* Naturalne linkowanie – Polega na rozpowszechnianu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron

* OBL – Outbound Links – Ilość linków wskazujących na zewnętrzne adresy plików/stron www

* Pozycjoner – Prawidłowa nazwa konsultant ds. pozycjonowania stron www/seo

* TBPR Update – Toolbar PageRank Update – inaczej update PageRank

* Update PageRank – Zmiana wartości publicznie dostepnej PR wskazywanej przez Toolbar Google

* TB Program Update – Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR

* GDPR Update – Google Directory Update – Zmiana wartości PR publicznie dostępnej w katalogu Google PR

* Update IBL – Zmiana wartości dla zapytania (link:adres strony)

* BL Update – Backlink Update – Zmiana wartości dla zapytania (link:adres strony)

* Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP

Techniki spamerskie BLACK SEO – zakazane przez Google jako nieetyczne

* Mirror site-s – Mirrory stron zawierające kopie strony

* Doorway pages – „Tylne drzwi”, strona ‚duch’ przekierowująca internautę na inny adres, a zawierająca treść niezgodną z treścią strony, na którą przekierowuje (Jump Pages, Portal Pages)

* Cloaking – podstawianie innej strony/wyświetlanie innej zawartości dla robota wyszukiwarki niż dla użytkownika

* Link spam – umieszczanie odnośników do strony na cudzych blogach, księgach gości

* Link farms – budowanie stron wyłącznie w celu zwięszkania ilości linków zewnętrznych IBL

* Temporary link farms – w 2005 roku powstał system Advertising Network wykorzystujący zasadę zliczania linków przez wyszukiwarkę, poprzez rotacyjną wymianę wyświetlanych linków tekstowych z zawartym w linku anchor text-em pozwala na wprowadzeniu prawie dowolnej strony pod dowolne wyrażenie z anchora

* Zwiększenie wartości parametru link popularity poprzez wymianę linków

* Googleating

* Keyword stuffing (meta tag stuffing) – Wypychanie MetaTagów słowami kluczowymi

* Invisible text Niewidzialny Tekst – Umieszczenie na stronie tekstu, który nie jest widoczny dla użytkownika [CSS, DIV]

* Biasing

* Client pull

2 WYSZUKIWARKI, PROCENTY ORAZ ZŁOTY TRÓJKĄT

Dlaczego pozycjonujemy ? – by zwiększyć klikalność i ilość wejść na nasze strony.

Kolor pomarańczowy, żółty i niebieski to najwyższa klikalność na stronie wyszukiwarki.

Przykład graficzny zwany jest ZŁOTYM TRÓJKĄTEM

pozycjonowanie stron

Najwyższe linki to linki SPONSOROWANE ( także prawy słupek wyszukiwania) – Google stosuje od 0 do 4 LINKÓW SPONSOROWANYCH przez wynikami naturalnymi.

Są łatwe do odróżnienia, gdyż znajdują się na kremowym / beżowym / różowawym tle (na różnych monitorach inny odcień).

Linki te wstawiane tam przez SYSTEM REKLAMOWY GOOGLE zwany AdWords powodują, że mają priorytet w stosunku do wyszukiwań naturalnych . Właściciele stron reklamowanych w systemie AdWords płacą za każde kliknięcie i wejście na ich stronę.

Kampanie takie przeznaczone są dla osób pozwalających sobie na wydanie od kilkuset złotych do nawet kilkudziesięciu tysięcy złotych miesięcznie.

Google jako główna wyszukiwarka 95% udziału w Polsce :

Google 95%

Wp 1,34 %

Bing 1,14 %

Według rankingu Gemius ze stycznia 2011

Aby dodać naszą stronę do wyszukiwarki Google należy dokonać zgłoszenia poprzez:

http://www.google.pl/addurl/?continue=/addurl

Adres URL w postaci : http://www.botak.com.pl/ czyli z http://www….

Uwagi to np. fraza kluczowa : pozycjonowanie

3 SŁOWA KLUCZOWE, FRAZY I ANCHOR TEKSTY

Fraza to zestaw słów – może być pojedynczym słowem lub zestawem słów np.:

- pozycjonowanie

- pozycjonowanie stron

- pozycjonowanie stron internetowych

- tanie pozycjonowanie stron internetowych

- tanie i profesjonalne pozycjonowanie stron internetowych

Achor tekst to tekst kotwica czyli zakotwiczenie naszej strony poprzez słowo.

Charakterystyka Anchor Tekstu to poprowadzenie frazy lub wyrazu poprzez zakotwiczenie do strony pozycjonowanej przez tą frazę np.:

- pozycjonowanie

- pozycjonowanie stron

- pozycjonowanie stron internetowych

- tanie pozycjonowanie stron internetowych

- tanie i profesjonalne pozycjonowanie stron internetowych

Słowa kluczowe to KEYWORDS

Aby sprawdzić zakodowane na naszej stronie słowa kluczowe wystarczy włączyć stronę a następnie użyć  prawego klawisza myszy i użyć funkcji POKAŻ ŹRÓDŁO lub w przypadku systemu anglojęzycznego SOURCE lub SHOW SOURCE.

Źródło strony czyli kod wyświetli się ukazując wszystkie tajemnice.

Słowa kluczowe znajdują się w MetaTagu KEYWORDS np:

<meta name=”keywords” content=”Pozycjonowanie stron, tanie strony www, tworzenie stron firmowych, optymalizacja stron, grafika reklamowa, strony internetowe Warszawa”>

Słowa kluczowe powinny być także zawarte w źródle strony. Przy pozycjonowaniu ważna jest merytoryka treści strony oraz zawarcie na niej fraz, zdań, treści związanych z założonym frazami pozycjonowanymi.

MetaKeywords czyli zawartość słów kluczowych powinna mieć określoną długość ! Tu nie możemy przesadzać i dużo nie znaczy dobrze …

Do analizy ilości znaków i wielkości MetaTagów można użyć narzędzia :

http://www.mypagerank.pl/narzedzia,analizator_meta_tagow

Gdzie kolorem zielonym i znacznikiem znajdującym się w tymże polu oznaczona jest prawidłowa zawartość w zakresie 140-160 znaków. Słowa powinny być rozdzielone przecinkiem a po nim powinna być spacja (przerwa jednego pola znakowego).

Aby dokonać analizy słów kluczowych należy np. sprawdzić źródło paru konkurencyjnych stron z najwyższych pozycji Google.

W doborze może nam także pomóc ONET :

http://boksy.onet.pl/ranking.html

Tam w okienko SZUKAJ wpisujemy frazę branżową i dostajemy frazy podobne o największej liczbie wyświetleń.

Adekwatnie Wirtualna Polska:

http://szukaj.wp.pl/najpop.html

4 SŁOWA KLUCZOWE I ICH KONKURENCYJNOŚĆ

Najłatwiej sprawdzić konkurencyjność poprzez samą wyszukiwarkę Google !

Na obrazku oznaczono :

1 Fraza wyszukiwana – analizowana – „tanie www”

2 Konkurencyjność tej frazy – w tym przypadku ponad 5 000 000

3 Wyszukanie sponsorowane – wynik płatny z kampanii AdWords

4 Pierwszy wynik NATURALNEGO WYSZUKANIA po pozycjonowaniu naszego serwisu –www.taniewww.info.pl

5 Słupek prawy płatnych reklam – płatnych reklam z kampanii AdWords

darmowy kurs pozycjonowania

Do analizy trendów i konkurencyjności pomocne będzie Google i narzędzie TRENDS: http://www.google.pl/trends

Wtedy zdajemy sobie sprawę jak wygląda wyszukiwanie frazy w czasie np. miesiące / lata

Historia trendu jest bardzo pomocna przy pozycjonowaniu na frazy lokalne:

pozycjonowanie Warszawa, pozycjonowanie stron Warszawa

5 KOMENDY WYSZUKIWAREK

cache:www.domena.pl – historia

link:www.domena.pl – anchory

related:www.domena.pl – podobna zawartość

info:www.domena.pl – informacje na temat domeny

site:www.domena.pl – wyświetlenie zaindeksowanych podstron

FRAZA site:www.domena.pl – wyświetlenie podstron ze słowem FRAZA

allintitle:FRAZA – wyszukanie wszystkich stron z FRAZA w TYTULE

allinurl:FRAZA – wyszukanie wszystkich stron z FRAZA w ADRESIE STRONY

allinanchor:FRAZA – wyszukanie wszystkich stron z FRAZA w odnośniku ANCHOR TEKŚCIE

6 PAGE RANK I POPULARITY

PageRank – metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej jej jakość.

Jego wartość ma wartość od 0 do 10.

„0” mają strony nowe a „10” strony o dużej wartości merytorycznej, dużej oglądalności, ilości odnośników, wieku domeny np. google.com ma 10

Wskaźnik PR jest zwyle zielony i możemy go zainstalować używając narzędzia z :

http://www.toolbar.google.com jako dodatek do przeglądarki Mozilla.

Samej analizy pod kątem stwierdzenia jaki PR ma dana strona można dokonać dzięki:

http://www.linkvendor.com/seo-tools/pagerank-check.html

Algorytm PageRank jest wykorzystywany przez popularną wyszukiwarkę internetową Google. Został opracowany przez założycieli firmy Google Larry’ego Page’a i Sergeya Brina podczas ich studiów na Uniwersytecie Stanforda w 1998 roku. Nazwa algorytmu pochodzi nie od angielskiego wyrazu określającego stronę (ang. page), lecz od nazwiska twórcy, czyli Larry’ego Page’a. Wynik PageRank pokazywany jest jako jedna z opcji dostępnych w pasku narzędziowym Google, sprawdzać można go również w wielu serwisach niezależnych.

PageRank jest rozwinięciem znanej od dawna heurystyki, wedle której jakość tekstu jest proporcjonalna do liczby tekstów na niego się powołujących. Ulepszenie zaproponowane przez autorów Google polegało na ważeniu jakości odnośników wskazujących na rozpatrywany tekst ich własną wartością PageRank. Innymi słowy: jeśli na dany tekst powołuje się artykuł, który sam ma wysoką ocenę, ma to większe znaczenie, niż gdy na ten sam tekst powołuje się mało popularna strona.

Metody zbliżone do algorytmu PageRank są obecnie coraz śmielej wprowadzane do mechanizmów innych wyszukiwarek internetowych. Szczegóły właściwego algorytmu nigdy nie zostały upublicznione i są jednymi ze ściśle strzeżonych tajemnic Google. Do tego są najprawdopodobniej sukcesywnie poprawiane, aby zwiększać efektywność mechanizmu. Wszystkie informacje dostępne jawnie przedstawiają jedynie wzorcową wersję algorytmu stosowanego w wyszukiwarce Google. Ponadto PageRank jest tylko jednym z wielu elementów decydujących o ostatecznej pozycji danej strony wśród wyników wyszukiwania, a wprowadzane zmiany powodują, iż ma on coraz mniejszy na nią wpływ.

Algorytm ten można interpretować jako znajdowanie stanu ustalonego w łańcuchu Markowa, albo jako problem diagonalizacji macierzy. Nietrywialną kwestią techniczną pozostaje implementacja tego algorytmu, aby nadawał się do przetwarzania danych opisujących sieć WWW. Wielkość macierzy wymaga specjalistycznych algorytmów rozproszonych i równoległych uruchamianych jednocześnie na wielu (tysiącach) komputerów.

Zakładamy, że w internecie istnieją tylko 4 strony internetowe i mają one wyjściowo PageRank równy 1.0:

  • abc.pl
  • def.com
  • ghi.net
  • jkl.org

Ponadto:

  • strona abc.pl linkuje do stron def.com i jkl.org
  • strona def.com linkuje do abc.pl
  • strona ghi.net linkuje do def.com i abc.pl
  • strona jkl.org linkuje do ghi.net

PageRank obliczony według algorytmu przedstawia się następująco:

  • abc.pl – 1,31
  • def.com – 0,89
  • ghi.net – 0,89
  • jkl.org – 0,46

Jeśli w internecie pojawi się nowa strona – mno.pl i będą do niej linkować wszystkie istniejące strony, PageRank dla tych stron wyniesie:

  • abc.pl – 0,66
  • def.com – 0,62
  • ghi.net – 0,22
  • jkl.org – 0,40
  • mno.pl – 1,44

Technicznie patrząc :

Wartość 1 Anchor Textu – odnośnika ze strony np. katalogu z PR (Page Rank) o wartości 3 jest bardziej wartościowe niż 5 linków ze strony o PR=1

Wskaźnik „ popularity „ określa popularność naszej witryny – czyli wielkość linków prowadzących do niej a mówiąc jeszcze inaczej BP czyli linków zaplecza.

Ilość linków takich można określić za pomocą narzędzia :

http://www.mypagerank.pl/narzedzia,sumaryczne_statystyki

http://www.linkvendor.com/seo-tools/site-analysis.html

7 ZNACZNIKI META

Znacznik TITLE czyli tytuł strony

Powinien być inny dla każdej z podstron i pokrywać się z jej merytoryką.

<title>/ BOTAK / Pozycjonowanie stron Warszawa, optymalizacja, tworzenie stron internetowych Warszawa, portale, serwisy, grafika </title>

Znacznik DESCRIPTION czyli opis strony

Powinien być inny dla każdej z podstron i pokrywać się z jej merytoryką.

<meta name=”description” content=”BOTAK – agencja marketingu interaktywnego.

Tworzenie i pozycjonowanie stron internetowych, grafika reklamowa, serwisy, portale, optymalizacja stron”>

Znacznik KEYWORDS czyli słowa kluczowe

W tym przypadku za dużo nie znaczy lepiej o czym warto pamiętać

<meta name=”keywords” content=”Pozycjonowanie stron, tanie strony www, tworzenie stron firmowych, optymalizacja stron, grafika reklamowa, strony internetowe Warszawa”>

Znacznik ROBOTS określa możliwość dostępu dla robotów wyszukiwarek – crowler’ów

<meta name=”robots” content=”index, follow” />

Analizy można dokonać poprzez:

http://www.mypagerank.pl/narzedzia,analizator_meta_tagow

Przykład zapisu META i tego jak widać to poprzez przeglądarkę widać poniżej:

/ BOTAK / Pozycjonowanie stron Warszawa, optymalizacja, tworzenie

BOTAK – agencja marketingu interaktywnego. Tworzenie i pozycjonowanie stron internetowych, grafika reklamowa, serwisy, portale, optymalizacja stron.

www.botak.com.pl/ – Kopia

8 OPTYMALIZACJA KODU STRON – WALIDACJA W3

Budowa strony musi być przyjazna wyszukiwarkom.

Co to oznacza?

Kod strony oraz sama strona musi być łatwo odczytywalna poprzez roboty wyszukiwarek – crawlers, które muszą odczytać treść i zawartość strony aby następnie ją przyporządkować w odpowiedni sposób np. jeśli idzie o słowa kluczowe

Dlatego strony oparte w większości na JS (Java Script) lub Flash są nieprzyjazne a ich pozycjonowanie może okazać się długotrwałe i kosztowne.

Jeśli chcemy dokonać walidacji kodu możemy użyć narzędzia  ze strony:

http://validator.w3.org/

Sama walidacja – nawet niepoprawna i niepomyślna dla właściciela strony czasem nic nie znaczy. Zdarza się często, że strona nie przechodzi pomyślnie walidacji, gdyż skrypty zawarte w stronie www mogą stwarzać problemy.

Jeśli jednak możemy – powinniśmy zminimalizować liczbę błędów.

Co ciekawe :

Samej walidacji nie przechodzi pomyślnie ani INTERIA ani ONET ani też GOOGLE !:)

9 FORMAT I MERYTORYKA

Treść stron musi być oryginalna.

Inaczej mówiąc nie możemy zbudować strony www kopiując treści oczekując, że jeśli komuś udało się z nimi uzyskać pozycję w TOP10 (pierwsza dziesiątka) to i my tam wejdziemy.

Jeśli kopiujemy czyjeś teksty narażamy się na  Double Content Ban – Ban chwilowy lub wykluczenie długoterminowe.

W przypadku zbyt małej ilości tekstu nasza strona może być potraktowana jako wizytówka i nie zaindeksowana przez wyszukiwarki.

Sugeruję tworzenie stron internetowych o minimum 5ciu, 6ciu podstronach, gdzie będą teksty autorskie a nasycenie słowami kluczowymi będzie właściwe.

Nasycenie czyli DENSITY można sprawdzić za pomocą DENSITY TOOL:

http://www.seochat.com/seo-tools/keyword-density/

W ten sposób poznamy nasycenie poprzez słowa kluczowe na naszej stronie głównej, czy podstronach.

10 NAGŁÓWKI, ZNACZNIKI

Aby wytłuszczać dla robotów ważniejsze teksty stosujemy nagłówki w kodzie strony np.: H1,H2,H3

Właściwe znaczniki wyróżniają nie tylko optycznie w sposób widoczny dla użytkownika ale też  dla robota sugerując priorytety ważności słów, fraz, tekstów.

Możemy stosować pogrubione czcionki używając znacznika <strong> a także stosując do głównej frazy tytułowej znacznika H1.

O ile znaczników h2,h3,h4 częściej używa się (wielokrotnie) na jednej podstronie to znacznik H1 powinien być zastosowany 1 raz, czasem 2 a nadużycie powoduje skutki negatywne.

11 ŚLEPE ROBOTY A GRAFIKA

Ponieważ roboty nie rozróżniają obrazków musimy podpowiadać zawartość grafiki za pomocą:

- właściwej nazwy grafiki

- parametru ALT

- parametru TITLE

Za pomocą wartości ALT możemy podpowiedzieć robotowi, że na zdjęciu znajduje się np. kaszanka a nie kawior.

Należy kodować w następujący sposób np.:

<img src=”images/banner1.jpg” alt=”Tanie pozycjonowanie”>

Wartości alt mogą mieć niematerialną formę jak słowa :ZAPACH, KWAŚNY, TANI

ALT służy też do wyświetlenia tekstu, gdy obrazek się nie wyświetli z różnych względów.

WAŻNE:

Przy pozycjonowaniu poprzez BANER REKLAMOWY powinniśmy dopilnować aby baner będący linkiem do naszej strony miał wartości ALT oraz TITLE – wtedy ma największą moc pozycjonerską.

Przykład : baner do strony BoTak o Anchor Tekście POZYCJONOWANIE

<a href=”http://www.botak.com.pl”><img src=”baner_reklamowy.jpg” alt=”pozycjonowanie” title=”pozycjonowanie” /></a>

Wtedy uzyskujemy link – odnośnik- anchor do naszej strony o nazwie POZYCJONOWANIE

12 KOTWICE – ANCHOR TEKSTY

Anchor z języka angielskiego KOTWICA to w SEO tekst kotwiczący do naszej strony.

Anchor tekst to słowo lub fraza kluczowe dające link do strony po naciśnięciu na niego.

Budowa ANCHOR’u :

<a href=”http://www.botak.com.pl”>POZYCJONOWANIE</a>

Anchor wzmocniony poprzez TITLE:

<a href=http://www.botak.com.pl title=”pozycjonowanie”>POZYCJONOWANIE</a>

Anchor dodatkowo wzmocniony przez pogrubienie:

<b><a href=http://www.botak.com.pl title=”pozycjonowanie”>POZYCJONOWANIE</a></b>

13 KATALOGOWANIE

Lepiej 3 mądre (mocne) linki niż 10 głupich (słabych)

Dodajemy do katalogów o PR wyższym od strony pozycjonowanej.

Katalogujemy tylko w kategoriach/grupach związanych tematycznie z naszą stroną.

Zacznijmy od :

ONET, WP (Wirtualna Polska), INTERIA

Same katalogi czy też SEO KATALOGI można wyszukać przez wpisanie w wyszukiwarkę Google frazę SEO KATALOG.

Do katalogowania służą też automatyczne, czy półautomatyczne narzędzia wypełniające automatycznie pola i oszczędzające nam czas. Jest ich na rynku wiele a i ceny są różne. Nie chcę robić tu reklamy, czy antyreklamy – sugeruję poczytać opinie przez zakupem !

TYTUŁY W KATALOGU są ANCHOR TEKSTAMI …

Nie powinno się wpisywać 3-4-5 fraz w tytuł np.:

„POZYCJONOWANIE, PROJEKTOWANIE, ANALIZA, KURSY, SZKOLENIA” – Ź L E !!!

Powinno się stosować jedną frazę jako kotwicę niezależnie od długości np.:

„pozycjonowanie stron” – D O B R Z E

„tanie pozycjonowanie stron” – D O B R Z E

„pozycjonowanie stron Warszawa ” – D O B R Z E

14 BLOGI, STRONY, KATALOGI – INWESTYCJA W ZAPLECZE

Własne zaplecze pozycjonerskie możemy zbudować jeśli chcemy wypróbować swoje siły oraz zaoszczędzić na zewnętrznym pozycjonowaniu.

Możemy to zrobić jeśli czujemy się na siłach i umiemy pisać teksty a nie tylko je kopiować – to bardzo ważne i jest jednym z głównych czynników determinujących ten proces.

Najlepszym pomysłem dla osób początkujących będzie próba użycia bloga opartego na silniku WordPress.

Atuty ? Tak !

Trudne ? I tak i nie !

Dlaczego ?

Wiele firm hostingowych – oferujących przestrzeń serwerową – daje możliwość darmowej 14sto dniowej próby. Polecam firmę Home : www.home.pl

Po uruchomieniu pakietu hostingu (serwera) można za pomocą paru kliknięć postawić bloga opartego na silniku WordPress będącego doskonałym zapleczem pozycjonerskim.

Przy budowie wielu stron zaplecza sugerowane jest stawianie stron na różnych adresach IP serwera oraz dostosowanie IP kraju do języka Google w jakim pozycjonujemy.

Lepsze wyniki osiągniemy stawiając stronę pozycjonowaną, jak i strony zapleczowe na IP polskim czyli serwerze umieszczonym w Polsce jeśli chcemy pozycjonować w Google.pl

Dobrze pozycjonują się strony z anchorami ze stron tematycznych, informacyjnych,  portali społecznościowych, forów dyskusyjnych, blogów.

Zaplecze może być postawione na osobnych domenach (adresach www) lub na subdomenie strony pozycjonowanej – przykład:www.Zapleczowa.Pozycjonowana.pl

15 ROBOTS, SITEMAP

Plik robots.txt jest specjalnym dokumentem tekstowym sprawdzanym przez roboty wyszukiwarek indeksujących stronę.

Stosującym on specjalny protokół – Robots Exclusion Protocol, który pozwala administratorowi zablokować dostęp wybranym robotom do określonych plików/katalogów na serwerze.

Plik ten może być szczególnie przydatny, gdy na serwerze przechowuje się poufne zasoby czy strony będące w trakcie przygotowywania. Aby te dane nie zostały zaindeksowane przez wyszukiwarki, wystarczy utworzyć w głównym katalogu witryny plik robots.txt z odpowiednią zawartością.

Komendy zawarte w robots.txt są dość proste. Pole User-agent zawiera informacje na temat tego, jakich robotów wyszukiwarek dotyczy dany rekord. Poniższy kod zabrania wszystkim pajączkom czytania zawartości folderu private i pliku index.html umieszczonym w katalogu temp:

User-agent: *

Disallow: /private/

Disallow: /temp/index.html

Gwiazdka (*) po User-agent oznajmia, że zakaz dotyczy wszystkich robotów, jednak istnieje możliwość ograniczenia praw tylko wybranym szperaczom. Wówczas w miejsce gwiazdki (*) wpisuje się jego nazwę:

User-agent: googlebot

Disallow: /private/

Disallow: /temp/index.html

Pajączki zmogą indeksować cały serwis, jeśli w głównym katalogu na serwerze nie będzie robots.txt lub będzie on miał zawartość:

User-agent: *

Disallow:

Oto przykładowy plik robots.txt ze strony www.alexa.com:

# The crawlers listed below are allowed on the Alexa site.

# Alexa allows other crawlers on a case by case basis.

# Send requests to frontdesk@alexa.com.

# Alexa provides access to traffic ranking data via Amazon Web Services.

# More information here: <URL: http://www.amazon.com/gp/browse.html/?node=12920391>

User-agent: googlebot

Disallow: /search

User-agent: gulliver

Disallow: /search

User-agent: slurp

Disallow: /search

User-agent: fast

Disallow: /search

User-agent: scooter

Disallow: /search

User-agent: vscooter

Disallow: /search

User-agent: ia_archiver

Disallow: /search

User-agent: Nutch

Disallow: /search

User-agent: FAST-WebCrawler

Disallow: /search

User-agent: teoma_agent1

Disallow: /search

User-agent: Lycos_Spider_(T-Rex)

Disallow: /search

User-agent: MSNBOT/0.1

Disallow: /search

User-agent: ArchitextSpider

Disallow: /search

User-agent: ZyBorg

Disallow: /search

User-agent: SurveyBot

Disallow: /search

# Disallow all other crawlers

User-agent: *

Disallow: /

Innym podobnym rozwiązaniem jest znacznik META ROBOTS w sekcji HEAD dokumentu HTML. znacznik ten przy pomocy odpowiednich parametrów instruuje mechanizmy wyszukiwarek, jak powinny indeksować stronę.

Może on mieć parametry:

index – pozwala robotom indeksować stronę

noindex – zapobiega indeksowaniu strony przez roboty

follow – pozwala robotom indeksować strony, do których dotrze poprzez linki w danej witrynie

nofollow – zabrania robotom indeksować stron, do których linki znajdują się w danej witrynie

all – zastępuje „index, follow”

none – zastępuje „noindex, nofollow”

Przykładowy tag ROBOTS wygląda następująco:

<META NAME=”robots” CONTENT=”index, follow” >

Znacznik ten nie jest zbyt rozbudowany, posiada mniej opcji niż robots.txt, jednak również może okazać się przydatny.

Sitemap – protokół używany do tworzenia mapy witryny, czyli pliku XML zawierającego szczegółowe informacje dotyczące wszystkich adresów URL witryny, m.in. o dacie ostatniej aktualizacji, czy też ważności danego linku. W ten sposób roboty indeksujące mogą w bardziej inteligentny sposób analizować witrynę. Protokół jest wspierany przez wszystkie większe wyszukiwarki, m.in. Google i Bing.

Każdy znacznik url oznacza nową podstronę mapy, znacznik loc określa adres url, znacznik changefreq określa jak często dana strona jest aktualizowana, może przyjmować jedną z poniższych wartości

  • always – zawsze
  • hourly – co godzinę
  • daily – co dziennie
  • weekly – co tydzień
  • monthly – miesięcznie
  • yearly – co rocznie
  • never – nigdy

Znacznik lastmod oznacza datę ostatniej modyfikacji, może też zawierać datę z czasem zapisaną według normy ISO_8601. Znacznik priority oznacza jak ważna jest dana strona dla wyszukiwarek może przyjmować wartości od 0.0 do 1.0, domyślna wartość to 0.5. Za pomocą tego znacznika można określić które strony są ważniejsze.

Istnieje też plik sitemapindex który grupuje mapy stron.

Mapa Strony XML jest pewnego rodzaju listą, która zawiera odnośniki oraz nazwy każdej (bądź wybranych) podstron całej naszej witryny. Myślę, choć nie tylko ja jestem takiego zdania, że tworzenie takich map jest bardzo dobrym pomysłem. Google robot odwiedzając taką stronę ma podany cały listing naszej witryny, który automatycznie zaindeksuje. Z praktyki wiem, że utworzenie sitemap XML jest jednym z najlepszych czynników wspomagających większą częstotliwość odwiedzin robota Google, szybką ideksacje nowych wpisów, większą widoczność i zarazem szybszą, nie wspomniałem tu o bardzo ważnej rzeczy, aby cieszyć się w pełni z sitemap XML należy mieć witrynę bez błędów w kodzie powinna ona być klarowna, spełniać standardy WC3. Wiem, że pewne rzeczy na stronie automatycznie nie przechodzą Validacji, jak np Flash, JavaScript, lecz wszystko można nadrobić z wymienionych skryptów nowymi zastępczymi znakami bądź nowymi skryptami obsadzającymi w/w języków skryptowych (myślę, że będę pisał o tym z pewnością).

Jak zrobić sitemap XML - można to uczynić na wiele sposobów, są darmowe programy generujące sitemap XML, bądź korzystając z opisu w narzędziach dla webmasterów na stronie Google, aby zacząć należy się zarejestrować w Google rejestracja, zacznijmy od tego. Po utworzeniu konta logujemy się szukając narzędzia dla webmasterów w owych narzędziach mamy pole do dodania Naszej strony. Po dodaniu strony początkowo nic z tych statystyk udostępnionych nie skorzystamy. Przejdźmy do utworzenia Sitemap XML podam kilka generatorów wybiorę jeden i opiszę procedurę utworzenia jej, jak i zgłoszenia do Google.

A więc generatory sitemap XML – www.xml-sitemaps.com , generator online, podając adres naszej strony utworzy nam gotowe pliki do pobrania, takie jak sitemap.xml, sitemap.html, urllist.txt, oraz skompresowane pliki nas interesują najbardziej trzy pierwsze, drugim generatorem darmowym i bardzo dobrym (instalacyjnym) jest www.gsitecrawler.com jest on bardzo funkcjonalny, ma wbudowany import mapy ftp na nasz serwer pod dany katalog (katalog w którym znajduję się strona), co ułatwia życie.

Program ten jest intuicyjny “Add new project” dalej będziemy wiedzieli co robić, ważne jest, aby sprawdzić po uprzednim skonfigurowaniu połączenie z serwerem za pomocą funkcji “test FTP settings” i zaznaczeniu wszystkich funkcji nam potrzebnych do utworzenia, jeżeli w teście przejdzie pomyślnie możemy zacząć tworzenie sitemap XML po zakończeniu generowania należy czekać do końca, aż sitemap XML zostanie wysłane na serwer. Jeżeli wszystko przebiegło prawidłowo otworzy się nam strona Google, aby ją zgłosić więc logujemy się szukamy opcji zgłoś witrynę, wybieramy rodzaj zgłoszenia jest to przeważnie zgłoszenie witryny ogólnej (pod każdą z opcji zgłaszania witryny pod spodem mamy przykład adresu) np http://www.taniepozycjonowanie.com.pl/sitemap.xml , po dodaniu adresu z mapą przechodzi ona stan weryfikacji przez Google, czas rzędu od 8 min do 2 godzin, warto się nie wylogowywać z Google i po kilkunastu minutach kliknąć w “stan mapy witryny” jeśli ukaże nam się OK wiadome, że zgłoszenie zakończyło się sukcesem.

W przypadku wyświetlenia błędu, proponował bym zerknąć na serwer w katalog czy generator nie utworzył nam pliku robots.txt jeśli tak ok umieszczamy go w miejscu gdzie znajduję się strona, pierwsze tworzenie sitemap XML przebiega różnie trzeba zwrócić uwagę na zawartość pliku .htaccess być może zawiera komendy które się kłócą z procesem zgłoszenia sitemap XML. Gdy raz zgłosimy sitemap XML do Google nie trzeba zgłaszać za każdym razem gdy robimy update sitemap, Google samo pobiera mapę co jakiś czas, ważne jest, aby wysyłać ją na serwer w katalog ze strona, bądź tam gdzie strona się znajduję. Reszta funkcji w Google jest opisana, jest dużo pomocnych opisów, które dadzą nam dużo odpowiedzi

Pamiętaj :

W skrypcie http://www.xml-sitemaps.com/ należy używać pełnego adresu strony łącznie z http np. : http://www.botak.com.pl/

Plik należy nazwać sitemap.xml używając małych liter i umieścić w głównym katalogu tak samo jak i robots.txt

Odnośnie robotów – spikerów- crawlers więcej info na : http://spiders.pl/

16 PRZYJAŹNIE I NIEWYRAŹNIE

Jeśli kupujesz domenę a zależy Ci bardziej na sprzedaży towaru lub usługi a nie na brandingu czyli kreacji marki sugeruję zakup domeny związanej z działalnością, towarem lub usługą a nie nazwą własną firmy.

Np. Pani Ewa posiada salon piękności i przedłuża włosy w Krakowie. Chce zwiększyć ilość klientów poprzez stronę internetową. Firma Pani Ewy nosi nazwę „Beauty for You”.

Zależy nam w 1szej kolejności na przychodzie i pieniądzach więc wybieramy domenę związaną z przedłużaniem włosów, ale Pani Ewa nie chce działać tylko w Krakowie więc decyduje się na wolną domenę : http://www.przedluzanie-wlosow.info.pl/

Drugi etap to kreacja marki więc jako druga powstaje strona :

http://www.beauty-for-you.com.pl/

Tak więc :

Jeśli sprzedajesz napoje chłodzące a nie masz marki tak znanej jak CocaCola nie wysilaj się i chcąc uzyskać wzrost sprzedaży kup domenę

www.napoje-chlodzace.pl

www.oranzada-komunijna.pl

zamiast kupować domenę zawierającą nazwę firmy np.:

www.piotrex.pl

www.markpol.pl

To były uwagi odnośnie domeny a następne będą odnośnie przyjaznych adresów podstron.

Bardzo ważne stosowanie jest przyjaznych adresów w pasku adresowym – przykład:

www.botak.com.pl/4-pozycjonowanie-stron-w-wyszukiwarce-google.html DOBRZE

zamiast

www.botak.com.pl/?cmd=problem_wiecej,3077&serwis=2 ŹLE

czy

www.botak.com.pl/gooviewtopic.php?t=5127.php ŹLE

Jeśli stwierdzisz, że u Ciebie występuje nieprzyjazny (czytaj zły format adresu ) należy w pierwszej kolejności dokonać zmian.

Można zmienić takie ustawienia w różnych miejscach w zależności od języka kodowania, silnika strony, możliwości w panelu CMS.

Najczęściej zmian dokonuje się przez panel CMS i plik .htaccess na serwerze.

17 JEDNA DOMENA CZY DWIE DOMENY ?

Posiadając JEDNĄ domenę posiadamy tak naprawdę DWIE

Dlaczego ? Ponieważ posiadamy jedną „bez www” czyli w postaci np : http://botak.com.pl/ a drugą z „www” np : http://www.botak.com.pl/

Dlaczego o tym wspominam ? Ponieważ pozycjonując rozpraszamy siłę pozycjonowania lub inaczej mówiąc nie pozycjonujemy w pełni jeśli nie zdecydujemy się na jedną z opcji (sam polecam z www) i nie dokonamy przekierowania na jedną z nich w pliku .htaccess za pomocą REDIRECT 301

18 PRZEKIEROWANIE 301 – REDIRECT W HTACCESS

Plik .htaccess – koniecznie z kropką poprzedzającą tworzymy w katalogu głównym na serwerze.

Najpierw musi mieć postać pliku tekstowego TXT a następnie po wpisaniu zawartości wychodzimy i nadajemy mu nazwę .htaccess

Zawartość przykładowa, gdy przekierowujemy z „bez www” na „www” :

RewriteEngine On

RewriteCond %{HTTP_HOST} ^botak.com.pl$ [NC]

RewriteRule ^(.*)$ http://www.botak.com.pl/$1 [R=301,L]

Takich przekierowań – TYP REDIRECT 301 możemy dokonywać jeśli chcemy przekierować domenę X na domenę Y przekazując jej pozycjonerską siłę linków zaplecza. Wtedy używamy takiej formy :

RewriteEngine On

RewriteCond %{HTTP_HOST} ^domenaX.pl$ [NC]

RewriteRule ^(.*)$ http://www.domenaY.pl/$1 [R=301,L]

RewriteCond %{HTTP_HOST} ^www.domenaX.pl$ [NC]

RewriteRule ^(.*)$ http://www.domenaY.pl/$1 [R=301,L]

W tekście została użyta także wiedza zaczerpnięta z : Grejf oraz Wikipedia. Pozdrawiam serdecznie autorów. Nazwy firm użyte w kursie są przypadkowe