SEO dla początkujących – jak zacząć
Pracując w firmie internetowej (pojęcie bardzo ogólne, wiem) z terminem SEO spotkacie się prędzej czy później. I nie ma tu znaczenia rola, jaką w tej firmie pełnicie. Kierujecie projektami? Super – będziecie odpowiedzialni za nadzorowanie wdrażania zaleceń SEO’wych od specjalisty SEO. Projektujecie serwisy? Extra, również w tym wypadku będziecie musieli przegadać makiety z SEOwcem. Zajmujecie się webmasterką? A może testujecie gotowe produkty? No cóż, również do Was zapuka specjalista SEO :)
POZIOM TRUDNOŚCI: |
„Włodek mówi, że mamy za dużo H1’ek na stronie głównej”
No dobrze, ale o co konkretnie chodzi? SEO to skrót od angielskiego Search Engine Optimization, czyli optymalizacji (serwisu WWW) pod wyszukiwarki internetowe. Czym są owe wyszukiwarki? Ano jest np. znany wszystkim Google, absolutny imperator na całym świecie jeśli chodzi o market share, zaraz za nim mamy Yahoo (drugi po Google w US), a także Yandex (rządzi w Rosji). W Polsce Google dominuje absolutnie. To oznacza, że również wyszukiwarki na WP.pl, czy Onet.pl są na nim oparte.
Optymalizacja?
Czyli takie grzebanko w kodzie i treści strony, żeby Google na tę stronę patrzył przychylnym okiem i przesunął ją w wynikach wyszukiwania na samą górę. Ale po co być na samej górze wyników wyszukiwania (ang. SERP, czyli Search Engine Results Page)? Jak sami zapewne zauważyliście najczęściej po wpisaniu czegoś w Google klikacie w jeden z pierwszych rezultatów. Czyli im serwis jest wyżej na liście wyników wyszukiwania, tym więcej ruchu z wyszukiwarek pozyska.
Słowa kluczowe
Skoro jesteśmy już na etapie pozyskiwania ruchu, to warto wspomnieć o słowach kluczowych. Słowa kluczowe to te ciągi znaków, które wpisujecie w okno wyszukiwarki. Np. „pogoda Kraków” to przykład słowa kluczowego, które po wpisaniu do wyszukiwarki spowoduje, że ta zwróci nam listę wyników, które wg. niej są najbardziej adekwatne do wpisanej frazy – listę stron o pogodzie w Krakowie.
Różne słowa kluczowe mają różną popularność. Można łatwo domyśleć się, że najbardziej popularne (czyli najczęściej wpisywane w wyszukiwarkę) są frazy krótkie – jedno lub dwuwyrazowe. Np. „hotele Bydgoszcz” będą wpisywane do wyszukiwarki znacznie częściej niż „hotele przy starówce w Bydgoszczy”. Jakie to ma znaczenie? Takie, że robiąc serwis turystyczny o Bydgoszczy i chcąc pozyskać jak najwięcej ruchu z wyszukiwarek skupimy się w pierwszej kolejności na optymalizacji serwisu właśnie pod tę krótszą frazę. Oczywiście powyższe kilka zdań to bardzo skrótowy opis całego mechanizmu.
Jak zoptymalizować serwis WWW
No dobrze, to teraz pogadajmy krótko o tym, co można na serwisie optymalizować. Tonę rzeczy. Jest ich tak dużo, że na pewno nie wymienię wszystkich w tym artykule. Możesz jednak o nich poczytać w tekście pt. optymalizacja stron internetowych pod wyszukiwarki. Poniżej wymienię kilka absolutnie kluczowych elementów na serwisie, nad którymi należy się pochylić w pierwszej kolejności, wraz z informacją, co dokładnie trzeba z nimi zrobić (zakładając, że wiemy, na jakie frazy chcemy się w wyszukiwarce pokazać wysoko).
- Meta title, czyli tytuł strony – Meta title to tekst, który pojawia się na pasku przeglądarki, w zakładce (patrz obrazek). Tekst ten pojawia się również jako fragment wyniku wyszukiwania (patrz kolejny obrazek). Meta title ma znaczenie fundamentalne, bo mówi użytkownikowi, o czym jest dana podstrona serwisu. Z tego powodu wyszukiwarki poświęcają mu bardzo dużo uwagi. Meta title optymalizujemy dbając o jego długość (nie powinien mieć więcej niż 60 znaków) i umieszczając w nim najważniejszą frazę dla danej podstrony na serwisie).
- Nagłówki H1, H2, H3, itp. – Nagłówki w tekście to elementy widoczne dla użytkownika już po przejściu na nasz serwis (patrz obrazek). Wyróżniamy różne poziomy nagłówków – H1 to nagłówek najważniejszy, H2 może służyć jako tytuł akapitu, H3 jako tytuł wypunktowanej listy, itd. Co możemy zrobić, żeby Google polubił nasze nagłówki? Jak wyżej – umieszczamy w nich słowa kluczowe i dbamy o ich długość (dobry nagłówek jest krótki i treściwy).
- Treść – Co możemy optymalizować w ramach naszej treści? Po pierwsze wrzucamy do artykułu kilka razy najważniejszą dla nas frazę. Idealnie, jeśli dorzucimy do niej kilka fraz pobocznych, np. synonimów lub fraz pokrewnych (tzw. LSI keywords). Należy bardzo uważać, żeby nie przegiąć i nie ładować do artykuły co 10 słowo frazy kluczowej. Czasy, kiedy ta technika pozwalała wspinać się w wynikach wyszukiwania już dawno minęły.Pisząc o treści muszę też wspomnieć o dwóch innych kwestiach – długości i dodatkach. Google lubi, jeśli poza tekstem dzielimy się z użytkownikiem urozmaiceniami – np. zaembedowanymi filmikami lub zdjęciami (koniecznie z uzupełnionym znacznikiem alt tag). W kwestii długości artykułów – warto pisać teksty dłuższe, czyli powyżej tysiąca znaków. Wrzucanie na serwis 3 zdaniowych notek i liczenie, że pojawią się na samej górze SERPów bez dodatkowych machlojek to strata czasu.
- Przelinkowania – Przelinkowania to, upraszczając, wiązanie ze sobą treści na serwisie. Chodzi o to, żeby na danej podstronie umieścić linki do pozostałych podstron na serwisie. Jakie to ma znaczenie? Po pierwsze ułatwia robotom wyszukiwarek (spokojnie, zaraz wyjaśnię) przeskakiwanie pomiędzy poszczególnymi podstronami na naszym serwisie, a w konsekwencji indeksowanie tych podstron wraz z ich zawartością. Po drugie, stosując tzw. anchor texty (o których za chwilę) możemy powiedzieć robotom, na jakie frazy dana podstrona powinna pojawiać się w wynikach wyszukiwania.
Anchor text’y, roboty wyszukiwarek i inne dziwadła
No dobrze, żeby zrozumieć kwestię anchor text’ow i robotów musimy wrócić do początków technologii wyszukiwania. Pierwotnie, w zamierzchłych czasach smoków, jednego telefonu stacjonarnego w domu i brzydkich samochodów (choć o gustach się nie dyskutuje) internet był ogromnym zlepkiem różnych serwisów. Były to czasy katalogów stron, które zastępowały wyszukiwarki (te dopiero raczkowały). Użytkownik, żeby dokopać się do interesującego go artykułu o tym, jak powstrzymać psa przed skakaniem na seksowną sąsiadkę/przystojnego sąsiada musiał wejść na stronę takiego katalogu, znaleźć kategorię Zwierzaki, potem wejść w podkategorię Psy, potem znaleźć bloga o psach wśród stron weterynarzy, sklepów z karmą i trenerów czworonogów i na końcu poszperać na tym blogu, żeby po 15 minutach zorientować się, że gość pisze o filmie PSY, a nie o berneńczykach. Dzisiaj proces wygląda trochę inaczej – odpalamy Google.pl, wpisujemy „pies skacze na ludzi” i dostajemy 210 000 (dane z 29.07.2014) wyników wyszukiwania, z czego śmiało można stwierdzić, że któryś z pierwszej 10tki nas ustatysfakacjonuje.
Wracając do początków (Google’a) – w pewnym momencie dwóch studentów z Doliny Krzemowej (Larry Page i Sergey Brin) wpadło na pomysł, żeby pomóc ludziom w poszukiwaniach i zrobić dla nich wyszukiwarkę treści. Powstało pierwsze zasadnicze pytanie – Skąd będziemy wiedzieli, co pokazywać w SERPach w odpowiedzi na zapytanie? Musimy mieć jakiś system, który pozwoli użytkownikom o tym decydować. Wykorzystali koncepcję znaną ze środowiska naukowego – cytaty i referencje. W środowisku naukowym, im częściej cytowana jest praca, tym ma ona większe znaczenie w środowisku. W Google’u (i innych wyszukiwarkach) znaczenia nadają linki. Im więcej linków prowadzi do danej podstrony serwisu, tym jest ona wartościowsza i tym wyższą pozycję w wynikach wyszukiwania zajmuje. Druga kluczowa sprawa w temacie linkowania to to, jakie słowo kluczowe jest użyte do podlinkowania podstrony. O co chodzi? Poniższa grafika to ilustruje.
To słowo kluczowe to właśnie anchor text linka.
O tym jaką pozycję ma dana podstrona w wynikach wyszukiwania Google decyduje również stopień jej optymalizacji pod wyszukiwaną frazę (o czym pisałem powyżej). Oczywiście powyższe przedstawienie tematu to bardzo duże uproszczenie, ale na tym etapie nie musisz znać więcej szczegółów.
W jaki sposób Google agreguje ten ogrom informacji?
Za pomocą swoich robotów, czyli programów komputerowych, których zadaniem jest przeskakiwanie z linka na link (z podstrony na podstronę) i skanowanie znalezionej tam treści. Treść ta jest następnie zapisywana w ogromnej bazie danych amerykańskiej firmy – tzw. indeksie. Poza treścią Google przechowuje także informacje o tym, że dana podstrona na serwisie Z została podlinkowana z 354 innych podstron na serwisach X, Y, W, itp. za pomocą konkretnych słów kluczowych. Powoli zaczyna zatem do Was docierać, jak duże znaczenie ma właściwa optymalizacja serwisu oraz odpowiednie jego przelinkowanie.
Zanim przejdziemy do kolejnego tematu wspomnę jeszcze, że więcej o działaniu wyszukiwarek internetowych (szalenie ciekawa sprawa) dowiesz się w tekście „Jak działają wyszukiwarki”. Wspominam w nim o PageRank’u, słynnym Google’owskim algorytmie, pingiwnie, pandzie, kolibrze i stadzie prosiaków. No dobra z tymi prosiakami trochę się zagalopowałem :P
Pozycjonowanie stron internetowych
Mając już wiedzę o wyszukiwarkach oraz optymalizacji serwisów WWW pod te wyszukiwarki możemy wprowadzić termin “pozycjonowania”. Wchodząc w interakcję ze światem SEO spotkasz się z nim na samym początku. Pozycjonowanie to temat szerszy niż samo SEO, ale skupiający się na tym samym celu – wysuwaniu danej witryny internetowej na szczyt wyników wyszukiwania. Na pozycjonowanie składa się omówione wyżej SEO oraz tzw. link building.
Link bulding
Link building, czyli tworzenie linków, to proces pozyskiwania w sposób etyczny i nieetyczny (o kwestiach etyki w branży porozmawiamy za chwilę) odnośników do naszej witryny. Mając już w głowie reguły działania wyszukiwarek i zoptymalizowawszy nasz serwis do granic możliwości możemy przystąpić do zdobywania linków. Czemu? Ponieważ sama optymalizacja nie zawsze wystarcza (w większości wypadków nie wystarcza), żeby wspinać się na szczyty SERPów.
Ale jak w jaki sposób można pozyskiwać linki? Zanim odpowiem na to pytanie zastanów się, czy sam nie znasz na nie odpowiedzi. Czy przypadkiem nie zdarzyło Ci się machnąć od niechcenia linka tu i tam? Jestem w stanie się założyć, że tak :) Np. wrzucając na Facebook’a artykuł, którym chcesz się podzielić ze znajomymi tworzysz do niego odnośnik, który Google na bank znajdzie i odnotuje w swojej bazie danych. Pisząc posta na blogu o jakiejś książce, którą właśnie przeczytałeś/aś i wklejając w jego treść link do sklepu internetowego, w którym nabyłeś/aś tę książkę tworzysz odnośnik do tego sklepu. Pisząc posta na forum o twojej ulubionej kapeli i umieszczając w nim linka do strony WWW tego zespołu tworzysz odnośnik :)
Wyobraź sobie, że są ludzie, którzy, żeby wypozycjonować swoją stronę, chodzą po forach, udają, że interesują się danym tematem, a potem wklejają w stopce linki do stron swoich klientów. Stąd np. na forum o kobietach w ciąży linki o treści „stolarz Kraków”, „czyszczenie kanalizacji Jazgarzew”, czy „tani beton”. Ci ludzie robią to na dziesiątkach for każdego dnia. Ale nuuuuudy! A teraz wyobraź sobie, że są ludzie, którzy kupują programy, które robią to za nich. Odpalasz taki program i po dwóch godzinach masz 300 kont na 300 różnych forach i na każdym z nich po kilka wpisów z linkami. Witaj w świecie black hat SEO.
Black hat vs. white hat vs. grey hat vs. inne nakrycia głowy
No właśnie. Ludzie bardzo szybko nauczyli się oszukiwać wyszukiwarki internetowe. Bardzo szybko podłapali, jak działa algorytm i jak można go wykiwać. Z kolei wyszukiwarki bardzo szybko uczą się, co ludzie robią, żeby je nabrać :) Wypuszczając kolejne aktualizacje swojego oprogramowania niwelują co większe dziury w mechanizmach, tak żeby dostarczać użytkownikom faktycznie najwartościowsze treści (a nie to, co ludzie siłą wepchnęli w topy). Walka ta ma miejsce od początku istnienia wyszukiwarek i jak na razie wygrywają spryciarze. Nazywamy ich black hatowcami, bo korzystają z „nieczystych mocy” :P
Po drugiej stronie barykady ustawili się white hatowcy, którzy grają zgodnie z zasadami i przestrzegają wszystkich reguł, które narzuca Google i ekipa. White hatowcy znają bardzo dokładnie wytyczne wyszukiwarek – np. Google Webmaster Guidelines i stosują się do nich w 100%.
Zarówno pierwsi jak i drudzy odnoszą sukcesy. Dobór taktyki (czy będę black hatowcem czy white hatowcem) zależy oczywiście od naszych priorytetów. Jeśli prowadzimy działania SEOwe dla dużego portalu, nie możemy sobie pozwolić na ryzykowne zagrywki, bo gra nie jest warta świeczki. Ewentualne konsekwencje w przypadku wykrycia naszych oszustw mogą się okazać dramatyczne (straty dziesiątek milionów wizyt z wyników wyszukiwania). Jeśli produkujemy serwisy WWW masowo, jeden po drugim, i zakładamy, że ich żywotność to góra kilka miesięcy, możemy korzystać z metod black hatowych.
Gdzieś pośrodku znajdują się tzw. grey hatowcy, czyli ludzie, który stosują się do wytycznych wyszukiwarek, ale poświęcają też czas na link building. Nie robią tego jednak w sposób automatyczny i bezmyślny. Potrafią np. pisać tzw. guest posty (gościnne wpisy na blogach innych osób z linkiem zwrotnym do ich serwisu), których tworzenie wymaga czasu i wiedzy. Często korzystają z for, ale starają się wnosić swoimi wpisami coś wartościowego do dyskusji. Czemu powyższe metody nie są kategoryzowane jako white hat? Bo Google bardzo jasno mówi, że wszelkie próby świadomego pozyskiwania linków są nie fair i będą karane. Grey hatowcy nie jadą jednak tak mocno po bandzie jak black hatowcy i często odrzucają zautomatyzowane systemy produkcji linków. Granica jest bardzo cienka i dlatego poświęciliśmy temu tematowi osobny tekst.
Podsumowanie
SEO, a właściwie szerzej – pozycjonowanie, to fascynujący obszar w świecie internetów. O ile temat ten nie jest przesadnie skomplikowany i trudny do zrozumienia (np. w porównaniu do programowania), o tyle bardzo ciężko jest wyłapać i zagregować całą dostępną na świecie wiedzę. Niewątpliwie nie jest to branża “skończona” – cały czas się zmienia. Coś co było standardem tydzień temu, może, z powodu kolejnej aktualizacji algorytmu, odejść w zapomnienie. Jednocześnie są pewne podstawowe reguły (np. zasady optymalizacji pod wyszukiwarki), które pozostaną z nami prawdopodobnie do końca świata i warto te reguły przyswoić.