Enterso - przystanek sukces

Enterso wspiera laureatów konkursu Przystanek Sukces – biznes w Szczecinie się opłaca!

Z dumą ogłaszamy, że mieliśmy przyjemność wesprzeć Polską Fundację Przedsiębiorczości oraz Urząd Miasta Szczecin w organizacji konkursu Przystanek Sukces – biznes w Szczecinie się opłaca! Doskonale zdajemy sobie sprawę z problemów młodych przedsiębiorców, więc z niekrytą radością zdecydowaliśmy się wesprzeć laureatów konkursu. Continue reading

Duplicate content oraz thin content – czyli jak skopiowane i ubogie treści wpływają na Twoją stronę w Google

Duplicate content

Zapewne wszyscy znają teksty typu „kopiuj-wklej”. Właśnie mianem duplicate content określamy treści, które zostały skopiowane z innych stron. Warto zauważyć, że powielane treści mogą pojawiać się nie tylko na różnych domenach, czyli wtedy, gdy skopiujemy dany artykuł od konkurencji, ale także na jednej domenie. Dzieje się tak wówczas, gdy do jednej domeny możemy trafić przez kilka różnych adresów. Jeśli nie ustawimy przekierowania 301, wówczas tych kilka adresów będzie dla wyszukiwarki różnymi witrynami ze skopiowaną treścią. Duplicate content bardzo często zdarza się w sklepach internetowych, które oferując ten sam produkt i pobierają tą samą bazę od producentów, wykorzystując identyczne opisy. Jednak dla dobra naszej witryny, warto postarać się o unikalną treść.

Jak wyszukiwarki reagują na duplicate content?

Każdy, kto miał do czynienia z pozycjonowaniem, słyszał o tzw. Black Hat SEO. Są to nieetyczne techniki, za pomocą których można uzyskać wyższą pozycję w wyszukiwarce w dużo szybszym czasie. Takie działania nie są jednak mile widziane i są raczej mało opłacalne. Po pierwsze, efekt ich działania jest tymczasowy. Po drugie, roboty Google skutecznie walczą z takimi technikami.

Warto również zauważyć, że za kopiowanie treści, które objęte są prawami autorskimi, możemy zostać podani na policję. Oczywiście zwykle w pierwszej kolejności, autor tekstu prosi nas o jego usunięcie. W najgorszym wypadku może się to skończyć sprawą w sądzie.

Ale wracając do tematu robotów… Jeśli wyszukiwarka Google wykryje na naszej witrynie duplicate content, w najlepszym razie, nałoży na naszą stronę filtr, w najgorszym – po prostu ją zablokuje. Konkretne kary zależą w dużej mierze od ilości skopiowanych tekstów, jakie wykryje robot. Pamiętajmy jednak, że po pierwsze ściągnięcie blokady ze strony jest niełatwym zadaniem. A po drugie – nawet jeśli uda nam się zdjąć filtr czy blokadę z witryny, osiągnięcie pozycji w Google, którą zajmowaliśmy dotychczas będzie jeszcze trudniejsze i zajmie nam sporo czasu.

Używając nieświadomie skopiowanych treści możemy również zaszkodzić stronie, na której tekst został oryginalnie zamieszczony. Wyszukiwarka Google wyświetla w wynikach wyszukiwania treści, które najbardziej pasują do zapytania użytkowników. Czasem niestety może się zdarzyć, że strona, która oryginalnie zamieściła tekst, zostanie pominięta w wynikach wyszukiwania.

Co zrobić, by uniknąć powielania tekstu w obrębie jednej domeny?

Tak, jak już zostało powiedziane, duplicate content może pojawić się także w obrębie jednej domeny. Jak sobie z tym poradzić? Możemy uniknąć tego problemy trzema metodami. Możemy wskazać właściwą stronę do indeksacji za pomocą rel=canonical, zablokować zduplikowaną treść za pomocą robots.txt lub meta robots (noindex) lub wykorzystać oferowane przez wyszukiwarki narzędzia. Warto jednak w tek kwestii skorzystać z pomocy profesjonalnej firmy, zajmującej się pozycjonowaniem. Nie posiadając fachowej wiedzy na temat SEO i próbując robić coś na własną rękę, możemy tylko bardziej zaszkodzić witrynie np. wyindeksować ją z wyszukiwarki Google.

Jak sprawdzić duplikat treści
Istnieje narzędzie www.copyscape.com , za pomocą którego sprawdzimy czy tekst na naszej stronie jest unikatowy. Wystarczy wpisać link do konkretnej podstrony, a robot wyszuka w internecie plagiatów tej treści. Drugie narzędzie do przetestowania to www.siteliner.com.
Proszę zwrócić uwagę, że nawet informacja o Cookies może być traktowana jako duplikat treści. Zadbaj o niepowtarzalną treść nawet dla polityki prywatności czy regulaminu.

Powtórzenie treści wewnątrz serwisu
1. Opisy produktów

Szczególnie w sklepach internetowych należy zwrócić uwagę na powtórzenie treści między własnymi podstronami. Przykładem jest początek opisu produktu w sklepie internetowym na liście produktów. Treść ta jest niczym innym jak kopią opisu produktu. W takim przypadku warto napisać dedykowany skrócony opis, który wyświetla się na liście w danej kategorii.

2. Strona z WWW czy bez WWW

Jeśli nasza strona ładuje się zarówno z przedrostkiem www i bez www, należy zadbać, aby jeden adres kierował do drugiego jako przekierowanie 301. Podobnie z adresem z certyfikatem SSL i bez np. https://mojastrona.pl i http://mojastrona.pl.

W tym celu należy wykorzystać plik .htaccess na FTP w głównym folderze domeny, aby zdefiniować który adres ma kierować pod jaki URL. Przykładowy kod z przekierowaniem stałym na www.:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^enterso.pl(.*) [NC] RewriteRule ^(.*)$ http://www.enterso.pl/$1 [R=301,L]

3. Wiele URLi do tej samej podstrony

Częstym błędem jest stosowanie wielu adresów URL dla tej samej treści, tej samej podstrony. Przykładowo:

www.mojadomena.pl/kontakt

www.mojadomena.pl/index.php?kontakt

www.mojadomena.pl/kontakt,1

Algorytm Panda

Za wyszukiwanie treści o charakterze plagiatów i niskiej jakości odpowiada algorytm Google Panda. System wyszukiwarki poszukujący duplicat content, jest udoskonalany już od 2011 roku. W tym czasie żniwa jego były bogate. Bardzo duża ilość niskiej jakości katalogów stron internetowych i stron zapleczowych uległa degradacji otrzymując filtr.

Treści niskiej jakości – thin content

Współcześnie z treściami niskiej jakości mamy do czynienia właściwie w obrębie całego internetu. Ile razy spotkaliście się z komentarzami na forum czy wpisami na Facebooku, które zawierały błędy ortograficzne? Bo my wiele razy. Warto jednak wiedzieć, że treść niskiej jakości trochę inaczej odbierana jest przez czytelników, a inaczej przez wyszukiwarki Google.

Dla czytelników thin content to przede wszystkim artykuły zawierające błędy merytoryczne, gramatyczne, ortograficzne czy składniowe. Są one zwykle mało czytelne i niezbyt atrakcyjne, a ich czytanie sprawia (o ile ktoś w ogóle zdecyduje się taki tekst przeczytać), że zniechęcamy się do danej strony, blogera czy marki. Wyszukiwarki Google znacznie szerzej pojmują treści niskiej jakości. Są to przede wszystkim teksty „nafaszerowane” słowami kluczowymi, pozycjonowane na złe frazy lub takie, w których próbujemy ukryć słowa np. nie wyróżniając ich graficznie w żaden sposób. Thin content to także bloki ciągłego tekstu, które nie są podzielone na akapity, w których nie ma nagłówków, wyróżnień i właściwego układu. Zresztą, nawet czytelnik jest gorzej nastawiony do tekstu, w którym zlepek słów kluczowych przeważa nad normalną treścią, a bez nagłówków staje się on dodatkowo mało czytelny. Ale do thin content zaliczamy także strony ze zbyt małą ilością treści, co szczególnie spotykane jest w sklepach internetowych, gdzie często zamiast konkretnego opisu, pojawiają się tylko dane techniczne produktu. Co więcej, takie same dane pojawiają się w wielu sklepach, oferujących ten sam produkt.

Co zrobić, by nasze teksty były unikalne i miały wysoką jakość? Przede wszystkim warto podążać za zmieniającymi się algorytmami wyszukiwarek. Pamiętajmy również, by tworzyć teksty, które przede wszystkim zainteresują potencjalnych czytelników. To właśnie na odbiorcach powinno nam najbardziej zależeć. Po to budujemy pozycję w wyszukiwarce, by więcej osób mogło do nas trafić. Jednak nikt nie zostanie z nami dłużej, jeśli nie zadbamy o odpowiednią treść. Jeśli sami nie mamy czasu lub zbyt dużych umiejętności pisarskich, warto zlecić przygotowanie treści coppywriterom SEO ( zapraszamy do kontaktu ). Dzięki nim otrzymamy teksty wysokiej jakości, które będą zgodne z wymogami SEO. Prowadząc sklepy internetowe, powinniśmy skupić się na unikalnych opisach produktów – nie wystarczy nazwa producenta, rodzaj materiału czy rozmiar. Zapamiętajcie! Dobrze napisane teksty mogą Wam tylko pomóc. Zainwestowane pieniądze w unikalne treści procentują przez kolejne kilka lat, pomagając m.in. w SEO. W czasach, gdy ludzie dzielą się wszystkim w mediach społecznościowych, również dobry tekst może rozprzestrzenić się dużo szybciej, a Wasza strona zyska dodatkowych odbiorców.

Jak roboty Google widzą Twoją stronę? Od tego zależą Twoje pozycje

Robot Google – jak wpłynąć na widoczność witryny?

Zapewne wiele osób słyszało o tajemniczym robocie Google, który odpowiada za przeglądanie i indeksowanie witryn. Jeśli robot nas nie widzi, mamy marne szanse, by znaleźć się na dobrej pozycji w wyszukiwarce.

Do czego w ogóle może nam się przydać wiedza na temat tego, jak robot czyta stronę i co bierze pod uwagę? Przede wszystkim taką wiedzę możemy wykorzystać do poprawy widoczności naszej witryny. Wprowadzając zmiany na stronie oraz dostosowując ją do wytycznych Google, będziemy mogli cieszyć się nie tylko wyższą pozycją w wynikach wyszukiwania. Nasza witryna będzie także bardziej przejrzysta i czytelna dla potencjalnych użytkowników.

Aby robot mógł zobaczyć witrynę w celu jej indeksacji, możemy mu to ułatwić. Co powinniśmy zrobić? Oto kilka kroków, dzięki którym nasza strona będzie dobrze widoczna la robotów:

  1. Mapa strony. Jest to plik, w którym znajduje się spis wszystkich podstron naszej witryny. Oczywiście nie jest to konieczny etap, ale jeśli nasza strona jest bardzo rozbudowana, z pewnością dzięki takiej mapie robot będzie mógł dotrzeć to każdej podstrony oraz treści na niej zamieszczonych. Mapa strony umożliwi skuteczną indeksację.
    Wejdź do Google Search Console – przejdź do zakładki „Indeksowanie”->”Mapa witryny” a następnie kliknij przycisk „Dodaj mapę witryny”. Należy podać adres URL prowadzący do pliku z mapą, zazwyczaj plik ten nazywa się „/sitemap.xml” i jest w folderze głównym strony. Jeśli nie masz pliku mapy, skorzystaj z narzędzi do jej generowania lub skorzystaj z gotowego pluginu w CMS WordPress, Joomla itp.
  2. Google Search Console. Dodając naszą witrynę do GSC mamy dostęp do wielu przydatnych narzędzi, które ułatwią nam poprawienie strony pod względem widoczności w wyszukiwarce. Przede wszystkim „konsola” umożliwi nam zobaczenie, jak wygląda nasza widoczność dla robotów Google oraz podpowie, co należy poprawić, jakie błędy usunąć, a co dodatkowo wprowadzić. Dzięki dodaniu naszej strony w Google Search Console, ułatwimy robotowi dotarcie do wszystkich podstron i ich zindeksowanie.
    Wejdź w zakładkę „Indeksowanie” -> „Pobierz jako Google” w tym miejscu mamy możliwość podejrzenia dokładnie jak robot Google wczytuje nasz kod źródłowy. Wystarczy kliknąć Pobierz, a po chwili zobaczymy na liście link do kliknięcia.
  3. Jak ułatwić wyszukiwarce dotarcie do naszej strony, która została dopiero utworzona? Osoby, których strona istnieje w internecie już od dłuższego czasu, nie mają z tym problemu. Strony o dobrej reputacji przeglądane są nawet kilka razy dziennie w celu wychwycenia nowych treści. Co jednak zrobić, jeśli dopiero założyliśmy nową witrynę?
    1.Możemy poczekać, aż wyszukiwarka sama się tym zajmie. Jednak może to potrwać nawet 30 dni, ponieważ mniej więcej tyle czasu robot Google potrzebuje na przeszukaniu wszystkich serwerów w celu odnalezienia nowych witryn.

    2. Linkowanie zewnętrzne. Warto umieścić link do naszej strony na jakiejś innej, popularnej i często odwiedzanej stronie. Robot, który w czasie skanowania strony napotka jakiś link, automatycznie odwiedza podlinkowaną witrynę i indeksuje ją.

    3. Nasza strona może być także zgłoszona poprzez wypełnienie formularzu na stronie: https://www.google.com/webmasters/tools/submit-url?pli=1. Jest to narzędzie należące do Google Search Console, które dodaje strony w kolejce do indeksowania.

Co widzi robot Google?

W czasie indeksowania witryn, brane jest pod uwagę kilka czynników, które mają również dużą rolę w optymalizacji strony. Przede wszystkim wśród najważniejszych elementów znajdują się:

  1. Tytuł witryny – mimo, że wyszukiwarka odczytuje cały tytuł, liczy się 65 znaków. Warto pamiętać, że tytuły podstron powinny być unikalne, czyli nie powinny się powtarzać. Warto zawrzeć w tytule słowa kluczowe, ale nie powinien on składać się wyłącznie z samych fraz.
  2. Meta description – aby wyszukiwarka wyświetliła w wynikach wyszukiwania cały opis, nie powinien on zawierać więcej niż 160 znaków. Opis również powinien zawierać słowa kluczowe. Warto zamieścić w nim informacje, które zachęcą potencjalnych użytkowników do odwiedzenia witryny.
  3. Atrybuty alt obrazków – zwane inaczej alternatywnymi opisami obrazków. Warto umieszczać takie opisy (wraz z frazami), by grafiki znajdujące się na naszej stronie mogły być odczytywane przez robota Google. Wyszukiwarka nie potrafi zobaczyć obrazka, może go jedynie odczytać.
  4. Treści na stronie – przede wszystkim powinny być one zoptymalizowane pod kątem SEO, a także jakości contentu. Warto więc skupić się na dobrych jakościowo i merytorycznie tekstów, które będą unikalne.

Jak ujrzeć to, co widzi Google?

Zapewne wiele osób zadaje sobie pytanie, czy jest w ogóle możliwe zobaczenie naszej witryny „oczami” robota Google. Oczywiście jest to możliwe dzięki narzędziu „Pobierz jako Google dla witryn„. Narzędzie to pozwala nam sprawdzić, w jaki sposób robot Google indeksuje i renderuje adres URL naszej witryny. Taka opcja dostarcza nam również wiedzy na temat tego, czy Google ma dostęp do wszystkich podstron witryny, jak renderowana jest dana strona oraz czy jakieś elementy strony nie mogą być odczytane przez wyszukiwarkę.

Narzędzie „Pobierz jako Google dla witryn” na zasadzie symulacji pokazuje nam, w jaki sposób przeprowadzane jest indeksowanie oraz renderowanie stron. Dzięki temu będziemy mogli dowiedzieć się, jak robot Google widzi naszą stronę i przykładowo, czego nie może odczytać lub gdzie wyszukuje jakiekolwiek błędy.

Co ważne, w ciągu tygodnia możemy wykonać 500 takich pobrań. Dodatkowe opcje umożliwiają nam wybór konkretnego rodzaju bota, w zależności od tego, jakie zasoby mają zostać sprawdzone. Przykładowo do sprawdzania grafiki możemy użyć Googlebota Images, do filmów – Googlebota Video, a do stron docelowych reklam – Googlebota AdsBot. Możemy wybrać również robota specjalnie dla telefonów komórkowych (Google Smartphone).

Oczywiście innym podstawowym narzędziem, jest „Narzędzie dla webmasterów Google„, dzięki któremu możemy dowiedzieć się m. in. na jakie słowa kluczowe wyszukiwana jest nasza strona, czy witryna jest odpowiednio indeksowana oraz ile czasu zabiera Google indeksowanie naszej strony.

Podsumowanie

Jak widać, istnieją narzędzia, dzięki którym będziemy mogli sprawdzić naszą widoczność dla wyszukiwarki Google. Optymalizując treść oraz pozycjonując stronę, warto brać pod uwagę informacje pozyskane i udostępnione przez narzędzie „Pobierz jako Google dla witryn”. Warto również kierunkować się wskazówkami uzyskanymi w Google Search Console. Zrozumienie działan

Spadek pozycji w Google – dlaczego pozycje mojej strony spadły?

Przyczyny spadku pozycji w Google

Spadek pozycji naszej strony może wiązać się z różnymi przyczynami. Oto najczęstsze przyczyny:

  1. Nowa domena strony. Zwykle chodzi tutaj o nieodpowiednie przekierowanie do strony lub w ogóle brak przekierowania. Żeby nasza witryna działała prawidłowo, musimy ustawić przekierowanie. Zwykle korzystamy tutaj z przekierowania 301. W przeciwnym razie, wyszukiwarka Google będzie traktować dwa adresy URL jako dwie odrębne strony. W związku z tym może wykryć powielone treści, które będzie traktować jako duplicate content. Grozi to oczywiście spadkiem w rankingu.
  2. Zmiany w strukturach wewnętrznych linków. Wszelkie zmiany na naszej witrynie – zarówno w obrębie nazw kategorii czy konkretnych podstron mogą doprowadzić do nieprawidłowego działania strony. Jeśli zmiany te przeprowadzane są przez osoby niedoświadczone, wszelkie strony i podstrony, w których dokonaliśmy aktualizacji, mogą zostać usunięte z wyników wyszukiwania, czyli spadkiem naszej pozycji w Google.
  3. Nadmierna optymalizacja strony internetowej. Właściciele stron często żyją w przekonaniu, że im więcej słów kluczowych na stronie, tym lepiej. Jednak wyszukiwarka Google źle odbiera takie działania. Teksty naszpikowane nadmierną ilością fraz traktowane są jako przejaw tzw. Black Hat SEO, czyli nielegalnych technik pozycjonowania. Jeśli robot Google wykryje u nas takie działanie, może nałożyć na stronę filtr lub nawet ją zablokować. Podobnie rzecz ma się w przypadku próby ukrywania i przemycania słów kluczowych.
  4. Duplicate content. Jak już było wspomniane, duplicate content może być efektem nieprawidłowego przekierowania strony. Ale z powielaniem treści spotykamy się także w obrębie kilku domen, kiedy np. dana witryna kopiuje artykuły z innych źródeł. Ma to miejsce np. gdy dopiero powstające firmy chcą szybko zapełnić stronę różnymi treściami i niekoniecznie przejmują się, skąd pochodzą dane teksty. Często zdarza się też, że różne sklepy internetowe, oferujące te same produkty, kopiują od siebie ich opisy. Takie działania mogą nieść ze sobą różne konsekwencje. Po pierwsze, może się to wiązać ze spadkiem naszej pozycji w wyszukiwarce, po drugie – za kopiowanie treści możemy być zgłoszeni na policję i po trzecie, wyszukiwarka może nas ukarać filtrem, a nawet blokadą strony. Powinniśmy więc zainwestować w dobrej jakości treści. Możemy skorzystać z usług coppywriterów, by otrzymać bardzo dobre teksty, zgodne z wymogami SEO. Warto również wspomnieć, że z duplicate content spotykamy się również wtedy, gdy to ktoś od nas skopiuje treść. Nawet jeśli to my oryginalnie wstawiliśmy daną treść, wyszukiwarka Google może ją rozpoznać jako zduplikowaną. Wtedy powinniśmy zwrócić się do właścicieli strony z duplikatem o jego usunięcie.
  5. Black Hat SEO (BHS) – jeśli świadomie wykonaliśmy czarne SEO, trzeba będzie wycofać działania. Przykładowo: jeśli pozyskaliśmy masowo słabej jakości linki, trzeba będzie się ich zrzec za pomocą disavow w Google Console.

SEO analiza – po co?

Powyższe przyczyny spadku to tylko przykłady. Problem może oczywiście leżeć zupełnie gdzie indziej. Dlatego naprawianie wszelkich błędów powinniśmy zacząć od analizy SEO. Przede wszystkim dzięki temu będziemy mogli dowiedzieć, dlaczego zanotowaliśmy spadek pozycji i jak to naprawić. W przywróceniu naszej pozycji mogą nam przede wszystkim pomóc:

  1. Optymalizacja witryny. Przede wszystkim mowa tutaj o optymalizacji treści i grafik. Aby przeprowadzić takie działania, powinniśmy kontaktować się z firmą specjalizującą się w pozycjonowaniu. Profesjonalista przeprowadzając audyt strony powie nam, co powinniśmy zmienić. Czasem wystarczą tylko teksty z odpowiednimi słowami kluczowymi oraz dodanie atrybutów ALT grafiki. Jednak niekiedy strona wymaga większego nakładu pracy, np. zmiany całej szaty graficznej.
  2. Przekierowania. Jeśli zmienialiśmy adres domeny, powinniśmy ustawić odpowiednie przekierowanie, by uniknąć duplicate content. Przekierowanie ułatwi również odszukanie naszej strony, gdy zmienimy adres strony głównej lub adresy podstron.
  3. Jak wspomnieliśmy, czasem za spadek pozycji odpowiadają zmiany w wewnętrznej strukturze linków. Warto więc przywrócić je do poprzedniego stanu, kiedy gwarantowały nam wysoką pozycję.

Inne możliwe przyczyny utraty pozycji w Google

Jak już pisaliśmy, przyczyny spadku mogą być różne. Jeśli sprawdziłeś już wszystkie z wymienionych powyżej, możesz również zwrócić uwagę na to, czy Twoja witryna nie została przypadkiem ukarana filtrem lub blokadą. Warto również sprawdzić, czy Google nie wprowadziło żadnych aktualizacji w algorytmie wyszukiwarki. Wprowadzanie wszelkich zmian może wiązać się z wahaniem Twojej pozycji w wyszukiwarce. Czasem określa się to jako Google dance. Gdy aktualizacja dobiegnie końca i Twoja strona wciąż będzie odpowiadała wszystkim wytycznym Google, wróci na swoją pozycję.

Może to nastąpić w ciągu kilku godzin czy nawet dni.

Czasem zdarza się również, że nasza strona spadła w wynikach wyszukiwania ponieważ padliśmy ofiarą konkurencji, która stosuje wiele technik depozycjonowania. Kolejna rzeczą, jaką musimy sprawdzić, to obecność wirusów na stronie. Jeśli wyszukiwarka wykryje u nas jakiekolwiek wirusy, traktuje nas jako witrynę dokonującą ataków. Zwykle internauci dostają wówczas informację, że ta witryna może wyrządzić szkody na komputerze. Czasami zainstalowane oprogramowania antywirusowe automatycznie blokują naszą witrynę. Niższa pozycja w wyszukiwarce może być również skutkiem zbyt długiego ładowania się strony. Zwróćmy więc uwagę na to, czy nasza strona nie wczytuje się dłużej niż 2 sekundy. Jeśli tak, warto np. dokonać konwersji zbyt „ciężkich obrazków”.

Spadek pozycji w Google może się również wiązać z przerwami w działaniu strony. Musimy się po pierwsze upewnić, czy opłaciliśmy domenę oraz hosting przed upływem terminu spłaty. Jeśli tak, warto również sprawdzić, czy nie ma żadnego problemu z serwerem. Może się zdarzyć, że serwer usługodawcy przestał działać albo ma problemy techniczne.

Ilość słów kluczowych na stronie

Keyword – czemu właściwie to służy?

Keyword, czyli słowo kluczowe to fraza złożona zazwyczaj z jednego do kilku słów. Jest ona zarazem krótkim opis zawartości witryn, stworzonym specjalnie dla robotów wyszukiwania. Wpisując w wyszukiwarce np. frazę „kosmetyczka Warszawa”, robot zaczyna wyszukiwanie obu tych słów lub całej frazy na stronach, które związane są tematycznie z kosmetyką. Jeśli dobrze wykorzystamy keywords w naszych treściach, mamy większą szansę, że nasza witryna znajdzie się na samym początku wyszukiwania. Również ilość tekstów ma tutaj znaczenie. Im więcej tekstów na naszej stronie oraz podstronach, tym większa szansa, że wyszukiwana przez użytkownika fraza (nawet bardzo złożona) pokryje się z frazami, użytymi w naszych treściach.

Zagęszczenie słów kluczowych

Wielu speców od marketingu internetowego twierdzi, że aby nasza witryna miała lepszą pozycję w wyszukiwarce Google, powinniśmy zastosować odpowiednią ilość słów kluczowych. No dobrze, ale czy istnieje jakiś magiczny algorytm, za pomocą którego wyliczymy, jaka jest ta optymalna ilość? Teorie na ten temat są przeróżne. Jedni podają, że zagęszczenie słów kluczowych powinno wynosić 1,5%, ale są też ludzie, którzy twierdzą, że jest to 3%, a nawet 5%. Z tego wynika, że w tekście składającym się 200 słów, powinno znaleźć się od 3 do 10 słów kluczowych. Ale te liczby to tylko teoria.

Oczywiście prawdą jest, że wyszukiwarka Google skanuje dane strony na podstawie zawartości słów kluczowych. Jeśli jest ich za mało – traktuje stronę jako niezwiązaną z szukanym słowem. Jeśli z kolei słowa kluczowe przeważają w tekście, oznacza je jako spam. Badania algorytmu Google, które zostały przeprowadzone m. in. przez naukowców ze Stanford University, udowodniły, że algorytm nie podlicza słów kluczowych. Określa on jedynie, w jakim stopniu witryna związana jest z wyszukiwaną przez użytkowników frazą.

Początkowo oczywiście duże nasycenie treści słowami kluczowymi dawało dobre efekty, dlatego nikt nie przejmował się tekstami, które treściowo nie do końca były zrozumiałe. Jednak mimo dużego licznika odwiedzin, konwersja była na niskim poziome. Rzadko kto był zainteresowany zakupem od firmy, której treści reprezentowały bardzo niski poziom. Również wyszukiwarka Google przestała premiować strony, mające zbyt dużą liczbę „keywords” względem bezwartościowego tekstu.

Algorytm jest znacznie bardziej skomplikowany, niż by nam się wydawało. W związku z tym, nie ma czegoś takiego, jak optymalne zagęszczenie słów kluczowych. Musimy również pamiętać, że każda strona jest inna, a jej pozycja w Google niekoniecznie musi zależeć od ilości wykorzystanych fraz. Wiele witryn osiągnęło sukces dzięki dobremu zapleczu linkowemu i profilowi domeny pomimo małej ilości „keywords”. Według rankingu serwisu SEOmoz, obecnie liczba słów kluczowych ma jedynie 15% znaczenia w pozycjonowaniu witryny.

Słowa kluczowe w „anchor text” – najsilniejsze linki pozycjonujące

Anchor, zwany również treścią linka to nic innego, jak hiperłącze zamieszczone na stronie, które wyświetla się w formie danego słowa kluczowego. Anchor texty mają duże znaczenie w optymalizacji strony – to one budują pozycję strony w wyszukiwarkach Google. Ważne jednak, by frazy, znajdujące się w anchorach, były bezpośrednio powiązane z tematyką strony, do której prowadzą. Warto przeczytać także czym jest naturalny profil linków.

Synonimy słów kluczowych – jakie mają znaczenie?

Jak się okazuje, na pozycję strony wpływają nie tylko same słowa kluczowe, ale również frazy, które często występują w danej kategorii. Przykładowo na stronie o prezentach będzie to m. in. „upominek”, „urodziny”, „podarunek” itp.

W styczniu 2011 roku Google potwierdziło, że przy wyszukiwaniu duże znaczenie mają także synonimy. Wpisując np. w wyszukiwarce frazę „prezent urodzinowy”, znajdziemy wówczas także „prezent na urodziny”. Co ciekawe, Google znajduje zamiennie (z 98-procentową skutecznością) takie wyrazy jak „stomatolog” i „dentysta”.

Zasady stosowania fraz w tekstach

Jest kilka ważnych zasad, którymi powinniśmy się kierować, aby napisać dobry jakościowo tekst SEO. W większości chodzi po prostu o naturalne pisanie treści, które mimo zawartości danych fraz, nie będą wyglądały sztucznie i mało logicznie.

  1. Zróżnicowany zasób słów. Słowo kluczowe to nie wszystko! No dobrze, powiedzmy, że mamy do napisania tekst, w którym musimy wykorzystać daną frazę. Pamiętajmy jednak, by treść nie ograniczała się tylko i wyłącznie do niej. Starajmy się używać także innych słów, związanych bezpośrednio z tematyką tekstu. Dzięki temu będzie on bardziej naturalny.
    Odmiany mile widziane. Odmienianie słów kluczowych może wyjść nam tylko na zdrowie. Chyba każdy, kto kiedyś widział zdanie typu: „Potrzebna Ci kosmetyczka Wrocław?”, zdaje sobie sprawę z tego, jak nienaturalnie i niepoprawnie to brzmi. Aby uniknąć podejrzeń, że nasz tekst jest typowym materiałem SEO, warto odmieniać takie frazy, by wyglądały bardziej naturalnie i były zgodne z zasadami gramatyki.
  2. Jaką ilość fraz użyć? Nie warto kierować się opiniami innych, które głoszą, że ma być to 3% czy 5% na cały tekst. Użyjmy tyle słów kluczowych, by tekst pozostał logiczny i atrakcyjny. Liczy się jakość, a nie ilość. Pamiętajmy też, by nie przesadzić z frazami. Wówczas robot wyszukiwania może uznać nasz tekst za mało wartościowy spam, czego konsekwencją może być nawet nałożenie filtra na naszą witrynę.
  3. Naturalne rozmieszczenie słów kluczowych. Stosujmy spore odstępy między frazami. Tekst wygląda dużo estetyczniej, jeśli wybrane słowa kluczowe pojawiają się w znacznych odległościach od siebie. Dana fraza może pojawić się w tytule, pierwszym akapicie, jednym z nagłówków i jeśli to możliwe, w ostatnim akapicie. Pamiętajmy jednak, by słowa były rozmieszczone naturalnie. Nie upychajmy ich na siłę we wszystkich tych miejscach, jeśli nie wszędzie pasują. Ważne jest przede wszystkim, by tekst dobrze się czytało.
  4. Pisząc tekst, postaw się na miejscu potencjalnego użytkownika. Spróbuj stworzyć treść tak, by przede wszystkim odpowiadała na wszystkie możliwe pytania, które mogłyby się pojawić w tym temacie. A teraz spójrz na to od strony stylistycznej. Czy tekst dobrze się czyta? Czy wszystkie frazy wkomponowane są naturalnie i nie przeszkadzają w zrozumieniu treści? Jeśli Twoje teksty są unikalne i zawierają wartościowe informacje, Google z pewnością to doceni. Pamiętajmy również, by tekst był odpowiednio ostylowany. Dla ułatwienia czytania oraz wyszukiwania informacji warto stosować nagłówki, podnagłówki, wypunktowania, pogrubienia, podkreślenia czy kursywę.
    Tworząc treści pamiętajmy by kierować się jedną prostą zasadą. Dobrze napisany tekst może zdziałać dużo więcej, nawet bez słów kluczowych, niż słaba jakościowo treść nasycona dużą ilością fraz.

Audyt SEO

Na wiele rzeczy warto spojrzeć okiem profesjonalisty – gdy nie mamy odpowiedniej wiedzy, mogą nam umknąć szczegóły, które z miejsca dostrzeże ktoś obeznany z tematem. Właśnie w taki sposób działa audyt SEO: to nic innego jak spojrzenie na stronę przez pryzmat profesjonalnych narzędzi i wiedzy. Specjaliści Enterso, mający za sobą lata pracy w środowisku Google, są w stanie zbadać witrynę pod kątem parametrów wpływających na jej pozycjonowanie. Wykorzystują do tego zarówno narzędzia oferowane przez samą wyszukiwarkę, jak i zewnętrzne programy (takie jak Clusteric Link Auditor, Ahrefs, Screaming Frog, MajesticSeo czy Semstorm), aby zagwarantować jak najszerszy zakres działań. Dodatkowo prowadzony jest także audyt pozwalający określić stan całej branży (najczęściej stosowane przez konkurencję słowa kluczowe itp.), co gwarantuje nie tylko funkcjonalność, ale i aktualność strony

Efektem wymienionych wyżej prac jest składany na ręce klienta raport. Z naszej strony jest to tylko propozycja zmian – zastosowanie się do sugestii lub nie zależy od klienta. Samo sporządzenie raportu nie niesie ze sobą żadnych zobowiązań. Warto jednak zastanowić się nad zawartymi w nim wskazówkami: zoptymalizowana pod kątem SEO strona oznacza znacznie więcej odwiedzin, wyższą pozycję w wyszukiwarce Google oraz korzystniejszy współczynnik konwersji. Co więcej, przyjazna w obsłudze strona poprawia opinię o firmie i zachęca do dalszych odwiedzin czy polecenia jej znajomemu, a wszystko to przekłada się na zysk dla firmy.

Jak na link building wpływa System wymiany linków?

Zdobycie wysokich pozycji w wynikach wyszukiwarki Google wymaga wiele pracy oraz działań, które bardzo często są na granicy norm dopuszczanych przez tę najpopularniejszą wyszukiwarkę internetową. Jednak wielu pozycjonerów oraz właścicieli stron internetowych ryzykuje i często nagina obowiązujące reguły, aby wyprzedzić konkurencję i zdobyć większą ilość odsłon, które przekładają się na wyższe wyniki finansowe firmy. Posiadając doświadczenie w pozycjonowaniu bardzo łatwo jest wyczuć, w którym momencie przesadzamy i przekraczamy granicę, a kiedy możemy jeszcze dodać mocy stronie, aby podniosła się jej pozycja w wynikach wyszukiwania.

Jedną z takich dyskusyjnych metod pozycjonowania oraz wspierania pozycjonowania strony są systemy wymiany linków w skrócie SWL. Dzięki takim systemom możemy bardzo szybko zdobyć setki, a nawet tysiące linków przychodzących za naprawdę niewielkie pieniądze. Powinniśmy jednak uważać, aby nie przesadzić z nagłym przyrostem takich linków, szczególnie jeżeli są to linki nietematyczne, które jedynie mogą zaszkodzić pozycjonowanemu serwisowi, zamiast pomóc mu w zdobyciu wyższej pozycji w wyszukiwarce Google.

Systemy SWL dzielimy na dwa typy:
• systemy SWL stałe, w których każdy odnośnik przypisany do jednej strony internetowej zostaje na niej na dłuższy czas lub nawet na stałe
• systemy SWL rotacyjne, gdzie linki umieszczone na jednej stronie zmieniane są automatycznie, nawet w ciągu kilku godzin na jednej podstronie może pojawić się kilka różnych linków.

Jak dobierać linki w SWL?

Dobór linków nie tylko w systemach wymiany linków, ale w całym pozycjonowaniu strony internetowej, ma niezwykłe znaczenie dla powodzenia naszej pracy. Niezwykle ważne są dobrej jakości linki ze stron powiązanych tematycznie z pozycjonowaną witryną internetową. Oczywiście mniej wartościowe odsyłacze także będą przydatne, aby zwiększyć linkowanie do naszej strony www, jednak warto skupić się na wysokiej jakości linkach tematycznych. Powinniśmy także zwracać szczególną uwagę na przyrost linków z takich systemów. W przypadku nagłego wzrostu linków Google może uznać takie działania za niezgodne z regulaminem i wykluczyć nasz serwis z wyników wyszukiwania.
Bardzo wiele firm pozycjonujących korzysta z takich systemów wymiany linków, a doświadczenie pomaga uniknąć wykrycia takiego działania oraz działać na korzyść klienta.

linkbuild

Bezpieczne linkowanie z SWL. W jaki sposób to wykonać?

Aby uniknąć wykrycia przez roboty wyszukiwarki Google nieregulaminowego działania, można wykorzystywać linki z systemów SWL na kilka sposobów. Pierwszym z nich jest tzw. dopalanie. Jak wiadomo, linki do pozycjonowanej strony zdobywamy w różnych miejscach m.in. ze wpisów na blogach, komentarzach na forach internetowych oraz poprzez wpisy w katalogach. Samo dodanie takiego wpisu na forum czy też w katalogu stron niewiele daje. Przy pomocy SWL możemy przyspieszyć indeksacje takich wpisów przez roboty Google oraz podnieść wartość strony czy też podstrony, która linkuje do naszego serwisu. Dzięki temu nawet niezbyt dobre jakościowo linki mogą stać się dobrą podstawą do dalszego pozycjonowania serwisu.

Inną możliwością wykorzystania SWL jest przyspieszanie indeksowania wpisów i podstron na stronie, którą pozycjonujemy. Za sprawą typu działań znacznie skraca się czas, w jakim roboty wyszukiwarki znajdą nową podstronę serwisu. Zdobywanie nowych odsyłaczy przy pomocy systemów wymiany linków staje się niezwykle proste i stosunkowo tanie.

Plusy wykorzystania SWL.

Pomimo że SWL zaliczane są do tzw. „czarnego SEO” to ich wykorzystanie daje niezwykle dużo korzyści. Systemy wymiany linków pozwalają na szybkie zdobycie sporej ilości odsyłaczy, co znacznie poprawia pozycje strony w wyszukiwarce Google. Dzięki stosunkowo niskim kosztom uczestnictwa w takich systemach możemy za niewielkie pieniądze zdobyć satysfakcjonujące pozycje w wyszukiwarce oraz wzmocnić nasze zaplecze SEO, co sprawi, że strona będzie znacznie szybciej wspinała się w wynikach wyszukiwania i nie będzie zaliczała spadków lub nagłych zmian pozycji.

Zagrożenia wynikające z wykorzystania systemów wymiany linków.

Osoby, które obyte są w tematyce pozycjonowanie wiedzą to, jednak ci, którzy dopiero zaczynają swoją przygodę w tej branży, powinni wiedzieć, że nie ma czegoś takiego jak bezpieczne i szybkie pozycjonowanie. Jest to skomplikowany proces, który wymaga czasu oraz odpowiedniego przygotowania technicznego oraz merytorycznego. Wykorzystując systemy wymiany linków, narażamy się na przykre konsekwencje w postaci banów lub filtrów nakładanych na stronę przez Google. Jednak i z filtra da się wydostać stronę, a systemy wymiany linków ułatwiają nam to zadanie, gdyż dzięki kilku kliknięciom w panelu zarządzania SWL możemy zdjąć wszystkie „szkodliwe” linki prowadzące do naszej strony. W wielu przypadkach pozwala to na powrót do indeksu wyszukiwarki oraz na dalsze prace nad pozycjonowaniem.

Koszty uczestnictwa w systemach wymiany linków.

Koszty pozycjonowania za pomocą SWL są bardzo różne. Zależą one od tego, w którym z dostępnych obecnie systemów będziemy chcieli wykupić punkty oraz na jak długo i na ilu stronach mają wyświetlać się linki do naszej strony. Koszty mogą zaczynać się od kilkudziesięciu złotych miesięcznie do nawet kilku tysięcy złotych za miesiąc, jeżeli zdecydujemy się na pozycjonowanie wielu fraz oraz wielopoziomowego zaplecza z setkami domen.

Systemy wymiany linków w doświadczonych rękach mogą bardzo dobrze wpłynąć na link building strony, przez co witryna znacznie podskoczy w wynikach wyszukiwania Google. Przy umiejętnym dobieraniu fraz oraz linków, a także ich ilości i czasu wyświetlania można uzyskać doskonałe efekty nawet po kilku dniach od rozpoczęcia pracy z danym SWL. Jeżeli mamy niewielkie pojęcie o pozycjonowaniu oraz systemach wymiany linków, zanim zdecydujemy się na pozycjonowanie w ten sposób, powinniśmy dobrze zapoznać się z zasadami konkretnego systemu oraz technikami linkowania. Zbyt duży przyrost linków, szczególnie dla młodych domen może doprowadzić do nałożenia filtrów.

SWL jest doskonałym narzędziem, które w mgnieniu oka pozwoli nam zaindeksować nawet najbardziej rozległe zaplecze SEO oraz „dopalić” je wpisami z katalogów oraz notatek na forach internetowych. Wielu pozycjonerów wykorzystuje także systemy wymiany linków do pozycjonowania stron docelowych. Mają jednak oni odpowiednią wiedzę oraz potrafią wyważyć proporcje pomiędzy różnymi typami SWL oraz innych odsyłaczy prowadzących do strony, której pozycjonowaniem się zajmują.

Dobrym pomysłem, szczególnie na początek przygody z pozycjonowaniem stron za pomocą systemów wymiany linków jest wykupienie niewielkiej paczki punktów i przetestowanie na mniej ważnej dla nas domenie możliwości, jakie dają te systemy. Dzięki temu nie wydamy zbyt dużo pieniędzy oraz nie zaszkodzimy swojej głównej domenie. Taka nauka doskonale przyda się nam na przyszłość. Pomoże nam ona w odpowiednim szacowaniu ilości potrzebnych linków oraz w dobieraniu linków pasujących do tematyki naszej strony internetowej.

Pozycjonowanie a szybkość ładowania strony

Zapewne wiele razy zdarzyło Wam się czekać, aż strona się załaduje. Jeśli Wam na niej zależało, poczekaliście, ale jeśli weszliście na nią z ciekawości, często klikaliście krzyżyk. Często wynika to z przekonania, że jeśli strona długo się ładuje, to znaczy, że nie działa. Mało właścicieli serwerów tak naprawdę zdaje sobie sprawę, jak duży wpływ nie tylko na działania internautów, ale także na pozycję w wyszukiwarce Google ma szybkość ładowania strony. Warto więc przy optymalizacji witryny zwrócić uwagę także na ten aspekt.

Szybkość strony a ranking i pozycja w wyszukiwarce – jak wpływa to na SEO

Jak już zostało wspomniane, szybkość strony jest czynnikiem rankingowym, który wpływa na naszą pozycję w wyszukiwarce Google. Nawet, jeśli zadbamy o wszystkie inne czynniki pozycjonowania, szybkość ładowania witryny może wpłynąć negatywnie na naszą pozycję w Google. Prędkość strony odgrywa ważną rolę szczególnie w wyszukiwarkach mobilnych. Jeśli dana strona bardzo wolno ładuje się na komputerze czy laptopie, to na telefonie możemy czekać w nieskończoność na jej załadowanie.

Z punktu widzenia SEO wpływ prędkości witryny na indeksowanie strony widoczny jest natychmiast. Specjaliści SEO są zgodni co do tego, że wydajność strony zależy od czynników TTFB (Time To First Byte) oraz TTLB (Time To Last Byte). Metryki te wpływają w głównym stopniu na wydajność serwera, która z kolei przekłada się na tzw. Crawl Budget, czyli ilość stron indeksowanych w ciągu dnia przez wyszukiwarki.

Szybkość ładowania witryny a konwersja

Wiemy już, że szybkość ładowania strony obniża naszą pozycję w wyszukiwarce. Trzeba również pamiętać, że od prędkości witryny zależy również konwersja. Żeby jednak wytłumaczyć wpływ szybkości na konwersję, warto zapoznać się bliżej z tym terminem. Konwersja to po prostu stosunek licznika odwiedzin strony do działań, jakie użytkownicy na niej wykonują (na przykład finalizują zakup produktu w sklepie internetowym). Z badań przeprowadzonych przez Google w 2016 roku wynika, że strona, która wczytuje się dłużej niż 5 sekund, traci prawie 40% konwersji.

A jak przekłada się to na nasze zyski? Gdy pomnożymy kwotę, którą tracimy na reklamę strony przez % utraconej konwersji, zdamy sobie sprawę, ile tak naprawdę tracimy pieniędzy. Warto również zauważyć, że np. w przypadku sklepów internetowych niska konwersja oznacza, że pomimo wysokiego licznika odwiedzin, klienci czekający dłużej na załadowanie strony, nie decydują się na złożenie zamówienia. 75% użytkowników po 3 sekundach czekania zamyka odwiedzaną stronę. Możemy sobie tylko wyobrazić, w jakim stopniu odbija się to na naszych zyskach.

Jak sprawdzić szybkość ładowania strony?

Szybsze wczytywanie strony zależy w głównej mierze od jej ciężaru. Jeśli myślimy o pozycjonowaniu strony pod kątem jej szybkości, powinniśmy najpierw sprawdzić, ile czasu zajmuje jej załadowanie. Nie wystarczy wejść na stronę, by ocenić, jak szybko działa. Do tego wymagane są specjalistyczne narzędzia, jak np. Google Analytics. Sprawdzenie działania witryny jest bardzo proste. Wystarczy wejść w zakładkę Zachowanie, a następnie Szybkość witryny, by odnaleźć informacje na temat czasu wczytywania strony dla potencjalnych użytkowników naszej witryny.

Oczywiście Google Analytics nie jest jedynym narzędziem, za pomocą którego sprawdzimy prędkość naszej strony. Warto też skorzystać z narzędzia Pingdom Website Speed Test. Dostarcza nam ono informacji o czasie ładowania, informuje, jakie pliki wczytują się najdłużej oraz porównuje szybkość naszej witryny do innych stron internetowych. Musimy też pamiętać, by przy sprawdzaniu szybkości ustawić lokalizację dla Europy, ponieważ w różnych zakątkach świata prędkość strony może się różnić.

Szybkość ładowania strony można sprawdzić również lokalnie na własnym komputerze. W tym celu możemy wykorzystać takie przeglądarki jak Google Chrome lub Firefox.

W przypadku tej pierwszej podczas otwierania strony wykonujemy następującą kombinację: F12 i wybieramy w wyświetlonym menu zakładkę Network. Teraz możemy sprawdzić jakie faktycznie zasoby są ładowanie w trakcie wyświetlania naszej strony oraz podstron.
network
W przypadku przeglądarki Firefox klikamy prawym przyciskiem myszy na tle naszej witryny. Wybieramy opcję zbadaj element. W dodatkowym oknie, które się wyświetli wybieramy zakładkę Sieć. W tym widoku możemy zaobserwować tak samo jak w Chrome wszystkie procesy które ładują w trakcie otwierania strony.
2-pnetworkng

Przyspieszenie działania strony

Podobnie jak w przypadku sprawdzania szybkości witryny, również do przyspieszenia jej działania powinniśmy skorzystać z narzędzi Google. Przydatne w tym przypadku będzie narzędzie PageSpeed Insights. Przede wszystkim dokonuje ono oceny pozycjonowania naszej witryny pod kątem prędkości, ale także sugeruje, na jakich elementach powinniśmy się skupić, żeby strona działała szybciej (sekcja Sugestie dotyczące szybkości strony). Informuje nas o tym, co należy poprawić (czyli najważniejsze czynniki wpływające na szybkość) oraz co warto poprawić. Przykładowo wskazuje, który film spowalnia stronę, który obrazek jest za duży albo proponuje poprawić zbyt złożony kod strony.

Przydatne wskazówki możemy także uzyskać za pomocą wtyczki do przeglądarki Yahoo – YSlow. Wystarczy zainstalować wtyczkę, by zanalizować wybraną przez nas stronę i otrzymać przydatne porady.

Korzyści szybszego ładowania strony z punktu widzenia SEM

Przede wszystkim musimy zwrócić uwagę na to, że szybsza strona wpływa pozytywnie na działania SEM. Koszty pozyskiwania nowych klientów znacznie maleją, niezależnie od tego czy wybieramy płatne czy bezpłatne wyniki wyszukiwania. A wszystko to dzięki temu, że szybsze ładowanie strony ułatwia skanowanie witryny wyszukiwarce Google, która może znaleźć nowe treści. Przekłada się to oczywiście na wyższą pozycję w wynikach wyszukiwania. Poprzez zwiększenie współczynnika konwersji możemy obserwować realne zyski, płynące z odwiedzin. Oznacza to, że użytkownicy nie tylko odwiedzają stronę, ale także wykonują na niej konkretne działania – w przypadku blogów czy portali mogą być to nowe komentarze, w przypadku sklepów internetowych – zamówienia.

Szybsza strona opłaca się również samym internautom. Przekłada się to nie tylko na oszczędność ich czasu, ale i pieniędzy. W przypadku przeglądania stron na mobilnych urządzeniach, użytkownicy mogą zaoszczędzić sporo transferu. Jak widać, warto działania SEM wesprzeć również działaniami typowo technicznymi. Szybsze ładowanie strony sprawi, że internauci będą wracać do nas z przyjemnością.

Jak stworzyć własne strony błędów? 404,403,500 w pliku .htaccess

Zapewne nie raz zdarzyło Wam się, że na odwiedzanej stronie wyskoczył błąd. Dobrze wiemy, o ile lepiej wygląda strona błędu, jeśli wkomponowana jest graficznie oraz stylistycznie w wygląd naturalny witryny. Niestety nie każdy o tym pamięta, a nie dbając o to, możemy łatwo stracić klientów. Jak ustawiać własne strony błędów i co powinno się na nich znaleźć?

Rodzaje błędów zwracanych przez strony www

Strony błędu to inaczej dokumenty, które wyświetlają się, kiedy serwer zwróci kod błędu w nagłówku. Optymalizowanie tego elementu jest ważne z punktu pozycjonowania strony. Niestety nie zawsze mamy możliwość zadbania o odpowiedni wygląd strony błędu, zwłaszcza jeśli do naszej podstrony prowadzą linki z innych serwisów, na które niestety nie mamy żadnego wpływu.

No dobrze, powiedzmy więc sobie najpierw, jakie w ogóle istnieją rodzaje błędów, które zwracają strony. Zapewne każdy zauważył, że statusy operacji zwracane są w postaci trzycyfrowej liczby – nawet jeśli strona zostanie wczytana prawidłowo. Możemy jednak spotkać również komunikaty negatywne, dotyczące błędów. Rozpoczynają się one cyfrą 4 lub 5. Cyfra 4 na początku odnosi się błędów spowodowanych przez użytkownika, niektóre z błędów wyglądają następująco:

400 Bad Request – Błędne zapytanie
401 Unauthorized – Dostęp wymaga autoryzacji
402 Payment Required – Wymagane jest uiszczenie opłaty
403 Forbidden – Dostęp został zabroniony
404 Not Found – Plik nie został odnaleziony na serwerze
405 Method Not Allowed – Metoda niedozwolona
406 Not Acceptable – Nie można zwrócić odpowiedzi na dane zapytanie
407 Proxy Authentication Required – Wymagana jest autoryzacja
408 Request Time-out – Czas oczekiwania został przekroczony
409 Conflict – Konflikt statusów pomiędzy zasobami
410 Gone – Zasób, którego żądasz, został usunięty.
Często strony błędów są przedstawione w wersjach humorystycznych:
błąd 404 w htaccess

Grupa statusów, która rozpoczyna się cyfrą 5, to błędy wynikające z winy serwera, gdy np. nie może on wykonać naszego zapytania:

500 Internal Server Error – Wewnętrzny błąd serwera
501 Not Implemented – Zapytanie nie zostało zrozumiane przez serwer. Nie zwrócono żądanej zawartości
502 Bad Gateway – Błąd bramy, zwrócona przez serwer wartość jest niepoprawna
503 Service Unavailable – Przeciążenie lub brak dostępności serwera
504 Gateway Time-out – Przekroczony czas oczekiwania na odpowiedź serwera
505 HTTP Version not supported – Ta wersja HTTP nie jest obsługiwana przez serwer.
Błąd 500 w htaccess

Jak zmodyfikować ustawienia strony?

Za wyświetlanie strony błędu odpowiadają dwa pliki. Jako pierwszy będziemy musieli stworzyć plik .htaccess, który odpowiedzialny jest za modyfikowanie ustawień dostępowych naszej strony. Plik ten często dostępny jest już na serwerze. Drugi plik to Nr_Bledu.htm, np. 404.htm. Jest to zwykły plik, opierający się na html’u. Zawiera on szatę graficzną oraz komunikat o błędzie, z którym mamy do czynienia.

Na początku do pliku .htaccess wpisujemy dyrektywę: ErrorDocument 404 http://strona.pl/404.htm. Początek tej informacji mówi nam o rodzaju błędu, a dalsza część, do jakiego adresu strony się on odwołuje. Drugi plik, czyli 404.htm przyda nam się do stworzenia strony błędu. Edycja tego pliku zależy od nas. Możemy stworzyć zwykłą stronę, na której wpiszecie numer kodu i odnośnik do strony głównej. Po stworzeniu obu plików, wgrywamy je na serwer do katalogu głównego naszej strony.

Przykładowy prosty plik .htaccess:
przykład pliku .htaccess

Jak optymalizować strony błędów?

Przede wszystkim ważne jest, by strony błędów mogły być użyteczne dla potencjalnych użytkowników, a nie zniechęcały do ponownego odwiedzania strony.

Stwórz stronę błędu, wkomponowując ją w Twoją witrynę!
Każdy internauta odbierze lepiej stronę błędu, jeśli będzie się ona wyświetlała jak typowa strona, a nie jak strona przeglądarkowa. Wówczas nie mamy wrażenia, że zostaliśmy z danej strony wyrzuceni.

Jeśli jednak chcemy stworzyć odrębnie wyglądającą stronę błędu, warto umieścić tam logo serwisu.

Poinformuj o danym błędzie!
Na wstępie powinniśmy umieścić nagłówek, w którym poinformujemy o rodzaju błędu z polskim tłumaczeniem (w przypadku polskich stron). Numery oraz angielskie nazwy nic nie powiedzą użytkownikom i także nieprofesjonalnie wyglądają, ponieważ pokazują trochę lekceważący stosunek do potencjalnych klientów. Dla lepszego zrozumienia błędu, możemy dodatkowo pod nagłówkiem umieścić informację, co jest przyczyną błędu. Podajmy przykład dla błędu 404:

Plik nie mógł zostać odnaleziony na serwerze, ponieważ wpisany adres jest nieprawidłowy.

Czasami właściciele stron wykorzystują błędy strony, by przyciągnąć potencjalnych klientów, np.:

Błąd 404. Wybacz, ale strona nie została znaleziona. To nie pech, tylko szansa na książkę dnia z 30% zniżką!

Wskaż drogę użytkownikowi!

Twoi użytkownicy nie trafili na stronę przypadkowo. Jeśli już tu są, z pewnością czegoś szukają. Warto więc pomóc im w dalszych poszukiwaniach. Pierwszym najczęściej popełnianym błędem jest pozostawienie tej strony pustej. Użytkownik nie wróci tutaj, jeśli nie pomożesz mu rozwiązać problemu i nie ułatwisz nawigacji po serwisie.

Jeśli strona błędu została wbudowana w szablon strony, masz zdecydowanie ułatwione zadanie. Logo czy też tytuł serwisu musi być linkiem do strony głównej, co z pewnością ułatwi nawigację. Jeśli z kolei posiadamy indywidualny szablon dla strony, warto zrobić listę wskazówek, która przedstawi możliwości rozwiązania problemów, np.

Skorzystaj z wyszukiwarki, by odnaleźć szukane treści na naszej witrynie. Jeśli masz jakiekolwiek pytania, skorzystaj z działu „Najczęstszych pytań (FAQ)” lub przejdź do mapy serwisu.

Oczywiście powinniśmy również umiejscowić wymagane odnośniki do przygotowanych narzędzi (mapa strony) czy działu FAQ. Zamiast linku wyszukiwarki w serwisie, możemy także umieścić odpowiedni formularz na stronie błędu dla przyspieszenia nawigacji i ułatwienia szukania.

Może zwykłe przekierowanie na stronę główną?

Często stosuje się dla błędów 404 zwykłe przekierowanie do strony głównej. Czyli po wejściu na adres, który nie istnieje, użytkownik zostaje przeniesiony na stronę główną. W WordPressie mamy gotowy mały plugin:
Błąd 404 w WordPressie

Jak odszukać niedziałające linki na stronie?

Niezależnie od tego, jak będzie wyglądać nasza strona błędu, warto w ogóle unikać wszelkich niedziałających stron, ponieważ odstrasza to nie tylko klientów. Również Google zaleca regularne sprawdzanie niedziałających linków w obrębie witryny. Jakie programy mogą nam pomóc w wyszukiwaniach martwych linków?

Brocken Link Checker – plugin przydatny jest dla stron opartych na WordPressie. Narzędzie to nieustannie monitoruje linki na naszej witrynie. Jeśli znajdzie jakiś uszkodzony link, informuje nas o tym w panelu administracyjnym.
Xenu’s Link Sleuth (systemy Windows) – darmowa aplikacja pod Windows. Wystarczy wpisać adres swojej witryny, by rozpocząć proces skanowanania linków.
Screaming Frog SEO Spider – jego działanie jest podobne do Xenu, ale możemy z niego korzystać także na Mac’ach czy systemach linuxowych.
google_console_error_page

Google Webmaster Tools – gdy Google znajdzie uszkodzone odnośniki, to w odpowiedniej sekcji wyrzuci błędy robota.
Link Checker – narzędzie dla bardziej zaawansowanych użytkowników. Służy ono do kompleksowego sprawdzania poprawności całej strony. Możemy zrobić to za pomocą wierszy poleceń, aplikacji desktopowej czy webowej.

Jak wykorzystać przekierowania 301 do pozycjonowania stron

Podstawową funkcją przekierowania 301 jest zmiana adresu aktualnej strony internetowej na inny. Kod ten oznacza, że strona na stałe została przeniesiona pod inną domenę. Bardzo często wykorzystywane jest to np. przedsiębiorców, którzy chcą zmienić nazwę firmy lub jej adres www. Tego typu przekierowanie pozwala także ustrzec się problemu z tzw. duplicate content. Przykładowo gdy do jednej strony ma prowadzić kilka domen. Innym zastosowaniem przekierowania o kodzie 301 jest pozycjonowanie stron i ten temat opiszemy szczegółowo.

Jest to rozwiązanie stosunkowo tanie (nowe domeny kosztują kilkanaście złotych), które w połączeniu z dalszymi działaniami, doskonale poprawia pozycję w wynikach Google. Zakup domeny z historią jest troszkę droższy, jednak przekierowanie jej na docelową pozycjonowaną stronę powoduje przekazanie mocy starej domeny na nową domenę. Zazwyczaj domeny z historią są całkiem dobrze podlinkowane, więc unikamy potrzeby zaczynania praktycznie od nowa budowania sieci linków. Najlepszym wyjściem jest zakup domeny, w której znajdował się serwis zbliżony tematycznie do strony docelowej, wtedy możemy osiągnąć najlepsze wyniki. Jeżeli jednak nie znajdziemy takich domen, to także warto jest zwiększyć moc naszej witryny, przy ich wykorzystaniu. Każdy link dobrej jakości jest niezwykle wartościowy z punktu widzenia pozycjonowanej strony. Zwiększa wartość strony oraz podnosi jej ocenę nadawaną przez algorytm Google. Linki tematyczne są niezwykle ważne, jednak nie powinniśmy także unikać linkowania ze stron o zupełnie innej tematyce.

Jak w każdym działaniu związanym z pozycjonowaniem należy zachować umiar, tak i w przekierowaniach o kodzie 301 nie powinniśmy przesadzać. Duża ilość nowych witryn z przekierowaniem ma ogromne znaczenie dla pozycji domeny, jednak zbyt szybki przyrost może spowodować nałożenie kardy od Google- bana na domenę. I tutaj przechodzimy do jednej z najważniejszych zalet wykorzystania przekierowania 301. Przekierowanie domeny za pomocą tego kodu, w przypadku nałożenia kary przez Google, w ciągu chwili możemy wyłączyć. W przeciwieństwie do tradycyjnych linków z katalogów i stron, domeny z przekierowaniem możemy włączać i wyłączać w dowolnym momencie. W przypadku linkowania z kilkuset stron, problematyczne by było proszenie kilkuset administratorów z prośbą o usuniecie linków. Można ratować się przez zgłoszenie do Google Console (GWT) listy linków tak zwanej Disavow. Jest to proces zrzekania się linków, których nie chcemy, aby Google brało pod uwagę podczas oceny naszej witryny.
Przekierowanie 301 daje ogromne możliwości, szczególnie dla doświadczonych pozycjonerów, którzy stale monitorują wszystkie dane związane ze stroną, której promocją się zajmują. Z uwagi na ten fakt warto jest pozycjonowanie ważnych dla nas stron zlecać profesjonalistom, którzy przez całą dobę czuwają nad pozycją strony i mogą w dowolnym momencie zareagować na niekorzystne czynniki, jakie powodują obniżenie pozycji strony w Google.
Oczywiście nie stoi nic na przeszkodzie, aby taką domenę dodatkowo dopalać systemami SWL lub programami do automatycznego linkowania. Dzięki temu, że koszt zakupu takiej domeny nie jest zbyt wysoki, możemy poeksperymentować i sprawdzić co daje najlepsze wyniki. W przypadku kiedy zauważymy, że dana domena z przekierowaniem działa niekorzystnie na pozycję w wynikach wyszukiwania strony, jaką pozycjonujemy, w ciągu kilku chwil wyłączamy przekierowanie i pozbywamy się negatywnych czynników. Jest to bardzo wygodna metoda, która jednocześnie daje doskonałe wyniki. Jest w pewnym sensie „firewall-em” dla naszej pozycjonowanej strony. Wszystkie negatywne czynniki spoczywają na 301, którą możemy wyłączyć. Natomiast całe zaplecze tanich linków można pozyskiwać właśnie kierując na tą domenę z 301.

W jaki sposób włączyć przekierowanie 301 dla domeny?

Aby włączyć przekierowanie 301 dla domeny, wykorzystuje się trzy sposoby:
Pierwszym z nich jest przekierowanie za pomocą PHP. (Nie polecam)

header(„HTTP/1.1 301 Moved Permanently”);
header(„Location: http://www.NowyAdres.pl/NowaPodstrona/Przekierowanie.html”);
Drugim lepszym sposobem jest edycja pliku .htaccess, w którym dodajemy odpowiednią linijkę kodu, za sprawą czego domena wskazuje na nowy adres. Przykładowy kod przekierowania:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^(www\.)?domena-przekierowywana\.pl [NC]
RewriteRule (.*) http://domena-docelowa.pl/$1 [R=301,L]
Trzeci najlepszym rozwiązaniem jest przekierowanie domeny za pomocą ustawień na hostingu.
Przykładowo na home.pl w ustawieniach domeny można to wykonać za pomocą przełączenia opcji:

Czy przekierowanie 301 jest bezpieczne?

W większości przypadków tego typu działania są bezpieczne. Warto jednak pamiętać, że nie powinniśmy przesadzać z ilością przekierowań. W przeciwnym wypadku algorytm przeglądarki może odebrać to jako nienaturalne działanie, które kończy się filtrem lub baner nakładanym na dany adres. Bezpiecznie jest więc łączyć przekierowania 301 z innymi formami pozycjonowania jak linkowanie z różnych źródeł, zdobywanie linków z portali społecznościowych oraz dobrej jakości content marketing.

Podsumowując: informacje zawarte w artykule, wykorzystanie przekierowania 301 do pozycjonowania strony jest stosunkowo bezpiecznym działaniem, na które w każdej chwili mamy wpływ. Zapewnia nam to sporą moc przekazywaną przy pomocy domen z historią. Mamy także możliwość dodatkowego wzmacniania tej mocy dzięki linkowaniu domeny z przekierowaniem za pomocą systemów SWL oraz programów do automatycznego linkowania np. SEO Adder.
Warto jednak pamiętać o odpowiednim rozłożeniu w czasie naszych działań, gdyż zbyt szybki przyrost domen (szczególnie z dużą mocą) może bardzo negatywnie wpłynąć na docelowy adres strony internetowej. Nie powinniśmy także opierać się tylko na jednej metodzie pozycjonowania. Aby uzyskać najlepsze efekty, należy wykorzystać wszystkie możliwości, jakie daje nam współczesne SEO.