Generowanie leadów na laptopie

Okiełznać leady! Siła drzemie w lead response time

Od paru dni myślisz o jakimś produkcie np. nowym laptopie. Z góry postanawiasz dokonać zakupu online. Zaczynasz od rozeznania, zapoznania się z ofertą producentów w założonych widełkach cenowych. Być może jedziesz do sklepu stacjonarnego i zasięgasz języka od obsługi sklepu. Czytasz artykuły branżowe, żeby mieć podstawową wiedzę na temat, w którym niedługo podejmiesz decyzję zakupową. Pytasz znajomych o zdanie. Szukasz opinii w porównywarkach cenowych. Jakąkolwiek ścieżkę wybierzesz, poświęcasz na nią swój CZAS. Continue reading

Klient biznesowy

Jak myśli i kupuje klient biznesowy?

Sektor biznesowy jest regularnie badany przez McKinsey & Company. Wyniki ich ostatnich badań, opublikowane w artykule “Do you really understand how your business customers buy?” jasno wskazują, że przedsiębiorcy nad wyraz chętnie kupują online. Ich decyzje zakupowe są jednak podyktowane innymi czynnikami, niż te, którymi kierują się pozostali e-konsumenci. Continue reading

Enterso - przystanek sukces

Enterso wspiera laureatów konkursu Przystanek Sukces – biznes w Szczecinie się opłaca!

Z dumą ogłaszamy, że mieliśmy przyjemność wesprzeć Polską Fundację Przedsiębiorczości oraz Urząd Miasta Szczecin w organizacji konkursu Przystanek Sukces – biznes w Szczecinie się opłaca! Doskonale zdajemy sobie sprawę z problemów młodych przedsiębiorców, więc z niekrytą radością zdecydowaliśmy się wesprzeć laureatów konkursu. Continue reading

Duplicate content oraz thin content – czyli jak skopiowane i ubogie treści wpływają na Twoją stronę w Google

Duplicate content

Zapewne wszyscy znają teksty typu „kopiuj-wklej”. Właśnie mianem duplicate content określamy treści, które zostały skopiowane z innych stron. Warto zauważyć, że powielane treści mogą pojawiać się nie tylko na różnych domenach, czyli wtedy, gdy skopiujemy dany artykuł od konkurencji, ale także na jednej domenie. Dzieje się tak wówczas, gdy do jednej domeny możemy trafić przez kilka różnych adresów. Jeśli nie ustawimy przekierowania 301, wówczas tych kilka adresów będzie dla wyszukiwarki różnymi witrynami ze skopiowaną treścią. Duplicate content bardzo często zdarza się w sklepach internetowych, które oferując ten sam produkt i pobierają tą samą bazę od producentów, wykorzystując identyczne opisy. Jednak dla dobra naszej witryny, warto postarać się o unikalną treść.

Jak wyszukiwarki reagują na duplicate content?

Każdy, kto miał do czynienia z pozycjonowaniem, słyszał o tzw. Black Hat SEO. Są to nieetyczne techniki, za pomocą których można uzyskać wyższą pozycję w wyszukiwarce w dużo szybszym czasie. Takie działania nie są jednak mile widziane i są raczej mało opłacalne. Po pierwsze, efekt ich działania jest tymczasowy. Po drugie, roboty Google skutecznie walczą z takimi technikami.

Warto również zauważyć, że za kopiowanie treści, które objęte są prawami autorskimi, możemy zostać podani na policję. Oczywiście zwykle w pierwszej kolejności, autor tekstu prosi nas o jego usunięcie. W najgorszym wypadku może się to skończyć sprawą w sądzie.

Ale wracając do tematu robotów… Jeśli wyszukiwarka Google wykryje na naszej witrynie duplicate content, w najlepszym razie, nałoży na naszą stronę filtr, w najgorszym – po prostu ją zablokuje. Konkretne kary zależą w dużej mierze od ilości skopiowanych tekstów, jakie wykryje robot. Pamiętajmy jednak, że po pierwsze ściągnięcie blokady ze strony jest niełatwym zadaniem. A po drugie – nawet jeśli uda nam się zdjąć filtr czy blokadę z witryny, osiągnięcie pozycji w Google, którą zajmowaliśmy dotychczas będzie jeszcze trudniejsze i zajmie nam sporo czasu.

Używając nieświadomie skopiowanych treści możemy również zaszkodzić stronie, na której tekst został oryginalnie zamieszczony. Wyszukiwarka Google wyświetla w wynikach wyszukiwania treści, które najbardziej pasują do zapytania użytkowników. Czasem niestety może się zdarzyć, że strona, która oryginalnie zamieściła tekst, zostanie pominięta w wynikach wyszukiwania.

Co zrobić, by uniknąć powielania tekstu w obrębie jednej domeny?

Tak, jak już zostało powiedziane, duplicate content może pojawić się także w obrębie jednej domeny. Jak sobie z tym poradzić? Możemy uniknąć tego problemy trzema metodami. Możemy wskazać właściwą stronę do indeksacji za pomocą rel=canonical, zablokować zduplikowaną treść za pomocą robots.txt lub meta robots (noindex) lub wykorzystać oferowane przez wyszukiwarki narzędzia. Warto jednak w tek kwestii skorzystać z pomocy profesjonalnej firmy, zajmującej się pozycjonowaniem. Nie posiadając fachowej wiedzy na temat SEO i próbując robić coś na własną rękę, możemy tylko bardziej zaszkodzić witrynie np. wyindeksować ją z wyszukiwarki Google.

Jak sprawdzić duplikat treści
Istnieje narzędzie www.copyscape.com , za pomocą którego sprawdzimy czy tekst na naszej stronie jest unikatowy. Wystarczy wpisać link do konkretnej podstrony, a robot wyszuka w internecie plagiatów tej treści. Drugie narzędzie do przetestowania to www.siteliner.com.
Proszę zwrócić uwagę, że nawet informacja o Cookies może być traktowana jako duplikat treści. Zadbaj o niepowtarzalną treść nawet dla polityki prywatności czy regulaminu.

Powtórzenie treści wewnątrz serwisu
1. Opisy produktów

Szczególnie w sklepach internetowych należy zwrócić uwagę na powtórzenie treści między własnymi podstronami. Przykładem jest początek opisu produktu w sklepie internetowym na liście produktów. Treść ta jest niczym innym jak kopią opisu produktu. W takim przypadku warto napisać dedykowany skrócony opis, który wyświetla się na liście w danej kategorii.

2. Strona z WWW czy bez WWW

Jeśli nasza strona ładuje się zarówno z przedrostkiem www i bez www, należy zadbać, aby jeden adres kierował do drugiego jako przekierowanie 301. Podobnie z adresem z certyfikatem SSL i bez np. https://mojastrona.pl i http://mojastrona.pl.

W tym celu należy wykorzystać plik .htaccess na FTP w głównym folderze domeny, aby zdefiniować który adres ma kierować pod jaki URL. Przykładowy kod z przekierowaniem stałym na www.:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^enterso.pl(.*) [NC] RewriteRule ^(.*)$ http://www.enterso.pl/$1 [R=301,L]

3. Wiele URLi do tej samej podstrony

Częstym błędem jest stosowanie wielu adresów URL dla tej samej treści, tej samej podstrony. Przykładowo:

www.mojadomena.pl/kontakt

www.mojadomena.pl/index.php?kontakt

www.mojadomena.pl/kontakt,1

Algorytm Panda

Za wyszukiwanie treści o charakterze plagiatów i niskiej jakości odpowiada algorytm Google Panda. System wyszukiwarki poszukujący duplicat content, jest udoskonalany już od 2011 roku. W tym czasie żniwa jego były bogate. Bardzo duża ilość niskiej jakości katalogów stron internetowych i stron zapleczowych uległa degradacji otrzymując filtr.

Treści niskiej jakości – thin content

Współcześnie z treściami niskiej jakości mamy do czynienia właściwie w obrębie całego internetu. Ile razy spotkaliście się z komentarzami na forum czy wpisami na Facebooku, które zawierały błędy ortograficzne? Bo my wiele razy. Warto jednak wiedzieć, że treść niskiej jakości trochę inaczej odbierana jest przez czytelników, a inaczej przez wyszukiwarki Google.

Dla czytelników thin content to przede wszystkim artykuły zawierające błędy merytoryczne, gramatyczne, ortograficzne czy składniowe. Są one zwykle mało czytelne i niezbyt atrakcyjne, a ich czytanie sprawia (o ile ktoś w ogóle zdecyduje się taki tekst przeczytać), że zniechęcamy się do danej strony, blogera czy marki. Wyszukiwarki Google znacznie szerzej pojmują treści niskiej jakości. Są to przede wszystkim teksty „nafaszerowane” słowami kluczowymi, pozycjonowane na złe frazy lub takie, w których próbujemy ukryć słowa np. nie wyróżniając ich graficznie w żaden sposób. Thin content to także bloki ciągłego tekstu, które nie są podzielone na akapity, w których nie ma nagłówków, wyróżnień i właściwego układu. Zresztą, nawet czytelnik jest gorzej nastawiony do tekstu, w którym zlepek słów kluczowych przeważa nad normalną treścią, a bez nagłówków staje się on dodatkowo mało czytelny. Ale do thin content zaliczamy także strony ze zbyt małą ilością treści, co szczególnie spotykane jest w sklepach internetowych, gdzie często zamiast konkretnego opisu, pojawiają się tylko dane techniczne produktu. Co więcej, takie same dane pojawiają się w wielu sklepach, oferujących ten sam produkt.

Co zrobić, by nasze teksty były unikalne i miały wysoką jakość? Przede wszystkim warto podążać za zmieniającymi się algorytmami wyszukiwarek. Pamiętajmy również, by tworzyć teksty, które przede wszystkim zainteresują potencjalnych czytelników. To właśnie na odbiorcach powinno nam najbardziej zależeć. Po to budujemy pozycję w wyszukiwarce, by więcej osób mogło do nas trafić. Jednak nikt nie zostanie z nami dłużej, jeśli nie zadbamy o odpowiednią treść. Jeśli sami nie mamy czasu lub zbyt dużych umiejętności pisarskich, warto zlecić przygotowanie treści coppywriterom SEO ( zapraszamy do kontaktu ). Dzięki nim otrzymamy teksty wysokiej jakości, które będą zgodne z wymogami SEO. Prowadząc sklepy internetowe, powinniśmy skupić się na unikalnych opisach produktów – nie wystarczy nazwa producenta, rodzaj materiału czy rozmiar. Zapamiętajcie! Dobrze napisane teksty mogą Wam tylko pomóc. Zainwestowane pieniądze w unikalne treści procentują przez kolejne kilka lat, pomagając m.in. w SEO. W czasach, gdy ludzie dzielą się wszystkim w mediach społecznościowych, również dobry tekst może rozprzestrzenić się dużo szybciej, a Wasza strona zyska dodatkowych odbiorców.

Jak roboty Google widzą Twoją stronę? Od tego zależą Twoje pozycje

Robot Google – jak wpłynąć na widoczność witryny?

Zapewne wiele osób słyszało o tajemniczym robocie Google, który odpowiada za przeglądanie i indeksowanie witryn. Jeśli robot nas nie widzi, mamy marne szanse, by znaleźć się na dobrej pozycji w wyszukiwarce.

Do czego w ogóle może nam się przydać wiedza na temat tego, jak robot czyta stronę i co bierze pod uwagę? Przede wszystkim taką wiedzę możemy wykorzystać do poprawy widoczności naszej witryny. Wprowadzając zmiany na stronie oraz dostosowując ją do wytycznych Google, będziemy mogli cieszyć się nie tylko wyższą pozycją w wynikach wyszukiwania. Nasza witryna będzie także bardziej przejrzysta i czytelna dla potencjalnych użytkowników.

Aby robot mógł zobaczyć witrynę w celu jej indeksacji, możemy mu to ułatwić. Co powinniśmy zrobić? Oto kilka kroków, dzięki którym nasza strona będzie dobrze widoczna la robotów:

  1. Mapa strony. Jest to plik, w którym znajduje się spis wszystkich podstron naszej witryny. Oczywiście nie jest to konieczny etap, ale jeśli nasza strona jest bardzo rozbudowana, z pewnością dzięki takiej mapie robot będzie mógł dotrzeć to każdej podstrony oraz treści na niej zamieszczonych. Mapa strony umożliwi skuteczną indeksację.
    Wejdź do Google Search Console – przejdź do zakładki „Indeksowanie”->”Mapa witryny” a następnie kliknij przycisk „Dodaj mapę witryny”. Należy podać adres URL prowadzący do pliku z mapą, zazwyczaj plik ten nazywa się „/sitemap.xml” i jest w folderze głównym strony. Jeśli nie masz pliku mapy, skorzystaj z narzędzi do jej generowania lub skorzystaj z gotowego pluginu w CMS WordPress, Joomla itp.
  2. Google Search Console. Dodając naszą witrynę do GSC mamy dostęp do wielu przydatnych narzędzi, które ułatwią nam poprawienie strony pod względem widoczności w wyszukiwarce. Przede wszystkim „konsola” umożliwi nam zobaczenie, jak wygląda nasza widoczność dla robotów Google oraz podpowie, co należy poprawić, jakie błędy usunąć, a co dodatkowo wprowadzić. Dzięki dodaniu naszej strony w Google Search Console, ułatwimy robotowi dotarcie do wszystkich podstron i ich zindeksowanie.
    Wejdź w zakładkę „Indeksowanie” -> „Pobierz jako Google” w tym miejscu mamy możliwość podejrzenia dokładnie jak robot Google wczytuje nasz kod źródłowy. Wystarczy kliknąć Pobierz, a po chwili zobaczymy na liście link do kliknięcia.
  3. Jak ułatwić wyszukiwarce dotarcie do naszej strony, która została dopiero utworzona? Osoby, których strona istnieje w internecie już od dłuższego czasu, nie mają z tym problemu. Strony o dobrej reputacji przeglądane są nawet kilka razy dziennie w celu wychwycenia nowych treści. Co jednak zrobić, jeśli dopiero założyliśmy nową witrynę?
    1.Możemy poczekać, aż wyszukiwarka sama się tym zajmie. Jednak może to potrwać nawet 30 dni, ponieważ mniej więcej tyle czasu robot Google potrzebuje na przeszukaniu wszystkich serwerów w celu odnalezienia nowych witryn.

    2. Linkowanie zewnętrzne. Warto umieścić link do naszej strony na jakiejś innej, popularnej i często odwiedzanej stronie. Robot, który w czasie skanowania strony napotka jakiś link, automatycznie odwiedza podlinkowaną witrynę i indeksuje ją.

    3. Nasza strona może być także zgłoszona poprzez wypełnienie formularzu na stronie: https://www.google.com/webmasters/tools/submit-url?pli=1. Jest to narzędzie należące do Google Search Console, które dodaje strony w kolejce do indeksowania.

Co widzi robot Google?

W czasie indeksowania witryn, brane jest pod uwagę kilka czynników, które mają również dużą rolę w optymalizacji strony. Przede wszystkim wśród najważniejszych elementów znajdują się:

  1. Tytuł witryny – mimo, że wyszukiwarka odczytuje cały tytuł, liczy się 65 znaków. Warto pamiętać, że tytuły podstron powinny być unikalne, czyli nie powinny się powtarzać. Warto zawrzeć w tytule słowa kluczowe, ale nie powinien on składać się wyłącznie z samych fraz.
  2. Meta description – aby wyszukiwarka wyświetliła w wynikach wyszukiwania cały opis, nie powinien on zawierać więcej niż 160 znaków. Opis również powinien zawierać słowa kluczowe. Warto zamieścić w nim informacje, które zachęcą potencjalnych użytkowników do odwiedzenia witryny.
  3. Atrybuty alt obrazków – zwane inaczej alternatywnymi opisami obrazków. Warto umieszczać takie opisy (wraz z frazami), by grafiki znajdujące się na naszej stronie mogły być odczytywane przez robota Google. Wyszukiwarka nie potrafi zobaczyć obrazka, może go jedynie odczytać.
  4. Treści na stronie – przede wszystkim powinny być one zoptymalizowane pod kątem SEO, a także jakości contentu. Warto więc skupić się na dobrych jakościowo i merytorycznie tekstów, które będą unikalne.

Jak ujrzeć to, co widzi Google?

Zapewne wiele osób zadaje sobie pytanie, czy jest w ogóle możliwe zobaczenie naszej witryny „oczami” robota Google. Oczywiście jest to możliwe dzięki narzędziu „Pobierz jako Google dla witryn„. Narzędzie to pozwala nam sprawdzić, w jaki sposób robot Google indeksuje i renderuje adres URL naszej witryny. Taka opcja dostarcza nam również wiedzy na temat tego, czy Google ma dostęp do wszystkich podstron witryny, jak renderowana jest dana strona oraz czy jakieś elementy strony nie mogą być odczytane przez wyszukiwarkę.

Narzędzie „Pobierz jako Google dla witryn” na zasadzie symulacji pokazuje nam, w jaki sposób przeprowadzane jest indeksowanie oraz renderowanie stron. Dzięki temu będziemy mogli dowiedzieć się, jak robot Google widzi naszą stronę i przykładowo, czego nie może odczytać lub gdzie wyszukuje jakiekolwiek błędy.

Co ważne, w ciągu tygodnia możemy wykonać 500 takich pobrań. Dodatkowe opcje umożliwiają nam wybór konkretnego rodzaju bota, w zależności od tego, jakie zasoby mają zostać sprawdzone. Przykładowo do sprawdzania grafiki możemy użyć Googlebota Images, do filmów – Googlebota Video, a do stron docelowych reklam – Googlebota AdsBot. Możemy wybrać również robota specjalnie dla telefonów komórkowych (Google Smartphone).

Oczywiście innym podstawowym narzędziem, jest „Narzędzie dla webmasterów Google„, dzięki któremu możemy dowiedzieć się m. in. na jakie słowa kluczowe wyszukiwana jest nasza strona, czy witryna jest odpowiednio indeksowana oraz ile czasu zabiera Google indeksowanie naszej strony.

Podsumowanie

Jak widać, istnieją narzędzia, dzięki którym będziemy mogli sprawdzić naszą widoczność dla wyszukiwarki Google. Optymalizując treść oraz pozycjonując stronę, warto brać pod uwagę informacje pozyskane i udostępnione przez narzędzie „Pobierz jako Google dla witryn”. Warto również kierunkować się wskazówkami uzyskanymi w Google Search Console. Zrozumienie działan

Spadek pozycji w Google – dlaczego pozycje mojej strony spadły?

Przyczyny spadku pozycji w Google

Spadek pozycji naszej strony może wiązać się z różnymi przyczynami. Oto najczęstsze przyczyny:

  1. Nowa domena strony. Zwykle chodzi tutaj o nieodpowiednie przekierowanie do strony lub w ogóle brak przekierowania. Żeby nasza witryna działała prawidłowo, musimy ustawić przekierowanie. Zwykle korzystamy tutaj z przekierowania 301. W przeciwnym razie, wyszukiwarka Google będzie traktować dwa adresy URL jako dwie odrębne strony. W związku z tym może wykryć powielone treści, które będzie traktować jako duplicate content. Grozi to oczywiście spadkiem w rankingu.
  2. Zmiany w strukturach wewnętrznych linków. Wszelkie zmiany na naszej witrynie – zarówno w obrębie nazw kategorii czy konkretnych podstron mogą doprowadzić do nieprawidłowego działania strony. Jeśli zmiany te przeprowadzane są przez osoby niedoświadczone, wszelkie strony i podstrony, w których dokonaliśmy aktualizacji, mogą zostać usunięte z wyników wyszukiwania, czyli spadkiem naszej pozycji w Google.
  3. Nadmierna optymalizacja strony internetowej. Właściciele stron często żyją w przekonaniu, że im więcej słów kluczowych na stronie, tym lepiej. Jednak wyszukiwarka Google źle odbiera takie działania. Teksty naszpikowane nadmierną ilością fraz traktowane są jako przejaw tzw. Black Hat SEO, czyli nielegalnych technik pozycjonowania. Jeśli robot Google wykryje u nas takie działanie, może nałożyć na stronę filtr lub nawet ją zablokować. Podobnie rzecz ma się w przypadku próby ukrywania i przemycania słów kluczowych.
  4. Duplicate content. Jak już było wspomniane, duplicate content może być efektem nieprawidłowego przekierowania strony. Ale z powielaniem treści spotykamy się także w obrębie kilku domen, kiedy np. dana witryna kopiuje artykuły z innych źródeł. Ma to miejsce np. gdy dopiero powstające firmy chcą szybko zapełnić stronę różnymi treściami i niekoniecznie przejmują się, skąd pochodzą dane teksty. Często zdarza się też, że różne sklepy internetowe, oferujące te same produkty, kopiują od siebie ich opisy. Takie działania mogą nieść ze sobą różne konsekwencje. Po pierwsze, może się to wiązać ze spadkiem naszej pozycji w wyszukiwarce, po drugie – za kopiowanie treści możemy być zgłoszeni na policję i po trzecie, wyszukiwarka może nas ukarać filtrem, a nawet blokadą strony. Powinniśmy więc zainwestować w dobrej jakości treści. Możemy skorzystać z usług coppywriterów, by otrzymać bardzo dobre teksty, zgodne z wymogami SEO. Warto również wspomnieć, że z duplicate content spotykamy się również wtedy, gdy to ktoś od nas skopiuje treść. Nawet jeśli to my oryginalnie wstawiliśmy daną treść, wyszukiwarka Google może ją rozpoznać jako zduplikowaną. Wtedy powinniśmy zwrócić się do właścicieli strony z duplikatem o jego usunięcie.
  5. Black Hat SEO (BHS) – jeśli świadomie wykonaliśmy czarne SEO, trzeba będzie wycofać działania. Przykładowo: jeśli pozyskaliśmy masowo słabej jakości linki, trzeba będzie się ich zrzec za pomocą disavow w Google Console.

SEO analiza – po co?

Powyższe przyczyny spadku to tylko przykłady. Problem może oczywiście leżeć zupełnie gdzie indziej. Dlatego naprawianie wszelkich błędów powinniśmy zacząć od analizy SEO. Przede wszystkim dzięki temu będziemy mogli dowiedzieć, dlaczego zanotowaliśmy spadek pozycji i jak to naprawić. W przywróceniu naszej pozycji mogą nam przede wszystkim pomóc:

  1. Optymalizacja witryny. Przede wszystkim mowa tutaj o optymalizacji treści i grafik. Aby przeprowadzić takie działania, powinniśmy kontaktować się z firmą specjalizującą się w pozycjonowaniu. Profesjonalista przeprowadzając audyt strony powie nam, co powinniśmy zmienić. Czasem wystarczą tylko teksty z odpowiednimi słowami kluczowymi oraz dodanie atrybutów ALT grafiki. Jednak niekiedy strona wymaga większego nakładu pracy, np. zmiany całej szaty graficznej.
  2. Przekierowania. Jeśli zmienialiśmy adres domeny, powinniśmy ustawić odpowiednie przekierowanie, by uniknąć duplicate content. Przekierowanie ułatwi również odszukanie naszej strony, gdy zmienimy adres strony głównej lub adresy podstron.
  3. Jak wspomnieliśmy, czasem za spadek pozycji odpowiadają zmiany w wewnętrznej strukturze linków. Warto więc przywrócić je do poprzedniego stanu, kiedy gwarantowały nam wysoką pozycję.

Inne możliwe przyczyny utraty pozycji w Google

Jak już pisaliśmy, przyczyny spadku mogą być różne. Jeśli sprawdziłeś już wszystkie z wymienionych powyżej, możesz również zwrócić uwagę na to, czy Twoja witryna nie została przypadkiem ukarana filtrem lub blokadą. Warto również sprawdzić, czy Google nie wprowadziło żadnych aktualizacji w algorytmie wyszukiwarki. Wprowadzanie wszelkich zmian może wiązać się z wahaniem Twojej pozycji w wyszukiwarce. Czasem określa się to jako Google dance. Gdy aktualizacja dobiegnie końca i Twoja strona wciąż będzie odpowiadała wszystkim wytycznym Google, wróci na swoją pozycję.

Może to nastąpić w ciągu kilku godzin czy nawet dni.

Czasem zdarza się również, że nasza strona spadła w wynikach wyszukiwania ponieważ padliśmy ofiarą konkurencji, która stosuje wiele technik depozycjonowania. Kolejna rzeczą, jaką musimy sprawdzić, to obecność wirusów na stronie. Jeśli wyszukiwarka wykryje u nas jakiekolwiek wirusy, traktuje nas jako witrynę dokonującą ataków. Zwykle internauci dostają wówczas informację, że ta witryna może wyrządzić szkody na komputerze. Czasami zainstalowane oprogramowania antywirusowe automatycznie blokują naszą witrynę. Niższa pozycja w wyszukiwarce może być również skutkiem zbyt długiego ładowania się strony. Zwróćmy więc uwagę na to, czy nasza strona nie wczytuje się dłużej niż 2 sekundy. Jeśli tak, warto np. dokonać konwersji zbyt „ciężkich obrazków”.

Spadek pozycji w Google może się również wiązać z przerwami w działaniu strony. Musimy się po pierwsze upewnić, czy opłaciliśmy domenę oraz hosting przed upływem terminu spłaty. Jeśli tak, warto również sprawdzić, czy nie ma żadnego problemu z serwerem. Może się zdarzyć, że serwer usługodawcy przestał działać albo ma problemy techniczne.

Ilość słów kluczowych na stronie

Keyword – czemu właściwie to służy?

Keyword, czyli słowo kluczowe to fraza złożona zazwyczaj z jednego do kilku słów. Jest ona zarazem krótkim opis zawartości witryn, stworzonym specjalnie dla robotów wyszukiwania. Wpisując w wyszukiwarce np. frazę „kosmetyczka Warszawa”, robot zaczyna wyszukiwanie obu tych słów lub całej frazy na stronach, które związane są tematycznie z kosmetyką. Jeśli dobrze wykorzystamy keywords w naszych treściach, mamy większą szansę, że nasza witryna znajdzie się na samym początku wyszukiwania. Również ilość tekstów ma tutaj znaczenie. Im więcej tekstów na naszej stronie oraz podstronach, tym większa szansa, że wyszukiwana przez użytkownika fraza (nawet bardzo złożona) pokryje się z frazami, użytymi w naszych treściach.

Zagęszczenie słów kluczowych

Wielu speców od marketingu internetowego twierdzi, że aby nasza witryna miała lepszą pozycję w wyszukiwarce Google, powinniśmy zastosować odpowiednią ilość słów kluczowych. No dobrze, ale czy istnieje jakiś magiczny algorytm, za pomocą którego wyliczymy, jaka jest ta optymalna ilość? Teorie na ten temat są przeróżne. Jedni podają, że zagęszczenie słów kluczowych powinno wynosić 1,5%, ale są też ludzie, którzy twierdzą, że jest to 3%, a nawet 5%. Z tego wynika, że w tekście składającym się 200 słów, powinno znaleźć się od 3 do 10 słów kluczowych. Ale te liczby to tylko teoria.

Oczywiście prawdą jest, że wyszukiwarka Google skanuje dane strony na podstawie zawartości słów kluczowych. Jeśli jest ich za mało – traktuje stronę jako niezwiązaną z szukanym słowem. Jeśli z kolei słowa kluczowe przeważają w tekście, oznacza je jako spam. Badania algorytmu Google, które zostały przeprowadzone m. in. przez naukowców ze Stanford University, udowodniły, że algorytm nie podlicza słów kluczowych. Określa on jedynie, w jakim stopniu witryna związana jest z wyszukiwaną przez użytkowników frazą.

Początkowo oczywiście duże nasycenie treści słowami kluczowymi dawało dobre efekty, dlatego nikt nie przejmował się tekstami, które treściowo nie do końca były zrozumiałe. Jednak mimo dużego licznika odwiedzin, konwersja była na niskim poziome. Rzadko kto był zainteresowany zakupem od firmy, której treści reprezentowały bardzo niski poziom. Również wyszukiwarka Google przestała premiować strony, mające zbyt dużą liczbę „keywords” względem bezwartościowego tekstu.

Algorytm jest znacznie bardziej skomplikowany, niż by nam się wydawało. W związku z tym, nie ma czegoś takiego, jak optymalne zagęszczenie słów kluczowych. Musimy również pamiętać, że każda strona jest inna, a jej pozycja w Google niekoniecznie musi zależeć od ilości wykorzystanych fraz. Wiele witryn osiągnęło sukces dzięki dobremu zapleczu linkowemu i profilowi domeny pomimo małej ilości „keywords”. Według rankingu serwisu SEOmoz, obecnie liczba słów kluczowych ma jedynie 15% znaczenia w pozycjonowaniu witryny.

Słowa kluczowe w „anchor text” – najsilniejsze linki pozycjonujące

Anchor, zwany również treścią linka to nic innego, jak hiperłącze zamieszczone na stronie, które wyświetla się w formie danego słowa kluczowego. Anchor texty mają duże znaczenie w optymalizacji strony – to one budują pozycję strony w wyszukiwarkach Google. Ważne jednak, by frazy, znajdujące się w anchorach, były bezpośrednio powiązane z tematyką strony, do której prowadzą. Warto przeczytać także czym jest naturalny profil linków.

Synonimy słów kluczowych – jakie mają znaczenie?

Jak się okazuje, na pozycję strony wpływają nie tylko same słowa kluczowe, ale również frazy, które często występują w danej kategorii. Przykładowo na stronie o prezentach będzie to m. in. „upominek”, „urodziny”, „podarunek” itp.

W styczniu 2011 roku Google potwierdziło, że przy wyszukiwaniu duże znaczenie mają także synonimy. Wpisując np. w wyszukiwarce frazę „prezent urodzinowy”, znajdziemy wówczas także „prezent na urodziny”. Co ciekawe, Google znajduje zamiennie (z 98-procentową skutecznością) takie wyrazy jak „stomatolog” i „dentysta”.

Zasady stosowania fraz w tekstach

Jest kilka ważnych zasad, którymi powinniśmy się kierować, aby napisać dobry jakościowo tekst SEO. W większości chodzi po prostu o naturalne pisanie treści, które mimo zawartości danych fraz, nie będą wyglądały sztucznie i mało logicznie.

  1. Zróżnicowany zasób słów. Słowo kluczowe to nie wszystko! No dobrze, powiedzmy, że mamy do napisania tekst, w którym musimy wykorzystać daną frazę. Pamiętajmy jednak, by treść nie ograniczała się tylko i wyłącznie do niej. Starajmy się używać także innych słów, związanych bezpośrednio z tematyką tekstu. Dzięki temu będzie on bardziej naturalny.
    Odmiany mile widziane. Odmienianie słów kluczowych może wyjść nam tylko na zdrowie. Chyba każdy, kto kiedyś widział zdanie typu: „Potrzebna Ci kosmetyczka Wrocław?”, zdaje sobie sprawę z tego, jak nienaturalnie i niepoprawnie to brzmi. Aby uniknąć podejrzeń, że nasz tekst jest typowym materiałem SEO, warto odmieniać takie frazy, by wyglądały bardziej naturalnie i były zgodne z zasadami gramatyki.
  2. Jaką ilość fraz użyć? Nie warto kierować się opiniami innych, które głoszą, że ma być to 3% czy 5% na cały tekst. Użyjmy tyle słów kluczowych, by tekst pozostał logiczny i atrakcyjny. Liczy się jakość, a nie ilość. Pamiętajmy też, by nie przesadzić z frazami. Wówczas robot wyszukiwania może uznać nasz tekst za mało wartościowy spam, czego konsekwencją może być nawet nałożenie filtra na naszą witrynę.
  3. Naturalne rozmieszczenie słów kluczowych. Stosujmy spore odstępy między frazami. Tekst wygląda dużo estetyczniej, jeśli wybrane słowa kluczowe pojawiają się w znacznych odległościach od siebie. Dana fraza może pojawić się w tytule, pierwszym akapicie, jednym z nagłówków i jeśli to możliwe, w ostatnim akapicie. Pamiętajmy jednak, by słowa były rozmieszczone naturalnie. Nie upychajmy ich na siłę we wszystkich tych miejscach, jeśli nie wszędzie pasują. Ważne jest przede wszystkim, by tekst dobrze się czytało.
  4. Pisząc tekst, postaw się na miejscu potencjalnego użytkownika. Spróbuj stworzyć treść tak, by przede wszystkim odpowiadała na wszystkie możliwe pytania, które mogłyby się pojawić w tym temacie. A teraz spójrz na to od strony stylistycznej. Czy tekst dobrze się czyta? Czy wszystkie frazy wkomponowane są naturalnie i nie przeszkadzają w zrozumieniu treści? Jeśli Twoje teksty są unikalne i zawierają wartościowe informacje, Google z pewnością to doceni. Pamiętajmy również, by tekst był odpowiednio ostylowany. Dla ułatwienia czytania oraz wyszukiwania informacji warto stosować nagłówki, podnagłówki, wypunktowania, pogrubienia, podkreślenia czy kursywę.
    Tworząc treści pamiętajmy by kierować się jedną prostą zasadą. Dobrze napisany tekst może zdziałać dużo więcej, nawet bez słów kluczowych, niż słaba jakościowo treść nasycona dużą ilością fraz.

Audyt SEO

Na wiele rzeczy warto spojrzeć okiem profesjonalisty – gdy nie mamy odpowiedniej wiedzy, mogą nam umknąć szczegóły, które z miejsca dostrzeże ktoś obeznany z tematem. Właśnie w taki sposób działa audyt SEO: to nic innego jak spojrzenie na stronę przez pryzmat profesjonalnych narzędzi i wiedzy. Specjaliści Enterso, mający za sobą lata pracy w środowisku Google, są w stanie zbadać witrynę pod kątem parametrów wpływających na jej pozycjonowanie. Wykorzystują do tego zarówno narzędzia oferowane przez samą wyszukiwarkę, jak i zewnętrzne programy (takie jak Clusteric Link Auditor, Ahrefs, Screaming Frog, MajesticSeo czy Semstorm), aby zagwarantować jak najszerszy zakres działań. Dodatkowo prowadzony jest także audyt pozwalający określić stan całej branży (najczęściej stosowane przez konkurencję słowa kluczowe itp.), co gwarantuje nie tylko funkcjonalność, ale i aktualność strony

Efektem wymienionych wyżej prac jest składany na ręce klienta raport. Z naszej strony jest to tylko propozycja zmian – zastosowanie się do sugestii lub nie zależy od klienta. Samo sporządzenie raportu nie niesie ze sobą żadnych zobowiązań. Warto jednak zastanowić się nad zawartymi w nim wskazówkami: zoptymalizowana pod kątem SEO strona oznacza znacznie więcej odwiedzin, wyższą pozycję w wyszukiwarce Google oraz korzystniejszy współczynnik konwersji. Co więcej, przyjazna w obsłudze strona poprawia opinię o firmie i zachęca do dalszych odwiedzin czy polecenia jej znajomemu, a wszystko to przekłada się na zysk dla firmy.

Jak na link building wpływa System wymiany linków?

Zdobycie wysokich pozycji w wynikach wyszukiwarki Google wymaga wiele pracy oraz działań, które bardzo często są na granicy norm dopuszczanych przez tę najpopularniejszą wyszukiwarkę internetową. Jednak wielu pozycjonerów oraz właścicieli stron internetowych ryzykuje i często nagina obowiązujące reguły, aby wyprzedzić konkurencję i zdobyć większą ilość odsłon, które przekładają się na wyższe wyniki finansowe firmy. Posiadając doświadczenie w pozycjonowaniu bardzo łatwo jest wyczuć, w którym momencie przesadzamy i przekraczamy granicę, a kiedy możemy jeszcze dodać mocy stronie, aby podniosła się jej pozycja w wynikach wyszukiwania.

Jedną z takich dyskusyjnych metod pozycjonowania oraz wspierania pozycjonowania strony są systemy wymiany linków w skrócie SWL. Dzięki takim systemom możemy bardzo szybko zdobyć setki, a nawet tysiące linków przychodzących za naprawdę niewielkie pieniądze. Powinniśmy jednak uważać, aby nie przesadzić z nagłym przyrostem takich linków, szczególnie jeżeli są to linki nietematyczne, które jedynie mogą zaszkodzić pozycjonowanemu serwisowi, zamiast pomóc mu w zdobyciu wyższej pozycji w wyszukiwarce Google.

Systemy SWL dzielimy na dwa typy:
• systemy SWL stałe, w których każdy odnośnik przypisany do jednej strony internetowej zostaje na niej na dłuższy czas lub nawet na stałe
• systemy SWL rotacyjne, gdzie linki umieszczone na jednej stronie zmieniane są automatycznie, nawet w ciągu kilku godzin na jednej podstronie może pojawić się kilka różnych linków.

Jak dobierać linki w SWL?

Dobór linków nie tylko w systemach wymiany linków, ale w całym pozycjonowaniu strony internetowej, ma niezwykłe znaczenie dla powodzenia naszej pracy. Niezwykle ważne są dobrej jakości linki ze stron powiązanych tematycznie z pozycjonowaną witryną internetową. Oczywiście mniej wartościowe odsyłacze także będą przydatne, aby zwiększyć linkowanie do naszej strony www, jednak warto skupić się na wysokiej jakości linkach tematycznych. Powinniśmy także zwracać szczególną uwagę na przyrost linków z takich systemów. W przypadku nagłego wzrostu linków Google może uznać takie działania za niezgodne z regulaminem i wykluczyć nasz serwis z wyników wyszukiwania.
Bardzo wiele firm pozycjonujących korzysta z takich systemów wymiany linków, a doświadczenie pomaga uniknąć wykrycia takiego działania oraz działać na korzyść klienta.

linkbuild

Bezpieczne linkowanie z SWL. W jaki sposób to wykonać?

Aby uniknąć wykrycia przez roboty wyszukiwarki Google nieregulaminowego działania, można wykorzystywać linki z systemów SWL na kilka sposobów. Pierwszym z nich jest tzw. dopalanie. Jak wiadomo, linki do pozycjonowanej strony zdobywamy w różnych miejscach m.in. ze wpisów na blogach, komentarzach na forach internetowych oraz poprzez wpisy w katalogach. Samo dodanie takiego wpisu na forum czy też w katalogu stron niewiele daje. Przy pomocy SWL możemy przyspieszyć indeksacje takich wpisów przez roboty Google oraz podnieść wartość strony czy też podstrony, która linkuje do naszego serwisu. Dzięki temu nawet niezbyt dobre jakościowo linki mogą stać się dobrą podstawą do dalszego pozycjonowania serwisu.

Inną możliwością wykorzystania SWL jest przyspieszanie indeksowania wpisów i podstron na stronie, którą pozycjonujemy. Za sprawą typu działań znacznie skraca się czas, w jakim roboty wyszukiwarki znajdą nową podstronę serwisu. Zdobywanie nowych odsyłaczy przy pomocy systemów wymiany linków staje się niezwykle proste i stosunkowo tanie.

Plusy wykorzystania SWL.

Pomimo że SWL zaliczane są do tzw. „czarnego SEO” to ich wykorzystanie daje niezwykle dużo korzyści. Systemy wymiany linków pozwalają na szybkie zdobycie sporej ilości odsyłaczy, co znacznie poprawia pozycje strony w wyszukiwarce Google. Dzięki stosunkowo niskim kosztom uczestnictwa w takich systemach możemy za niewielkie pieniądze zdobyć satysfakcjonujące pozycje w wyszukiwarce oraz wzmocnić nasze zaplecze SEO, co sprawi, że strona będzie znacznie szybciej wspinała się w wynikach wyszukiwania i nie będzie zaliczała spadków lub nagłych zmian pozycji.

Zagrożenia wynikające z wykorzystania systemów wymiany linków.

Osoby, które obyte są w tematyce pozycjonowanie wiedzą to, jednak ci, którzy dopiero zaczynają swoją przygodę w tej branży, powinni wiedzieć, że nie ma czegoś takiego jak bezpieczne i szybkie pozycjonowanie. Jest to skomplikowany proces, który wymaga czasu oraz odpowiedniego przygotowania technicznego oraz merytorycznego. Wykorzystując systemy wymiany linków, narażamy się na przykre konsekwencje w postaci banów lub filtrów nakładanych na stronę przez Google. Jednak i z filtra da się wydostać stronę, a systemy wymiany linków ułatwiają nam to zadanie, gdyż dzięki kilku kliknięciom w panelu zarządzania SWL możemy zdjąć wszystkie „szkodliwe” linki prowadzące do naszej strony. W wielu przypadkach pozwala to na powrót do indeksu wyszukiwarki oraz na dalsze prace nad pozycjonowaniem.

Koszty uczestnictwa w systemach wymiany linków.

Koszty pozycjonowania za pomocą SWL są bardzo różne. Zależą one od tego, w którym z dostępnych obecnie systemów będziemy chcieli wykupić punkty oraz na jak długo i na ilu stronach mają wyświetlać się linki do naszej strony. Koszty mogą zaczynać się od kilkudziesięciu złotych miesięcznie do nawet kilku tysięcy złotych za miesiąc, jeżeli zdecydujemy się na pozycjonowanie wielu fraz oraz wielopoziomowego zaplecza z setkami domen.

Systemy wymiany linków w doświadczonych rękach mogą bardzo dobrze wpłynąć na link building strony, przez co witryna znacznie podskoczy w wynikach wyszukiwania Google. Przy umiejętnym dobieraniu fraz oraz linków, a także ich ilości i czasu wyświetlania można uzyskać doskonałe efekty nawet po kilku dniach od rozpoczęcia pracy z danym SWL. Jeżeli mamy niewielkie pojęcie o pozycjonowaniu oraz systemach wymiany linków, zanim zdecydujemy się na pozycjonowanie w ten sposób, powinniśmy dobrze zapoznać się z zasadami konkretnego systemu oraz technikami linkowania. Zbyt duży przyrost linków, szczególnie dla młodych domen może doprowadzić do nałożenia filtrów.

SWL jest doskonałym narzędziem, które w mgnieniu oka pozwoli nam zaindeksować nawet najbardziej rozległe zaplecze SEO oraz „dopalić” je wpisami z katalogów oraz notatek na forach internetowych. Wielu pozycjonerów wykorzystuje także systemy wymiany linków do pozycjonowania stron docelowych. Mają jednak oni odpowiednią wiedzę oraz potrafią wyważyć proporcje pomiędzy różnymi typami SWL oraz innych odsyłaczy prowadzących do strony, której pozycjonowaniem się zajmują.

Dobrym pomysłem, szczególnie na początek przygody z pozycjonowaniem stron za pomocą systemów wymiany linków jest wykupienie niewielkiej paczki punktów i przetestowanie na mniej ważnej dla nas domenie możliwości, jakie dają te systemy. Dzięki temu nie wydamy zbyt dużo pieniędzy oraz nie zaszkodzimy swojej głównej domenie. Taka nauka doskonale przyda się nam na przyszłość. Pomoże nam ona w odpowiednim szacowaniu ilości potrzebnych linków oraz w dobieraniu linków pasujących do tematyki naszej strony internetowej.

Pozycjonowanie a szybkość ładowania strony

Zapewne wiele razy zdarzyło Wam się czekać, aż strona się załaduje. Jeśli Wam na niej zależało, poczekaliście, ale jeśli weszliście na nią z ciekawości, często klikaliście krzyżyk. Często wynika to z przekonania, że jeśli strona długo się ładuje, to znaczy, że nie działa. Mało właścicieli serwerów tak naprawdę zdaje sobie sprawę, jak duży wpływ nie tylko na działania internautów, ale także na pozycję w wyszukiwarce Google ma szybkość ładowania strony. Warto więc przy optymalizacji witryny zwrócić uwagę także na ten aspekt.

Szybkość strony a ranking i pozycja w wyszukiwarce – jak wpływa to na SEO

Jak już zostało wspomniane, szybkość strony jest czynnikiem rankingowym, który wpływa na naszą pozycję w wyszukiwarce Google. Nawet, jeśli zadbamy o wszystkie inne czynniki pozycjonowania, szybkość ładowania witryny może wpłynąć negatywnie na naszą pozycję w Google. Prędkość strony odgrywa ważną rolę szczególnie w wyszukiwarkach mobilnych. Jeśli dana strona bardzo wolno ładuje się na komputerze czy laptopie, to na telefonie możemy czekać w nieskończoność na jej załadowanie.

Z punktu widzenia SEO wpływ prędkości witryny na indeksowanie strony widoczny jest natychmiast. Specjaliści SEO są zgodni co do tego, że wydajność strony zależy od czynników TTFB (Time To First Byte) oraz TTLB (Time To Last Byte). Metryki te wpływają w głównym stopniu na wydajność serwera, która z kolei przekłada się na tzw. Crawl Budget, czyli ilość stron indeksowanych w ciągu dnia przez wyszukiwarki.

Szybkość ładowania witryny a konwersja

Wiemy już, że szybkość ładowania strony obniża naszą pozycję w wyszukiwarce. Trzeba również pamiętać, że od prędkości witryny zależy również konwersja. Żeby jednak wytłumaczyć wpływ szybkości na konwersję, warto zapoznać się bliżej z tym terminem. Konwersja to po prostu stosunek licznika odwiedzin strony do działań, jakie użytkownicy na niej wykonują (na przykład finalizują zakup produktu w sklepie internetowym). Z badań przeprowadzonych przez Google w 2016 roku wynika, że strona, która wczytuje się dłużej niż 5 sekund, traci prawie 40% konwersji.

A jak przekłada się to na nasze zyski? Gdy pomnożymy kwotę, którą tracimy na reklamę strony przez % utraconej konwersji, zdamy sobie sprawę, ile tak naprawdę tracimy pieniędzy. Warto również zauważyć, że np. w przypadku sklepów internetowych niska konwersja oznacza, że pomimo wysokiego licznika odwiedzin, klienci czekający dłużej na załadowanie strony, nie decydują się na złożenie zamówienia. 75% użytkowników po 3 sekundach czekania zamyka odwiedzaną stronę. Możemy sobie tylko wyobrazić, w jakim stopniu odbija się to na naszych zyskach.

Jak sprawdzić szybkość ładowania strony?

Szybsze wczytywanie strony zależy w głównej mierze od jej ciężaru. Jeśli myślimy o pozycjonowaniu strony pod kątem jej szybkości, powinniśmy najpierw sprawdzić, ile czasu zajmuje jej załadowanie. Nie wystarczy wejść na stronę, by ocenić, jak szybko działa. Do tego wymagane są specjalistyczne narzędzia, jak np. Google Analytics. Sprawdzenie działania witryny jest bardzo proste. Wystarczy wejść w zakładkę Zachowanie, a następnie Szybkość witryny, by odnaleźć informacje na temat czasu wczytywania strony dla potencjalnych użytkowników naszej witryny.

Oczywiście Google Analytics nie jest jedynym narzędziem, za pomocą którego sprawdzimy prędkość naszej strony. Warto też skorzystać z narzędzia Pingdom Website Speed Test. Dostarcza nam ono informacji o czasie ładowania, informuje, jakie pliki wczytują się najdłużej oraz porównuje szybkość naszej witryny do innych stron internetowych. Musimy też pamiętać, by przy sprawdzaniu szybkości ustawić lokalizację dla Europy, ponieważ w różnych zakątkach świata prędkość strony może się różnić.

Szybkość ładowania strony można sprawdzić również lokalnie na własnym komputerze. W tym celu możemy wykorzystać takie przeglądarki jak Google Chrome lub Firefox.

W przypadku tej pierwszej podczas otwierania strony wykonujemy następującą kombinację: F12 i wybieramy w wyświetlonym menu zakładkę Network. Teraz możemy sprawdzić jakie faktycznie zasoby są ładowanie w trakcie wyświetlania naszej strony oraz podstron.
network
W przypadku przeglądarki Firefox klikamy prawym przyciskiem myszy na tle naszej witryny. Wybieramy opcję zbadaj element. W dodatkowym oknie, które się wyświetli wybieramy zakładkę Sieć. W tym widoku możemy zaobserwować tak samo jak w Chrome wszystkie procesy które ładują w trakcie otwierania strony.
2-pnetworkng

Przyspieszenie działania strony

Podobnie jak w przypadku sprawdzania szybkości witryny, również do przyspieszenia jej działania powinniśmy skorzystać z narzędzi Google. Przydatne w tym przypadku będzie narzędzie PageSpeed Insights. Przede wszystkim dokonuje ono oceny pozycjonowania naszej witryny pod kątem prędkości, ale także sugeruje, na jakich elementach powinniśmy się skupić, żeby strona działała szybciej (sekcja Sugestie dotyczące szybkości strony). Informuje nas o tym, co należy poprawić (czyli najważniejsze czynniki wpływające na szybkość) oraz co warto poprawić. Przykładowo wskazuje, który film spowalnia stronę, który obrazek jest za duży albo proponuje poprawić zbyt złożony kod strony.

Przydatne wskazówki możemy także uzyskać za pomocą wtyczki do przeglądarki Yahoo – YSlow. Wystarczy zainstalować wtyczkę, by zanalizować wybraną przez nas stronę i otrzymać przydatne porady.

Korzyści szybszego ładowania strony z punktu widzenia SEM

Przede wszystkim musimy zwrócić uwagę na to, że szybsza strona wpływa pozytywnie na działania SEM. Koszty pozyskiwania nowych klientów znacznie maleją, niezależnie od tego czy wybieramy płatne czy bezpłatne wyniki wyszukiwania. A wszystko to dzięki temu, że szybsze ładowanie strony ułatwia skanowanie witryny wyszukiwarce Google, która może znaleźć nowe treści. Przekłada się to oczywiście na wyższą pozycję w wynikach wyszukiwania. Poprzez zwiększenie współczynnika konwersji możemy obserwować realne zyski, płynące z odwiedzin. Oznacza to, że użytkownicy nie tylko odwiedzają stronę, ale także wykonują na niej konkretne działania – w przypadku blogów czy portali mogą być to nowe komentarze, w przypadku sklepów internetowych – zamówienia.

Szybsza strona opłaca się również samym internautom. Przekłada się to nie tylko na oszczędność ich czasu, ale i pieniędzy. W przypadku przeglądania stron na mobilnych urządzeniach, użytkownicy mogą zaoszczędzić sporo transferu. Jak widać, warto działania SEM wesprzeć również działaniami typowo technicznymi. Szybsze ładowanie strony sprawi, że internauci będą wracać do nas z przyjemnością.