Plan połączenia

iCEA spółka z ograniczoną odpowiedzialnością z siedzibą w Poznaniu
Enterso spółka z ograniczoną odpowiedzialnością z siedzibą w Szczecinie
Grupa M40 spółka z ograniczoną odpowiedzialnością z siedzibą w Plewiskch

Niezwiązani spółka z ograniczoną odpowiedzialnością z siedzibą w Warszawie

Plan połączenia został uzgodniony i sporządzony w dniu 2 marca 2020 roku przez Zarządy łączących się Spółek:

I. OZNACZENIE ŁĄCZĄCYCH SIĘ SPÓŁEK

Procesowi połączenia podlegają następujące Spółki (zwane dalej łącznie: „Spółkami”).

1. Spółka przejmująca:

iCEA spółka z ograniczoną odpowiedzialnością z siedzibą w Poznaniu (60-406) przy ul. Dąbrowskiego 267, wpisana do Rejestru Przedsiębiorców Krajowego Rejestru Sądowego przez Sąd Rejonowy Poznań – Nowe Miasto i Wilda w Poznaniu, VIII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem 0000394000, o kapitale zakładowym w wysokości 75.000,00 zł, NIP: 7792398535, REGON: 301902014 – zwana dalej jako „Spółka Przejmująca”

2. Spółki przejmowane:

Enterso spółka z ograniczoną odpowiedzialnością z siedzibą w Szczecinie (71-441), przy ul. Cyfrowej 6, wpisaną do Rejestru Przedsiębiorców Krajowego Rejestru Sądowego przez Sąd Rejonowy Szczecin – Centrum w Szczecinie, XIII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS 0000350372 – zwana dalej jako „Spółka Przejmowana 1″

Grupa M40 spółka z ograniczoną odpowiedzialnością z siedzibą w Plewiskach (62-064), przy ul. Grunwaldzkiej 519E lok. 12, wpisaną do Rejestru Przedsiębiorców Krajowego Rejestru Sądowego przez Sąd Rejonowy Poznań – Nowe Miasto i Wilda w Poznaniu, VIII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS 0000572295 – zwana dalej jako „Spółka Przejmowana 2″;

Niezwiązani spółka z ograniczoną odpowiedzialnością z siedzibą w Warszawie (02-001), przy ul. Aleje Jerozolimskie 89 lok. 43, wpisaną do Rejestru Przedsiębiorców Krajowego Rejestru Sądowego przez Sąd Rejonowy dla m. st. Warszawy w Warszawie, XII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS 0000638721 – zwana dalej jako „Spółka Przejmowana 3″.

zwane dalej łącznie „Spółkami Przejmowanymi”

II. SPOSÓB ŁĄCZENIA

Połączenie Spółek nastąpi poprzez przeniesienie całego majątku Spółek Przejmowanych na Spółkę Przejmującą, w trybie art. 492 § 1 pkt 1 kodeksu spółek handlowych w zw. z art. 516 § 6 kodeksu spółek handlowych (łączenie się przez przejęcie przez spółkę dominującą jednoosobowej spółki zależnej).

Połączenie odbędzie się w drodze przejęcia jednoosobowej spółki zależnej przez spółkę dominującą, w efekcie czego spółka dominująca (Spółka Przejmująca) przejmie spółki zależne, w których jest jedynym wspólnikiem (Spółki Przejmowane). Z uwagi na fakt, że Spółka Przejmująca jest jednocześnie jedynym wspólnikiem Spółek Przejmowanych przejęcie zostanie przeprowadzane bez podwyższenia kapitału zakładowego Spółki Przejmującej, bez zmiany umowy Spółki Przejmującej, oraz bez emisji nowych udziałów w kapitale zakładowym Spółki Przejmującej.

Nadto z uwagi na to, że Spółka Przejmująca posiada 100% udziałów w każdej ze Spółek przejmowanych, połączenie zostanie dokonane w trybie uproszczonym (art. 516 § 1, 5,6 kodeksu spółek handlowych), a więc bez sporządzenia pisemnego sprawozdania uzasadniającego połączenie, jego podstaw prawnych i uzasadnienia ekonomicznego, poddania planu połączenia badaniu przez biegłego w zakresie poprawności i rzetelności.

Zgromadzenia Wspólników Spółek Przejmowanych i Spółki Przejmującej podejmą uchwały o połączeniu Spółek, zawierające zgodę na plan połączenia. Projekty uchwał zgromadzeń wspólników Spółek Przejmowanych i Spółki Przejmującej stanowią załączniki do niniejszego planu połączenia.

III. PRAWA PRZYZNANE PRZEZ SPÓŁKĘ PRZEJMUJĄCĄ UDZIAŁOWCOM ORAZ OSOBOM SZCZEGÓLNIE UPRAWNIONYM W SPÓŁKACH PRZEJMOWANYCH

Nie przewiduje się przyznania jakimkolwiek osobom szczególnych praw w Spółkach przejmowanych.

IV. SZCZEGÓLNE KORZYŚCI DLA CZŁONKÓW ORGANÓW SPÓŁEK PRZEJMOWANYCH I PRZEJMUJĄCEJ ORAZ INNYCH OSÓB UCZESTNICZĄCYCH W POŁĄCZENIU

Nie przewiduje się przyznania szczególnych korzyści dla członków organów Spółek przejmowanych i Spółki przejmującej, jak również korzyści dla innych osób uczestniczących w połączeniu.

V. SKUTKI POŁĄCZENIA

Spółki Przejmowane ulegną rozwiązaniu bez przeprowadzania postępowania likwidacyjnego.

Dniem połączenia będzie dzień wpisania połączenia do rejestru przedsiębiorców KRS, właściwego dla Spółki Przejmującej. Wpis ten wywołuje skutek wykreślenia Spółek Przejmowanych z rejestru przedsiębiorców KRS, właściwego dla Spółek Przejmowanych, zgodnie z art. 493 § 2 kodeksu spółek handlowych. Wykreślenie Spółek Przejmowanych następuje z urzędu.

Udziały Spółek Przejmowanych posiadane przez Spółkę Przejmującą ulegną umorzeniu z dniem połączenia.

Zgodnie z art. 494 § 1 kodeksu spółek handlowych, w dniu połączenia Spółka Przejmująca zostanie następcą prawnym Spółek Przejmowanych i wstąpi we wszelkie prawa i obowiązki Spółek Przejmowanych (sukcesja uniwersalna).

Zgodnie z treścią art. 14 pkt 5 ustawy z dnia 16 lutego 2007 roku o ochronie konkurencji i konsumentów (Dz. U. z 2019 roku, poz. 369 ze zm.) połączenie Spółek nie podlega zgłoszeniu zamiaru koncentracji Prezesowi Urzędu Ochrony Konkurencji i Konsumentów, gdyż spółki łączące się należą do tej samej grupy kapitałowej.

VI. STOSUNEK WYMIANY UDZIAŁÓW, ZASADY PRZYZNANIA AKCJI, ZASADY UCZESTNICTWA W ZYSKACH SPÓŁKI PRZEJMUJĄCEJ; PODWYŻSZENIE KAPITAŁU I ZMIANA UMOWY SPÓŁKI PRZEJMUJĄCEJ 

Z uwagi na fakt, że połączenie odbywa się w trybie art. 492 § 1 pkt. 1 w zw. art. 516 § 6 kodeksu spółek handlowych, tj. poprzez przejęcie jednoosobowych spółek zależnych przez spółkę dominującą:

  • nie następuje wymiana udziałów w Spółkach Przejmowanych na udziały w Spółce Przejmującej,
  • nie przyznaje się udziałów w Spółce Przejmującej,
  • nie ustala się zasad uczestnictwa w zyskach Spółki Przejmującej,
  • nie dochodzi do podwyższenia kapitału zakładowego Spółki Przejmującej,
  • nie dochodzi do zmiany umowy Spółki Przejmującej.

VII. POZOSTAŁE ASPEKTY POŁĄCZENIA

Plan połączenia nie zostanie ogłoszony w Monitorze Sądowym i Gospodarczym. Plan połączenia zostanie udostępniony do publicznej wiadomości na stronach internetowych łączących się Spółek, na podstawie art. 500 § 21 kodeksu spółek handlowych w zw. z art. 516 § 6 kodeksu spółek handlowych.

  • dla Spółki Przejmującej iCEA sp. z o.o. – www.icea.pl
  • dla Spółki Przejmowanej Enterso sp. z o.o. – www.enterso.pl
  • dla Spółki Przejmowanej Grupa M40 sp. z o.o. – www.grupam40.pl
  • dla Spółki Przejmowanej Niezwiązani sp. z o.o. – www.niezwiazani.pl

Niniejszy plan połączenia został uzgodniony między spółkami i podpisany w Poznaniu w dniu 2 marca 2020 roku.

Enterso - przystanek sukces

Enterso wspiera laureatów konkursu Przystanek Sukces – biznes w Szczecinie się opłaca!

Z dumą ogłaszamy, że mieliśmy przyjemność wesprzeć Polską Fundację Przedsiębiorczości oraz Urząd Miasta Szczecin w organizacji konkursu Przystanek Sukces – biznes w Szczecinie się opłaca! Doskonale zdajemy sobie sprawę z problemów młodych przedsiębiorców, więc z niekrytą radością zdecydowaliśmy się wesprzeć laureatów konkursu. Continue reading

Duplicate content oraz thin content – czyli jak skopiowane i ubogie treści wpływają na Twoją stronę w Google

Duplicate content

Zapewne wszyscy znają teksty typu „kopiuj-wklej”. Właśnie mianem duplicate content określamy treści, które zostały skopiowane z innych stron. Warto zauważyć, że powielane treści mogą pojawiać się nie tylko na różnych domenach, czyli wtedy, gdy skopiujemy dany artykuł od konkurencji, ale także na jednej domenie. Dzieje się tak wówczas, gdy do jednej domeny możemy trafić przez kilka różnych adresów. Jeśli nie ustawimy przekierowania 301, wówczas tych kilka adresów będzie dla wyszukiwarki różnymi witrynami ze skopiowaną treścią. Duplicate content bardzo często zdarza się w sklepach internetowych, które oferując ten sam produkt i pobierają tą samą bazę od producentów, wykorzystując identyczne opisy. Jednak dla dobra naszej witryny, warto postarać się o unikalną treść.

Jak wyszukiwarki reagują na duplicate content?

Każdy, kto miał do czynienia z pozycjonowaniem, słyszał o tzw. Black Hat SEO. Są to nieetyczne techniki, za pomocą których można uzyskać wyższą pozycję w wyszukiwarce w dużo szybszym czasie. Takie działania nie są jednak mile widziane i są raczej mało opłacalne. Po pierwsze, efekt ich działania jest tymczasowy. Po drugie, roboty Google skutecznie walczą z takimi technikami.

Warto również zauważyć, że za kopiowanie treści, które objęte są prawami autorskimi, możemy zostać podani na policję. Oczywiście zwykle w pierwszej kolejności, autor tekstu prosi nas o jego usunięcie. W najgorszym wypadku może się to skończyć sprawą w sądzie.

Ale wracając do tematu robotów… Jeśli wyszukiwarka Google wykryje na naszej witrynie duplicate content, w najlepszym razie, nałoży na naszą stronę filtr, w najgorszym – po prostu ją zablokuje. Konkretne kary zależą w dużej mierze od ilości skopiowanych tekstów, jakie wykryje robot. Pamiętajmy jednak, że po pierwsze ściągnięcie blokady ze strony jest niełatwym zadaniem. A po drugie – nawet jeśli uda nam się zdjąć filtr czy blokadę z witryny, osiągnięcie pozycji w Google, którą zajmowaliśmy dotychczas będzie jeszcze trudniejsze i zajmie nam sporo czasu.

Używając nieświadomie skopiowanych treści możemy również zaszkodzić stronie, na której tekst został oryginalnie zamieszczony. Wyszukiwarka Google wyświetla w wynikach wyszukiwania treści, które najbardziej pasują do zapytania użytkowników. Czasem niestety może się zdarzyć, że strona, która oryginalnie zamieściła tekst, zostanie pominięta w wynikach wyszukiwania.

Co zrobić, by uniknąć powielania tekstu w obrębie jednej domeny?

Tak, jak już zostało powiedziane, duplicate content może pojawić się także w obrębie jednej domeny. Jak sobie z tym poradzić? Możemy uniknąć tego problemy trzema metodami. Możemy wskazać właściwą stronę do indeksacji za pomocą rel=canonical, zablokować zduplikowaną treść za pomocą robots.txt lub meta robots (noindex) lub wykorzystać oferowane przez wyszukiwarki narzędzia. Warto jednak w tek kwestii skorzystać z pomocy profesjonalnej firmy, zajmującej się pozycjonowaniem. Nie posiadając fachowej wiedzy na temat SEO i próbując robić coś na własną rękę, możemy tylko bardziej zaszkodzić witrynie np. wyindeksować ją z wyszukiwarki Google.

Jak sprawdzić duplikat treści
Istnieje narzędzie www.copyscape.com , za pomocą którego sprawdzimy czy tekst na naszej stronie jest unikatowy. Wystarczy wpisać link do konkretnej podstrony, a robot wyszuka w internecie plagiatów tej treści. Drugie narzędzie do przetestowania to www.siteliner.com.
Proszę zwrócić uwagę, że nawet informacja o Cookies może być traktowana jako duplikat treści. Zadbaj o niepowtarzalną treść nawet dla polityki prywatności czy regulaminu.

Powtórzenie treści wewnątrz serwisu
1. Opisy produktów

Szczególnie w sklepach internetowych należy zwrócić uwagę na powtórzenie treści między własnymi podstronami. Przykładem jest początek opisu produktu w sklepie internetowym na liście produktów. Treść ta jest niczym innym jak kopią opisu produktu. W takim przypadku warto napisać dedykowany skrócony opis, który wyświetla się na liście w danej kategorii.

2. Strona z WWW czy bez WWW

Jeśli nasza strona ładuje się zarówno z przedrostkiem www i bez www, należy zadbać, aby jeden adres kierował do drugiego jako przekierowanie 301. Podobnie z adresem z certyfikatem SSL i bez np. https://mojastrona.pl i http://mojastrona.pl.

W tym celu należy wykorzystać plik .htaccess na FTP w głównym folderze domeny, aby zdefiniować który adres ma kierować pod jaki URL. Przykładowy kod z przekierowaniem stałym na www.:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^enterso.pl(.*) [NC] RewriteRule ^(.*)$ https://enterso.pl/$1 [R=301,L]

3. Wiele URLi do tej samej podstrony

Częstym błędem jest stosowanie wielu adresów URL dla tej samej treści, tej samej podstrony. Przykładowo:

www.mojadomena.pl/kontakt

www.mojadomena.pl/index.php?kontakt

www.mojadomena.pl/kontakt,1

Algorytm Panda

Za wyszukiwanie treści o charakterze plagiatów i niskiej jakości odpowiada algorytm Google Panda. System wyszukiwarki poszukujący duplicat content, jest udoskonalany już od 2011 roku. W tym czasie żniwa jego były bogate. Bardzo duża ilość niskiej jakości katalogów stron internetowych i stron zapleczowych uległa degradacji otrzymując filtr.

Treści niskiej jakości – thin content

Współcześnie z treściami niskiej jakości mamy do czynienia właściwie w obrębie całego internetu. Ile razy spotkaliście się z komentarzami na forum czy wpisami na Facebooku, które zawierały błędy ortograficzne? Bo my wiele razy. Warto jednak wiedzieć, że treść niskiej jakości trochę inaczej odbierana jest przez czytelników, a inaczej przez wyszukiwarki Google.

Dla czytelników thin content to przede wszystkim artykuły zawierające błędy merytoryczne, gramatyczne, ortograficzne czy składniowe. Są one zwykle mało czytelne i niezbyt atrakcyjne, a ich czytanie sprawia (o ile ktoś w ogóle zdecyduje się taki tekst przeczytać), że zniechęcamy się do danej strony, blogera czy marki. Wyszukiwarki Google znacznie szerzej pojmują treści niskiej jakości. Są to przede wszystkim teksty „nafaszerowane” słowami kluczowymi, pozycjonowane na złe frazy lub takie, w których próbujemy ukryć słowa np. nie wyróżniając ich graficznie w żaden sposób. Thin content to także bloki ciągłego tekstu, które nie są podzielone na akapity, w których nie ma nagłówków, wyróżnień i właściwego układu. Zresztą, nawet czytelnik jest gorzej nastawiony do tekstu, w którym zlepek słów kluczowych przeważa nad normalną treścią, a bez nagłówków staje się on dodatkowo mało czytelny. Ale do thin content zaliczamy także strony ze zbyt małą ilością treści, co szczególnie spotykane jest w sklepach internetowych, gdzie często zamiast konkretnego opisu, pojawiają się tylko dane techniczne produktu. Co więcej, takie same dane pojawiają się w wielu sklepach, oferujących ten sam produkt.

Co zrobić, by nasze teksty były unikalne i miały wysoką jakość? Przede wszystkim warto podążać za zmieniającymi się algorytmami wyszukiwarek. Pamiętajmy również, by tworzyć teksty, które przede wszystkim zainteresują potencjalnych czytelników. To właśnie na odbiorcach powinno nam najbardziej zależeć. Po to budujemy pozycję w wyszukiwarce, by więcej osób mogło do nas trafić. Jednak nikt nie zostanie z nami dłużej, jeśli nie zadbamy o odpowiednią treść. Jeśli sami nie mamy czasu lub zbyt dużych umiejętności pisarskich, warto zlecić przygotowanie treści coppywriterom SEO ( zapraszamy do kontaktu ). Dzięki nim otrzymamy teksty wysokiej jakości, które będą zgodne z wymogami SEO. Prowadząc sklepy internetowe, powinniśmy skupić się na unikalnych opisach produktów – nie wystarczy nazwa producenta, rodzaj materiału czy rozmiar. Zapamiętajcie! Dobrze napisane teksty mogą Wam tylko pomóc. Zainwestowane pieniądze w unikalne treści procentują przez kolejne kilka lat, pomagając m.in. w SEO. W czasach, gdy ludzie dzielą się wszystkim w mediach społecznościowych, również dobry tekst może rozprzestrzenić się dużo szybciej, a Wasza strona zyska dodatkowych odbiorców.

Jak roboty Google widzą Twoją stronę? Od tego zależą Twoje pozycje

Robot Google – jak wpłynąć na widoczność witryny?

Zapewne wiele osób słyszało o tajemniczym robocie Google, który odpowiada za przeglądanie i indeksowanie witryn. Jeśli robot nas nie widzi, mamy marne szanse, by znaleźć się na dobrej pozycji w wyszukiwarce.

Do czego w ogóle może nam się przydać wiedza na temat tego, jak robot czyta stronę i co bierze pod uwagę? Przede wszystkim taką wiedzę możemy wykorzystać do poprawy widoczności naszej witryny. Wprowadzając zmiany na stronie oraz dostosowując ją do wytycznych Google, będziemy mogli cieszyć się nie tylko wyższą pozycją w wynikach wyszukiwania. Nasza witryna będzie także bardziej przejrzysta i czytelna dla potencjalnych użytkowników.

Aby robot mógł zobaczyć witrynę w celu jej indeksacji, możemy mu to ułatwić. Co powinniśmy zrobić? Oto kilka kroków, dzięki którym nasza strona będzie dobrze widoczna la robotów:

  1. Mapa strony. Jest to plik, w którym znajduje się spis wszystkich podstron naszej witryny. Oczywiście nie jest to konieczny etap, ale jeśli nasza strona jest bardzo rozbudowana, z pewnością dzięki takiej mapie robot będzie mógł dotrzeć to każdej podstrony oraz treści na niej zamieszczonych. Mapa strony umożliwi skuteczną indeksację.
    Wejdź do Google Search Console – przejdź do zakładki „Indeksowanie”->”Mapa witryny” a następnie kliknij przycisk „Dodaj mapę witryny”. Należy podać adres URL prowadzący do pliku z mapą, zazwyczaj plik ten nazywa się „/sitemap.xml” i jest w folderze głównym strony. Jeśli nie masz pliku mapy, skorzystaj z narzędzi do jej generowania lub skorzystaj z gotowego pluginu w CMS WordPress, Joomla itp.
  2. Google Search Console. Dodając naszą witrynę do GSC mamy dostęp do wielu przydatnych narzędzi, które ułatwią nam poprawienie strony pod względem widoczności w wyszukiwarce. Przede wszystkim „konsola” umożliwi nam zobaczenie, jak wygląda nasza widoczność dla robotów Google oraz podpowie, co należy poprawić, jakie błędy usunąć, a co dodatkowo wprowadzić. Dzięki dodaniu naszej strony w Google Search Console, ułatwimy robotowi dotarcie do wszystkich podstron i ich zindeksowanie.
    Wejdź w zakładkę „Indeksowanie” -> „Pobierz jako Google” w tym miejscu mamy możliwość podejrzenia dokładnie jak robot Google wczytuje nasz kod źródłowy. Wystarczy kliknąć Pobierz, a po chwili zobaczymy na liście link do kliknięcia.
  3. Jak ułatwić wyszukiwarce dotarcie do naszej strony, która została dopiero utworzona? Osoby, których strona istnieje w internecie już od dłuższego czasu, nie mają z tym problemu. Strony o dobrej reputacji przeglądane są nawet kilka razy dziennie w celu wychwycenia nowych treści. Co jednak zrobić, jeśli dopiero założyliśmy nową witrynę?
    1.Możemy poczekać, aż wyszukiwarka sama się tym zajmie. Jednak może to potrwać nawet 30 dni, ponieważ mniej więcej tyle czasu robot Google potrzebuje na przeszukaniu wszystkich serwerów w celu odnalezienia nowych witryn.

    2. Linkowanie zewnętrzne. Warto umieścić link do naszej strony na jakiejś innej, popularnej i często odwiedzanej stronie. Robot, który w czasie skanowania strony napotka jakiś link, automatycznie odwiedza podlinkowaną witrynę i indeksuje ją.

    3. Nasza strona może być także zgłoszona poprzez wypełnienie formularzu na stronie: https://www.google.com/webmasters/tools/submit-url?pli=1. Jest to narzędzie należące do Google Search Console, które dodaje strony w kolejce do indeksowania.

Co widzi robot Google?

W czasie indeksowania witryn, brane jest pod uwagę kilka czynników, które mają również dużą rolę w optymalizacji strony. Przede wszystkim wśród najważniejszych elementów znajdują się:

  1. Tytuł witryny – mimo, że wyszukiwarka odczytuje cały tytuł, liczy się 65 znaków. Warto pamiętać, że tytuły podstron powinny być unikalne, czyli nie powinny się powtarzać. Warto zawrzeć w tytule słowa kluczowe, ale nie powinien on składać się wyłącznie z samych fraz.
  2. Meta description – aby wyszukiwarka wyświetliła w wynikach wyszukiwania cały opis, nie powinien on zawierać więcej niż 160 znaków. Opis również powinien zawierać słowa kluczowe. Warto zamieścić w nim informacje, które zachęcą potencjalnych użytkowników do odwiedzenia witryny.
  3. Atrybuty alt obrazków – zwane inaczej alternatywnymi opisami obrazków. Warto umieszczać takie opisy (wraz z frazami), by grafiki znajdujące się na naszej stronie mogły być odczytywane przez robota Google. Wyszukiwarka nie potrafi zobaczyć obrazka, może go jedynie odczytać.
  4. Treści na stronie – przede wszystkim powinny być one zoptymalizowane pod kątem SEO, a także jakości contentu. Warto więc skupić się na dobrych jakościowo i merytorycznie tekstów, które będą unikalne.

Jak ujrzeć to, co widzi Google?

Zapewne wiele osób zadaje sobie pytanie, czy jest w ogóle możliwe zobaczenie naszej witryny „oczami” robota Google. Oczywiście jest to możliwe dzięki narzędziu „Pobierz jako Google dla witryn„. Narzędzie to pozwala nam sprawdzić, w jaki sposób robot Google indeksuje i renderuje adres URL naszej witryny. Taka opcja dostarcza nam również wiedzy na temat tego, czy Google ma dostęp do wszystkich podstron witryny, jak renderowana jest dana strona oraz czy jakieś elementy strony nie mogą być odczytane przez wyszukiwarkę.

Narzędzie „Pobierz jako Google dla witryn” na zasadzie symulacji pokazuje nam, w jaki sposób przeprowadzane jest indeksowanie oraz renderowanie stron. Dzięki temu będziemy mogli dowiedzieć się, jak robot Google widzi naszą stronę i przykładowo, czego nie może odczytać lub gdzie wyszukuje jakiekolwiek błędy.

Co ważne, w ciągu tygodnia możemy wykonać 500 takich pobrań. Dodatkowe opcje umożliwiają nam wybór konkretnego rodzaju bota, w zależności od tego, jakie zasoby mają zostać sprawdzone. Przykładowo do sprawdzania grafiki możemy użyć Googlebota Images, do filmów – Googlebota Video, a do stron docelowych reklam – Googlebota AdsBot. Możemy wybrać również robota specjalnie dla telefonów komórkowych (Google Smartphone).

Oczywiście innym podstawowym narzędziem, jest „Narzędzie dla webmasterów Google„, dzięki któremu możemy dowiedzieć się m. in. na jakie słowa kluczowe wyszukiwana jest nasza strona, czy witryna jest odpowiednio indeksowana oraz ile czasu zabiera Google indeksowanie naszej strony.

Podsumowanie

Jak widać, istnieją narzędzia, dzięki którym będziemy mogli sprawdzić naszą widoczność dla wyszukiwarki Google. Optymalizując treść oraz pozycjonując stronę, warto brać pod uwagę informacje pozyskane i udostępnione przez narzędzie „Pobierz jako Google dla witryn”. Warto również kierunkować się wskazówkami uzyskanymi w Google Search Console. Zrozumienie działan

Spadek pozycji w Google – dlaczego pozycje mojej strony spadły?

Przyczyny spadku pozycji w Google

Spadek pozycji naszej strony może wiązać się z różnymi przyczynami. Oto najczęstsze przyczyny:

  1. Nowa domena strony. Zwykle chodzi tutaj o nieodpowiednie przekierowanie do strony lub w ogóle brak przekierowania. Żeby nasza witryna działała prawidłowo, musimy ustawić przekierowanie. Zwykle korzystamy tutaj z przekierowania 301. W przeciwnym razie, wyszukiwarka Google będzie traktować dwa adresy URL jako dwie odrębne strony. W związku z tym może wykryć powielone treści, które będzie traktować jako duplicate content. Grozi to oczywiście spadkiem w rankingu.
  2. Zmiany w strukturach wewnętrznych linków. Wszelkie zmiany na naszej witrynie – zarówno w obrębie nazw kategorii czy konkretnych podstron mogą doprowadzić do nieprawidłowego działania strony. Jeśli zmiany te przeprowadzane są przez osoby niedoświadczone, wszelkie strony i podstrony, w których dokonaliśmy aktualizacji, mogą zostać usunięte z wyników wyszukiwania, czyli spadkiem naszej pozycji w Google.
  3. Nadmierna optymalizacja strony internetowej. Właściciele stron często żyją w przekonaniu, że im więcej słów kluczowych na stronie, tym lepiej. Jednak wyszukiwarka Google źle odbiera takie działania. Teksty naszpikowane nadmierną ilością fraz traktowane są jako przejaw tzw. Black Hat SEO, czyli nielegalnych technik pozycjonowania. Jeśli robot Google wykryje u nas takie działanie, może nałożyć na stronę filtr lub nawet ją zablokować. Podobnie rzecz ma się w przypadku próby ukrywania i przemycania słów kluczowych.
  4. Duplicate content. Jak już było wspomniane, duplicate content może być efektem nieprawidłowego przekierowania strony. Ale z powielaniem treści spotykamy się także w obrębie kilku domen, kiedy np. dana witryna kopiuje artykuły z innych źródeł. Ma to miejsce np. gdy dopiero powstające firmy chcą szybko zapełnić stronę różnymi treściami i niekoniecznie przejmują się, skąd pochodzą dane teksty. Często zdarza się też, że różne sklepy internetowe, oferujące te same produkty, kopiują od siebie ich opisy. Takie działania mogą nieść ze sobą różne konsekwencje. Po pierwsze, może się to wiązać ze spadkiem naszej pozycji w wyszukiwarce, po drugie – za kopiowanie treści możemy być zgłoszeni na policję i po trzecie, wyszukiwarka może nas ukarać filtrem, a nawet blokadą strony. Powinniśmy więc zainwestować w dobrej jakości treści. Możemy skorzystać z usług coppywriterów, by otrzymać bardzo dobre teksty, zgodne z wymogami SEO. Warto również wspomnieć, że z duplicate content spotykamy się również wtedy, gdy to ktoś od nas skopiuje treść. Nawet jeśli to my oryginalnie wstawiliśmy daną treść, wyszukiwarka Google może ją rozpoznać jako zduplikowaną. Wtedy powinniśmy zwrócić się do właścicieli strony z duplikatem o jego usunięcie.
  5. Black Hat SEO (BHS) – jeśli świadomie wykonaliśmy czarne SEO, trzeba będzie wycofać działania. Przykładowo: jeśli pozyskaliśmy masowo słabej jakości linki, trzeba będzie się ich zrzec za pomocą disavow w Google Console.

SEO analiza – po co?

Powyższe przyczyny spadku to tylko przykłady. Problem może oczywiście leżeć zupełnie gdzie indziej. Dlatego naprawianie wszelkich błędów powinniśmy zacząć od analizy SEO. Przede wszystkim dzięki temu będziemy mogli dowiedzieć, dlaczego zanotowaliśmy spadek pozycji i jak to naprawić. W przywróceniu naszej pozycji mogą nam przede wszystkim pomóc:

  1. Optymalizacja witryny. Przede wszystkim mowa tutaj o optymalizacji treści i grafik. Aby przeprowadzić takie działania, powinniśmy kontaktować się z firmą specjalizującą się w pozycjonowaniu. Profesjonalista przeprowadzając audyt strony powie nam, co powinniśmy zmienić. Czasem wystarczą tylko teksty z odpowiednimi słowami kluczowymi oraz dodanie atrybutów ALT grafiki. Jednak niekiedy strona wymaga większego nakładu pracy, np. zmiany całej szaty graficznej.
  2. Przekierowania. Jeśli zmienialiśmy adres domeny, powinniśmy ustawić odpowiednie przekierowanie, by uniknąć duplicate content. Przekierowanie ułatwi również odszukanie naszej strony, gdy zmienimy adres strony głównej lub adresy podstron.
  3. Jak wspomnieliśmy, czasem za spadek pozycji odpowiadają zmiany w wewnętrznej strukturze linków. Warto więc przywrócić je do poprzedniego stanu, kiedy gwarantowały nam wysoką pozycję.

Inne możliwe przyczyny utraty pozycji w Google

Jak już pisaliśmy, przyczyny spadku mogą być różne. Jeśli sprawdziłeś już wszystkie z wymienionych powyżej, możesz również zwrócić uwagę na to, czy Twoja witryna nie została przypadkiem ukarana filtrem lub blokadą. Warto również sprawdzić, czy Google nie wprowadziło żadnych aktualizacji w algorytmie wyszukiwarki. Wprowadzanie wszelkich zmian może wiązać się z wahaniem Twojej pozycji w wyszukiwarce. Czasem określa się to jako Google dance. Gdy aktualizacja dobiegnie końca i Twoja strona wciąż będzie odpowiadała wszystkim wytycznym Google, wróci na swoją pozycję.

Może to nastąpić w ciągu kilku godzin czy nawet dni.

Czasem zdarza się również, że nasza strona spadła w wynikach wyszukiwania ponieważ padliśmy ofiarą konkurencji, która stosuje wiele technik depozycjonowania. Kolejna rzeczą, jaką musimy sprawdzić, to obecność wirusów na stronie. Jeśli wyszukiwarka wykryje u nas jakiekolwiek wirusy, traktuje nas jako witrynę dokonującą ataków. Zwykle internauci dostają wówczas informację, że ta witryna może wyrządzić szkody na komputerze. Czasami zainstalowane oprogramowania antywirusowe automatycznie blokują naszą witrynę. Niższa pozycja w wyszukiwarce może być również skutkiem zbyt długiego ładowania się strony. Zwróćmy więc uwagę na to, czy nasza strona nie wczytuje się dłużej niż 2 sekundy. Jeśli tak, warto np. dokonać konwersji zbyt „ciężkich obrazków”.

Spadek pozycji w Google może się również wiązać z przerwami w działaniu strony. Musimy się po pierwsze upewnić, czy opłaciliśmy domenę oraz hosting przed upływem terminu spłaty. Jeśli tak, warto również sprawdzić, czy nie ma żadnego problemu z serwerem. Może się zdarzyć, że serwer usługodawcy przestał działać albo ma problemy techniczne.

Ilość słów kluczowych na stronie

Keyword – czemu właściwie to służy?

Keyword, czyli słowo kluczowe to fraza złożona zazwyczaj z jednego do kilku słów. Jest ona zarazem krótkim opis zawartości witryn, stworzonym specjalnie dla robotów wyszukiwania. Wpisując w wyszukiwarce np. frazę „kosmetyczka Warszawa”, robot zaczyna wyszukiwanie obu tych słów lub całej frazy na stronach, które związane są tematycznie z kosmetyką. Jeśli dobrze wykorzystamy keywords w naszych treściach, mamy większą szansę, że nasza witryna znajdzie się na samym początku wyszukiwania. Również ilość tekstów ma tutaj znaczenie. Im więcej tekstów na naszej stronie oraz podstronach, tym większa szansa, że wyszukiwana przez użytkownika fraza (nawet bardzo złożona) pokryje się z frazami, użytymi w naszych treściach.

Zagęszczenie słów kluczowych

Wielu speców od marketingu internetowego twierdzi, że aby nasza witryna miała lepszą pozycję w wyszukiwarce Google, powinniśmy zastosować odpowiednią ilość słów kluczowych. No dobrze, ale czy istnieje jakiś magiczny algorytm, za pomocą którego wyliczymy, jaka jest ta optymalna ilość? Teorie na ten temat są przeróżne. Jedni podają, że zagęszczenie słów kluczowych powinno wynosić 1,5%, ale są też ludzie, którzy twierdzą, że jest to 3%, a nawet 5%. Z tego wynika, że w tekście składającym się 200 słów, powinno znaleźć się od 3 do 10 słów kluczowych. Ale te liczby to tylko teoria.

Oczywiście prawdą jest, że wyszukiwarka Google skanuje dane strony na podstawie zawartości słów kluczowych. Jeśli jest ich za mało – traktuje stronę jako niezwiązaną z szukanym słowem. Jeśli z kolei słowa kluczowe przeważają w tekście, oznacza je jako spam. Badania algorytmu Google, które zostały przeprowadzone m. in. przez naukowców ze Stanford University, udowodniły, że algorytm nie podlicza słów kluczowych. Określa on jedynie, w jakim stopniu witryna związana jest z wyszukiwaną przez użytkowników frazą.

Początkowo oczywiście duże nasycenie treści słowami kluczowymi dawało dobre efekty, dlatego nikt nie przejmował się tekstami, które treściowo nie do końca były zrozumiałe. Jednak mimo dużego licznika odwiedzin, konwersja była na niskim poziome. Rzadko kto był zainteresowany zakupem od firmy, której treści reprezentowały bardzo niski poziom. Również wyszukiwarka Google przestała premiować strony, mające zbyt dużą liczbę „keywords” względem bezwartościowego tekstu.

Algorytm jest znacznie bardziej skomplikowany, niż by nam się wydawało. W związku z tym, nie ma czegoś takiego, jak optymalne zagęszczenie słów kluczowych. Musimy również pamiętać, że każda strona jest inna, a jej pozycja w Google niekoniecznie musi zależeć od ilości wykorzystanych fraz. Wiele witryn osiągnęło sukces dzięki dobremu zapleczu linkowemu i profilowi domeny pomimo małej ilości „keywords”. Według rankingu serwisu SEOmoz, obecnie liczba słów kluczowych ma jedynie 15% znaczenia w pozycjonowaniu witryny.

Słowa kluczowe w „anchor text” – najsilniejsze linki pozycjonujące

Anchor, zwany również treścią linka to nic innego, jak hiperłącze zamieszczone na stronie, które wyświetla się w formie danego słowa kluczowego. Anchor texty mają duże znaczenie w optymalizacji strony – to one budują pozycję strony w wyszukiwarkach Google. Ważne jednak, by frazy, znajdujące się w anchorach, były bezpośrednio powiązane z tematyką strony, do której prowadzą. Warto przeczytać także czym jest naturalny profil linków.

Synonimy słów kluczowych – jakie mają znaczenie?

Jak się okazuje, na pozycję strony wpływają nie tylko same słowa kluczowe, ale również frazy, które często występują w danej kategorii. Przykładowo na stronie o prezentach będzie to m. in. „upominek”, „urodziny”, „podarunek” itp.

W styczniu 2011 roku Google potwierdziło, że przy wyszukiwaniu duże znaczenie mają także synonimy. Wpisując np. w wyszukiwarce frazę „prezent urodzinowy”, znajdziemy wówczas także „prezent na urodziny”. Co ciekawe, Google znajduje zamiennie (z 98-procentową skutecznością) takie wyrazy jak „stomatolog” i „dentysta”.

Zasady stosowania fraz w tekstach

Jest kilka ważnych zasad, którymi powinniśmy się kierować, aby napisać dobry jakościowo tekst SEO. W większości chodzi po prostu o naturalne pisanie treści, które mimo zawartości danych fraz, nie będą wyglądały sztucznie i mało logicznie.

  1. Zróżnicowany zasób słów. Słowo kluczowe to nie wszystko! No dobrze, powiedzmy, że mamy do napisania tekst, w którym musimy wykorzystać daną frazę. Pamiętajmy jednak, by treść nie ograniczała się tylko i wyłącznie do niej. Starajmy się używać także innych słów, związanych bezpośrednio z tematyką tekstu. Dzięki temu będzie on bardziej naturalny.
    Odmiany mile widziane. Odmienianie słów kluczowych może wyjść nam tylko na zdrowie. Chyba każdy, kto kiedyś widział zdanie typu: „Potrzebna Ci kosmetyczka Wrocław?”, zdaje sobie sprawę z tego, jak nienaturalnie i niepoprawnie to brzmi. Aby uniknąć podejrzeń, że nasz tekst jest typowym materiałem SEO, warto odmieniać takie frazy, by wyglądały bardziej naturalnie i były zgodne z zasadami gramatyki.
  2. Jaką ilość fraz użyć? Nie warto kierować się opiniami innych, które głoszą, że ma być to 3% czy 5% na cały tekst. Użyjmy tyle słów kluczowych, by tekst pozostał logiczny i atrakcyjny. Liczy się jakość, a nie ilość. Pamiętajmy też, by nie przesadzić z frazami. Wówczas robot wyszukiwania może uznać nasz tekst za mało wartościowy spam, czego konsekwencją może być nawet nałożenie filtra na naszą witrynę.
  3. Naturalne rozmieszczenie słów kluczowych. Stosujmy spore odstępy między frazami. Tekst wygląda dużo estetyczniej, jeśli wybrane słowa kluczowe pojawiają się w znacznych odległościach od siebie. Dana fraza może pojawić się w tytule, pierwszym akapicie, jednym z nagłówków i jeśli to możliwe, w ostatnim akapicie. Pamiętajmy jednak, by słowa były rozmieszczone naturalnie. Nie upychajmy ich na siłę we wszystkich tych miejscach, jeśli nie wszędzie pasują. Ważne jest przede wszystkim, by tekst dobrze się czytało.
  4. Pisząc tekst, postaw się na miejscu potencjalnego użytkownika. Spróbuj stworzyć treść tak, by przede wszystkim odpowiadała na wszystkie możliwe pytania, które mogłyby się pojawić w tym temacie. A teraz spójrz na to od strony stylistycznej. Czy tekst dobrze się czyta? Czy wszystkie frazy wkomponowane są naturalnie i nie przeszkadzają w zrozumieniu treści? Jeśli Twoje teksty są unikalne i zawierają wartościowe informacje, Google z pewnością to doceni. Pamiętajmy również, by tekst był odpowiednio ostylowany. Dla ułatwienia czytania oraz wyszukiwania informacji warto stosować nagłówki, podnagłówki, wypunktowania, pogrubienia, podkreślenia czy kursywę.
    Tworząc treści pamiętajmy by kierować się jedną prostą zasadą. Dobrze napisany tekst może zdziałać dużo więcej, nawet bez słów kluczowych, niż słaba jakościowo treść nasycona dużą ilością fraz.

Audyt SEO

Na wiele rzeczy warto spojrzeć okiem profesjonalisty – gdy nie mamy odpowiedniej wiedzy, mogą nam umknąć szczegóły, które z miejsca dostrzeże ktoś obeznany z tematem. Właśnie w taki sposób działa audyt SEO: to nic innego jak spojrzenie na stronę przez pryzmat profesjonalnych narzędzi i wiedzy. Specjaliści Enterso, mający za sobą lata pracy w środowisku Google, są w stanie zbadać witrynę pod kątem parametrów wpływających na jej pozycjonowanie. Wykorzystują do tego zarówno narzędzia oferowane przez samą wyszukiwarkę, jak i zewnętrzne programy (takie jak Clusteric Link Auditor, Ahrefs, Screaming Frog, MajesticSeo czy Semstorm), aby zagwarantować jak najszerszy zakres działań. Dodatkowo prowadzony jest także audyt pozwalający określić stan całej branży (najczęściej stosowane przez konkurencję słowa kluczowe itp.), co gwarantuje nie tylko funkcjonalność, ale i aktualność strony

Efektem wymienionych wyżej prac jest składany na ręce klienta raport. Z naszej strony jest to tylko propozycja zmian – zastosowanie się do sugestii lub nie zależy od klienta. Samo sporządzenie raportu nie niesie ze sobą żadnych zobowiązań. Warto jednak zastanowić się nad zawartymi w nim wskazówkami: zoptymalizowana pod kątem SEO strona oznacza znacznie więcej odwiedzin, wyższą pozycję w wyszukiwarce Google oraz korzystniejszy współczynnik konwersji. Co więcej, przyjazna w obsłudze strona poprawia opinię o firmie i zachęca do dalszych odwiedzin czy polecenia jej znajomemu, a wszystko to przekłada się na zysk dla firmy.

Jak na link building wpływa System wymiany linków?

Zdobycie wysokich pozycji w wynikach wyszukiwarki Google wymaga wiele pracy oraz działań, które bardzo często są na granicy norm dopuszczanych przez tę najpopularniejszą wyszukiwarkę internetową. Jednak wielu pozycjonerów oraz właścicieli stron internetowych ryzykuje i często nagina obowiązujące reguły, aby wyprzedzić konkurencję i zdobyć większą ilość odsłon, które przekładają się na wyższe wyniki finansowe firmy. Posiadając doświadczenie w pozycjonowaniu bardzo łatwo jest wyczuć, w którym momencie przesadzamy i przekraczamy granicę, a kiedy możemy jeszcze dodać mocy stronie, aby podniosła się jej pozycja w wynikach wyszukiwania.

Jedną z takich dyskusyjnych metod pozycjonowania oraz wspierania pozycjonowania strony są systemy wymiany linków w skrócie SWL. Dzięki takim systemom możemy bardzo szybko zdobyć setki, a nawet tysiące linków przychodzących za naprawdę niewielkie pieniądze. Powinniśmy jednak uważać, aby nie przesadzić z nagłym przyrostem takich linków, szczególnie jeżeli są to linki nietematyczne, które jedynie mogą zaszkodzić pozycjonowanemu serwisowi, zamiast pomóc mu w zdobyciu wyższej pozycji w wyszukiwarce Google.

Systemy SWL dzielimy na dwa typy:
• systemy SWL stałe, w których każdy odnośnik przypisany do jednej strony internetowej zostaje na niej na dłuższy czas lub nawet na stałe
• systemy SWL rotacyjne, gdzie linki umieszczone na jednej stronie zmieniane są automatycznie, nawet w ciągu kilku godzin na jednej podstronie może pojawić się kilka różnych linków.

Jak dobierać linki w SWL?

Dobór linków nie tylko w systemach wymiany linków, ale w całym pozycjonowaniu strony internetowej, ma niezwykłe znaczenie dla powodzenia naszej pracy. Niezwykle ważne są dobrej jakości linki ze stron powiązanych tematycznie z pozycjonowaną witryną internetową. Oczywiście mniej wartościowe odsyłacze także będą przydatne, aby zwiększyć linkowanie do naszej strony www, jednak warto skupić się na wysokiej jakości linkach tematycznych. Powinniśmy także zwracać szczególną uwagę na przyrost linków z takich systemów. W przypadku nagłego wzrostu linków Google może uznać takie działania za niezgodne z regulaminem i wykluczyć nasz serwis z wyników wyszukiwania.
Bardzo wiele firm pozycjonujących korzysta z takich systemów wymiany linków, a doświadczenie pomaga uniknąć wykrycia takiego działania oraz działać na korzyść klienta.

linkbuild

Bezpieczne linkowanie z SWL. W jaki sposób to wykonać?

Aby uniknąć wykrycia przez roboty wyszukiwarki Google nieregulaminowego działania, można wykorzystywać linki z systemów SWL na kilka sposobów. Pierwszym z nich jest tzw. dopalanie. Jak wiadomo, linki do pozycjonowanej strony zdobywamy w różnych miejscach m.in. ze wpisów na blogach, komentarzach na forach internetowych oraz poprzez wpisy w katalogach. Samo dodanie takiego wpisu na forum czy też w katalogu stron niewiele daje. Przy pomocy SWL możemy przyspieszyć indeksacje takich wpisów przez roboty Google oraz podnieść wartość strony czy też podstrony, która linkuje do naszego serwisu. Dzięki temu nawet niezbyt dobre jakościowo linki mogą stać się dobrą podstawą do dalszego pozycjonowania serwisu.

Inną możliwością wykorzystania SWL jest przyspieszanie indeksowania wpisów i podstron na stronie, którą pozycjonujemy. Za sprawą typu działań znacznie skraca się czas, w jakim roboty wyszukiwarki znajdą nową podstronę serwisu. Zdobywanie nowych odsyłaczy przy pomocy systemów wymiany linków staje się niezwykle proste i stosunkowo tanie.

Plusy wykorzystania SWL.

Pomimo że SWL zaliczane są do tzw. „czarnego SEO” to ich wykorzystanie daje niezwykle dużo korzyści. Systemy wymiany linków pozwalają na szybkie zdobycie sporej ilości odsyłaczy, co znacznie poprawia pozycje strony w wyszukiwarce Google. Dzięki stosunkowo niskim kosztom uczestnictwa w takich systemach możemy za niewielkie pieniądze zdobyć satysfakcjonujące pozycje w wyszukiwarce oraz wzmocnić nasze zaplecze SEO, co sprawi, że strona będzie znacznie szybciej wspinała się w wynikach wyszukiwania i nie będzie zaliczała spadków lub nagłych zmian pozycji.

Zagrożenia wynikające z wykorzystania systemów wymiany linków.

Osoby, które obyte są w tematyce pozycjonowanie wiedzą to, jednak ci, którzy dopiero zaczynają swoją przygodę w tej branży, powinni wiedzieć, że nie ma czegoś takiego jak bezpieczne i szybkie pozycjonowanie. Jest to skomplikowany proces, który wymaga czasu oraz odpowiedniego przygotowania technicznego oraz merytorycznego. Wykorzystując systemy wymiany linków, narażamy się na przykre konsekwencje w postaci banów lub filtrów nakładanych na stronę przez Google. Jednak i z filtra da się wydostać stronę, a systemy wymiany linków ułatwiają nam to zadanie, gdyż dzięki kilku kliknięciom w panelu zarządzania SWL możemy zdjąć wszystkie „szkodliwe” linki prowadzące do naszej strony. W wielu przypadkach pozwala to na powrót do indeksu wyszukiwarki oraz na dalsze prace nad pozycjonowaniem.

Koszty uczestnictwa w systemach wymiany linków.

Koszty pozycjonowania za pomocą SWL są bardzo różne. Zależą one od tego, w którym z dostępnych obecnie systemów będziemy chcieli wykupić punkty oraz na jak długo i na ilu stronach mają wyświetlać się linki do naszej strony. Koszty mogą zaczynać się od kilkudziesięciu złotych miesięcznie do nawet kilku tysięcy złotych za miesiąc, jeżeli zdecydujemy się na pozycjonowanie wielu fraz oraz wielopoziomowego zaplecza z setkami domen.

Systemy wymiany linków w doświadczonych rękach mogą bardzo dobrze wpłynąć na link building strony, przez co witryna znacznie podskoczy w wynikach wyszukiwania Google. Przy umiejętnym dobieraniu fraz oraz linków, a także ich ilości i czasu wyświetlania można uzyskać doskonałe efekty nawet po kilku dniach od rozpoczęcia pracy z danym SWL. Jeżeli mamy niewielkie pojęcie o pozycjonowaniu oraz systemach wymiany linków, zanim zdecydujemy się na pozycjonowanie w ten sposób, powinniśmy dobrze zapoznać się z zasadami konkretnego systemu oraz technikami linkowania. Zbyt duży przyrost linków, szczególnie dla młodych domen może doprowadzić do nałożenia filtrów.

SWL jest doskonałym narzędziem, które w mgnieniu oka pozwoli nam zaindeksować nawet najbardziej rozległe zaplecze SEO oraz „dopalić” je wpisami z katalogów oraz notatek na forach internetowych. Wielu pozycjonerów wykorzystuje także systemy wymiany linków do pozycjonowania stron docelowych. Mają jednak oni odpowiednią wiedzę oraz potrafią wyważyć proporcje pomiędzy różnymi typami SWL oraz innych odsyłaczy prowadzących do strony, której pozycjonowaniem się zajmują.

Dobrym pomysłem, szczególnie na początek przygody z pozycjonowaniem stron za pomocą systemów wymiany linków jest wykupienie niewielkiej paczki punktów i przetestowanie na mniej ważnej dla nas domenie możliwości, jakie dają te systemy. Dzięki temu nie wydamy zbyt dużo pieniędzy oraz nie zaszkodzimy swojej głównej domenie. Taka nauka doskonale przyda się nam na przyszłość. Pomoże nam ona w odpowiednim szacowaniu ilości potrzebnych linków oraz w dobieraniu linków pasujących do tematyki naszej strony internetowej.

Pozycjonowanie a szybkość ładowania strony

Zapewne wiele razy zdarzyło Wam się czekać, aż strona się załaduje. Jeśli Wam na niej zależało, poczekaliście, ale jeśli weszliście na nią z ciekawości, często klikaliście krzyżyk. Często wynika to z przekonania, że jeśli strona długo się ładuje, to znaczy, że nie działa. Mało właścicieli serwerów tak naprawdę zdaje sobie sprawę, jak duży wpływ nie tylko na działania internautów, ale także na pozycję w wyszukiwarce Google ma szybkość ładowania strony. Warto więc przy optymalizacji witryny zwrócić uwagę także na ten aspekt.

Szybkość strony a ranking i pozycja w wyszukiwarce – jak wpływa to na SEO

Jak już zostało wspomniane, szybkość strony jest czynnikiem rankingowym, który wpływa na naszą pozycję w wyszukiwarce Google. Nawet, jeśli zadbamy o wszystkie inne czynniki pozycjonowania, szybkość ładowania witryny może wpłynąć negatywnie na naszą pozycję w Google. Prędkość strony odgrywa ważną rolę szczególnie w wyszukiwarkach mobilnych. Jeśli dana strona bardzo wolno ładuje się na komputerze czy laptopie, to na telefonie możemy czekać w nieskończoność na jej załadowanie.

Z punktu widzenia SEO wpływ prędkości witryny na indeksowanie strony widoczny jest natychmiast. Specjaliści SEO są zgodni co do tego, że wydajność strony zależy od czynników TTFB (Time To First Byte) oraz TTLB (Time To Last Byte). Metryki te wpływają w głównym stopniu na wydajność serwera, która z kolei przekłada się na tzw. Crawl Budget, czyli ilość stron indeksowanych w ciągu dnia przez wyszukiwarki.

Szybkość ładowania witryny a konwersja

Wiemy już, że szybkość ładowania strony obniża naszą pozycję w wyszukiwarce. Trzeba również pamiętać, że od prędkości witryny zależy również konwersja. Żeby jednak wytłumaczyć wpływ szybkości na konwersję, warto zapoznać się bliżej z tym terminem. Konwersja to po prostu stosunek licznika odwiedzin strony do działań, jakie użytkownicy na niej wykonują (na przykład finalizują zakup produktu w sklepie internetowym). Z badań przeprowadzonych przez Google w 2016 roku wynika, że strona, która wczytuje się dłużej niż 5 sekund, traci prawie 40% konwersji.

A jak przekłada się to na nasze zyski? Gdy pomnożymy kwotę, którą tracimy na reklamę strony przez % utraconej konwersji, zdamy sobie sprawę, ile tak naprawdę tracimy pieniędzy. Warto również zauważyć, że np. w przypadku sklepów internetowych niska konwersja oznacza, że pomimo wysokiego licznika odwiedzin, klienci czekający dłużej na załadowanie strony, nie decydują się na złożenie zamówienia. 75% użytkowników po 3 sekundach czekania zamyka odwiedzaną stronę. Możemy sobie tylko wyobrazić, w jakim stopniu odbija się to na naszych zyskach.

Jak sprawdzić szybkość ładowania strony?

Szybsze wczytywanie strony zależy w głównej mierze od jej ciężaru. Jeśli myślimy o pozycjonowaniu strony pod kątem jej szybkości, powinniśmy najpierw sprawdzić, ile czasu zajmuje jej załadowanie. Nie wystarczy wejść na stronę, by ocenić, jak szybko działa. Do tego wymagane są specjalistyczne narzędzia, jak np. Google Analytics. Sprawdzenie działania witryny jest bardzo proste. Wystarczy wejść w zakładkę Zachowanie, a następnie Szybkość witryny, by odnaleźć informacje na temat czasu wczytywania strony dla potencjalnych użytkowników naszej witryny.

Oczywiście Google Analytics nie jest jedynym narzędziem, za pomocą którego sprawdzimy prędkość naszej strony. Warto też skorzystać z narzędzia Pingdom Website Speed Test. Dostarcza nam ono informacji o czasie ładowania, informuje, jakie pliki wczytują się najdłużej oraz porównuje szybkość naszej witryny do innych stron internetowych. Musimy też pamiętać, by przy sprawdzaniu szybkości ustawić lokalizację dla Europy, ponieważ w różnych zakątkach świata prędkość strony może się różnić.

Szybkość ładowania strony można sprawdzić również lokalnie na własnym komputerze. W tym celu możemy wykorzystać takie przeglądarki jak Google Chrome lub Firefox.

W przypadku tej pierwszej podczas otwierania strony wykonujemy następującą kombinację: F12 i wybieramy w wyświetlonym menu zakładkę Network. Teraz możemy sprawdzić jakie faktycznie zasoby są ładowanie w trakcie wyświetlania naszej strony oraz podstron.
network
W przypadku przeglądarki Firefox klikamy prawym przyciskiem myszy na tle naszej witryny. Wybieramy opcję zbadaj element. W dodatkowym oknie, które się wyświetli wybieramy zakładkę Sieć. W tym widoku możemy zaobserwować tak samo jak w Chrome wszystkie procesy które ładują w trakcie otwierania strony.
2-pnetworkng

Przyspieszenie działania strony

Podobnie jak w przypadku sprawdzania szybkości witryny, również do przyspieszenia jej działania powinniśmy skorzystać z narzędzi Google. Przydatne w tym przypadku będzie narzędzie PageSpeed Insights. Przede wszystkim dokonuje ono oceny pozycjonowania naszej witryny pod kątem prędkości, ale także sugeruje, na jakich elementach powinniśmy się skupić, żeby strona działała szybciej (sekcja Sugestie dotyczące szybkości strony). Informuje nas o tym, co należy poprawić (czyli najważniejsze czynniki wpływające na szybkość) oraz co warto poprawić. Przykładowo wskazuje, który film spowalnia stronę, który obrazek jest za duży albo proponuje poprawić zbyt złożony kod strony.

Przydatne wskazówki możemy także uzyskać za pomocą wtyczki do przeglądarki Yahoo – YSlow. Wystarczy zainstalować wtyczkę, by zanalizować wybraną przez nas stronę i otrzymać przydatne porady.

Korzyści szybszego ładowania strony z punktu widzenia SEM

Przede wszystkim musimy zwrócić uwagę na to, że szybsza strona wpływa pozytywnie na działania SEM. Koszty pozyskiwania nowych klientów znacznie maleją, niezależnie od tego czy wybieramy płatne czy bezpłatne wyniki wyszukiwania. A wszystko to dzięki temu, że szybsze ładowanie strony ułatwia skanowanie witryny wyszukiwarce Google, która może znaleźć nowe treści. Przekłada się to oczywiście na wyższą pozycję w wynikach wyszukiwania. Poprzez zwiększenie współczynnika konwersji możemy obserwować realne zyski, płynące z odwiedzin. Oznacza to, że użytkownicy nie tylko odwiedzają stronę, ale także wykonują na niej konkretne działania – w przypadku blogów czy portali mogą być to nowe komentarze, w przypadku sklepów internetowych – zamówienia.

Szybsza strona opłaca się również samym internautom. Przekłada się to nie tylko na oszczędność ich czasu, ale i pieniędzy. W przypadku przeglądania stron na mobilnych urządzeniach, użytkownicy mogą zaoszczędzić sporo transferu. Jak widać, warto działania SEM wesprzeć również działaniami typowo technicznymi. Szybsze ładowanie strony sprawi, że internauci będą wracać do nas z przyjemnością.

Jak stworzyć własne strony błędów? 404,403,500 w pliku .htaccess

Zapewne nie raz zdarzyło Wam się, że na odwiedzanej stronie wyskoczył błąd. Dobrze wiemy, o ile lepiej wygląda strona błędu, jeśli wkomponowana jest graficznie oraz stylistycznie w wygląd naturalny witryny. Niestety nie każdy o tym pamięta, a nie dbając o to, możemy łatwo stracić klientów. Jak ustawiać własne strony błędów i co powinno się na nich znaleźć?

Rodzaje błędów zwracanych przez strony www

Strony błędu to inaczej dokumenty, które wyświetlają się, kiedy serwer zwróci kod błędu w nagłówku. Optymalizowanie tego elementu jest ważne z punktu pozycjonowania strony. Niestety nie zawsze mamy możliwość zadbania o odpowiedni wygląd strony błędu, zwłaszcza jeśli do naszej podstrony prowadzą linki z innych serwisów, na które niestety nie mamy żadnego wpływu.

No dobrze, powiedzmy więc sobie najpierw, jakie w ogóle istnieją rodzaje błędów, które zwracają strony. Zapewne każdy zauważył, że statusy operacji zwracane są w postaci trzycyfrowej liczby – nawet jeśli strona zostanie wczytana prawidłowo. Możemy jednak spotkać również komunikaty negatywne, dotyczące błędów. Rozpoczynają się one cyfrą 4 lub 5. Cyfra 4 na początku odnosi się błędów spowodowanych przez użytkownika, niektóre z błędów wyglądają następująco:

400 Bad Request – Błędne zapytanie
401 Unauthorized – Dostęp wymaga autoryzacji
402 Payment Required – Wymagane jest uiszczenie opłaty
403 Forbidden – Dostęp został zabroniony
404 Not Found – Plik nie został odnaleziony na serwerze
405 Method Not Allowed – Metoda niedozwolona
406 Not Acceptable – Nie można zwrócić odpowiedzi na dane zapytanie
407 Proxy Authentication Required – Wymagana jest autoryzacja
408 Request Time-out – Czas oczekiwania został przekroczony
409 Conflict – Konflikt statusów pomiędzy zasobami
410 Gone – Zasób, którego żądasz, został usunięty.
Często strony błędów są przedstawione w wersjach humorystycznych:
błąd 404 w htaccess

Grupa statusów, która rozpoczyna się cyfrą 5, to błędy wynikające z winy serwera, gdy np. nie może on wykonać naszego zapytania:

500 Internal Server Error – Wewnętrzny błąd serwera
501 Not Implemented – Zapytanie nie zostało zrozumiane przez serwer. Nie zwrócono żądanej zawartości
502 Bad Gateway – Błąd bramy, zwrócona przez serwer wartość jest niepoprawna
503 Service Unavailable – Przeciążenie lub brak dostępności serwera
504 Gateway Time-out – Przekroczony czas oczekiwania na odpowiedź serwera
505 HTTP Version not supported – Ta wersja HTTP nie jest obsługiwana przez serwer.
Błąd 500 w htaccess

Jak zmodyfikować ustawienia strony?

Za wyświetlanie strony błędu odpowiadają dwa pliki. Jako pierwszy będziemy musieli stworzyć plik .htaccess, który odpowiedzialny jest za modyfikowanie ustawień dostępowych naszej strony. Plik ten często dostępny jest już na serwerze. Drugi plik to Nr_Bledu.htm, np. 404.htm. Jest to zwykły plik, opierający się na html’u. Zawiera on szatę graficzną oraz komunikat o błędzie, z którym mamy do czynienia.

Na początku do pliku .htaccess wpisujemy dyrektywę: ErrorDocument 404 http://strona.pl/404.htm. Początek tej informacji mówi nam o rodzaju błędu, a dalsza część, do jakiego adresu strony się on odwołuje. Drugi plik, czyli 404.htm przyda nam się do stworzenia strony błędu. Edycja tego pliku zależy od nas. Możemy stworzyć zwykłą stronę, na której wpiszecie numer kodu i odnośnik do strony głównej. Po stworzeniu obu plików, wgrywamy je na serwer do katalogu głównego naszej strony.

Przykładowy prosty plik .htaccess:
przykład pliku .htaccess

Jak optymalizować strony błędów?

Przede wszystkim ważne jest, by strony błędów mogły być użyteczne dla potencjalnych użytkowników, a nie zniechęcały do ponownego odwiedzania strony.

Stwórz stronę błędu, wkomponowując ją w Twoją witrynę!
Każdy internauta odbierze lepiej stronę błędu, jeśli będzie się ona wyświetlała jak typowa strona, a nie jak strona przeglądarkowa. Wówczas nie mamy wrażenia, że zostaliśmy z danej strony wyrzuceni.

Jeśli jednak chcemy stworzyć odrębnie wyglądającą stronę błędu, warto umieścić tam logo serwisu.

Poinformuj o danym błędzie!
Na wstępie powinniśmy umieścić nagłówek, w którym poinformujemy o rodzaju błędu z polskim tłumaczeniem (w przypadku polskich stron). Numery oraz angielskie nazwy nic nie powiedzą użytkownikom i także nieprofesjonalnie wyglądają, ponieważ pokazują trochę lekceważący stosunek do potencjalnych klientów. Dla lepszego zrozumienia błędu, możemy dodatkowo pod nagłówkiem umieścić informację, co jest przyczyną błędu. Podajmy przykład dla błędu 404:

Plik nie mógł zostać odnaleziony na serwerze, ponieważ wpisany adres jest nieprawidłowy.

Czasami właściciele stron wykorzystują błędy strony, by przyciągnąć potencjalnych klientów, np.:

Błąd 404. Wybacz, ale strona nie została znaleziona. To nie pech, tylko szansa na książkę dnia z 30% zniżką!

Wskaż drogę użytkownikowi!

Twoi użytkownicy nie trafili na stronę przypadkowo. Jeśli już tu są, z pewnością czegoś szukają. Warto więc pomóc im w dalszych poszukiwaniach. Pierwszym najczęściej popełnianym błędem jest pozostawienie tej strony pustej. Użytkownik nie wróci tutaj, jeśli nie pomożesz mu rozwiązać problemu i nie ułatwisz nawigacji po serwisie.

Jeśli strona błędu została wbudowana w szablon strony, masz zdecydowanie ułatwione zadanie. Logo czy też tytuł serwisu musi być linkiem do strony głównej, co z pewnością ułatwi nawigację. Jeśli z kolei posiadamy indywidualny szablon dla strony, warto zrobić listę wskazówek, która przedstawi możliwości rozwiązania problemów, np.

Skorzystaj z wyszukiwarki, by odnaleźć szukane treści na naszej witrynie. Jeśli masz jakiekolwiek pytania, skorzystaj z działu „Najczęstszych pytań (FAQ)” lub przejdź do mapy serwisu.

Oczywiście powinniśmy również umiejscowić wymagane odnośniki do przygotowanych narzędzi (mapa strony) czy działu FAQ. Zamiast linku wyszukiwarki w serwisie, możemy także umieścić odpowiedni formularz na stronie błędu dla przyspieszenia nawigacji i ułatwienia szukania.

Może zwykłe przekierowanie na stronę główną?

Często stosuje się dla błędów 404 zwykłe przekierowanie do strony głównej. Czyli po wejściu na adres, który nie istnieje, użytkownik zostaje przeniesiony na stronę główną. W WordPressie mamy gotowy mały plugin:
Błąd 404 w WordPressie

Jak odszukać niedziałające linki na stronie?

Niezależnie od tego, jak będzie wyglądać nasza strona błędu, warto w ogóle unikać wszelkich niedziałających stron, ponieważ odstrasza to nie tylko klientów. Również Google zaleca regularne sprawdzanie niedziałających linków w obrębie witryny. Jakie programy mogą nam pomóc w wyszukiwaniach martwych linków?

Brocken Link Checker – plugin przydatny jest dla stron opartych na WordPressie. Narzędzie to nieustannie monitoruje linki na naszej witrynie. Jeśli znajdzie jakiś uszkodzony link, informuje nas o tym w panelu administracyjnym.
Xenu’s Link Sleuth (systemy Windows) – darmowa aplikacja pod Windows. Wystarczy wpisać adres swojej witryny, by rozpocząć proces skanowanania linków.
Screaming Frog SEO Spider – jego działanie jest podobne do Xenu, ale możemy z niego korzystać także na Mac’ach czy systemach linuxowych.
google_console_error_page

Google Webmaster Tools – gdy Google znajdzie uszkodzone odnośniki, to w odpowiedniej sekcji wyrzuci błędy robota.
Link Checker – narzędzie dla bardziej zaawansowanych użytkowników. Służy ono do kompleksowego sprawdzania poprawności całej strony. Możemy zrobić to za pomocą wierszy poleceń, aplikacji desktopowej czy webowej.