Generic selectors
Tylko dokładne dopasowanie
Szukaj w tytule
Szukaj w treści
Filtruj po kategoriach
Analityka internetowa
BLOG.re:view
Content marketing
Marketing automation
Marketing internetowy
PPC
SEO
Social media
Z życia Semahead

Skontaktuj się z nami

Widget

  • Szczegółowe informacje dotyczące przetwarzania danych osobowych znajdziesz tutaj.

Bounce Rate – czym jest i jak wpływa na SEO?

Czym jest współczynnik odrzuceń? Jakie wnioski można wysunąć na jego podstawie? Co się dzieje kiedy użytkownik nie znajdzie interesujących treści na naszej stronie? Te i inne aspekty współczynnika odrzuceń, jego wpływ na SEO oraz konwersje omówimy w poniższym artykule. 

 

Współczynnik odrzuceń – co to?

Współczynnik odrzuceń to parametr przedstawiający, jaki procent użytkowników odwiedzających witrynę opuszcza ją bez przechodzenia na jakąkolwiek inną podstronę lub nie wykonuje żadnej innej akcji, pozwalającej na wysłanie kolejnego zapytania do serwera. Takie działanie oznacza, że kod Google Analytics wywoływany jest tylko raz.

Współczynnik odrzuceń wykorzystać możemy jako wskaźnik definiujący jakość naszej strony internetowej lub określając poziom zaangażowania użytkowników. Interpretacja jego zastosowania zależy od wielu czynników, chociażby takich jak: branża, typ strony, ustalona ścieżka konwersji. 

 

Google Analytics

 

Jak Google Analytics oblicza współczynnik odrzuceń?

Współczynnik odrzuceń jest obliczany na podstawie stosunku wszystkich sesji w serwisie, do sesji, podczas których użytkownicy odwiedzili tylko jedną stronę, a następnie opuścili serwis bez wywoływania kolejnego zapytania do Google Analytics. Czego wynikiem jest przypisanie sesjom z odrzuceń czasu 0 sekund.  Przyczyną takiego działania jest to, że Analytics nie jest w stanie określić jaki czas użytkownik spędził na stronie z uwagi na otrzymanie tylko jednego zapytania. 

 

Bounce Rate i SEO

Wysoki współczynnik odrzuceń może oznaczać trzy rzeczy:

 

Czy w takim razie wysoki współczynnik odrzuceń zawsze jest negatywny? Tutaj niestety nie ma jednej, konkretnej odpowiedzi. Dlatego trzeba się zmierzyć ze znienawidzonym przez wszystkich stwierdzeniem „To Zależy”.

A zależy to od wielu czynników, chociażby takich jak założenie, że nasza strona to sklep, gdzie wysoki współczynnik odrzuceń powinien przykuć naszą uwagę i zmotywować do dalszej analizy i znalezienia przyczyny. Na stronie sklepu wysoki bounce rate może być spowodowany złym layoutem, nieczytelnością strony lub niedopasowaniem zawartości strony do słów kluczowych, na które wyświetla się ona użytkownikom w wynikach wyszukiwania.

Natomiast w przypadku, gdzie nasza strona jest wizytówką lub blogiem, wysoki współczynnik odrzuceń jest zjawiskiem bardzo często spotykanym i nie musi oznaczać niczego złego. Jeśli na naszej stronie jest artykuł, który dokładnie odpowiada na zapytanie użytkownika, ten po jego przeczytaniu opuści stronę nie podejmując żadnych akcji. Taka sesja będzie odnotowana w Google Analytics jako odrzucenie pomimo tego, że strona dostarczyła użytkownikowi poszukiwanych informacji. W takich przypadkach warto poddać analizie inne czynniki, między innymi czas spędzony na stronie. 

 

 

 

 

Jak w takim razie bounce rate wpływa na pozycję? Tutaj odpowiedź jest bardzo złożona. Google otwarcie przyznaje, że nie wykorzystuje danych z Google Analytics jako czynniki rankingowe. Ten ruch jest zrozumiały wiedząc, że dane z Google Analytics można łatwo manipulować. 

Warto jednak rozróżnić współczynnik odrzuceń widoczny w Analytics na ten, który Google analizuje w SERP. Jeśli użytkownik wejdzie na naszą stronę, lecz nie znajdzie na niej oczekiwanych informacji i szybko wróci na stronę wyszukiwania, Google może potraktować takie zachowanie jako odrzucenie i w przypadku szerszej skali tego zjawiska, obniżyć pozycje serwisu ze względu na niedopasowanie do oczekiwań użytkowników. Pamiętajmy, że exit rate mierzony jest w inny, znany tylko Google sposób. 

 

Jak obniżyć współczynnik odrzuceń?

Niezależnie od tego, jaki jest rodzaj naszej strony, warto dbać o to, aby współczynnik odrzuceń był jak najniższy. Jednak nie zawsze powinno być to celem samym w sobie. Zależnie od tego, co chcemy osiągnąć, jeśli mamy stronę, wizytówkę, one-page, to przykładowo naszym celem może być wybranie numeru telefonu, który jest podany na tej stronie. Wówczas istotne będzie podpięcie odpowiednich zdarzeń w Google Analytics. Wyróżnić należy następujące sposoby ułatwiające osiągnięcie tego celu:

Żyjemy w czasach, gdzie liczy się każda sekunda. Nikt nie lubi czekać, tym bardziej w Internecie. Dlatego warto zadbać o to, aby nasza strona ładowała się szybko. Jeśli użytkownik przez pierwsze kilka sekund nie zobaczy na swoim ekranie żadnej wygenerowanej treści, istnieje bardzo duże prawdopodobieństwo opuszczenia strony, co doprowadzi do zwiększenia współczynnika odrzuceń. Najczęstszym powodem wolnego ładowania stron jest zbyt duży obraz oraz skrypt opóźniający ładowanie. Sprawdzenie obecnego stanu witryny jest możliwe poprzez wykorzystanie takich narzędzi jak GooglePageSpeedInsight czy Gtmetrix. Więcej o poprawie szybkości ładowania strony przeczytasz tutaj.

Ważną kwestią jest, aby treści na naszej stronie były dobrze dopasowane do zapytań użytkowników. Artykuły, opisy (np. produktów, kategorii) powinny zawierać wszystkie, ważne z punktu widzenia użytkownika, informacje. Tekst powinien zawierać nagłówki i pogrubienia tak, aby wskazać użytkownikowi ważne z naszego punktu widzenia fragmentu tekstu. Szerzej o poprawnym formatowaniu tekstów pod SEO znajdziesz tutaj.

Dodatkowo – pomocne w utrzymaniu uwagi użytkownika – będą krótkie akapity, obrazy oraz wszelkie wypunktowania, jak ma to miejsce na blogu keemple

Jeśli nie posiadamy na naszej stronie wdrożonego certyfikatu SSL, użytkownicy wchodzący na naszą stronę mogą zobaczyć następujący komunikat:

 

 

Czerwony wykrzyknik i ostrzeżenie o potencjalnym zagrożeniu skutecznie odstraszy wielu użytkowników. Dlatego tak ważne jest, aby nasz certyfikat SSL był zawsze aktualny.

 

 

Czasem wysoki współczynnik odrzuceń nie jest spowodowany błędami na stronie, czy niedopasowaniem treści do zapytań użytkowników. Może zdarzyć się tak, że na stronie głównej umieszczony jest fragment, który jednak nie przesyła żadnych zdarzeń do Google Analytics. Użytkownik po wejściu na stronę skorzysta z formularza wysyłając zapytanie i opuści stronę. Jaki będzie tego efekt? Odrzucenie w Analytics.

Ważne jest dodanie dodatkowych zdarzeń do wszystkich istotnych przycisków dostępnych na stronie. Pozwoli to z jednej strony obniżyć współczynnik odrzuceń, a z drugiej – zliczać wszystkich użytkowników, którzy skorzystali z formularza.

Źle zaprojektowana strona również może być przyczyną wysokiego współczynnika odrzuceń. Nieczytelna nawigacja, źle dobrane kolory, czy też chaos informacyjny, mogą być powodem tego, że użytkownicy nie znajdą interesujących ich informacji, pomimo ich obecności na stronie. Sposobem na sprawdzenie, czy dotyczy nas ten problem, są teksty A/B. Pozwalają one na sprawdzenie, jak dana zmiana wpływa na zachowanie użytkowników na stronie.

Poprzez porównanie współczynnika przed i po zmianach możemy wywnioskować, czy dana modyfikacja poprawiła czytelność witryny, czy wręcz odwrotnie.

W przypadku sklepów internetowych, szczególnie ważne jest analizowanie współczynnika odrzuceń na ścieżce zakupowej. Jeśli na jakimś jej etapie współczynnik ten jest szczególnie wysoki, powinniśmy bliżej przyjrzeć się problemowi i go zidentyfikować. Problem może być prozaiczny, jak np. brak możliwości płacenia blikiem, albo też bardziej złożony jak: brak możliwości wpisania danych lub wybrania odpowiedniego paczkomatu.

Poniższe wykresy przedstawiają na jakim poziomie kształtuje się współczynnik odrzuceń dla poszczególnych typów stron: 

 

 

 

Podsumowanie

Zrozumienie zasady działania współczynnika odrzuceń i późniejsza jego analiza pozwoli w lepszym zrozumieniu zachowań użytkowników. W dłuższej perspektywie, zrozumienie zależności związanych z współczynnikiem odrzuceń i potrzeb użytkowników, może przyczynić się do zwiększenia ruchu sprzedaży i poprawy widoczności witryny.  

 

 

 

Kontakt

 

Algorytmy Google: od PageRanka przez Pandę i Kolibra aż po RankBrain

W idealnym świecie po wpisaniu konkretnej frazy kluczowej w wyszukiwarkę, ta przekierowuje nas na stronę, która jest dokładnie powiązana z zapytaniem. Aby było to możliwe z pomocą przychodzą algorytmy Google, które cały czas analizują witryny, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Odpowiedź w poniższym artykule!

 

Według raportu WeAreSocial internet, a wraz z nim wyszukiwarki internetowe, stają się nieodzownym elementem życia człowieka. Ponad 4,5 miliarda ludzi korzystało z internetu w 2020 roku, co stanowi 59% populacji. To wzrost o 7 procent w stosunku do roku poprzedniego. W związku z popularnością internetu, niezbędne są narzędzia, które pomagają odnaleźć się w gąszczu rozmaitych stron internetowych, wszak internet to nie tylko social media. Takimi narzędziami są wyszukiwarki internetowe, a wśród nich najpopularniejsza (według danych ze stycznia 2021), czyli Google. Procentowy rozkład użytkowników danych wyszukiwarek internetowych wg. netmarketshare.com przedstawia się następująco:

 

 

Wyszukiwarka Google, by wyświetlać jak najbardziej stosowne wyniki wyszukiwania wykorzystuje system rankingowy. Ranking ustalany jest na podstawie szeregu algorytmów. Algorytmy Google to zaawansowane procesy posiadające określony schematy postępowania, których zadaniem jest ocena stron internetowych i uszeregowanie ich według z góry określonych kryteriów. Ich głównym celem jest przedstawienie jak najbardziej naturalnych i zróżnicowanych wyników, które odpowiedzą trafnie na zapytanie użytkowników wyszukiwarki.

Algorytmy Google wykorzystują setki, jeśli nie tysiące różnych czynników rankingujących. Tylko niektóre z nich zostały oficjalnie potwierdzone przez pracownika Google – większośc należy do sfery przypuszczeń. Niewiadomą jest nie tylko to, jakie są czynniki rankingowe, ale również jaką mają wagę w ogólnym rozrachunku.

Szacuje się, że algorytm Google jest updatowany około 600 razy w ciągu roku. Aktualizacje algorytmu zwykle są drobne nie prowadzą do dużych przetasowań w wynikach wyszukiwania, a ich duża ilość wiąże się z wykorzystaniem uczenia maszynowego. Niektóre jednak są na tyle duże, że doczekały się własnej nazwy.

 

Page Rank

Page Rank był pierwszą próbą uporządkowania wyników wyszukiwania Google. Polegał on na nadawaniu określonej wartości przy pomocy algorytmu matematycznego. Był on wyliczany automatycznie na podstawie ilości linków prowadzących do witryny oraz treści i zawierał wartość pomiędzy 0 a 10. Został stworzony przez założycieli Google – Larry’ego Page’a i Sergeya Brina. Page Rank był jawny dla każdej witryny i można było na bieżąco ewaluować on-going wyniki swojej pracy. Algorytm ten z czasem stał się narzędziem manipulacji – branża szybko go rozgryzła i wykorzystywała do boostowania niskiej jakości treści linkami np. z farm linków bądź keyword stuffingiem. Wymogło to na Google stosowanie innej metody klasyfikacji stron internetowych. W 2016 roku wycofano się z informowania o wyniku Page Rank, jednak na Twitterze wciąż pojawiają się pytania kierowane do Matta Cuttsa o to, czy Page Rank w rzeczywistości wciąż działa.

 

Algorytm Panda

By zapobiec dużej ilości spamu, która wynikała z niedoskonałości Page Ranka, wprowadzono algorytm Panda, który stanowił niemałą rewolucję w podejściu do prowadzenia działań SEO. Został tak nazwany na cześć inżyniera Navneeta Pandy i został oficjalnie wdrożony 23 stycznia 2011 roku. Początkowo był aktualizowany co miesiąc, razem z aktualizacjami algorytmu głównego, więc trudno było wyodrębnić zmiany w samej Pandzie. Algorytm Panda zaczął badać strony pod kątem ich przydatności oraz wartości prezentowanej treści. Negatywnie oceniał treści, które:

 

Tym sposobem wyeliminowane zostały famry linków, a Panda zmusiła SEO-wców do tego, by przykładali większą wartość do jakości publikowanych treści. Zmniejszyło się znaczenie treści synonimizowanych i sztucznie generowanych. Od tego momentu zaczęto mówić „content is king” i skupiać się na odbiorcach, a nie wyłącznie robotach Google.

W 2016 roku algorytm Panda został scalony z głównym algorytmem Google. Oznacza to, że Panda jest aktualizowana w czasie rzeczywistym. Co to zmienia? Otóż natychmiast po wprowadzeniu zmian na stronie, tuż po przeindeksowaniu ich przez robota, można obserwować ewentualne zmiany w wynikach wyszukiwania.

 

Above the Fold

W 2012 roku pojawiła się aktualizacja algorytmu z serii Page Layout, które obniżała ocenę witrynom zawierającym sporą ilość reklam i nieużytecznych elementów powyżej linii załamania (scrollowania). Należy zwrócić uwagę, czy nie blokujemy istotnych dla wyglądu strony elementów oraz jak dana strona wygląda na urządzeniach mobilnych.

 

Pingwin

Pingwin odpowiada za ocenę linków przychodzących. Wprowadzony został 24 kwietnia 2021 roku i stał się immanentnym elementem wyszukiwarki Google. Miał za zadanie ograniczenie spamu w linkbuildingu. Za co premiował?

Gdy Pingwin dostrzegał ingerencje w profil linków nakładał karę – albo na pojedyczne podstrony, albo nawet na całą witrynę. Aktualnie jednak kary ręczne są rzadkością, a Google, jak twierdzi, ignoruje niskiej jakości linki bez nakładania kar na witryny. Aktualnie jest częścią głównego algorytmu i działa w czasie rzeczywistym. Google nie informuje już o kolejnych wydaniach.

 

Pirat

Algorytm Pirat zajął się stronami, które kopiują treści objęte prawem autorskim. Negatywnie wpłynął na serwisy, które nielegalnie oferują możliwość pobierania filmów, muzyki oraz portale, które linkują do tych serwisów bądź udostępniają tzw. torrenty. Działa on jak filtr, który jest nakładany, gdy na daną stronę jest duża liczba skarg o naruszenie praw autorskich. Został wprowadzony w 2012 roku. Jeśli ktoś uważa, że jakaś strona narusza ich prawa autorskie, może ją zgłosić w formularzu tutaj. 

Google bada sprawę i jeśli uzna, że materiał narusza własnośc intelektualną, wówczas strona zostaje usunięta z indeksu Google, a właściciel otrzyma stosowną informację w Google Search Console. Razem z algorytmem Pirate zmienił się sposób wyświetlania zapytań z dopiskiem +mp3+torrent+download. Google stara się wyświetlać najpierw oficjalne kanały zdobycia jakiegoś dzieła kultury. Wyszukiwarka Google ułatwia korzystanie z legalnych treści, prezentując wszystkie możliwe miejsca, w których możemy zobaczyć dany materiał legalnie:

 

 

Bądź wysłuchać legalnie:

 

 

Koliber

Algorytm Koliber ułątwia odnalezienie odpowiedzi na złożone pytania. To właśnie dzięki niemu powstał termin „frazy longtailowe”. Pomógł robotom Google analizować strony jako całość, a nie jako poszczególne frazy składowe. Pojawiło się pojęcie intencji użytkownika – nie chodziło już tylko o nieodmienną frazę kluczową, ale też o to, co konkretnie użytkownik chce znaleźć. Dzięki Kolibrowi strony internetowe, które nie posiadają fraz exact match i tak mogą być wysoko w wynikach wyszukiwania, jeśli tylko odpowiadają ogólnej intencji zapytania. Google zaczął radzić sobie z synonimami, choć nie zawsze skutecznie.

 

 

Dzięki Kolibrowi większe znaczenie mają wyszukiwania lokalne bez konieczności wpisywania miast (Google sam lokalizuje urządzenie) oraz punktowane są serwisy, które pokrywają całe tematyczne zagadnienie. Koliber sprawdza potencjalną przydatność danej treści, dlatego to właśnie ją powinniśmy mieć na uwadze. Dodatkowo, to właśnie ten algorytm odpowiada za wynik zerowy, czyli wynik, który pojawia się w wynikach wyszukiwania Google bez konieczności kliknięcia.

 

 

Nazwa Google Koliber (Hummingbird) pochodzi od szybkości i precyzji, którą zapewnia ta zmiana w wyszukiwarce. Można uznać, że jest to jedna z kluczowych zmian ostatnich lat. Wdrożenie tego algorytmu poskutkował tym, że w SERP można zobaczyć więcej podstron serwisów, a nie tylko stron głównych. Szacuje się, że Koliber zmienił 90% wyników wyszukiwania.

 

Gołąb i Opos

Google Pigeon to algorytm usprawniający zapytania i wyszukiwania lokalne. Od wprowadzenia aktualizacji Google lepiej łączy wyniki organiczne z wynikami wyszukiwania w maoach. Dzięki usprawnieniom nie jest wymagane wpisanie miejscowości w zapytaniu, ponieważ Google dostosuje wynik do aktualnej lokalizacji użytkownika. Niezbędne stało się dokładnie uzupełnienie wizytówki Google i podawanie jak największej ilości informacji w Google Moja Firma. Dane teleadresowe stały się niezbędne – przydatne jest także tworzenie NAP-ów (Google lepiej ocenia witryny z zachowanym standardem NAP (Name, Adress, Phone)). W procesie rozwoju budowania marki w internecie należy skupić się na korelacji nazwy firmy z lokalizacją, zachowywać standardy adresów w katalogach internetowych czy zadbaniu o dane strukturalne na stronie. O tym, jak uzupełnić wizytówkę GTM pisaliśmy w naszym artykule. Aktualizacja ta przeznaczona była pierwotnie dla użytkowników anglojęzycznych. Jednocześnie, Google potwierdził, że istotny jest czynnik, na który nie mamy bezpośredniego wpływu – odległośc i lokalizacja.

 

 

Dodatkową aktualizacją, która zatrzęsła lokalnymi wynikami wyszukiwań jest Opos – wprowadził znane trzy rezultaty w belce pod mapą, które są pobierane z Google Moja Firma.

 

 

Mobilegeddon

Wprowadzony został w 2015 roku. Algorytm ten sprawił, że stronom niezoptymalizowanym pod kątem urządzeń mobilnych, którym trudniej jest wejśc na wysokie pozycje w rankingu. Ponadto, bardz popularny stał się tani i szybki Internet Mobilny – stąd duży wzrost liczby osób konsumujących treści z poziomu tego typu urządzeń, czyli zwykle z mniejszych rozdzielczości ekranu. Warto zaznaczyć, że Mobilegeddon nie wypłynął na wyniki wyszukiwania na urządzeniach stacjonarnych.

W kolejnych latach Google wprowadził kolejne usprawnienia algorytmów dotyczących wersji mobilnych strony:

 

Przetestować optymalizację naszej strony do urządzeń mobilnych możemy np. poprzez tę stronę.  Jednocześnie nie zapominając, że dostosowanie do urządzeń mobilnych jest cechą pojedynczej strony, a nie całej witryny – nie wystarczy np. sprawdzić strony głównej, lecz należy wybrać więcej reprezentatywnych przykładów, które dadzą pogląd na to, jak podstrony są dopasowane do niskich rozdzielczości.

 

Google Intrusive Interstitials Mobile Penalty

To algorytm, który wpłynął na to, jak wydawcy serwisów prezentują reklamy na swoich stronach. Google Intrusive Interstitials Mobile Penalty pojawił się w 2017 roku i wpłynął niekorzystnie na rankingi stron prezentujących pełnowymiarowe reklamy, które przysłaniają treść. Jest to jeden z elementów zmian dostosowujących strony do urządzeń mobilnych – brak kursora myszki na ekranie smartfonów mógłby utrudniać zamknięcie pełnoekranowych reklam. Nie wszystkie typy „wyskakujących” informacji narażały strony na kary – akceptowalne były pliki cookies oraz blokady dla osób poniżej 18 roku życia na stronach dla dorosłych.

 

RankBrain

RankBrain to jeden z najnowocześniejszych elementów algorytmu Google. Uruchomiono go w 2015 roku – jako pierwsze algorytm wykorzystuje sztuczną inteligencję. RankBrain stara się jeszcze lepiej zrozumieć intencję użytkownika i znaleźć najtrafniejszą odpowiedź na jego pytanie. Algorytm korzysta z podobnych mechanizmów co Koliber. Co więcej, rozpoznaje nie tylko pojedyncze słowa i zdania, ale potrafi zrozumieć znaczenie zapytania i zwrócić trafną odpowiedź na daną frazę mimo, że w samym zapytaniu jej nie ma. Dzięki zastosowaniu sztucznej inteligencji RankBrain cały czas się udoskonala, wykorzystując uczenie maszynowe.

 

Bert Update

Aktualizacja BERT (ang. Bidirectional Encoder Representations from Transformers) to, najprościej ujmując, uzupełnienie opisanego wcześniej mechanizmu RankBrain. Aktualizacja oparta jest na sieci neuronowej i jest na tyle duża, że Google musiało umieścić ją w całości w chmurze Cloud TPUs. BERT usprawnia założenie RankBrain, jeszcze lepiej odczytując pozwiązania oraz kontekst pomiędzy frazami w zapytaniu. Głównym usprawnieniem jest lepsze zrozumienie odmiany słów oraz zaimków w zapytaniu, które często odgrywają kluczowe role. Zmiany te nie dotyczą oceny strony internetowej, ale przestawiają wyniki wyszukiwania. Oznacza to, że zmiany w wynikach wyszukiwania pod wpływem Berta nie są nagrodą ani karą lecz efektem lepszego dopasowania wyników do zapytań.

Szacuje się, że w dniu uruchomienia aktualizacji w 2018 roku BERT wpłynął na blisko 10% wyników wszystkich zapytań. To więcej niż Panda oraz Pingwin. Od grudnia 2019 roku aktualizacja obejmuje również zapytania w języku polskim.

W bercie została wykorzystana technologia NLP (ang. Natural language processing), co pozwoliło na lepsze zrozumienie intencji osób wyszukujących. Każdy język ma swoje unikatowe niuanse, które mogą nastręczać trudności algorytmom Google. Sprawa komplikuje się tym bardziej, jeśli weźmiemy pod uwagę np. polskie homonimy oraz wyraz typu homogonicznego. Takie przypadki rzadko występują w języku polskim, co dodatkowo utrudnia Voice Search, czyli wyszukiwanie głosowe. Dla ludzi wieloznaczność nie jest problemem – mierzymy się z nią codziennie i wiemy, że kontekst jest kluczowy dla komunikacji. Rozumiemy instrynktownie, czy chodzi nam o zamek w kurtce czy zamek w Książu. Dla robotów wieloznacznośc jest wyzwaniem. Wyzwaniem jest również dla inżynierów z Google, którzy chcieli dostarczać jak najbardziej dopasowane odpowiedzi na konkretne zapytanie. 

Jak wpływa to na tworzenie treści? Otóż to kolejny krok w tworzeniu tekstów dla użytkowników, nie dla robotów – słowa kluczowe przestają być nomen omen kluczowe. Stają się dodatkiem. Google przestaje ignorować stop words, czyli zaimki, przyimki i spójniki.

 

Algorytmy Google: podsumowanie

Algorytm Google nie jest monolitem – nieustannie zmienia się i ewoluuje, by coraz lepiej dopasować się do użytkowników internetu. Użytkownik ten jest coraz bardziej świadomy, nastawiony na cel np. zdobycie wiedzy i chce ten cel osiągać natychmiastowo na swoim urządzeniu przenośnym.

Złożonoć algorytmów sprawia, że nie sposób ułożyć jednego sprawnego procesu pozycjonowania bądź jasnych wytycznych, co należy zrobić, by strona była na wysokiej pozycji – wszystko uzależnione jest od branży, języka, jakim operujemy oraz konkurencji, z którą przyszło się mierzyć. Sprawę utrudnia fakt, że Google nie zawsze informuje o planowanych zmianach algorytmów – trudno je zatem włączyć do procesu planowania działań SEO.

 

Strony, na których można śledzić update’y Google:

 

 

 

 

Narzędzie to monitoruje około 17 tysięcy fraz i na podstawie ich fluktuacji wyciąga wnioski dotyczące zmian w algorytmie. Opiera się na wskaźniku „roo” – im wyższa wartość, tym wyższa zmienność. Niska wartość roo oznacza mniejsze natężenie zmian w algorytmie. Ciekawym dodatkiem jest przedstawienie „tygodniowyh zwycięzców” i „tygodniowych przegranych”. Funkcja jest dostępna wyłącznie dla stron agnlojęzycznych, jednka na podstawie tych danych można wyciągnąc wnioski, które branże mają wahania dobowe.

 

 

 

 

Szczególną zaletą narzędzia jest fakt, że można posortować zmiany w oparciu o konkretne kategorie, jak wrónież według urządzenia czy też lokalizacji (na maj 2021 roku wciąż niedostepna jest wersja polska).

 

 

Kontakt

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

W trakcie koronawirusa pękła magiczna liczba 40 tysięcy sklepów internetowych w Polsce. Niestandardowa sytuacja spowodowała, że nagle wielu przedsiębiorców dostrzegło szansę prowadzenia swojego biznesu online. 38% konsumentów zaopatrzyło się w sieci w potrzebne zapasy żywności czy środków higienicznych i chemicznych. Czy gdyby to nie był twój sklep, to kupiłbyś/kupiłabyś właśnie u siebie? Odpowiedz na to pytanie szczerze i z serca. A jeśli tak, to dlaczego? Gdy już znajdziesz odpowiedź na to pytanie… Powiedz to swojemu klientowi.

Skokowy wzrost liczby sklepów online jest czymś, co wcześniej nie miało miejsca. Jednak skoro żyjemy w tak ciekawych czasach należy pamiętać, że nie wystarczy założyć sklepu, by zaczął sprzedawać. Oprócz konkurencyjnych cen, przyjaznego sklepu internetowego jak również dobrze zoptymalizowanej strony, którą z łatwością można odszukać w Google, niezbędne jest również to by dać klientowi powód, by to właśnie u nas zrobił zakupy.

 

Cena nie czyni cudów

Skoro na rynku jest aż tyle sklepów internetowych to jak z nimi konkurować? Nikt jeszcze nie wygrał ceną z chińskimi gigantami. Często mniejsze sklepy nie mają też wynegocjowanych dobrych umów z firmami kurierskimi, więc nie mogą konkurować tanią bądź darmową wysyłką.

Skoro darmowa wysyłka i bezpłatny zwrot są zarezerwowane dla Zalando, a najniższą cenę da Aliexpress, to jak można mierzyć się z tymi e-commercowymi kolosami? Warto znaleźć inną niszę, dzięki której będziemy wyjątkowi.

 

Czym jest USP czyli Unique Selling Proposition

Czymś takim jest USP czyli Unique Selling Proposition. Jest to unikatowa propozycja sprzedaży, która w jakiś sposób wyróżnia nas spośród wielu konkurentów na rynku. By stworzyć dobry USP trzeba przede wszystkim znać prawdziwe potrzeby swoich klientów. Warto odpowiedzieć sobie na pytanie:

Pytania te powinny stanowić kamień węgielny wszelkich strategii marketingowych. Jeszcze nim zaczniemy tworzyć stronę internetową, powinniśmy zapytać samych siebie – dlaczego klient miałby przyjść właśnie do mnie? Odpowiedzi zawierające słowa takie jak: innowacyjne, jedyne w swoim rodzaju – są błędne. W dzisiejszym świecie sklepów internetowych, co drugi przedsiębiorca określa swój biznes jako innowacyjny i nie ma to nic wspólnego z rzeczywistym znaczeniem tego słowa. W Unique Selling Proposition chodzi nie o slogany, a o konkrety.

Na stronie Volvo pojawiają się slogany o innowacyjności, jednak poparte rzeczywistymi przykładami działań. Pokazana jest rzeczywista technologia, która ma zwiększyć bezpieczeństwo prowadzenia samochodów. Mają oni też cel w postaci – żadnego śmiertelnego wypadku drogowego do 2030 roku.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

USP w przypadku Volvo to bezpieczeństwo. Marka ściśle związała się z hasłem o bezpieczeństwie i w głowach ludzi, niekoniecznie kierowców, czy też pasjonatów motoryzacji, Volvo jest synonimem bezpiecznego samochodu. W całej komunikacji Volvo widać, że oni wiedzą, iż jest to ich największa wartość, tym samym podkreślają to na każdym kroku np. w reklamach Google Ads:

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Dwukrotnie przewija się podkreślenie bezpieczeństwa dla ludzi, i dla przyrody. Co ciekawe kreują się na markę społecznie zaangażowaną. Swoich badań nie zatrzymują dla siebie, tylko udostępniają – dla powszechnego dobra:

To kolejny element USP – bardziej niż na pieniądzach zależy jej na powszechnym bezpieczeństwie (oczywiście – na taką się kreuje).

Co bardzo istotne – nie jest tak, że na jednej podstronie pojawia się temat bezpieczeństwa, tylko cała strona informuje o tym, że to właśnie ono jest kluczowe. Wiemy o tym z meta description, ze strony głównej, z zakładek na stronie. Cała strona jest wielką opowieścią o tym, jakie powinny być samochody.

Co z historii Volvo wynika, zwłaszcza dla mniejszych przedsiębiorców? Nie konkurujmy ceną – można obniżać marżę bez końca, być na minusie a i tak przegrać z chińskim gigantem. Znajdźmy niszę – element, którego faktycznie brakuje naszym klientom. Może się okazać, że klienci wcale nie chcą najtańszego samochodu, wolą by był bezpieczny.

Innym tego typu insightem konsumenckim jest np. irytacja klientów z powodu krótkiego działania baterii i tego, że non stop trzeba je wymieniać. Wykorzystał to Duracell, który jednoznacznie skojarzył się z długotrwałym działaniem baterii. Długotrwałe użytkowanie baterii Duracell podkreślają już od meta desription:

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

USP a storytelling

Dobrym pomysłem na ukształtowanie swojego własnego unique selling proposition jest wykorzystanie storytellingu. Opowiedzmy o tym, dlaczego wymyśliliśmy naszą markę – czego według nas brakowało na rynku i jaką lukę zapełniamy.

Dobrze prezentuje to marka Marie Zelie, która zbudowała swój brand na braku w Polsce reprezentanta tzw. modest fashion. Marka ta promuje się hasłem „kobiecość otulona w jakość”, co dobrze koresponduje z wartościami chrześcijańskimi i silnym rozdziałem tego co typowo kobiece i typowo męskie, co np. właściciel marki podkreślał wielokrotnie czy to w wywiadach, czy na swoim prywatnym blogu (https://krzysztofzietarski.pl/buduje-marke-odziezowa/). Stworzył w ten sposób mit założycielski marki dla kobiet, które chcą wyglądać stylowo i skromnie zarazem. „Kobieta ubrana w Marie Zélie zawsze i wszędzie czuła się swobodnie i pewnie, a jednocześnie elegancko i pięknie”

Wokół USP „kobiecych ubrań” zgromadzono wiele osób, które w jakiś sposób utożsamiają się z marką i nie tylko podobają im się ubrania, ale również wyznają podobne wartości. Gromadzą się np. w zamkniętych grupach facebookowych, gdzie to sprzedają ubrania, wymieniają się, ale również radzą się i dzielą swoim pojmowaniem kobiecości. Operują konkretnymi nazwami sukienek, ponieważ są tak zżyte z marką. Wokół USP marki Marie Zelie utworzyła się bardzo aktywna społeczność, która dyskutuje na temat domu, problemów, macierzyństwa.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

O Unique Selling Proposition informuje w tym wypadku strona, Facebook, title strony głównej i meta description, wywiady na różnych stronach i w różnych gazetach, prywatny blog, rabaty dla dużych rodzin. Wokół USP zbudowana została narracja, która tworzy tożsamość marki, sprawiając, że osobowość jest bardzo wyraźna.

Czego uczy Marie Zelie? Tego, że komunikacja powinna być spójna – wybierz swoje USP i sukcesywnie buduj komunikację w oparciu o wybrane przez Ciebie idee. Uwypuklaj te cechy, które określają osobowość marki. Kierujesz swoje sukienki do pań, które identyfikują się z tradycyjnymi wartościami rodzinnymi? Daj dodatkowy rabat na Kartę Dużej Rodziny. Wokół USP można z powodzeniem stworzyć społeczność, która jednocześnie będzie sama dookreślać USP marki.

 

USP a ściema – czy klienci nie dadzą się nabrać?

Przypuśćmy, że jesteśmy właścicielami firmy. Wybieramy, że nasza firma kosmetyczna będzie sprzedawać kosmetyki pakowane w ekologiczne pudełka. W meta description umieszczamy hasła o ekologii, na stronie zaś o tym jak ważna jest dla nas planeta i cenimy sobie zrównoważony rozwój. Zapominamy jednak o tym, że jesteśmy eko testując kosmetyki na zwierzętach. Prędzej czy później ktoś się zorientuje. Prędzej czy później ktoś zwróci na to uwagę. Prędzej czy później – trzeba się będzie ustosunkować.

Takie konkretne zachowanie nazywa się greenwashing. A całość jest po prostu brakiem autentyczności. A autentyczność jest kluczem w prowadzeniu biznesu. Autentyczność od kilku lat jest trendem, z którym trzeba się liczyć. Marki mają mieć ludzką twarz. Jak uchronić się przed posądzeniem o brak autentyczności? Po prostu… nie kłamać. Jeśli nie jesteśmy ekologiczni, nie eksponujemy tego elementu swojej firmy. Jeśli nie tworzymy produktów tylko w Polsce, albo nie jesteśmy pewni, skąd dostawcy mają półprodukty – nie chwalimy się polską produkcją. Składaj obietnice swoim klientom, tylko jeśli jesteś w stanie ich dotrzymać. Ktoś w końcu Cię z nich rozliczy.

SEO

Dlatego przy wyborze USP ważna jest transparentność. Zauważ niszę i faktyczne potrzeby swoich klientów, jednocześnie wypełnił tę lukę prawdziwie. Taką firmą jest np. Your Kaya. Myśląc podpaski, do głowy przychodzi firma Always. Stworzone są dla pań, którym zależy na tym, by podpaski były biodegradowalne, ale również na tym, by podpaski były obojętne dla flory bakteryjnej. Stawiają na etyczność produkcji, ekologii – wszystko to stało się filozofią stojącą za tą marką. Stworzyli wokół siebie grupę zaangażowanych odbiorczyń, które dodatkowo mocniej wiążą się z marką poprzez subskrypcje środków higienicznych.

Your Kaya oferuje comiesięczny abonament, w którym wysyła konieczne środki higieniczne. Subskrypcje dużo mocniej związują klienta z marką, sprawiając, że właściwie co miesiąc mają kontakt z tą marką. Co ważne, dla wielu kobiet okres jest czymś nieprzyjemnym i otrzymują one wsparcie od Your KAYA. Marka środków higienicznych, która przestała mówić, że menstruacja to radość.

Your KAYA oswaja ten temat, mówiąc, że każda przeżywa inaczej ten czas – czasem boleśnie, czasem bez bólu, ale jest to doświadczenie wspólne dla połowy populacji. Your Kaya umacnia swoje USP poprzez reklamy w Google ADS – podkreślają tam brak dodatków typu chlor. Targetują reklamy na hasła powiązane z ekologią.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Ponadto bardzo aktywnie prowadzą bloga, który stara się odtabuizować temat menstruacji i wprowadzić go do codziennej komunikacji.

Jedna z ich pierwszych reklam na Youtube to MenTRUEacja – https://www.youtube.com/watch?v=5-tYeqA48Ns, która również niesie przekaz ekologiczności, naturalności, ale też siostrzeństwa w doświadczaniu miesiączki. Ważnym elementem w budowaniu USP marki jest content marketing. Artykuły na blogu Your KAYA są ekspercie a jednocześnie wspierające.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Przykłady tekstów blogowych:

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Jak widać rozpiętość tematyczna jest duża, jednak każdy temat koresponduje z ideą „normalnie o okresie”. Na blogu stawiają jednak mocniej na to, by być źródłem wiedzy, która nie jest wbrew pozorom tak powszechnie dostępna.

Z kolei na Facebooku i na Instagramie Your KAYA z powodzeniem stara się być… przyjaciółką. I to też wpisuje się w USP – naturalność, ekologiczność, siostrzeństwo. Przy dodawaniu na grupę na Facebooku pytają o ulubioną piosenkę, z kolei na Instagramie szukają pomysłu na inną nazwę dla „niedoskonałości”, bo przecież piegi, cellulit, kurze łapki i rozstępy są wyjątkowe i piękne.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Narrację „przyjaciółki” podtrzymują również w newsletterze, opowiadając o tym jak wyglądało firmowe spotkanie integracyjne oraz pokazując nietuzinkowy tort:
Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

 

USP a SEO

USP ściśle wiąże się z SEO i warto je wykorzystać w pozycjonowaniu. Jeśli właściciel marki stworzy dobre USP, które jasno wynika z insightów konsumenckich, to nagle okazuje się, że wiemy czego szuka dany klient – nasz klient.

Tutaj pojawia się SEO w postaci słów kluczowych dopasowanych do naszej usługi i naszego USP. Przez Google możemy znaleźć inne osoby, które są podobne do naszych aktualnych klientów i szukać ich przy pomocy fraz longtailowych z naszym USP. USP wynika z rozumienia klienta, a rozumienie klienta przyczynia się do tego, że wiemy, czego szuka w Google. Im bardziej trafna i dogłębna analiza klientów, tym lepiej dopasowane słowa kluczowe.

SEO dzięki dobrze dobranym słowom kluczowym pozwoli znaleźć klientów zainteresowanych naszym USP i trafić do bardzo konkretnej niszy. O ile większe marki, tak jak np. Duracell, czy też Volvo stały się synonimami swoich USP, tak mniejsze marki muszą na każdym kroku zaznaczać, że ich marka jest odpowiedzią na potrzeby użytkowników.

Skoro wiesz już, czego potrzebują Twoi klienci wybierz odpowiednie słowa kluczowe. Znajdź takie, które dobrze opisują Twoją niszę. Prawdopodobnie będą to frazy long tailowe. Przykład w przypadku Your Kaya.
– ekologiczne tampony,
– eko higiena,
– podpaski z organicznej bawełny.

Z kolei Marie Zelie, którego USP to „kobiecość otulona w jakość” może pozycjonować się na:
– sukienka codzienna midi
Jednocześnie widać, że dla ich użytkowniczek ważne są materiały i jakość. Tym samym można dodać naturalne materiały: wełna, dzianina, jedwab, tworząc długie long taile. Dodatkowo warto zaakcentować klasyczne kroje – np. z koła, plisowana.

Strona główna również powinna już „na wejściu” informować o USP. Marie Zelie skupia się na naturalnych materiałach.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Oprócz funkcji PR-owej może pełnić również funkcję pozycjonującą. Your Kaya ma ciekawego bloga, który z powodzeniem można rozwinąć w stronę działań SEO. Z kolei YourKAYA podkreśla aspekt ekologiczności i organiczności swoich produktów.

Jak zwiększyć zyski z e-sklepu dzięki USP? Poznaj sprawdzone metody

Dlaczego tytuł jest ważny? Otóż jest to moment, w którym użytkownik, który wpisał jakąś frazę porównuje to, co wyszukał z tym co dostał. W zależności jak strona wypadnie w tym porównaniu zależy czy kliknie, czy też nie. Tytuł i meta description to miejsca, w których powinien znaleźć się opis strony, ale również USP, tłumaczący użytkownikowi, dlaczego na stronie jest dokładnie to, czego ktoś szuka. By dodatkowo zachęcić użytkownika na końcu powinno się znaleźć call to action.

W większości przypadków zakupy w Internecie wyglądają tak, że użytkownik ma otwarte kilkanaście zakładek z podobnym jeśli nie takim samym produktem. Cena jest podobna, wysyłka pewnie też w podobnej cenie. Najważniejsze to samemu wiedzieć, dlaczego spośród kilkunastu zakładek klient ma wybrać właśnie ciebie – potem… Po prostu pokaż swoje uzasadnienie na stronie.

Potrzebujesz pomocy w rozbudowaniu Twojego sklepu internetowego? Skontaktuj się z nami! 

Kontakt

SEO&Content Express 7/2020

Co można znaleźć pod #MyNextNormal? Jaki jest cel zmian wytycznych dotyczących spamu? Co ulepszono i z jakich nowych funkcji można korzystać w najnowszej wersji Screaming Froga? Wszystkiego dowiesz się z najnowszego wydania SEO&Content Express.
SEO Efektywnościowe

SEO

Nowy filtr w Google Search Console

Google poinformowało za pośrednictwem Twittera, że narzędzie Google Search Console zyskało nowy filtr w raporcie „Skuteczność”. Dotychczas dane o ilości kliknięć, wyświetleń, średnim CTR i pozycji można było porządkować za pomocą filtrów takich jak sieć, grafika, wideo. Dzięki kolejnemu filtrowi w GSC można uzyskać dane o ruchu pochodzące z karty „Wiadomości” w wyszukiwarce Google.

Wystarczy kliknąć „Typ wyszukiwania” na górze raportu skuteczności i wybrać opcję „wiadomości”. Na podstawie dyskusji odbywającej się na Twitterze dane w tym filtrze najprawdopodobniej zaczęły być zbierane od 30 czerwca 2020.
W związku z nazewnictwem, które mogło być niejednoznaczne, warto również dodać, że dotyczy to karty „Wiadomości” w wyszukiwarce, a nie Google News.
Natomiast, aby znaleźć się w karcie „Wiadomości” nie trzeba być wydawcą, ale ogólnie warto tworzyć wysokiej jakości content respektujący wymagania i politykę treści Google News.
Więcej informacji: https://www.seroundtable.com/google-search-console-performance-reports-news-filter-29808.html  oraz https://twitter.com/seoseb/status/1285614946739458051

Żaba jeszcze lepsza, czyli Screaming Frog v 13

Zainteresowanych tematem nie zdziwi pewnie fakt, że wyszła kolejna aktualizacja popularnego crawlera Screaming Frog – wersja 13 o żartobliwym kryptonimie “Lockdown”. Co takiego czeka nas w nowej odsłonie?
Prawie duplikaty
Innowacyjne rozwiązanie pozwala na zbadanie strony, nie tylko pod względem dokładnych duplikatów treści, ale także prawie duplikatów. Program po przeanalizowaniu treści wskaże nam, w jakim procentowo stopniu treści na danych stronach się powtarzają.

Screaming Frog

źródło: https://www.screamingfrog.co.uk/seo-spider-13/

Błędy ortograficzne, gramatyczne
Bywa tak, że jakość treści na stronach pozostawia wiele do życzenia. Nie każda osoba jest też lingwistycznym orłem. SF przychodzi na ratunek, oddając narzędzie do poprawy najczęściej popełnianych błędów ortograficznych i gramatycznych. Program samodzielnie je wynajduje i podpowiada możliwe rozwiązania. Funkcjonalność dostępna jest także w języku polskim!
Miejsce umiejscowienia linków
Teraz możesz zobaczyć również „pozycję linku” – każdego linku podczas indeksowania – na przykład, czy jest to nawigacja, zawartość strony, pasek boczny czy stopka. Jeżeli program wykaże, że dana pozycja nie jest odpowiednia, to w łatwy sposób będziesz mógł to zmienić. Porządek w pozycjach linków zwiększy wydajność i bezpieczeństwo strony.
Kontrola bezpieczeństwa
“Protocol” zmienia się w najnowszej wersji SF w “Security”. Wraz ze zmianą nazwy przychodzi bardzo przejrzysta i łatwa w użyciu funkcjonalność. W formie listy możesz zobaczyć wszystkie słabe punkty i elementy strony, a więc szybko je usunąć.
Usprawnienie UX
Nowi użytkownicy SF mieli sporo problemów z polem do podania adresu URL. Mylono je z polem wyszukiwarki. Z myślą o nowicjuszach SF powiększył pasek adresu i oprawił na kolorowo (wersja trial). Pojawiło się również okno do podglądu obrazów, możliwość zaznaczania komórek niekoniecznie ze sobą sąsiadujących i wiele innych udogodnień, ułatwiających korzystanie z programu.
Wprowadzono również inne mniejsze poprawki i aktualizacje, których pełną listę znajdziecie na stronie: https://www.screamingfrog.co.uk/seo-spider-13/
Semahead CSS
 

Google zaktualizowało wytyczne dotyczące spamu

Przed tą aktualizacją każde zgłoszenie użytkownika na temat podejrzenia witryny o rozsyłanie spamu groziło manualną karą nakładaną przez Google. Gary Illyes ogłosił niedawno, że teraz każdy raport dotyczący spamu będzie wykorzystywany jedynie w celu ulepszania algorytmy antyspamowego. Ulga dla spamerów? Niekoniecznie – bo zamiast walczyć z pojedynczymi przypadkami, Google bierze się za sprawę w sposób holistyczny. https://searchengineland.com/google-updated-guidelines-to-say-spam-reports-are-not-for-manual-actions-337192
 

Zachowania konsumenckie w czasie pandemii COVID-19

W ostatnich miesiącach wiele się działo – nie tylko za sprawą ogólnoświatowej pandemii. Google, na podstawie wyszukiwań, przygotowało bardzo dogłębny raport na temat zachowań ludzi z całego świata. Poniżej kilka najważniejszych trendów.
Protesty wokół hasła “black lives matters” i “jak bezpiecznie protestować” – to niewątpliwy temat numer jeden minionego miesiąca. Również składanie darowizn na pokrzywdzonych przez pandemię i ofiary rasizmu zjednoczyły w słusznej sprawie cały glob. Lokalne zakupy aby wspierać narodowe gospodarki i małych przedsiębiorców to również efekt pandemii.
Ludzie dostrzegli, jak ważne w tym czasie jest kupowanie u “sąsiada”, a nie w globalnej marce. Bezrobocie i zwolnienia związane z COVID-19 spowodowały również znaczący wzrost zapytań o prace dorywcze, czy nawet wakacyjne. W sferze rodzinnej największym boom odnotowały poszukiwania pomysłów na zajęcie czasu dzieciom i edukacji w domu.

Zachowanie podczas COVID19

źródło: https://www.thinkwithgoogle.com/intl/en-cee/insights-trends/research-data/covid-shopping-behaviour-insights/

Pełne opracowanie i szczegóły pod linkiem: https://www.thinkwithgoogle.com/intl/en-cee/insights-trends/research-data/covid-shopping-behaviour-insights/

 

Google Images rozszerzone o Knowledge Graph

Jeżeli zdarza Ci się korzystać z wyszukiwania obrazem, to na pewno zauważyłeś, że pierwsze prezentowane wyniki rozszerzają się o pole informacji powiązanych z danym zdjęciem – zazwyczaj jest to skrót informacji z Wikipedii. Bardzo przydatna funkcjonalność pozwalająca użytkownikom zgłębić dany temat od razu, bez konieczność przeklejania tytułów czy linków i rozpoczynania kolejnego wyszukiwania. Podejrzeć te zmiany możecie na stronie: https://searchengineland.com/google-images-adds-more-facts-about-images-with-the-knowledge-graph-337342
 

Social Media Selling – dlaczego NALEŻY dbać o Social Media

W wyniku lockdownu wielu szybko orientujących się w sytuacji przedsiębiorców przeniosło swoją działalność do social mediów. Może nie do końca działalność, bo w przypadku niektórych branż jest to niemożliwe, ale już samo zainteresowanie mediami okazało się wielkim sukcesem. Przede wszystkim dlatego, że każdy, kto tylko ma konta na FB, Insta czy LinkdIn – spędzał w nich zdecydowanie więcej czasu.
Jak pisze SSL wg. badań przeprowadzonych na LinkdInie – sprawna komunikacja zwiększa aż o 45{9f75b044ad8c8fba75c61671f3556dd67129e6440c4de06dd5c4a2623be9263c} szansę sprzedaży. Jeżeli więc Twój biznes dalej nie ruszył – zadbaj o swoje social media, a szanse na korzystne rezultaty finansowe znacznie wzrosną. Jak tego dokonać dowiesz się na: https://socialsaleslink.com/how-raising-your-linkedin-ssi-will-help-you-close-more-business/

 

Content Marketing

 

ICF Next z wizją społeczeństwa post-COVID

Niezwykła inicjatywa brukselskiej firmy ICF Next zachęcająca ludzi z całego świata do dzielenia się swoją wizją świata post-COVIDowego pod hasłem “My Next Normal”. To przedsięwzięcie jest kopalnią pomysłów dla firm z niemal każdej branży. Każdy człowiek może opisać swoją wizję zmian, jakie powinny zajść w społeczeństwach po pandemii.
Nie ma chyba lepszego sposobu na rozpoznanie pragnień i potrzeb konsumentów (aby w odpowiedzi zaproponować idealny content) niż zapytanie ich wprost, czego sami by chcieli. Aby śledzić na bieżąco wyniki akcji, wystarczy odnaleźć posty w mediach społecznościowych oznaczone #MyNextNormal.

Znów o wzmocnieniu contentu po COVIDZIE

Temat był już poruszany, jednak Giuseppe Caltabiano w bardzo obszernym i wartościowym artykule przekonuje nas, dlaczego content będzie znów na ustach wszystkich marketingowców, kiedy oficjalnie zakończymy światową pandemię. Przytacza on m.in. bardzo ciekawe badania konsumentów, zapytanych czego oczekują od marek w tym czasie. Wśród odpowiedzi są: jak firma wspiera działania przeciw-pandemiczne oraz jak firma reaguje i funkcjonuje w nowych okolicznościach. Zachęcamy do lektury pod adresem: https://en.rockcontent.com/blog/how-content-experience-will-evolve-after-coronavirus/

Zrób to sam, czyli jak samodzielnie pozycjonować stronę?

Dostępność narzędzi i źródeł wiedzy na temat SEO sprawia, że wiele działań jesteśmy w stanie przeprowadzić we własnym zakresie. Na co zwrócić uwagę, kiedy decydujemy się na samodzielną optymalizację witryny i które działania w szczególności wdrożyć?

Z tego artykułu dowiesz się między innymi: 

 

Kiedy warto prowadzić działania SEO we własnym zakresie?

To, czy warto podjąć się prowadzenia SEO we własnym zakresie, zależy od kilku czynników. Przede wszystkim należy wziąć pod uwagę skalę naszego biznesu. Jeśli strona ma już zbudowaną historię i przynosi realne zyski, nieodpowiednimi działaniami możemy przynieść więcej strat niż korzyści.

W takim przypadku dobrym pomysłem jest utworzenie dodatkowego serwisu w celach testowych, gdzie będziemy mogli sprawdzić skuteczność naszych rozwiązań i dopiero wtedy stosować je na właściwej stronie. Jednak jeśli nie mamy pewności co do efektów naszych działań, bezpieczniej skonsultować je ze specjalistą SEO.

W przypadku gdy rozpoczynamy pracę nad nową stroną lub też zajmujemy się niewielką witryną, która nie wypracowała jeszcze widoczności i ruchu, nic nie stoi na przeszkodzie, aby samodzielnie podjąć się działań optymalizacyjnych.

Jakie elementy możemy samodzielnie zoptymalizować?

W przypadku niewielkiej strony możemy zadbać o optymalizację elementów takich jak:

Zmiany dotyczące tych elementów są możliwe do wprowadzenia z poziomu panelu większości systemów CMS i ich wdrożenie nie powinno przysporzyć problemów. Wiedzę na temat ich optymalizacji możemy czerpać z licznych blogów branżowych, e-booków, kursów czy też oficjalnych wytycznych Google. Możemy też skorzystać z darmowych wtyczek czy „audytów SEO online” i zapoznać się z aktualną sytuacją strony. Ważne, aby stale monitorować wyniki testowanych rozwiązań, dzięki czemu sami możemy weryfikować, co jest skuteczne w przypadku naszej witryny.

 

Wybór fraz kluczowych i wstępna analiza strony

Pierwszym krokiem przy pracy nad naszym serwisem powinien być dobór fraz kluczowych, na które chcemy być widoczni w wyszukiwarce. W tym celu warto najpierw przeprowadzić analizę konkurencji i sprawdzić, na jakie frazy wyświetlają się rywalizujące z naszą stroną witryny, co pomoże w wytypowaniu najważniejszych także z naszego punktu widzenia słów. Do wybrania odpowiednich fraz możemy skorzystać z dedykowanych narzędzi takich jak Planer słów kluczowych Google czy Ubbersuggest. Propozycje słów kluczowych otrzymujemy też już na poziomie samej wyszukiwarki, która przy wpisywaniu zapytania podpowiada frazy wyszukiwane przez internautów.

Zaplanowanie architektury informacji

Zanim przejdziemy do uzupełnienia witryny o dobrane wcześniej frazy, musimy dopasować je do odpowiednich stron w serwisie. Jeśli umieścimy je w zbyt wielu miejscach, doprowadzimy do zjawiska kanibalizacji treści, czyli sytuacji, w której kilka stron zoptymalizowanych pod te same słowa kluczowe rywalizuje ze sobą o widoczność w wyszukiwarce. Aby temu zapobiec, należy zadbać o czytelną, zarówno dla użytkowników, jak i wyszukiwarki, strukturę serwisu. Przemyślana architektura informacji znacznie ułatwi osiągnięcie założonych efektów, dlatego jej zaplanowanie powinno stać się punktem wyjściowym dla dalszych prac nad serwisem.

Semahead CSS

Samodzielny audyt SEO

Drugim krokiem jest krótki audyt SEO, który pozwoli zweryfikować nam, w jakim stopniu strona jest zoptymalizowana pod interesujące nas słowa kluczowe. Nawet bez zaawansowanej wiedzy na temat optymalizacji, jesteśmy w stanie sprawdzić poprawność wdrożenia wielu elementów na stronie. Z pomocą przychodzą różne darmowe narzędzia i wtyczki, dzięki którym możemy przyjrzeć się ewentualnym błędom.

Przykładem są rozszerzenia takie jak SEOquake i Web Developer przydatne przy analizie onsite witryny. Narzędzie Screaming Frog, którego bezpłatna wersja umożliwia sprawdzenie 500 adresów URL, dostarczy nam istotnych informacji na temat struktury serwisu. Nie można też zapomnieć o dodaniu strony do Google Search Console i Google Analytics, aby na bieżąco śledzić stan indeksowania, monitorować ruch i wykrywać pojawiające się problemy.

Pozyskiwanie linków we własnym zakresie

Jak zdobywać linki, prowadząc samodzielne działania SEO? Przede wszystkim warto obserwować, a także udzielać się w roli eksperta na blogach, forach oraz w branżowych social mediach. W ten sposób zwiększymy rozpoznawalność brandu, a tam, gdzie to możliwe, do merytorycznego i wyczerpującego komentarza dodamy również odnośnik do naszej witryny.

 

Jakie działania powierzyć specjalistom SEO?

Płatne działania link buildngowe, jeśli nie mamy w nich doświadczenia, lepiej zlecić freelancerowi lub agencji. Bez odpowiedniej wiedzy i narzędzi trudno zweryfikować, czy zainwestowane pieniądze przyniosą adekwatny rezultat.

Konsultacji ze specjalistą wymagają też elementy związane z technicznym SEO. Jeśli chcemy uniknąć poważnych błędów na stronie, których konsekwencje mogą być odczuwalne przez długi czas, działania takie optymalizacja przekierowań czy zarządzanie dostępem dla robotów warto powierzyć specjaliście SEO.

Optymalizacja szybkości strony

Jeśli współpracujemy z deweloperem, we własnym zakresie możemy również wykonać optymalizację szybkości strony. Samo zmniejszenie rozmiaru grafik pozwoli nam na znaczne przyspieszenie działania witryny. Do tego możemy dodać optymalizację pod kątem UX, która przełoży się na lepszy odbiór naszej strony przez użytkowników i poprawę współczynnika konwersji.

Podsumowanie

Wiele z istotnych zmian, które przekładają się na wyniki w postaci widoczności i ruchu, możemy wprowadzić we własnym zakresie. Testowanie różnych rozwiązań i stałe monitorowanie wyników naszych działań pomoże nam w weryfikacji, które z nich się sprawdzają i przynoszą najlepsze efekty.

Kiedy chcemy optymalizować serwis, który ma już zbudowaną historię i przynosi realne zyski, bezpieczniej jest utworzyć stronę testową, gdzie będziemy sprawdzać rezultaty naszych działań, lub też skonsultować się ze specjalistą SEO. W ten sposób nie narazimy strony na trudne do odbudowania spadki.

 

Kontakt

 

Certyfikat SSL – sprawdź, jak wpływa na pozycjonowanie Twojej strony

Podstawową formą zapewnienia bezpieczeństwa użytkownikom w sieci jest wprowadzenie szyfrowania za pomocą certyfikatu SSL, który oprócz zadań ochronnych ma duży wpływ na odbiór witryny przez odwiedzających użytkowników. Co więcej, certyfikat bezpieczeństwa zastosowany w systemie szyfrowania portalu internetowego pomoże odnotować większy ruch, a także może przyczynić się do wywindowania pozycji witryny w wyszukiwarkach internetowych. Co jeszcze powinieneś wiedzieć na temat certyfikatu SSL? Tego dowiesz się poniżej. 

SEO

 

Dlaczego certyfikat SSL jest kluczową kwestią w pozycjonowaniu?

Bezpieczeństwo jest jedną z najważniejszych kwestii, jaką kieruje się Google. Firma ta przywiązuje duże znaczenie do bezpiecznych stron internetowych, czyli wszystkich witryn, które używają certyfikatu SSL do szyfrowania Twojej witryny. Takie portale mają większą szansę na uzyskanie dobrej pozycji w wyszukiwarkach. Certyfikat bezpieczeństwa jest zatem podstawową kwestią, na którą należy zwrócić szczególną uwagę. Certyfikaty SSL przeznaczone są do zapewnienia bezpieczeństwa stron internetowych. Dzięki nim możliwe jest uzyskanie skutecznego szyfrowania danych przesyłanych za pośrednictwem sieci internetowej. Narzędzie pomaga uzyskać pełną poufność danych, co chroni użytkownika przed m.in. stratą haseł czy danych o numerze karty kredytowej.
Certyfikat bezpieczeństwa to także gwarancja stabilności strony. Uwierzytelnianie strony internetowej chroni przed atakami i buduje zaufanie użytkowników, którzy mogą bezpiecznie korzystać z ochranianego portalu.

Effie Awards

 

Jak typy szyfrowania certyfikatu SSL wpływają na odbiór witryny i jakie są ich właściwości?

Certyfikaty bezpieczeństwa używane do zabezpieczenia danych dotyczą kwestii czysto technicznych, związanych z obsługą stron internetowych. Możemy wyróżnić kilka rodzajów certyfikatów SSL, wykorzystywanych na szeroką skalę. Nie ma pomiędzy nimi wielkich różnic. Najważniejszą kwestią dzielącą te typy certyfikatów jest sposób weryfikacji używającego szyfrowania. Istotnym aspektem jest także możliwość ich implementacji i wykorzystania zarówno do celów czysto biznesowych, jak i w celu maksymalizacji bezpieczeństwa, do których zostały przeznaczone.

 
Typ szyfrowania certyfikatu SSL można sprawdzić, klikając w symbol graficzny kłódki w górnym pasku przy adresie URL, a następnie wchodząc w zakładkę „certyfikat”:
Certyfikat SSL
 

Czy dzięki szyfrowaniu możemy osiągnąć sukces?

Dla wielu osób zainteresowanych tematem jest to niemałą zagwozdką. Nie da się bowiem jednoznacznie stwierdzić, w jakim stopniu certyfikat SSL pomaga w pozycjonowaniu stron internetowych. Google poinformowało, że protokół SSL/HTTPS jest jednym z czynników rankingowych, dlatego szyfrowanie strony internetowej z pewnością daje korzyść w zakresie pozycjonowania. Wykorzystywanie certyfikatów bezpieczeństwa ma jednak mniejszą wagę niż inne sygnały, takie jak treści wysokiej jakości. Niemniej jednak nadal jest to czynnik, który należy wziąć pod uwagę i który z pewnością będzie zyskiwał na znaczeniu.

Certyfikat SSL

Źródło: https://transparencyreport.google.com/https

 
Jak widać na powyższym obrazku – 94 domen należących do Google wysyła zaszyfrowany ruch. W planach Google jest jednak zwiększenie oddziaływania tego czynnika, co ma zachęcić wszystkie strony internetowe do przejścia z HTTP na HTTPS – w celu zapewnienia bezpieczeństwa wszystkich danych użytkownika w sieci.

 

Jaki wpływ na odbiór mają bezpieczne strony internetowe?

Nie tylko treść ma wpływ na odbiór strony internetowej w sieci. Przede wszystkim odpowiednie działania pozycjonerskie dają bezpośrednie korzyści w uzyskiwaniu dobrych wyników w wyszukiwarkach. Jednakże pomijanie kwestii bezpieczeństwa witryny jest dużym błędem. Użytkownicy zwracają uwagę na szereg aspektów i szczegółów. Certyfikat SSL może pomóc w uzyskaniu większego grona klientów, ze względu na kilka czynników:

Certyfikat SSL

Źródło: https://www.httpvshttps.com/

 
Podsumowując: certyfikat SSL nie jest głównym czynnikiem wskazującym na sukces w procesie pozycjonowania stron internetowych, jednak brak zastosowania szyfrowania strony znacznie ogranicza szansę na sukces marki. Znaczenie certyfikatu niebawem wzrośnie, co zostało zapowiedziane przez Google’a, a już teraz można zaobserwować zauważalny wpływ szyfrowania na popularyzację witryn w wyszukiwarkach. Dlatego warto pamiętać, że bezpieczna witryna staje się sygnałem zaufania i autorytetu, co wzmacnia wyniki uzyskiwane przez szyfrowane strony internetowe.
Chcesz skutecznie wypozycjonować swoją stronę internetową? Zgłoś się do nas!

kontakt

SEO i UX – dlaczego muszą się wspierać?

Wielu specjalistów SEO pamięta czasy, gdzie w branży wyszukiwarek liczyła się bardziej ilość niż jakość. Wraz z rozwojem technologicznym i postępami Google użytkownik został postawiony w centrum uwagi. Dlatego SEO coraz bardziej zaczyna łączyć się z działaniami UX, co daje bardzo dobrą współpracę poprzez synergię.

Czym jest to wspomniane User Experience?

Najprościej mówiąc User Experience jest to całość doświadczeń użytkownika związanych z danym produktem lub usługą. W naszym przypadku są to strony internetowe. UX otacza nas wszędzie, nawet w codziennym życiu, korzystając na przykład z nowego ekspresu w biurze, zmywarki, a nawet otwierając drzwi w sklepie. Ilu z was zdarzyło się pchnąć drzwi, kiedy trzeba było je pociągnąć?

Dlatego właśnie naklejki na drzwiach zwiększają User Experience i podpowiadają co mamy z nimi zrobić. Tak samo jest ze stronami internetowymi. Jeśli nie poprowadzimy użytkownika za rękę i nie dostosujemy jej tak jak on tego oczekuje, to możemy liczyć na to, że zrazimy do swojej strony bardzo wiele osób.

Dlaczego User Experience wspiera działania SEO?

Dlaczego UX wspiera działania SEO? Odpowiedź jest bardzo prosta! Ogół działań SEO ma na celu przyciągnięcie użytkownika do naszej witryny. Użytkownik został sprowadzony, ale co dalej? Zostawiamy go w otchłani witryny ze słowami „Drogi użytkowniku – dalej musisz poradzić sobie sam”.

Tak naprawdę, jeśli zostawimy użytkownika samemu sobie, to może szybko się okazać, że zwiększył nam w Google Analytics nasz współczynnik odrzuceń, a tego byśmy nie chcieli. Dlatego z pomocą przychodzi nam UX, dzięki któremu jesteśmy w stanie pokazać użytkownikowi znaki, w którą stronę ma podążać. Chodzi oczywiście o spełnienie celu witryny, którym jest zakup produktu, wysłanie wiadomości, telefon.

Dlatego poza działaniami SEO warto się skupić na tym, aby nasza strona była użyteczna, atrakcyjna i dawała wartość użytkownikowi, której oczekuje. Dlaczego? Ponieważ mam tylko kilka sekund, by zatrzymać użytkownika na naszej stronie. Pierwsze wrażenie, jakie dostaje użytkownik po wejściu na witrynę, jest najważniejsze. Jeśli jest negatywne, to niestety użytkownik ucieka do konkurencji, która jest praktycznie w każdej branży (za wyjątkiem monopolistów).

SEO to ja potrafię, ale co z tym UXem – jak sprawdzić, czy strona się podoba użytkownikom?

No właśnie: jak sprawdzić, czy strona internetowa podoba się naszym użytkownikom? Jest na to kilka prostych sposobów, które pozwolą dokonać takiej analizy oraz kilka takich, które wymagają czasu. Chcesz się dowiedzieć? Poniżej prezentuję 3 wskazówki. Oczywiście jest ich o wiele więcej.

1.  Współczynnik odrzuceń

Jednym z tych najszybszych sposobów jest sprawdzenie współczynnika (bounce rate) odrzuceń w Google Analytics. Ta prosta i ogólna metryka da nam pogląd na to, jak witryna jest odbierana przez wszystkich użytkowników. Przyjmujemy, że poprawna wartość współczynnika powinna wynosić około 30-40%. Jeśli jest on powyżej tej wartości, wówczas warto bliżej przyjrzeć się naszej stronie. Jeśli  jest wyższa o 60%, to strona wymaga niezwłocznej analizy i znalezienia przyczyny tego, że użytkownicy tak często uciekają ze strony.

Twoja strona jest w tym górnym przedziale? Spokojnie, to jeszcze nie pora na panikę. Duża część ruchu w Internecie to boty, więc jeśli Twój widok nie posiada filtrów, które „odsiewają” pusty ruch, to prawdopodobnie wysoki współczynnik odrzuceń jest spowodowany nimi.

Współczynnik odrzuceń można sprawdzić przechodząc w Google Analytics do Odbiorcy > Przegląd.

współczynnik odrzuceń grafika

Bardziej dokładne informacje rozdzielone na poszczególne podstrony mamy w zakładce Zachowanie > Zawartość witryny > Wszystkie strony.

Współczynnik odrzuceń - grafika

2. Średni czas trwania sesji

Drugą podstawową metryką, na którą warto zwrócić uwagę, jest średni czas trwania sesji, który również daje nam rozeznanie w tym, ile czasu spędzają użytkownicy na naszej stronie. Jeśli nasza strona ma angażować, a średni czas jest krótki, to również zalecamy przegląd strony pod kątem użyteczności. Tutaj tak samo jak w przypadku współczynnika odrzuceń warto w pierwszej kolejności upewnić się, że „odsiewamy” ruch botów.

Średni czas trwania sesji można sprawdzić przechodząc w Google Analytics do Odbiorcy > Przegląd.

Google Analytics grafika

Bardziej dokładne informacje rozdzielone na poszczególne podstrony mamy w zakładce Zachowanie > Zawartość witryny > Wszystkie strony.

Google Analytics grafika

3. Konwersje na stronie

Jeśli pomimo dobrego ruchu na stronie nie realizuje ona założonego celu, który został postawiony przy jej tworzeniu (bądź nie, co jest ogromnym błędem), to prawdopodobnie strona nie jest dostosowana do użytkowników i nie spełnia ich oczekiwań w taki sposób, jak powinna. To jest jednak tylko hipoteza, którą trzeba zweryfikować na przykład przy użyciu narzędzi analitycznych, takich jak Google Analytics lub takich, które badają zachowania użytkowników (np. Hotjar).

Najczęściej popełniane błędy, które odpychają użytkowników – nasze doświadczenie

Przedstawiliśmy kilka przykładów jak sprawdzić, czy strona jest dobrze odbierana przez użytkownika. A teraz podamy kilka najczystszych błędów użyteczności na stronach internetowych, które skutecznie powodują klikanie przycisku wstecz i zamykanie kart w przeglądarkach internetowych. Jeśli występują na Twojej stronie, to już wiesz od czego zacząć optymalizację strony.

Kilka słów podsumowania

Jeśli ktoś Ci mówi, że SEO nie da się połączyć z UXem, to uciekaj! A tak całkiem serio: z czasem można zauważyć, że SEO bardzo mocno zaczyna korelować z UXem. Google od dłuższego czasu namawia, by dostosowywać strony internetowe tak, by była przyjazna dla użytkowników. Dlatego, jeśli Twoja strona aktualnie posiada SEO, a nigdy nie była analizowana pod kątem UX, to warto przeprowadzić ten krok. Połączenie działań SEO i UX może dać wymierne korzyści w postaci wzrostu współczynnika konwersji na Twojej stronie. Zachęcony do działania? To do dzieła!

Jak poprawić widoczność bloga? Poznaj 8 najważniejszych wskazówek

Blog jest obecnie w wielu przypadkach integralną częścią sklepów internetowych lub stron należących do firm reklamujących swoje usługi w sieci. Systematyczne pojawianie się nowych, angażujących treści może prowadzić do zwiększenia ruchu w witrynie lub wzmocnienia rozpoznawalności i wizerunku firmy w Internecie. Jeśli prowadzisz bloga to w tym artykule dowiesz się jak zadbać o jego widoczność w wyszukiwarce.

 

1. Przyjmij strategię długofalową

Jesteś przed podjęciem decyzji o rozpoczęciu prowadzenia własnego bloga? To doskonała okazja na dokładne zaplanowanie strategii, według której będziesz podejmować kolejne działania związane z publikowaniem artykułów.

Po pierwsze określ główne cele jakie chcesz osiągnąć. Czy będą związane z edukacją? Wywoływaniem konkretnych emocji? Promocją produktów lub usług? Zarabianiem na publikowanych treściach? Jeśli na początku odpowiesz na te pytania, będziesz mógł ustalić wskaźniki, które pomogą Ci w ocenie efektów. Miarą może być np. współczynnik konwersji w sklepie, ilość subskrybentów, a także komentarze o określonym oraz stopień zaangażowania użytkowników w portalach branżowych lub social media.

Oczywiście jednym z najważniejszych celów powinno być dla Ciebie zwiększenie widoczności w wyszukiwarce i docieranie do wybranej przez Ciebie. W tym miejscu polecam, aby nie zostawiać tego tematu na później i od razu stworzyć grupę tzw. person, czyli fikcyjnych osób, które będą utożsamiane z realnymi użytkownikami. Będą to postacie zainteresowane Twoimi usługami, produktami lub treściami, jakie udostępniasz. Dzięki temu zawsze będziesz wiedzieć, do kogo kierujesz swoje przemyślenia i łatwiej dobierzesz język swoich wypowiedzi.

Twórz swoje artykuły według określonego planu. Rozpisuj tematykę treści przynajmniej na następny tydzień. Zaplanuj swoje działania na cały miesiąc lub kwartał. Ustal częstotliwość publikacji i nie wyznaczaj sobie nierealnej do osiągnięcia liczby. Będzie lepiej, jeśli raz w tygodniu dostarczysz angażującą, świeżą w Internecie treść, aniżeli powielonego tekstu na temat, poruszany już przez innych w podobny sposób.

Semahead CSS

2. Wykonaj research słów kluczowych

Jeśli określiłeś już tematykę – czas na odpowiednie przygotowanie fraz kluczowych. Na początku wybierz jedną, najistotniejszą frazę. Jeśli prowadzisz sklep internetowy z akcesoriami dla dzieci może to być np. „wózek dla dzieci”. Załóżmy, że posiadasz już taką kategorię produktów i nie chcesz kanibalizować słów kluczowych, tworząc nowy tekst.

Nie skupiaj się więc na doborze fraz, które będą stricte związane z tym czego szuka użytkownik. Do tego służy właśnie odsłona kategorii lub odsłona produktowa. Zastanów się natomiast nad tym, co wiąże się z tą tematyką, co może pomóc użytkownikowi, który nie do końca wie czego szuka. Być może szuka wiedzy na jakiś temat? Prowadzi research? Na początku skorzystaj z odpowiednich narzędzi, które pomogą Ci w znalezieniu odpowiednich pytań, na które może odpowiedzieć Twój artykuł. Wypróbuj na przykład https://answerthepublic.com/. Po wpisaniu frazy głównej i wybraniu języka polskiego, otrzymasz interesujące Cię podpowiedzi. Na poniższej grafice znajdziesz przykładową ich część.

answearthepublic

Po weryfikacji tego co otrzymaliśmy i zbadaniu średniej ilości wyszukań danej frazy np. w Planerze słów kluczowych lub Ubersuggest, czy Senuto, uzyskamy kilka interesujących nas sformułowań. Przy okazji te narzędzia wskażą nam pasujące słowa, dzięki czemu stworzymy odpowiednią listę. Poniżej przykłady:

W tym miejscu koniecznie pamiętaj o sezonowości – artykuły nasycone przez dane słowa mogą być częściej wyszukiwane np. w sezonie zimowym, zamiast letnim. Dlatego jeśli zależy Ci na wysokich pozycjach, twórz je odpowiednio wcześniej, aby mieć czas na ich optymalizację oraz osiągnięcie odpowiednich pozycji w wyszukiwarce. Do określenia takich słów najbardziej przydatne będzie narzędzie Google Trends.

 

3. Pamiętaj o wytycznych SEO

Kiedy już wybierzesz odpowiednie frazy kluczowe, pamiętaj o zawarciu ich w konkretnych elementach podstrony, takich jak:

Nie skupiaj się jednak na sztucznym upychaniu słów kluczowych, a raczej na naturalnym ich rozmieszczeniu i odmianie przez przypadki. Często wystarczy jeśli konkretne sformułowania pojawią się w tekście tylko raz.

Ustal również z góry orientacyjną ilość znaków, które będą składały się na Twoje artykuły. Będzie łatwiej zachować Ci systematyczność w ich tworzeniu. Pamiętaj, aby nie trzymać się ich sztywno, ponieważ długość tekstu jest zależna głównie od ilości i potencjału wybranych fraz kluczowych, stopnia trudności oraz rodzaju tematu, jaki wybierzesz.

Kiedy chcesz dopasować swoją treść do tego co robi konkurencja, dobrym narzędziem może okazać się edytor tekstów, dostępny w płatnym narzędziu Surfer SEO. Analizuje on teksty konkurencji pojawiające się na wysokich pozycjach w wyszukiwarce, a następnie według tego rekomenduje parametry takie jak: długość tekstu, konkretne frazy kluczowe oraz ich nasycenie.

Semahead CSS

4. Angażująca treść szansą na widoczność w różnych mediach wyszukiwarki

Zazwyczaj najwięcej udostępnień ma krótki content (np. news, post w social mediach) albo treść kompleksowa, rozwinięta i wyczerpująca dany temat. Zdarza się, że warto stworzyć krótki tekst, ale jednocześnie zawrzeć w nim wiele atrakcyjnych zdjęć. Przykładem może być poradnik o tym, jak urządzić kuchnię lub opis tego czym jest styl skandynawski. Istotne będzie tutaj określenie grupy docelowej lub tzw. person. Widoczność może wzrosnąć, jeśli oprócz tekstu zadbamy również o użyteczność strony. Content i UX to w obecnych czasach rzeczy równie ważne w osiągnięciu wyznaczonych celów.

Dobry tekst powinien:

Jeśli dobrze rozpiszesz sobie to, o czym powinieneś napisać w tekście oraz zawrzesz w nim odpowiednie elementy to masz szansę, że tekst będzie widoczny na dużą ilość fraz oraz nie zginie w natłoku innych, krótkich treści na innych portalach. Co więcej: jeśli artykuł precyzyjnie odpowiada na często zadawane pytania, które zaczynają się od słów: „co to”, „jak zrobić”, „jak ugotować” itd., a serwis, na którym jest publikowany posiada odpowiedni autorytet, wówczas może on znaleźć się w okienku Direct Answers wyszukiwarki Google. Może okazać się to bardzo przydatne:

słowa kluczowe w wyszukiwarce

Warto podejść do tego w sposób sumienny, ponieważ poza podstawowymi wynikami organicznymi artykuł może pozyskać naturalne wejścia również z:

Google Grafika – jeśli artykuł posiada np. autorskie, wartościowe infografiki lub inne grafiki, które nie zostały już wcześniej wielokrotnie powielone. Oczywiście należy w tym miejscu wspomnieć o odpowiedniej optymalizacji grafik.

Google News – jeśli artykuł posiada charakter newsowy warto uwzględnić możliwość pojawienia się w tym medium. Dobrą praktyką jest mieć osobną kategorię dla tego typu treści oraz odpowiednio przystosowaną sitemapę. Natomiast oprócz tego należy spełnić warunki stawiane przez Google: https://support.google.com/news/publisher-center/answer/40787?hl=pl i zgłosić witrynę do Centrum wydawców Wiadomości Google.

Google Discover – to medium służy do wskazywania treści na urządzeniu mobilnym, która potencjalnie może zainteresować jego właściciela. Wybierając artykuły algorytm bazuje m.in. na tym, jakie serwisy dana osoba już wcześniej odwiedzała oraz na podstawie poprzednio wpisywanych fraz w wyszukiwarkę. Czynników jest oczywiście o wiele więcej. Natomiast Google nie stawia konkretnych wytycznych, pozwalających na pojawianie się serwisu w tym medium. W tym miejscu wspomina głównie o tym, że artykuł powinien być angażujący oraz unikalny. Kolejny raz przydaje się tutaj posiadanie określonej grupy odbiorców.

pozycjonowanie stron w wyszukiwarce

Oczywiście jeśli mowa o urządzeniach mobilnych warto, aby dana witryna ładowała się odpowiednio szybko i nie kazała czekać użytkownikowi zbyt długo. Strony, które mają z tym duży problem, mogą skorzystać z rozwiązania Google AMP. Dzięki niemu witryna może znacząco skrócić czas ładowania i stać się bardziej przyjazna dla użytkowników. Pamiętaj jednak, że istnieją pewne minusy tego rozwiązania, takie jak ograniczenie ilości elementów interaktywnych na stronie.

 

6. Zadbaj o autorytet strony

Aby artykuły stawały się dobrze widoczne i przynosiły wartościowy ruch, należy stale wzbogacać profil linków o odpowiednie domeny, które wzmocnią autorytet Twojej strony. Jeśli publikujesz artykuły, wymagające dużej wiarygodności, np. o tematyce około-medycznej, wówczas pamiętaj o odpowiednim wyeksponowaniu autora, który powinien mieć odpowiednią renomę w sieci. W tym konkretnym przypadku najlepiej, jeśli będzie to np. lekarz lub dietetyk.

7. Monitoruj i analizuj treść historycznych artykułów

Nie zapominaj o monitorowaniu efektów. Jeśli masz jasno określone i mierzalne cele – możesz pozyskać swoisty feedback od Twoich odbiorców i dzięki temu konfigurować i aktualizować artykuł, żeby stawał się jeszcze lepszy, ciekawszy oraz angażujący. Oczywiście podstawowym narzędziem do tego może być Google Analytics. Dzięki niemu dowiesz się więcej np. na temat czasu spędzonego na podstronie danego artykułu i porównasz w ten sposób między sobą wartościowość kilku swoich tekstów.

Do zbadania głębokości, na jaką przechodzą użytkownicy podczas czytania artykułu oraz np. w jakie odnośniki klikają, może posłużyć narzędzie Hot Jar. Nagrywa ono sesje użytkowników oraz tworzy mapy ciepła dla wybranych przez Ciebie podstron. Pozyskane w ten sposób dane pozwolą Ci na jeszcze lepsze zrozumienie Twoich odbiorców.

8. Przekonaj użytkowników do subskrypcji, ale nie rób tego w nachalny sposób

Zwykle najbardziej wartościowi odbiorcy to Ci, którzy chętnie wracają na Twoją stronę i czytają kolejne, publikowane przez Ciebie artykuły. Dlatego nie zapomnij o stworzeniu mechanizmu newslettera, za pomocą którego będziesz mógł komunikować się ze swoimi czytelnikami. Pamiętaj jednak o podstawowych zasadach przyzwoitości i nie wykorzystuj zaangażowania użytkowników w zbyt nachalny sposób, serwując im zbyt dużo irytując pop-upów. Staraj się tworzyć swoją listę mailingową w sposób subtelny i zastanów się dobrze, czy dany element strony zamiast zachęcać do zapisu, nie prowadzi raczej do poirytowania i prowadzi użytkownika do szybkiej ucieczki z witryny.

Podsumowanie

Publikowane przez Ciebie treści mogą być doskonałą okazją na pozyskanie nowych klientów lub oddanych czytelników. Aby Twoja droga prowadziła do oczekiwanych przez Ciebie efektów, pamiętaj o stworzeniu planu, trzymaniu się zasad webwritingu, tworzeniu angażujących oraz unikalnych treści, byciu systematycznym i nie zapominaj o SEO. Zwiększaj autorytet serwisu pozyskując wartościowe linki, oczywiście w sposób naturalny.

 

SEO i PPC – połączenie idealne?

Działania wchodzące w skład marketingu w wyszukiwarkach to SEO i PPC. Oba mają na celu ułatwienie dostępu użytkownikowi do naszej strony i co za tym idzie, zwiększenie sprzedaży/liczby pozyskanych leadów. Czy połączenie działań SEO i PPC to rozwiązanie idealne? Dowiesz się tego z naszego artykułu.

Planując strategię marketingową w wyszukiwarce zastanawiamy się, które z tych działań wybrać lub od których zacząć. Wiele osób zakłada, że obie metody promocji się kanibalizują lub że jedna jest wystarczająca, ale każdy punkt styku z marką daje możliwość pozyskania klienta. SEO i PPC mają inną specyfikę i występują między nimi kluczowe różnice, ale przy umiejętnym połączeniu mogą też świetnie się uzupełniać.

 

SEO czy PPC?

Kampanie PPC w sieci wyszukiwania dają natychmiastowe efekty, pozwalają na konkurowanie od początku z liderami w branży i są odporne na zmiany algorytmu wyszukiwarki. Natomiast działania SEO przynoszą długofalowe efekty, ale na rezultaty w postaci pojawienia się wysoko w bezpłatnych wynikach wyszukiwania trzeba poczekać od 3 do 12 miesięcy, w zależności od konkurencyjności fraz.

Umiejętne ich połączenie i współpraca specjalistów pozwoli na osiągnięcie lepszych efektów. Dlatego najlepiej zlecić te działania jednej agencji, która zapewni kompleksową obsługę. Decydując się na łączenie SEO i PPC mamy szansę na lepszą optymalizację obu działań. Jak zaplanować strategię marketingową w wyszukiwarkach i co możemy zrobić, aby osiągnąć jak najlepsze rezultaty?

Optymalizacja stron docelowych

Optymalizacja stron, na które kierujemy reklamy, według zaleceń specjalisty SEO (dodanie treści uzupełnionych o wybrane frazy, odpowiednie nagłówki, zwiększenie szybkości strony itp.), pozwala poprawić wynik jakości w systemie Google Ads – jednego z czynników branych pod uwagę podczas przeprowadzania aukcji przez system Google. Dzięki temu algorytm uzna reklamę za adekwatną wobec strony docelowej i intencji użytkownika. Podwyższenie wyniku jakości przekłada się na obniżenie kosztu za kliknięcie oraz częstszy udział w aukcjach.

Wspomaganie ruchu płatną kampanią

Przy nieprawidłowo wykonanej migracji domeny, aktualizacjach algorytmu i innych działaniach, które mogą obniżyć pozycje w bezpłatnych wynikach wyszukiwania, tymczasowo tracimy ruch organiczny. Zwiększanie stawek CPC lub ustawienie nowych kampanii reklamowych pozwoli nadrobić spadki ruchu z bezpłatnego źródła.

Działania na wspólnych lub osobnych frazach

Można zastosować różne taktyki łączenia kampanii PPC i SEO. Jedną z metod jest równoległe prowadzenie działań dla fraz, które są najistotniejsze dla danego biznesu i najbardziej konwertujące, aby zwiększyć prawdopodobieństwo kliknięć w odnośnik i uzyskać możliwie jak największy ruch w serwisie. Korzyścią ze zmaksymalizowanej widoczności w SERP jest też zwiększenie świadomości i rozpoznawalności marki.

Kolejną metodą jest pewien podział fraz, na które prowadzi się działania lub zwiększenie zasobów w jednym z kanałów.

Wzmocnienie działań płatnych

W działaniach reklamowych można skupić się na wybranych zapytaniach, które nie osiągnęły jeszcze wysokich pozycji w bezpłatnych wynikach wyszukiwania lub pozycjonowanie z jakiegoś powodu nie przynosi oczekiwanych efektów. Trzeba jednak pamiętać o tym, żeby w reklamach skupiać się na frazach o long tailowym charakterze.

Frazy ogólniejsze (typu „buty męskie”) mogą wykorzystać sporą część budżetu w Google Ads w krótkim czasie, co nie będzie efektywne. Dodatkowo działką specjalistów PPC powinno być promowanie krótkoterminowych ofert i promocji oraz wyświetlanie się na frazy brandowe konkurencji.

Wzmocnienie działań bezpłatnych

System Google Ads posiada pewne ograniczenia w niektórych obszarach działalności, takich jak branża gamingowa czy alkoholowa. W przypadku fraz zakazanych w reklamach należy skupić się na działaniach SEO.

Kolejnym elementem, na którym może skoncentrować się specjalista SEO, są frazy, które mają wysokie stawki za kliknięcie i prowadzenie dla nich kampanii wymaga bardzo dużych budżetów. Trzeba jednak pamiętać, że frazy te są również wysoko konkurencyjne w SEO i osiągnięcie topowych pozycji będzie wymagało sporo czasu.

Wymiana danych analitycznych

Podstawą do efektywnego łączenia SEO i PPC jest współpraca pomiędzy specjalistami i wymiana danych ze skuteczności prowadzonych działań.

Wspieranie SEO PR poprzez kampanię w Google Ads

Kolejnym elementem integracji obu kanałów może być wspieranie reklamą działań SEO PR, czyli reputacji w wyszukiwarce. Wykorzystanie reklam miałoby na celu „zepchnięcie” na dalsze pozycje podstron, które zawierają niewygodne treści czy wpisy z negatywnymi opiniami o firmie. Pod taką reklamę można przygotować dedykowaną podstronę z referencjami klientów lub opiniami.

W niektórych przypadkach trudno będzie o wyświetlanie się na zapytania, które nie są zgodne z intencją użytkownika. Np. gdy ktoś wpisuje frazę w połączeniu z nazwą danego forum/agregatora opinii, a my chcemy mu wyświetlić podstronę naszej domeny.

Czy warto łączyć pozycjonowanie z kampaniami płatnymi?

Podsumowując: kompetentne połączenie działań pozycjonowania i kampanii PPC przynosi wiele korzyści, w tym przede wszystkim zwiększa skuteczność każdej z kampanii. Zapewnia również większą ekspozycję strony w SERP, co buduje zaufanie do marki. Podstawą synergii SEO i PPC jest wykorzystanie danych z obydwu kanałów, co pozwala na zdobycie przewagi konkurencyjnej.

 

A Wy w jaki sposób łączycie SEO i PPC? Opowiedzcie nam o tym w komentarzach.

Jak najlepiej wykorzystać kod JavaScript w SEO?

W 2019 roku trudno wyobrazić sobie stronę internetową bez zalet, oferowanych przez JavaScript. Dzięki niemu witryna nabiera interaktywności oraz atrakcyjności wizualnej. Obok wielu zalet niestety mogą pojawić się także wady. Nieumiejętne jego użycie może prowadzić na przykład do pogorszenia prędkości ładowania strony. Jak wykorzystać kod JavaScript w SEO? Jak sprawdzić poprawność jego wdrożenia? To tylko dwa pytania, na które odpowiedź znajdziesz poniżej.

 

JavaScript – w jakim celu go stosujemy?

 

JavaScript jest skryptowym językiem programowania, który umożliwia interakcje użytkownika z witryną. Jego użycie dynamiczne zmiany na stronie, np. dotyczące jej wyglądu lub sposobu wyświetlania treści.

Używając JS na stronach opartych o kod HTML, wykorzystujemy tzw. DOM, czyli Obiektowy Model Dokumentu. To sposób w jaki opisywany jest dokument HTML poprzez elementy uporządkowane w hierarchicznej strukturze drzewa. Innymi słowy przeglądarka pobierając kod źródłowy HTML z serwera, nadaje mu odpowiednią strukturę drzewa DOM. Następnie wykorzystując JavaScript możemy dowolnie zmieniać jego konkretne elementy.

Przykładowo: po kliknięciu przycisku umieszczonego w danym miejscu, w konkretnym znaczniku HTML (np.<span>) zostanie wykonana akcja polegająca na pojawieniu się nowego tekstu na danej podstronie. Dzięki JavaScript możliwe jest dokonywanie zmian na danej podstronie bez potrzeby ponownego jej przeładowywania (odświeżania). Dzieje się tak dlatego, ponieważ bazujemy na już wcześniej pobranym z serwera dokumencie HTML.

 

Renderowanie JavaScript przez roboty Google

 

Jeszcze kilka lat temu roboty Google interpretując stronę internetową całkowicie ignorowały kod JavaScript. Przełom nastąpił w 2014 roku. Firma ogłosiła wówczas, że posiada zasoby pozwalające na lepsze zrozumienie nowoczesnych stron www oraz renderowanie kodu JS, co w konsekwencji wpłynęło na wyniki wyszukiwania.

Pobieranie i renderowanie kodu JS było i nadal jest dla Google dosyć czasochłonne. Ze względu na te ograniczenia interpretacja JavaScript przez odpowiednią usługę wyszukiwarki nie była pełna. Oczywiście potentat z Doliny Krzemowej stale usprawnia swoje algorytmy. Dzięki temu w maju 2019 ogłosił, że Googlebot będzie aktualizowany tak często jak przeglądarka Chrome, co w uproszczeniu oznacza obsługę nowych funkcji w niej zawartych. To z kolei umożliwia dostrzeżenie nowych treści przez robota, które wcześniej mogły być dla niego niedostępne.

Co istotne, jeszcze do niedawna do renderowania witryn Google używało mechanizmów opartych na wersji 41 Google Chrome. Obecnie wszystko realizowane jest w ramach jej najnowszej wersji (w trakcie pisania tego artykułu jest to wersja 74). Warto dodać, że zarówno starsza wersja 41 jak i najnowsza nie używają wszystkich funkcji silnika Chrome. Nadal więc pewne elementy nie są obsługiwane.

Semahead CSS

 

Jak działają roboty Google?

 

Dla lepszego zrozumienia dalszej części artykułu w uproszczeniu opiszę teraz działania robotów wyszukiwarki na stronie oraz sposób ich renderowania i analizowania przez algorytmy.

1. Googlebot (crawler Google) na początku wykorzystując domyślne ustawienia, odwiedza daną witrynę z zamiarem pobrania z niej odpowiednich danych.

2. Po odwiedzeniu kolejnych podstron oraz pobraniu z nich zawartości w postaci kodu HTML oraz CSS Googlebot przesyła zebrane dane do odpowiednich usług Google. Są one odpowiedzialne za interpretowanie tego, co otrzymują. Jeśli na stronie nie ma kodu JavaScript indexer Caffeine bardzo szybko indeksuje stronę.

Jeśli natomiast na stronie znajdują się pliki JS, indeksowanie pełnej zawartości strony trwa dłużej, ponieważ Google musi pobierać dane, przesłać je dalej oraz muszą one być zinterpretowane przez odpowiednią usługę.

Za renderowanie strony odpowiada usługa WRS (Web Rendering Service), która po przetworzeniu danych przesyła je do odpowiednich algorytmów oraz niektóre z nich z powrotem do Googlebota. Otrzymuje on głównie informacje o linkach z danej podstrony, do których nie mógł się dostać z uwagi na potrzebę renderowania JS.

Google w 2018 roku oficjalnie ogłosił też, że renderowanie witryn obsługiwanych przez JavaScript w wyszukiwarce Google bywa odroczone do czasu, gdy WRS będzie dysponował odpowiednimi zasobami do przetwarzania tej treści.

Warto w tym kontekście wspomnieć, że jeśli zależy nam na sprawnym crawlowaniu witryny przez roboty, to bardzo ważne jest używanie linków wewnętrznych umieszczonych w znacznikach, które nie utrudniają „chodzenia po serwisie” robotom, ponieważ nie muszą one czekać na wyeksportowanie linków z kodu JS przez usługę WRS.

Poniżej znajduje się grafika, którą przedsiębiorstwo z Mountain View zaprezentowało podczas Google I/O w 2018 roku. Przedstawia ścieżkę od pobrania do indeksacji strony.

3. Po otrzymaniu pełnej zawartości strony, algorytmy wyszukiwarki za pośrednictwem odpowiednich mechanizmów decydują o całkowitym indeksowaniu oraz ustalaniu pozycji danej podstrony w wyszukiwarce.

Jak widać, crawlowanie strony i ustalanie jej pozycji w wyszukiwarce to złożone działania, które potrzebują odpowiednio dużych zasobów mocy obliczeniowej. Dlatego z kolei (nawiązując głównie do kontekstu tego artykułu) tak ważne jest, aby kod JavaScript nie wpływał na podstawowe pobranie zawartości HTML i nie utrudniał interpretacji kodu przez algorytmy wyszukiwarek.

Jeśli nie blokujemy robotom dostępu do plików JS wówczas Google powinien renderować drzewo DOM w taki sposób, jak robi to odpowiednia wersja przeglądarki Chrome. Jak jednak wcześniej wspomniałem, nadal istnieją elementy, których usługa WRS nie obsługuje. Można się domyślić, że jest to więc zależne od używanych przez systemy CMS oraz programistów technologii.

Użyty na stronie rodzaj oraz wersja frameworka języka JavaScript są z kolei istotne w kontekście wspierania danego sposobu, w jaki witryna jest renderowana (SSR, CSR, Hybrid Rendering, Prerendering). Wspomnę jeszcze o tym nieco później.

 

 

Jak testować JavaScript i wyszukiwać błędy utrudniające renderowanie oraz indeksację?

 

W celu sprawdzenia funkcjonalności kodu naszej strony, wyszukiwania potencjalnych błędów oraz utrudnień dla Google możemy użyć różnych rozwiązań opisanych poniżej. Większość z nich nie stanowi jednak sposobu na dokładne sprawdzenie tego, jak Google tak naprawdę „widzi” naszą witrynę. Na samym początku napiszę jednak, dlaczego do badania poprawności renderowania JavaScript przez Google nie warto korzystać z użycia komendy cache.

Aby sprawdzić zawartość pamięci podręcznej Google na temat danej podstrony należy użyć komendy cache: przed adresem URL danej podstrony w pasku przeglądarki, na przykład:

cache:http://przykladowadomena.pl/adres

Otrzymamy dzięki temu zrzut z pamięci podręcznej Google przedstawiający ostatnią zapisaną wersję wybranej podstrony, którą robot otrzymał od serwera. Wiemy dzięki temu, kiedy robot odwiedził ją ostatni raz.

Nie jest to jednak wyrenderowana przez usługę WRS treść. Jest tutaj widoczny obraz tego, w jaki sposób przeglądarka, z której korzystamy interpretuje kod, jaki zebrał Googlebot odwiedzając daną witrynę. Przeglądarka – nie Google.

Dlatego nie można przywiązywać dużej wagi do tego, co tutaj otrzymujemy i w ten sposób podejmować decyzji o poprawności naszego kodu JS. Obraz witryny, jaki tutaj zobaczymy, to nie jest to, co w rzeczywistości jest indeksowane i oceniane przez algorytmy wyszukiwarki. Sam John Mueller wielokrotnie potwierdzał, że jest to jedynie podstawowy kod HTML, jaki Googlebot otrzymuje od serwera (bez wglądu w to jak Google go wyrenderował).

Jeśli natomiast chcemy zbadać, czy Google indeksuje poprawnie dane treści implementowane z pomocą JS na stronie, np. opisy kategorii, znacznie lepiej użyć do tego komendy site w kontekście danej podstrony, oraz wpisania z niej fragmentu tekstu w cudzysłów.

Jak widzimy powyżej, pogrubiony tekst został poprawnie zaindeksowany.

 

Sprawdzenie adresu URL w Google Search Console

 

Istotne jest posiadanie dostępu do konta Google Search Console danej witryny. Za jego pomocą możemy zbadać dowolny adres URL, który do niej należy. Aby to zrobić wystarczy wpisać go w okienko znajdujące się w górnej części narzędzia i wcisnąć enter:

Po zakończonej pracy program wskaże nam podstawowe informacje na temat danej podstrony. Dowiemy się między innymi czy jest ona zindeksowana w wyszukiwarce, czy jest dostosowana do urządzeń mobilnych i tym podobne. Nam zależy jednak na sprawdzeniu jak Google radzi sobie z renderowaniem aktualnej wersji podstrony. Żeby to sprawdzić, klikamy więc w szary przycisk „Sprawdź URL wersji aktywnej”. Po nieco dłuższym czasie oczekiwania, możemy wyświetlić przetestowaną stronę. Dzięki zakładce „Zrzut ekranu” dowiemy się jak Google zobaczył naszą stronę. Należy mieć jednak świadomość, że nie otrzymamy tutaj pełnej długości strony, a najczęściej jedynie jej część.

Zakładka „Więcej informacji” wskaże nam wszystkie zasoby jakie wykrył Google, te, z którymi może sobie nie radzić (np. z powodu blokady dostępu przez plik robots.txt) oraz komunikaty z konsoli JavaScript.

Oczywiście informacje podawane tutaj nie muszą być w 100% zgodne z rzeczywistością, jednak zalecam, aby dokładniej przyglądać się potencjalnych problemom z witryną.

 

Wykorzystanie narzędzia do testowania optymalizacji mobilnej

 

Aby wyszukać niektóre błędy renderowania kodu naszej strony związane z niedopasowaniem do urządzeń mobilnych, możemy użyć specjalnie do tego przeznaczonego narzędzia Google dostępnego pod adresem: https://search.google.com/test/mobile-friendly. Pozwoli ono nam zajrzeć w wyrenderowany przez Google DOM oraz sprawdzić błędy konsoli, a także zasoby, które są blokowane przez robots.txt.

 

Badanie Screaming frogem lub podobnymi narzędziami

 

W tym miejscu chciałbym pokrótce omówić wybrane funkcje programu Screaming Frog, pozwalające na badanie Java Script w serwisach. Kiedy już otrzymamy raport dostępny po przecrawlowaniu witryny przez narzędzie (przy zachowaniu domyślnych ustawień), możemy dowiedzieć się czegoś więcej na temat odnalezionych przez program plików JS. Listę otrzymamy używając odpowiedniego filtrowania wyników:

Otrzymamy w ten sposób bazę plików, które możemy sprawdzić pod kątem dostępności dla robotów, zwracanych przez nie kodów odpowiedzi, czy czasu odpowiedzi. Możemy także sprawdzić, gdzie w witrynie znajdują się odwołania do takich zasobów. W kontekście szybkości ładowania strony należy jednak pamiętać o ładowaniu asynchronicznym plików JS, które mogło zostać użyte w serwisie. Jeśli natomiast chcemy otrzymać widok tego, jak Google może renderować naszą witrynę, wówczas musimy odpowiednio skonfigurować Screaming Froga.

Na początku przechodzimy do opcji Spider:

Kolejnym krokiem jest przejście do zakładki „Rendering” i kliknięcie opcji „JavaScript”:

Co istotne, domyślnie crawler ma ustawione 5 sekund na wyrenderowanie danej podstrony zanim przejdzie do następnej (AJAX Timeout). Możemy to zmienić, jednak nie zalecam tego robić, z uwagi na to, że Google również ma ograniczony czas podczas wizyty w serwisie. Najczęściej może to być właśnie około 5 sekund.

W przypadku, kiedy skończy się czas, przełoży się to na brak widoku całej treści lub layoutu przez Google. Chodzi tutaj m.in. o crawl budget oraz render budget. Starajmy się więc, aby wyrenderowanie strony nie wymagało zbyt długiego czasu oczekiwania. Oprócz straconego potencjału crawl budgetu, możemy zniechęcić do witryny użytkowników, którzy opuszczą stronę, jeśli nie będzie ładowała się ona zbyt szybko.

Jak widzimy na poprzedniej grafice, w okienku konfiguracji robota pod kątem wykorzystania przez niego JavaScript mamy do wyboru różne typy rozdzielczości, jakie Screaming Frog będzie brał pod uwagę podczas crawlowania. Jedne z najbardziej przydatnych zostały nazwane „Googlebot Mobile: Smartphone” oraz „Googlebot desktop”. Skupmy się teraz na tej drugiej.

Oprócz tego warto zaznaczyć ptaszki obok dwóch opcji crawlu: „Store HTML” oraz „Store Rendered HTML”. Są one dostępne w zakładce „Advanced”. Dzięki nim otrzymamy do wglądu kod źródłowy oraz wyrenderowany DOM. Dodatkowo możemy wybrać odpowiedni rodzaj user-agent, jakiego ma używać Screaming Frog (np. Googlebot).

Po skończonej analizie otrzymujemy w raporcie między innymi:

Jak widać, otrzymujemy tutaj więcej informacji na temat witryny niż podczas standardowego crawlu. Trzeba jednak pamiętać, że renderowanie JavaScript jest czasochłonne i zebranie danych o całym serwisie będzie znacznie dłużej trwać.

Chciałbym zaznaczyć, że nie należy ufać wszystkiemu, co tutaj zaobserwujemy. Jest to spowodowane brakiem możliwości całowitego wcielenia się robota Screaming Froga w rolę Google oraz w sposób jego chodzenia po witrynie.

Dodam jeszcze, że oprócz Screming Froga renderowanie JavaScript na stronie oferują inne crawlery, m.in. Sitebulb. Natomiast więcej na temat konfiguracji oraz zaawansowanego użycia Screaming Froga znajduje się w innym artykule:  Jak crawlować duże serwisy za pomocą Screaming Froga?

Semahead CSS

Wyłączenie obsługi JavaScript w przeglądarce

 

Wyłączenie obsługi kodu JavaScript w przeglądarce jest możliwe na kilka sposobów. Osobiście korzystam z odpowiedniej funkcji dostępnej we wtyczce „Web Developer” (można ją instalować m.in. w Chrome). Po wybraniu tej opcji, należy odświeżyć stronę, na której się znajdujemy.

Ta metoda co prawda nie przybliży nas do sprawdzenia tego, jak Google widzi daną witrynę, jednak w bardzo prosty sposób dowiemy się, w jaki sposób strona jest widoczna z wyłączoną obsługą kodu JavaScript. Jest to podstawa, jeśli modyfikujemy serwis za pomocą skryptów i chcemy dowiedzieć się, czy nie wpływa to negatywnie na widoczność głównych treści.

Pamiętajmy, że najlepsza droga do tego, aby Google indeksował sprawnie nasz serwis, to dobra widoczność linków, tekstów oraz grafik bez potrzeby renderowania kodu JS. Jeśli korzystamy więc z zaawansowanych sposobów serwowania treści użytkownikom, korzystajmy z odpowiednich mechanizmów fallback.

Innymi słowy: postarajmy się, aby elementy witryny, takie jak grafiki były widoczne tak samo w sytuacji, kiedy przeglądarka obsługuje JavaScript oraz kiedy takiego kodu nie obsługuje. Przykład kiedy możemy się z tym spotkać to tzw. „lazy loading”. Mechanizm ten stosowany jest w celu przyspieszenia ładowania się serwisu poprzez doczytywanie grafik dopiero wtedy, kiedy znajdą się w polu widzenia użytkownika. Znajdują się one poniżej aktualnego widoku w przeglądarce i ładowane są niejako „w tle”.

Fallbackiem w tym przypadku będzie zastosowanie rozwiązania, które pozwoli na pojawienie się tych samych grafik co wcześniej na danej podstronie przy wyłączonej obsłudze kodu JavaScript. Nieco upraszczając, jedną z możliwości jest tutaj użycie tagu HTML <noscript> i umieszczenie w nim odpowiedniego adresu obrazka. Powinien on ładować się w drzewie DOM jedynie w przypadku braku obsługi JavaScript.

W kontekście crawlowania jest to o tyle istotne, że googlebot może od razu z łatwością dotrzeć do danych obrazków i zaindeksować je bez potrzeby renderowania JS. Zrobi więc to zawsze szybciej i sprawniej, zwłaszcza jeśli treści na stronie zmieniają się dość często.

 

Chrome DevTools

 

Bardzo pomocnym narzędziem do badania skryptów są narzędzia deweloperskie Google. Dostępne są po kliknięciu przycisku „Zbadaj” w dowolnym miejscu na stronie internetowej. Przykładowo w sekcji „Network” dowiemy się m.in. jakie pliki są wczytywane podczas ładowania strony, jak szybko oraz w jakiej kolejności.

Kiedy przejdziemy do tej zakładki należy odświeżyć stronę za pomocą „Ctrl +R”. Wówczas otrzymamy odpowiednie dane do analizy. Na górnym pasku (1) możemy filtrować listę pobieranych zasobów (2) po ich typie. Widzimy tutaj również rozmiar (4) poszczególnych plików, czas potrzebny do ich pobrania (5) oraz te dwa elementy razem, przedstawione w formie graficznej (6).

Z danych dowiemy się m.in. jakie zasoby zajmują najwięcej czasu na pobranie oraz czy kolejność ładowania poszczególnych zasobów jest poprawna. Zbędne skrypty mogą blokować istotne treści ponieważ ładują się przed nimi, zamiast być renderowane asynchronicznie.

Szczegółowe wyjaśnienie jak efektywnie wykorzystywać potencjał tych narzędzi znajduje się między innymi tutaj.

 

Logi serwera 

 

Jeśli chcemy zacząć śledzić ruchy i zachowanie googlebota w trakcie jego przebywania w obrębie naszej witryny – warto korzystać z dobrodziejstw analizy logów serwera. Logi serwera są bardzo przydatne w celu wyszukiwania błędów oraz prac nad optymalizacją witryny.

Kiedy już pozyskamy logi serwera dotyczące ruchu robotów w witrynie (ruch użytkowników nie jest nam tutaj potrzebny) od webmastera, obsługi hostingu lub na własną rękę, możemy zacząć je analizować. Wystarczy jeśli użyjemy do tego zwykłego Excela, jednak do sprawnego wyciągania interesujących nas danych potrzebna może okazać się zaawansowana wiedza z zakresu znajomości tego programu oraz duża ilość pamięci RAM. Przykładowym przydatnym narzędziem, które usprawni naszą pracę jest Screaming Frog File Analyser.

Zyskamy dzięki niemu łatwy dostęp do wielu danych, np. na temat tego co odwiedzają roboty, jak często, ile czasu spędzają danego dnia w naszej witrynie oraz jakie kody odpowiedzi otrzymują w trakcie wysyłania żądań.

Dzięki posiadaniu takich danych możemy dowiedzieć się do jakich zasobów roboty docierają, z jakimi sobie nie radzą i których używają zbyt często. Mamy dostęp do wszystkich podstron, jakie zobaczył googlebot. Sprawdzimy więc, czy implementacja skryptów na stronie najprawdopodobniej nie przeszkadza w dostaniu się do danej części serwisu, np. przez obecne na stronie linki generowane za pomocą JS. Dowiemy się tego na przykład poprzez wyszukanie danej podstrony na liście oraz ewentualnie porównaniu ilości odwiedzin jej przez robota w porównaniu do pozostałych stron.

Sprawdzimy także, czy dane strony nie obciążają zbyt bardzo jego „mocy przerobowych”, przez co niektóre strony mogą być pomijane. Zrobimy to sortując w programie listę podstron oraz zasobów według częstotliwości ich odwiedzin. Przykładowo: na poniższym screenie widzimy, że jeden rekord generuje aż 9 339 żądań, co w porównaniu do pozostałych elementów na liście stanowi sporą wartość.

Ilość żądań dla plików JavaScript, CSS oraz strony głównej nie odbiega od normy, dlatego możemy stwierdzić, że omawiany tutaj zasób stanowi problem podczas crawlowania. Może być to związane z np. z zastosowanymi dla niego technologiami. Po sprawdzeniu podstrony okazuje się, że jest ona wykorzystywana w procesie zakupowym. Możemy więc zablokować robotom dostęp do takiego pliku, co powinno przełożyć się na optymalizację crawl budgetu. Dodam, że Screaming Frog z włączonym renderowaniem JavaScript nie odnalazł tej podstrony.

Logi serwera pozwalają na zbadanie wielu zachowań robotów i reagowanie do pewnego stopnia na to jak wykorzystują czas w serwisie, jednak nie jest oczywiście możliwe dokładne zrozumienie ich przez nas.

 

Renderowanie serwisu po stronie serwera

 

Renderowanie kodu JavaScript może odbywać się na kilka sposobów. Jednym z nich jest renderowanie po stronie klienta. Możemy spotkać je dość często w Internecie. Klientem może być np. przeglądarka lub robot Google. Jak już wspominałem wcześniej, interpretacja skryptów i prezentowanie jej w odpowiednim środowisku wymaga zasobów mocy obliczeniowej. Często mogą być one bardzo duże, głównie z uwagi na ilość zastosowanych elementów JS, stopień optymalizacji kodu lub błędy, które może on generować. Co więc zrobić, jeśli chcemy pomóc robotowi w osiągnięciu lepszej dostępności treści strony?

Obecnie najprawdopodobniej jedynym sposobem na to, aby Google nie miał problemów z interpretacją kodu JavaScript, jest renderowanie tego typu skryptów po stronie serwera i przesyłanie tzw. HTML snapshots. Innymi słowy: możliwe jest wykorzystanie zasobów serwera do tego, aby googlebot błyskawicznie otrzymywał gotową, wyrenderowaną treść. Co istotne, oprócz szybkiego otrzymania zawartości serwisu przez roboty, najprawdopodobniej istotnie poprawi się wynik czasu ładowania strony.

Renderowanie po stronie serwera jest znacznie chętniej stosowane przez aplikacje internetowe, ponieważ ich budowa może w znacznym stopniu opierać się na kodzie JavaScript oraz jego frameworkach. Warto dodać, że jeśli kod naszej stronie jest bardzo skomplikowany oraz zależy nam na poprawnym zrozumieniu wszystkich treści przez roboty, to prerenderowanie może okazać się dobrym pomysłem. Warto jednak pamiętać o jego wadach – głownie jest to dodatkowe obciążenie serwera i zwiększony koszt z powodu zwiększenia ilości serwowanych zasobów.

Dobrym narzędziem, które pomaga w renderowaniu strony po stronie serwera jest https://prerender.io/.

Zainteresowanych odsyłam po więcej do wiedzy przedstawionej przez Google: https://developers.google.com/web/tools/puppeteer/articles/ssr

Optymalne wydaje się używanie prerenderowania jedynie dla robotów wyszukiwarki. Należy jednak pamiętać, że poprawny efekt uzyskamy, kiedy odpowiednio skonfigurujemy serwer tak, aby po wykryciu odpowiedniego user-agenta serwował robotowi wyrenderowaną treść, natomiast użytkownikowi zwykłą. Co istotne, te dwie wersje nie powinny różnić się między sobą jeśli chodzi o główne treści oraz linki wewnętrzne. Wyrenderowane drzewo DOM musi odpowiadać temu, co przesyłamy robotom. W innym przypadku możemy narazić się na karę od Google.

Tym, co zaleca sam Google, jest wykorzystywanie izomorficznego kodu JavaScript. Pozwala on na prerenderowanie treści strony zarówno dla użytkownika jak i robota w ten sam sposób. Co istotne, nie wszystkie frameworki, których używamy w serwisie obsługują renderowanie po stronie serwera.

 

Jakie są rodzaje renderowania – podsumowanie

 

Dostępne rodzaje renderowania stron i aplikacji internetowych to:

1. Client side rendering – renderowanie po stronie klienta (robota oraz przeglądarki internetowej).

2. Server side rendering – renderowanie odbywa się po stronie serwera, każdy klient (przeglądarka oraz robot) otrzymuje gotowy, statyczny HTML.

3. Hybrid rendering – klient-przeglądarka oraz crawler otrzymują wyrenderowany przez kod HTML, a dopiero później serwer przesyła kod JavaScript.

4. Dynamic rendering (sposób preferowany przez Google) – po wykryciu informacji o user-agent przez stronę klient w postaci crawlera otrzymuje statyczny HTML po wcześniejszym wyrenderowaniu kodu JavaScript przez serwer, natomiast klient-przeglądarka otrzymuje standardową wersję strony.

 

JavaScript – czy warto?

 

JavaScript to wciąż trudny temat dla robotów Google. Chociaż firma deklaruje, że radzi sobie sprawnie z renderowaniem go oraz indeksacją w wyszukiwarce, zalecam uzasadnione używanie tego typu kodu. Opierajmy się przede wszystkim na semantyce kodu HTML oraz optymalizacji SEO naszych witryn. Animacje, używanie JS w celu dodania zbędnych „fajerwerków” może być niekiedy zabójcze dla prędkości ładowania oraz sprawnej indeksacji serwisu.

 

SEO PR, czyli jak wypromować swoją markę w Google

 

Zastanawialiście się kiedyś co wspólnego może mieć ze sobą SEO oraz Public Relations? Z pozoru wydawać by się mogło, że to całkowicie różne dziedziny działań marketingowych. Są to jednak tylko pozory, gdyż zakresy działań obu tych dziedzin pokrywają się na tyle, że zaczęto mówić o SEO PR. Czym jest, jakie wykorzystuje narzędzia oraz dlaczego warto z niego korzystać? Zapraszam do lektury. 


SEO PR w służbie dobrego wizerunku

 

SEO PR łączy działania search engine optimization i public relations. Zadaniem tej coraz popularniejszej usługi jest kreowanie pozytywnego wizerunku marki w sieci. Łączy się to również z SERM, czyli zarządzaniem reputacją w wyszukiwarce, a więc promowaniem pozytywnych materiałów, dotyczących danego brandu i reagowaniem na negatywne wzmianki oraz komentarze na temat firmy. Pod pojęciem SEO PR rozumie się również publikowanie treści PR-owych, zawierających w sobie wybrane słowa kluczowe.

Połączenie SEO i PR przynosi obustronne korzyści – wzmacnia działania SEO i pomaga w pozycjonowaniu materiałów public relations. Jedną z częstszych sytuacji, wymagających podjęcia działań PR w wyszukiwarce, to pojawienie się negatywnych opinii na temat naszej marki bądź produktu. W takich przypadkach firmy zlecają kampanie, polegające na publikowaniu pozytywnych treści na temat brandu. Takie działania realizowane są po to, aby zmniejszyć widoczność niekorzystnego dla jego wizerunku contentu. SEO PR opłaca się stosować nie tylko w momencie kryzysu. Stanowi bowiem skuteczne narzędzie, które pomaga w wypromowaniu mało znanych, a co za tym idzie niecieszących się jeszcze dużym zaufaniem klientów marek. SEO PR wspiera:

Co składa się na SEO PR?

 
1. Strategia SEO PR

Działania SEO PR musi poprzedzić przygotowanie strategii. Na początku warto przeanalizować wyniki wyszukiwania i sprawdzić, w jakim kontekście wyświetlają się promowane przez nas marki, usługi czy produkty. Na tej podstawie można zdecydować o podjęciu działań naprawczych, na przykład przygotowaniu treści, które chcemy pozycjonować w wynikach wyszukiwania, tak aby pojawiały się wyżej od negatywnych artykułów czy komentarzy.

Następnie należy ustalić grupę docelową. Pomoże to w odpowiednim dobraniu słów kluczowych, które będziemy zamieszczać w przygotowywanych materiałach, a także w określeniu osób, do których chcemy je później wysłać. W publikacjach PR-owych powinny znaleźć się frazy, używane przez odbiorców komunikatu. Działaniem, pozwalającym lepiej poznać target danej marki, jest utworzenie person – zdefiniowanie potencjalnych użytkowników i klientów pozwoli na spersonalizowanie treści na stronie, tak aby odpowiadała ich potrzebom, a także posłuży do wytypowania chętnie przez nich odwiedzanych adresów w sieci. Zdecydowanie ułatwi to wybranie najtrafniejszych miejsc do publikacji treści.

2. Przygotowanie wartościowego contentu

Podstawą SEO PR jest wartościowy i angażujący content, stworzony na podstawie tego, co trafia w potrzeby odbiorów i co warto im zakomunikować. Wartościowych z punktu widzenia użytkownika informacji może dostarczyć na przykład przeprowadzenie badań na temat wybranej branży. Następnie taką analizę należy przedstawić w przystępnej i atrakcyjnej formie – raportu, ikonografiki, wpisu blogowego wideo czy podkastu, które będą chętnie udostępniane w mediach społecznościowych.

Aby materiały PR-owe rankowały wysoko w wyszukiwarce, muszą zostać zoptymalizowane pod kątem SEO. W tytule, nagłówkach i tekście strony powinny znaleźć się odpowiednio dobrane słowa kluczowe, na które chcemy zbudować widoczność.

Warto również zadbać o wygląd strony w SERPie i sformułować treść meta tagów – title oraz meta description – w taki sposób, aby zachęcały do kliknięcia. Dobrym pomysłem jest wdrożenie w witrynie danych strukturalnych, dzięki którym wynik wyszukiwania zostanie wzbogacony o fragmenty rozszerzone, takie jak ocena w postaci gwiazdek, liczba opinii, cena czy dostępność. W ten sposób strona wyróżni się już na poziome wyszukiwarki i dzięki temu zyska większą liczbę wizyt.

3. Dystrybucja i promocja

Aktualizacje algorytmu Google spowodowały, że SEO i PR mają coraz więcej wspólnego w kwestii dystrybucji i promocji treści. Zmianę tę spowodował przede wszystkim uruchomiony w 2012 algorytm Pingwin, który obniżał ranking stron z nienaturalnym profilem linków. Od tego momentu taktyka dodawania ich w jak największej liczbie w celu podniesienia pozycji witryny stała się nieskuteczna – istotnym czynnikiem jest jakość domeny, z której pochodzą. W ten sposób proces link buildningu zbliżył się więc do działań public relations. Aby efektywnie pozyskiwać linki, konieczne jest dotarcie do jak największej liczby odbiorców. Zdobycie dużych zasięgów wymaga natomiast zrozumienia zasad, jakie kierują odbiorcami i tego, co motywuje ich do dzielenia się treścią. Do tego potrzebna jest strategia PR – przemyślane działania PR-owe mogą stać się więc katalizatorem pozyskiwania linków.

4. Monitorowanie zmian

Nawet najlepiej przygotowana strategia SEO PR może okazać się nieskuteczna, jeśli nie będzie jej towarzyszyło stałe monitorowanie zachodzących zmian. W przypadku SEO PR duże znaczenie ma wyczucie chwili. Chociaż narzędzia do analizy fraz kluczowych wskazują, że dany temat ma niski potencjał wyszukiwania, w wyniku nagłych wydarzeń w krótkim czasie może stać się popularny. Szybkie reagowanie na bieżące sprawy pozwoli wykorzystać je na korzyść promowanej marki czy produktu. W tym celu można posłużyć się na przykład usługą Google Alerts, która poinformuje nas, jeśli w wyszukiwarce pojawią się nowe wyniki związane z ważną dla naszej strony frazą.

Równie istotne jest stałe mierzenie efektów SEO PR i analizowanie, jakiego typu działania generują największy ruch i są najbardziej  skuteczne. Warto odnotowywać wszystkie nieoczekiwane wzrosty, zaobserwowane w Google Analytics i wykorzystać te dane do udoskonalenia prowadzonej strategii.


Narzędzia SEO PR

 

Na każdym etapie realizacji strategii SEO PR warto korzystać z narzędzi, które dostarczą nam niezbędnych danych, pozwolą monitorować efekty i śledzić zachodzące zmiany, a także pomogą w budowie wizerunku naszej marki w wyszukiwarce.

Analiza fraz kluczowych

Narzędzia do analizy słów kluczowych pomogą nam dobrać odpowiednie frazy, które powinny znaleźć się w publikowanych przez nas materiałach. Może to być Planer słów kluczowych od Google czy bezpłatne narzędzie Ubersuggest. Korzystając z Answer The Public, otrzymamy sugestie zapytań, które interesują użytkowników wyszukiwarki. Do sprawdzania popularnych treści w social mediach, związanych z daną frazą, można wykorzystać BuzzSumo. Więcej o sposobach wyszukiwania fraz pisaliśmy w artykule 7 narzędzi do doboru fraz kluczowych.

Narzędzia do monitorowania

Narzędzie Brand24 umożliwia śledzenie materiałów i wzmianek, które pojawiają się na temat naszej marki, co umożliwia nie tylko odpowiednio szybkie reagowanie na pojawiające się opinie, ale przy okazji wskazuje miejsca, które możemy wykorzystać do działań link buildingowych. Przydatne jest również monitorowanie nowych wyników wyszukiwania, zawierających interesującą nas frazę, co umożliwia narzędzie Google Alerts czy Ahrefs Alerts.

Wygląd w wynikach wyszukiwania

Dane strukturalne to zestaw znaczników opisanych w projekcie Schema.org. Ich wdrożenie ułatwia robotom wyszukiwarki zrozumienie struktury strony, dzięki czemu użytkownicy otrzymują wartościowe informacje już na poziomie strony SERP. Oprócz znaczników, optymalizujących wygląd wyniku wyszukiwania, takich jak dane strukturalne pod okruszki, przydatne w kontekście SEO PR jest zaimplementowanie schematu danych dla organizacji, które wzmocnią profil marki. Poprawność wdrożenia danych strukturalnych można sprawdzić za pomocą narzędzia Structured Data Testing Tool od Google.

Nie można również zapomnieć o promocji w lokalnych wynikach wyszukiwania i stworzeniu lub optymalizacji wizytówki Google Moja Firma. Oprócz podstawowych informacji o firmie wizytówka udostępnia szereg dodatkowych możliwości, takich jak publikowanie postów na temat wydarzeń, organizowanych przez firmę, jej usługach i produktach, dzięki czemu możemy poinformować na przykład o trwającej wyprzedaży czy promocji.

Platformy do publikowania treści

Do publikacji treści można wykorzystać gotowe platformy, takie jak WhitePress, umożliwiające publikację i promocję artykułów czy ikonografik oraz współpracę z influencerami. WhitePress gromadzi sporą liczbę wydawców, a ich strony dzieli na różne obszary tematyczne. Content może być tworzony zarówno przez reklamodawcę, jak i zlecony copywriterom.

Ponadto platforma oferuje usługę wirtualnego biura prasowego, czyli bazy materiałów – notatek prasowych, artykułów eksperckich, wyników finansowych – przeznaczonych dla mediów. Korzystanie z wirtualnego biura pozwala na automatyzację dystrybucji publikacji PR-owych, skierowanych do dziennikarzy, a także umożliwia sprawdzenie, czy cieszą się one zainteresowaniem odbiorców.


Połączenie sił SEO i PR

 

Działania SEO, prowadzone zgodnie z aktualnymi zaleceniami Google, w naturalny sposób wpisują się w strategię PR. Wynika to przede wszystkim z ciągłego udoskonalania się algorytmu wyszukiwarki i co za tym idzie, coraz bardziej złożonych czynników rankingowych. Aby zoptymalizować stronę pod ich kątem i osiągnąć w ten sposób wysokie pozycje, specjalista SEO musi wyjść poza standardowe działania i spojrzeć na optymalizację witryny z szerszej perspektywy. Konieczne jest uwzględnienie między innymi jej analizy pod kątem UX czy opracowanie strategii tworzenia i dystrybucji contentu, co obecnie staje się coraz bardzie zbliżone do tradycyjnych technik PR-owych.

Jednocześnie budowanie pozytywnego wizerunku marki w wyszukiwarce wymaga zadbania o każdy element, do czego niezbędna jest szczegółowa analiza SEO. Stosowanie strategii SEO PR, dzięki temu, że zwiększa szanse na dotarcie do odpowiedniego odbiorcy, jak i pomaga w optymalizacji materiałów PR-owych zgodnie z wytycznymi Google, wzmacnia zarówno działania SEO, jaki i PR, i stanowi skuteczne narzędzie do promocji naszego brandu.

Jak stworzyć mapę witryny?

Mapa witryny to plik, w którym zgłaszamy informacje o wszystkich adresach URL, grafikach oraz innych plikach w obrębie naszego serwisu. Odpowiednio zbudowana sitemapa XML jest odczytywana przez wyszukiwarki i pomaga im w zrozumieniu struktury serwisu. Należy pamiętać, że sitemapa nie gwarantuje zaindeksowania zamieszczonych w niej adresów URL, ale znacznie ułatwia proces indeksowania witryny przez roboty.

 

Budowa sitemapy

Google potrafi obsłużyć kilka formatów map witryn. Do najczęściej wykorzystywanego sposobu zapisu mapy witryny wykorzystywany jest format XML. Poprawnie skonstruowana w XML mapa powinna być zakodowana w formacie UTF-8, a adresy URL powinny zawierać odpowiednie kody zmiany znaczenia (ucieczki). Więcej informacji na temat prawidłowego projektowania mapy witryny znajduje się na stronie:

https://www.sitemaps.org/pl/protocol.html

Przykładowy fragment mapy witryny w formacie XML:


<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9″>
  <url>
    <loc>http://www.example.com/foo.html</loc>
    <lastmod>2018-06-04</lastmod>
  </url>
</urlset>

 

Dobre praktyki dotyczące tworzenia sitemap

Poniżej znajduje się kilka elementów, na które warto zwrócić uwagę przy projektowaniu sitemapy:

 

Adresy powinny zwracać kod odpowiedzi serwera 200

Zgłaszamy jedynie adresy, które zwracają kod odpowiedzi 200 i są kanoniczne. Należy sprawdzić, czy zgłaszane przez nas do sitemapy adresy URL posiadają odpowiedni protokół (http://, https://) oraz czy chcemy dodać stronę z przedrostkiem (z www, bez www).

 

Adresy URL z unikalną treścią

Należy pamiętać, aby adresy URL zgłaszane do sitemapy były dla robota Google wartościowe. Nie powinniśmy umieszczać w mapie witryny stron, które:

 

Dzielenie sitemap na poszczególne sekcje

Dobrą praktyką w projektowaniu sitemap jest dzielenie ich na mniejsze sekcje, np. w przypadku rozbudowanego sklepu internetowego tworzenie osobnych sitemap dla:

Taki podział pomoże nam w ustaleniu, w jakim procencie dana sekcja strony jest indeksowana przez Googlebota i pozwoli w szybki sposób zadziałać prewencyjnie w przypadku niskiej indeksacji w danym obszarze.

 

Dzielenie dużych map na mniejsze

Maksymalny rozmiar sitemapy obsługiwany przez Google:

Jeżeli rozmiar mapy strony przekracza te wartości, można podzielić ją na mniejsze części. W przypadku takiego rozwiązania warto zgrupować wszystkie mapy witryn w jednym zbiorczym indeksie, tzn. indeksie map witryn. Więcej informacji o budowie i możliwości wykorzystania indeksu:

https://support.google.com/webmasters/answer/75712?visit_id=636753605101018405-1106482775&rd=1

Dodatkowo z poziomu sitemapy możemy poinformować wyszukiwarki o:

 

Różnych wariantach językowych strony

W przypadku istnienia w serwisie różnych wariantów językowych z poziomu mapy witryny możemy wskazać robotom wyszukiwarek alternatywne adresy stron i ich powiązanie. W mapie powinny znaleźć się informacje definiujące poszczególne wersje językowe lub regionalne. Więcej informacji dotyczących budowania i informowania robotów o innych wersjach językowych:

https://support.google.com/webmasters/answer/189077

 

Osobnej wersji mobilnej strony

W przypadku różnych adresów URL dla strony mobilnej i strony desktopowej w sitemapie powinniśmy umieścić jedynie adresy podstawowej wersji strony (komputer).
Jej alternatywną wersję (mobile) możemy umieścić w adnotacji rel=”alternate”.

Przykład fragmentu sitemapy z uwzględnieniem alternatywnych stron mobilnych:

<url>
<loc>http://www.example.com/page-1/</loc>
<xhtml:link
rel=”alternate”
media=”only screen and (max-width: 640px)”
href=”http://m.example.com/page-1″ />
</url>

 

Zgłaszanie sitemapy

Po poprawnym zbudowaniu sitemapy zgodnie z wcześniejszymi dobrymi praktykami należy poinformować roboty wyszukiwarek o jej istnieniu. Najlepiej zrobić to poprzez Google Search Console:

 

W przypadku starej wersji GSC należy wejść w kartę:
SKANOWANIE MAPY WITRYNY
W prawym górnym rogu widoczny jest przycisk:

Po naciśnięciu przycisku pojawi się okienko z możliwością przetestowania oraz dodania mapy witryny do naszego GSC.

W nowej wersji GSC wchodzimy w kartę „MAPY WITRYNY”, gdzie w jej górnej części mamy możliwość dodania mapy:

Dodatkową rekomendowaną metodą informowania robota Google o istnieniu sitemapy jest umieszczenie jej w pliku robots.txt. Dodajemy ją w dowolnym miejscu w pliku,
w postaci dodatkowej linii:

Sitemap: http://example.com/lokalizacja_mapy_witryny.xml

 

Sprawdzanie skuteczności mapy witryny

W starej wersji Google Search Console w sekcji „Mapy witryn” otrzymujemy informację o skuteczności indeksacji, czyli zestawienie liczby zaindeksowanych stron z liczbą adresów zgłoszonych. Jeśli posiadamy sitemapę podzieloną na mniejsze partie/sekcje możemy sprawdzić, które ze stron indeksują się lepiej, a które gorzej, i próbować wyciągnąć na tej podstawie wnioski dotyczące jakości niezaindeksowanych stron oraz działać naprawczo w celu zmiany tego trendu.

W nowej wersji GSC znajdziemy informacje dotyczące problemów z indeksowaniem stron w mapach witryn, m.in. o:

Jeśli nasza mapa witryny posiada któryś z tych problemów, powinniśmy się im bliżej przyjrzeć i poprawić lub usunąć z sitemapy, te strony, które je wywołują. Po poprawkach, usuwamy starą sitemapę z Google Search Console i zastępujemy jej poprawioną wersją, tak aby usprawnić indeksację stron przez robota wyszukiwarki.

Podsumowując, sitemapa XML jest dokumentem bardzo pomocnym przy odczytywaniu i indeksowaniu strony przez wyszukiwarki, choć sama nie gwarantuje indeksacji wszystkich adresów w niej zgłoszonych. Odpowiednie zaprojektowanie i stworzenie mapy witryny jest niezwykle ważne, aby po zgłoszeniu jej w Google Search Console można było wyciągać wartościowe wnioski dotyczące kondycji strony. Szczególnie rekomendowana jest w przypadku dużych serwisów, których wielkość mierzona jest w tysiącach stron.

 

Netpeak Spider – przydatne narzędzie specjalisty SEO i alternatywa dla Screaming Froga

Screaming Frog jest jednym z najpopularniejszych narzędzi do crawlowania i analizy witryn internetowych. Dobrą alternatywą dla niego może być Netpeak Spider. W artykule przybliżę jego ciekawe funkcje i usprawnienia, pomagające w analizie danych oraz w poszukiwaniu możliwości optymalizacji witryn.

 

Dlaczego Netpeak Spider?

Netpeak Spider nie jest tak popularny jak dobrze znany „Excel optymalizacji”: Screaming Frog. Program zawiera jednak wiele wskazówek i podpowiedzi dla osób stale poszukujących nowych sposobów na optymalizację swoich witryn. Netpeak jest desktopowym crawlerem i jego najnowsza wersja z trójką z przodu, wprowadzona w marcu 2018 (aktualne wersja 3.0.0.3 w czasie  pisania artykułu) wniosła wiele nowości i usprawnień. Przede wszystkim twórcy chwalą się nawet 30-krotnie szybszym crawlowaniem witryny w porównaniu do wersji 2.1. Zoptymalizowani również zużycie pamięci RAM, dodali segmentację danych, usystematyzowali prezentację danych i ich struktur, przebudowali swój kalkulator Page Rank oraz wiele innych.

 

To, co zachęca do testowania programu, to przyjazny interfejs oraz intuicyjna prezentacja wyników wraz z podziałem problemów na te ważniejsze oraz mniej istotne. Dane, które otrzymujemy w Screming Frogu wydają się bardziej surowe. Można łatwo dotrzeć do konkretnych podstron, fragmentów witryny, jednak na pierwszy rzut oka nie widać, na co przede wszystkim należy zwrócić uwagę, co może być najbardziej problematyczne dla mniej doświadczonych adeptów sztuki SEO. Warto oczywiście pamiętać, że każdy specjalista może mieć inny sposób pracy i analizuje otrzymane dane w wygodny dla siebie sposób. W innym artykule pisałem, o tym jak efektywniej wykorzystywać Screaming Froga oraz wyciągać z niego niestandardowe dane. W poniższym tekście nie opisuję wszystkich funkcji Netpeaka oraz sposobu jego działania, a jedynie to, co szczególnie zwróciło moją uwagę podczas testów oraz co różni go od SF.

 

Instalacja i rozpoczęcie pracy z programem Netpeak Spider

Program jest płatny i należy pobrać go na komputer. Istnieje 14-dniowa wersja trial, dzięki której możemy przetestować program po rejestracji na stronie https://netpeaksoftware.com/spider.

Po instalacji i weryfikacji licencji otrzymamy poniższy widok:

 

 

Podobnie jak w Screaming Frogu możemy użyć funkcji standardowego crawlera „pełzającego” po naszej stronie, jak również zaimportować listę adresów URL lub sitemapę. Przy standardowych ustawieniach crawlowania zauważyłem, że Netpeak może badać nawet kilka razy więcej adresów na sekundę niż SF.

 

Wartościowe funkcjonalności programu Netapeak Spider

W poniższych punktach ująłem ciekawe oraz przydatne funkcjonalności Netapeaka, które pomagają w analizie witryny.

1. Dostępność danych oraz powiadomień o problemach w witrynie

Netpeak posiada bardzo przejrzysty system informacji o problemach i zagrożeniach występujących w badanym serwisie. Jest on dostępny po prawej stronie oraz podzielony na kilka sekcji. Najbardziej przydatną jest „Issues”, która wskazuje konkretne błędy, ostrzeżenia oraz powiadomienia:

Dowiemy się tutaj, jak dużo elementów czeka na poprawę (kolory czerwony, żółty oraz niebieski), ale również jakich błędów nie wykrył crawler, czyli z czym według niego nie mamy obecnie problemów (sekcja not detected):

 

Dzięki ujęciu procentowemu możemy pogrupować poszczególne problemy według priorytetów. Warto jednak dokładnie przyjrzeć się czy określony typ błędu rzeczywiście wpływa na naszą niekorzyść w takiej skali jak pokazuje Netpeak.

Jest też sekcja „Overview”, gdzie mamy dostęp do innego typu danych (podstrony zawierające odpowiedni kod http, noindex itp.).

 

W sekcji „Site structure” poznamy strukturę strony i dostaniemy się ekspresowo do każdego adresu w witrynie, dzięki przeklikaniu się przez odpowiednie kategorie witryny po sklasyfikowaniu ich przez robota:

 Analizować możemy także w odwrotny sposób, mianowicie każdy adres URL po kolei, klikając w komórkę „Issues”:

 Dzięki temu uzyskamy informacje o wszystkich błędach i ostrzeżeniach odnoszących się do tej jednej podstrony:

 

Jest to dobry sposób na selektywną analizę np. konkretnych kategorii. Netpeak listując wszystkie podstrony serwisu, które przeanalizował zaznacza na czerwono lub żółto te z największą liczbą elementów do poprawy, więc wybór adresów do analizy jest o tyle bardziej intuicyjny.

 

2. Możliwość ustawienia parametrów crawlowania

Po kliknięciu sekcji „Parameters” znajdziemy elementy danych, które chcemy analizować. Możemy tutaj ustawić w szybki sposób elementy raportu jakie powinien wskazać nam Netpeak po zakończonym crawlu. Długość takiej listy warto dopasować do własnych upodobań i zapisać stałe elementy, które rutynowo sprawdzamy jako pierwsze przy analizie witryn. Po takim zabiegu zawsze ukażą nam się stałe elementy do wyboru (np. title i nagłówki H1).

 

Można w ten sposób sprawnie poruszać się po poszczególnych kolumnach danych dla poszczególnych wierszy podstron, takich jak title, czas odpowiedzi, adres kanoniczny czy elementy issues (czyli sugerowanych przez program elementów do naprawy):

 

3. Eksport danych do Excela.

Eksportując dowolne zestawy danych z Netpeaka do Excela otrzymujemy dokładnie ten sam widok jaki widzimy w programie – tę samą kolorystykę, pokolorowane komórki z błędami, zablokowane kolumny oraz wiersze przy scrollowaniu, przez co nie musimy tego robić każdorazowo dla kolejnych plików Excel jak w przypadku Screaming Froga, gdzie takiego formatowania nie mamy. Rozszerzenie eksportowanego pliku to do wyboru xlsx lub csv.

 

4. Internal PageRank Calculator

Narzędzie to jest dostępne w zakładce „Tools”. Po kliknięciu otrzymujemy widok całego serwisu z przyporządkowanymi wartościami wewnętrznego PageRank, który jest obliczany według własnego wzoru Netpeak. Przeglądając ten zestaw danych możemy dowiedzieć się jakie podstrony, które pozycjonujemy, wymagają dodatkowej optymalizacji (mają niski PageRank). Oczywiście jest to nieco „umowne” narzędzie i pozostaje sprawą indywidualną w każdym serwisie. Jednak kiedy porównamy sobie końcową ocenę każdej podstrony z linkami wewnętrznymi przychodzącymi i wychodzącymi oraz innymi elementami, to możemy „sparafrazować” sobie własny system oceny według tego proponowanego przez Netpeaka. Wiemy dzięki temu, które podstrony są słabsze, które mocniejsze i co możemy zrobić, aby to poprawić (np. mocniej podlinkować daną podstronę z bloga, który prowadzimy lub kategorię danego producenta w sklepie internetowym).

O tym jak obliczany jest wewnętrzny Page Rank można przeczytać tutaj https://netpeaksoftware.com/blog/netpeak-spider-2-1-1-2-internal-pagerank-calculation?nst_from=spider&nst_location=internal-pagerank-calculation-tool&nst_link=learn-more.

 

5. Walidator sitemap

Kolejne narzędzie, które dostępne jest w zakładce „Tools”. Po wklejeniu tutaj adresu mapy witryny otrzymamy informacje o linkach w niej umieszczonych,  np. dane o ostatniej modyfikacji i częstotliwości aktualizacji.

Otrzymamy także wyszczególnione błędy oraz ostrzeżenia dla sitemapy, co pozwoli nam na szybką analizę tego, czy dana sitemapa generuje się poprawnie. Jak widać poniżej plik robots.txt nie zawiera linku do sitemapy i jest to jedyna nieprawidłowość wskazana przez Netpeaka:

 

6. Analiza kodu źródłowego oraz odpowiedzi http.

W zakładce Tools możemy znaleźć narzędzie do nieco bardziej zaawansowanej analizy kodu strony:

Narzędzie to pozwala na m.in. analizę kodu źródłowego, typu i czasu odpowiedzi serwera, uzyskania informacji o silniku serwisu (CMS), oraz cache:

Zobaczymy tutaj także tekst, jaki wyrenderował crawler (zakładka Extracted text) przy zastosowaniu odpowiedniej opcji user-agent (standardowo to bot Mozilli).

 

7. Duża liczba User-agentów

Co istotne, w Netapeaku jest znacznie większy wybór wśród opcji user-agent.  Poniżej wskazałem jedynie część z tych dostępnych:

 

8. Analiza segmentowa/filtrowanie

Analiza konkretnych sekcji serwisu jest ułatwiona poprzez szeroki wybór opcji, takich jak np. możliwość wyboru segmentu zawierającego w nagłówku H1 konkretną treść, konkretną długość title i o wiele więcej.Możemy dodać tutaj więcej niż jeden warunek. Wybierając odpowiedni segment ograniczamy wszystkie elementy analizy do tych odnoszących się właśnie do tego segmentu. Jak widać poniżej, danych jest mniej po wybraniu nagłówków H1 zawierających odpowiednią treść:

9. Linkowanie przychodzące, wewnętrzne i wychodzące

Linki wychodzące wraz z ich umiejscowieniem w serwisie otrzymamy po dwóch kliknięciach (podobna sytuacja występuje w przypadku innych rodzajów linków):

Dane możemy eksportować do Excela i tworząc np. audyt serwisu, nie musimy tak naprawdę obrabiać tych danych zbyt długo ponieważ programista, który będzie wdrażał audyt ma już najważniejsze informacje dostępne od razu po eksporcie z Netpeaka.

 

Podsumowanie

Reasumując, Netpeak posiada bardzo zbliżone funkcje do Screaming Froga, ale wiele rzeczy po prostu robi lepiej, szybciej i prezentuje dane w sposób dużo bardziej przejrzysty i czytelny. Posiada bardzo dobry system eksportu danych do Excela oraz kilka przydatnych narzędzi, których nie posiada (jak na tą chwilę) Screaming Frog. Sądzę, że po spędzeniu z nim kilkunastu godzin można używać go podczas pracy w takim samym stopniu jak popularną żabę. Jest to jednak kwestia indywidualna dla każdego specjalisty SEO.

Sposoby na zabezpieczenie WordPressa przed włamaniem

WordPress to platforma, z której korzystają miliony użytkowników na całym świecie. Między innymi z tego względu jest to często wybierany cel przez hakerów. Źle zabezpieczona strona może być narażona na ataki, które mogą być bolesne w skutkach. Włamanie niesie za sobą wiele konsekwencji, a często pozbycie się „dodatków” dołożonych przez hakerów jest bardzo ciężkie. Poznaj kilka sposobów na to, jak zminimalizować ryzyko włamania na stronę zbudowaną na WordPress’ie.

 

Aktualizacje

Zanim przejdziemy do poszczególnych wtyczek i ich funkcjonalności, należy wymienić kilka podstawowych rzeczy, dzięki którym nasza strona stanie się bezpieczniejsza.

Pierwszą z rzeczy, o której musimy pamiętać, to aktualizacja skryptu oraz używanych wtyczek. Aktualne wersje skryptu zawierają poprawki błędów, czy oferują znacznie lepsze zabezpieczenia. Kolejny element to aktualizacja poszczególnych wtyczek, która jest bardzo istotna.

Ważne!!!

Zawsze aktualizujmy wtyczki pojedynczo – jeśli coś pójdzie nie tak, będziemy wiedzieć, która wtyczka spowodowała problem. Jeżeli zaktualizujemy jednocześnie kilkadziesiąt wtyczek, a po zakończeniu aktualizacji okaże się, że strona nie działa to znalezienie tej wtyczki, która spowodowała problem, będzie bardzo czasochłonne.

 

Kopia zapasowa

Temat związany z kopią zapasową strony jest powtarzany praktycznie w każdym poradniku i artykule związanym z WordPressem. Niestety, mimo tego, wielu użytkowników całkowicie zapomina o tym punkcie. Posiadając kopię zapasową witryny i bazy danych, będziemy w stanie błyskawicznie przywrócić wersję sprzed ataku, czy po napotkaniu problemu, który „wykrzaczył” nam stronę.

 

Jak najlepiej tworzyć kopię bezpieczeństwa?

Na całe szczęście dostępny mamy szereg wtyczek, które na to pozwalają. Ogromnym plusem jest to, że możliwe jest ustawienie tworzenia automatycznych kopii bezpieczeństwa. Dzięki temu nie będziemy musieli pamiętać o systematyczności – kopie będą wykonywały się same.

Jedną z takich wtyczek jest BackWPup – WordPress Backup Plugin. Wtyczka ta tworzy automatycznie kopie plików oraz bazy danych. Możemy ustawić czas uruchomienia aktualizacji w zależności od potrzeb. Aktualizacja może tworzyć się w powtórzeniu dziennym, tygodniowym, czy miesięcznym. Zapis kopii zapasowej może być skierowany na nasz serwer czy Dropbox.

Kolejną wtyczką, która działa na podobnej zasadzie co BackWPup, jest UpdraftPlus WordPress Backup Plugin. Ma bardzo podobne opcje, co poprzednia wtyczka i także działa automatycznie, więc nie musimy pamiętać o wykonywaniu ręcznym kopii zapasowych.

Jeśli chcemy zachować jeszcze większe bezpieczeństwo podczas wykonywania kopii zapasowych, warto raz na jakiś czas zgrać taką kopię na nośnik danych, aby mieć pewność, że mamy kopię także poza siecią.

Dodatkową wtyczką, z której korzystam, jest All-in-One WP Migration. Wtyczka ta, może być wykorzystana do stworzenia kopii zapasowej – jednak w tym wypadku trzeba robić ją ręcznie. Wtyczki All-in-One WP Migration najczęściej używa się do migracji stron. Działa ona jednak bardzo szybko, więc stworzenie kopii zapasowej przy pomocy tej wtyczki nie zajmie nam wiele czasu. Należy jednak dodać, że darmowa wersja tej wtyczki pozwala na stworzenie kopii zapasowej dowolnej wielkości, jednak jeśli będziemy chcieli ją wgrać, to ograniczenie jest do 512 MB.

Oczywiście wtyczki te musimy dopasować do rodzaju strony, którą posiadamy. Jeśli przykładowo nasza witryna jest aktualizowana przez nas raz w miesiącu, to nie ma potrzeby robienia kopii zapasowej częściej, niż w takim okresie czasu. W przypadku sklepów internetowych czy stron, na których codziennie dzieje się coś nowego, najlepszym rozwiązaniem są kopie zapasowe tworzone w powtórzeniu codziennym.

Jeśli twoja witryna na WordPressie nie posiada kopii zapasowej, proponuję od razu wyposażyć się w jedną z wyżej wymienionych wtyczek i rozpocząć wdrożenie.

 

Silne hasło

Tutaj istotne jest to, aby nasze hasło składało się z co najmniej kilkunastu znaków, w których zawarte będą małe i duże litery, cyfry oraz znaki specjalne. Ustawienie hasła „qwerty” nie jest dobrym pomysłem.Unikajmy także używania haseł stworzonych przez różnego rodzaju generatory haseł. Sami postarajmy się wymyślić silne hasło.

Warto dodać, aby nie używać tego samego hasła do kilku różnych kont wykorzystywanych w Internecie – dzięki temu zabiegowi znacznie zminimalizujemy ryzyko stracenia czegoś więcej, niż strony internetowej.

 

Zmiana loginu

Używanie domyślnego loginu „admin” również nie jest dobrym pomysłem. Warto zastanowić się nad innym, który nie będzie domyślnie atakowanym przez wszelkiego rodzaju złośliwe oprogramowania. Do takiej operacji nie potrzebujemy żadnej wtyczki. Login ustawiamy przy zakładaniu konta na WordPressie. W przyszłości możemy zmienić go w sekcji „Użytkownicy”. Login może być stworzony z losowych znaków czy słów nawet kompletnie niezwiązanych z tematyką strony. Nie jest on bowiem wyświetlany na stronie jako nazwa autora – tę możemy zmienić w edycji użytkownika.

Oprócz zmiany samego loginu warto pokusić się o zaglądnięcie do bazy danych oraz zmianę ID administratora, który docelowo ma ID: 1. Liczbę tą zmieńmy na losowy ciąg cyfr. Użytkowników wraz z adminem znajdziemy w tabeli – standardowo: wp_users. Jeśli prefix tabel został zmieniony, to będzie to [wybrany prefix]_users.

 

Prefix tabel

Jeśli już poruszyliśmy temat związany z bazą danych, to kolejnym krokiem, który pomoże nam zabezpieczyć Wordpresa, jest zmiana prefixu bazy danych. Standardowo WordPress narzuca „wp_”. Prefix ustalamy podczas instalacji WordPressa. Warto zmienić go na dowolny inny ciąg znaków. Dzięki temu witryna stanie się znacznie mniej podatna na atak SQL Injection. Co jednak, gdy przy instalacji pozostawiliśmy domyślny prefix? W jego zmianie pomogą nam wtyczki. Jest ich przynajmniej kilka. Należy jednak pamiętać, aby przed taką zmianą zawsze zrobić kopię bezpieczeństwa witryny i bazy danych, aby w razie niepowodzenia móc bezproblemowo powrócić do sprawnej wersji strony.

Prefix bazy danych możemy zmienić choćby nawet przy pomocy wtyczki WP-DBManager, czy iThemes Security (formerly Better WP Security).

Oto kolejny prosty sposób, który pomoże zabezpieczyć naszą witrynę na WordPressie. 

 

Role dla użytkowników

Jeśli dostęp do panelu WordPressa ma więcej osób niż jedna, to należy bardzo dokładnie rozważyć ich role i właśnie dokładnie takie im nadać. Dostępne są następujące role dla użytkowników: Subskrybent, Współpracownik, Autor, Redaktor oraz Administrator. Pod żadnym pozorem nie wręczajmy roli administratora osobom, których jedynym zadaniem jest dodawanie postów. Problem w takim przypadku nie polega tylko i wyłącznie na większym ryzyku włamania, lecz również na przypadkowym przestawieniu istotnych opcji przez osoby, które mają dostęp do panelu.

 

Instalacja certyfikatu SSL

Od pewnego czasu strony, które nie posiadają szyfrowanego połączenia, są oznaczane jako „niezabezpieczone” przez przeglądarkę Chrome. Jest to jeden ze znaków, który może zniechęcić użytkownika do dalszego przeglądania strony. Co więcej, w przypadku stron, które posiadają formularze, rejestracje itp. Certyfikat SSL jest niezbędny. Nie dopuśćmy do tego, aby dane naszych użytkowników zostały przejęte przez osoby trzecie.

Certyfikaty SSL są płatne, lecz gdy nie chcemy wydawać na nie pieniędzy, to możemy skorzystać z darmowej alternatywy, którą jest Let’s Encrypt.

 

WPS Hide Login

Przechodząc do wtyczek, które pomogą nam zabezpieczyć naszego WordPressa, pierwszą, którą polecę jest WPS Hide Login. Dzięki tej wtyczce zmienimy adres logowania do strony ze standardowego /wp-admin. Należy pamiętać, że wszelkiego rodzaju złośliwe oprogramowania najczęściej atakują właśnie ten adres. Nie ma sensu ułatwiać im tego zadania poprzez pozostawienie domyślnego adresu logowania.

Mały tip

Istnieją wtyczki do zmiany wyglądu strony logowania, jeśli chcemy ją delikatnie urozmaicić. Może nie ma to tak wielkiego sensu przy stronach prywatnych, tak już przy sklepach internetowych lub portalach, które umożliwiają rejestrację, może to być atrakcyjne z punktu widzenia użytkownika. Przykładem takiej wtyczki jest Birds Custom Login.

 

Dbaj o czystość w WordPressie

Często dochodzi do sytuacji, w której korzystamy z różnych motywów czy wtyczek, a po jakimś czasie są nam one zbędne. Nie zostawiajmy ich włączonych i zainstalowanych. Warto usunąć je od razu po zaprzestaniu ich użytkowania. Takie postępowanie przyczyni się zarówno do większego bezpieczeństwa, jak i przyśpieszy ładowanie strony.

Jeśli już jesteśmy na etapie użytkowania wtyczek, to musimy pamiętać, aby instalować je tylko i wyłącznie z oficjalnej strony WordPressa. Instalacja wtyczek pobranych z różnych innych źródeł w Internecie (najczęściej utrzymywanych na prywatnych serwerach, czy portalach typu „chomikuj”) wiąże się z ryzykiem instalacji zainfekowanej wtyczki. Oficjalne, przetestowane wtyczki znajdziemy pod adresem: https://pl.wordpress.org/plugins/

 

Wersja PHP

Używanie starych i nierozwijanych już wersji PHP może stwarzać niebezpieczeństwo dla naszej strony. Starajmy się więc zawsze utrzymywać najnowszą dostępną wersję PHP dla witryny. Ustawienia używanej wersji PHP znajdziemy w panelu administracyjnym u naszego hostingodawcy, gdzie będziemy mogli również dokonać zmiany.

 

xmlrpc.php

Zarządzać WordPressem można na różne sposoby np. ręcznie poprzez zalogowanie się do panelu lub poprzez używanie różnych zewnętrznych aplikacji. Jeśli jednak wykorzystujemy tylko zarządzanie ręczne, to koniecznie musimy wyłączyć dostęp do pliku xmlrpc.php. Plik xmlrpc.php może być wykorzystywany do przeprowadzenia ataku typu Brute Force.

Blokadę możemy wykonać ręcznie poprzez dodanie w pliku .htaccess:

<files xmlrpc.php>

order deny,allow

deny from all

</files>

Jeśli chcemy zrobić to za pomocą wtyczki, to proces wykonamy poprzez instalację: Disable XML-RPC. Wtyczkę wystarczy zainstalować i włączyć – nie ma konieczności konfigurowania jakichkolwiek dodatkowych ustawień. Obecnie z wtyczki korzysta ponad 100 tysięcy użytkowników.

 

Limit Login Attempts

Wtyczka Limit Login Attempts służy do zablokowania adresu IP po wyznaczonej ilości błędnych prób logowań. Ilość prób możemy zdeklarować w ustawieniach wtyczki. Prosta, a zarazem skuteczna wtyczka blokująca ataki DDOS. Jedna dodatkowa tego typu wtyczka nie obciąży nadmiernie strony, a może przynieść spore korzyści.

 

Wyłączenie rejestracji użytkowników

Jeśli nie ma potrzeby, aby na naszej stronie była możliwość rejestrowania się, to w panelu WordPressa, warto wyłączyć rejestrację. Przechodzimy do zakładki Ustawienia -> Ogólne i w tym miejscu odznaczamy „Każdy może się zarejestrować” na poziomie podmenu „Członkostwo”.

 

Wordfence Security

Wordfence Security jest popularną wtyczką do WordPressa, która wesprze bezpieczeństwo naszej witryny. Obecnie posiada ona ponad 2 miliony aktywnych instalacji. Wordfence Security chroni przed włamaniami oraz złośliwym oprogramowaniem i zatrzyma ataki brute force. Wtyczka dostępna jest w wersji darmowej oraz płatnej. Oczywiście wersja płatna znacznie rozszerza możliwości wtyczki.

Wtyczek typu Wordfence Security znajdziemy znacznie więcej, lecz ta jest jedną z najpopularniejszych. Jako przykłady innych wtyczek możemy wymienić tutaj iThemes Security lub Sucuri Security.

 

Po co to wszystko? Czy na pewno warto?

Jak na pewno zauważyliście, sposobów pozwalających zabezpieczyć stronę opartą na WordPressie jest całkiem sporo, lecz warto poświęcić czas i postarać się wdrożyć większość z nich. Jeśli zależy nam na naszej witrynie zbudowanej na WordPressie, to z pewnością warto. Przecież nie po to budujemy stronę, aby ktoś zniszczył efekty naszej pracy.

Pamiętajmy, że zagrożona jest nie tylko sama strona, lecz również domena. Spotykałem się już z różnymi atakami, których skutkiem było przykładowo zaindeksowanie setek podstron o tematyce erotycznej. Zanim kogoś rozbawi perspektywa zostania baronem pornografii, skutki mogą być drastyczne Taki atak ma długofalowe konsekwencje, jeśli brać pod uwagę widoczność strony w wyszukiwarce. Często też może zakończyć się karą od Google, która wydłuży czas powrotu do normalności naszej witrynie. Nie ma więc na co czekać – zachęcam do wdrażania zabezpieczeń krok po kroku. 

10 najlepszych źródeł wiedzy o SEO

Zmiany i aktualizacje to codzienność w pracy każdego SEOwca. Ostatnio pisaliśmy od czego zacząć naukę SEO, teraz podpowiadamy, skąd czerpać informacje, kiedy podstawy są już dla Ciebie oczywiste i poszukujesz sprawdzonych źródeł wiedzy, aby zawsze być na bieżąco z nowościami z branży.

Istnieją witryny, do których lubią odwoływać się eksperci i które warto subskrybować lub odwiedzać. Poniżej znajduje się top najlepszych stron poświęconych SEO wraz z wyjaśnieniem, jaką unikalną wiedzę zawierają i dlaczego to właśnie te adresy warto śledzić.

 

1. Google Webmaster Central Blog

 

Najlepsza baza wiedzy o Google, czyli samo Google – na swoim blogu dzieli się wiadomościami dotyczącymi crawlowania, indeksowania i rankingu. Jest to również miejsce powiadamiania o tym, co wkrótce zamierza wprowadzić lub zaktualizować, tak jak na przykład miało to miejsce przy ogłoszeniu początku mobile-first indexing czy wprowadzeniu nowej wersji Search Console. Z bloga można dowiedzieć się również o nowościach wdrażanych na stronie SERP.

Google Webmaster Central Blog to podstawowe źródło informacji o zmianach w wyszukiwarce. Minusem jest jednak fakt, że na stronie nie znajdzie się wszystko, co SEOwcy chcieliby wiedzieć – na przykład na temat zmiany algorytmu czy też początku obowiązywania nowego czynnika rankingowego. W takich przypadkach odpowiedzi trzeba doszukiwać się między wierszami lub też konieczne jest posiłkowanie się innymi blogami.

Dlaczego warto śledzić?

Niezastąpione źródło wiedzy o zmianach w wyszukiwarce, do którego odwołują się pozostałe strony poświęcone SEO.

 

2.Optymalizacja witryn pod kątem wyszukiwarek (SEO) – podręcznik dla początkujących

 

Zgromadzone pod jednym adresem podstawowe informacje na temat optymalizacji strony. Po raz pierwszy opublikowany w 2008 roku podręcznik został w ubiegłym roku gruntownie odświeżony i wzbogacony o sekcje dotyczące danych strukturalnych i stron mobilnych. Mimo że poradnik nie zawiera przełomowych informacji, warto się z nim zapoznać, aby dowiedzieć się, co Google rozumie pod pojęciem dobrych praktyk SEO.

Dlaczego warto przeczytać?

Starter SEO to zasadnicza wiedza na temat tworzenia i optymalizacji witryn dobrze współpracujących z wyszukiwarką.

 

3. Search Engine Land

 

Search Engine Land to jedna z najpopularniejszych witryn poświęconych tematyce SEO i encyklopedia wiedzy o wyszukiwarce. Często jako pierwsza podaje informacje o zmianach w Google, więc każdy, kto chce być zorientowany w branżowych nowościach, powinien obowiązkowo śledzić tę stronę. Ułatwić to może zapisanie się do newslettera, dzięki czemu najważniejsze wiadomości dnia znajdziemy w swojej skrzynce pocztowej.

Serwis został stworzony w 2007 roku przez Danny’ego Sullivana, wieloletniego dziennikarza SEO, kiedy porzucił on prowadzony od 1997 roku portal Search Engine Watch, określany wtedy jako najbardziej wiarygodne źródło wiedzy o wyszukiwaniu. Sullivan był współzałożycielem The Third Door Media – spółki publikującej Search Engine Land i inne blogi poświęcone tematyce digital marketingu, jak również organizującej popularną serię konferencji SMX. W 2017 roku Sullivan opuścił zespół i, wywołując niemałe zaskoczenie w świecie SEO, wstąpił w szeregi Google po to, by jak sam twierdzi, poprawić komunikację między jego pracownikami a użytkownikami wyszukiwarki.

Tymczasem Search Engine Land to nadal źródło codziennych informacji dotyczących wyszukiwania. Oprócz postów autorstwa redakcji na stronie znajdziemy wypowiedzi ekspertów, którzy dzielą się swoimi wskazówkami i strategiami. Serwis gromadzi tak wiele materiałów dotyczących poszczególnych tematów, że można znaleźć w nim odpowiedź na większość pytań związanych z SEO i PPC.

Dlaczego warto śledzić?

Search Engine Land najszybciej informuje o zmianach w Google i pozwala trzymać rękę na pulsie.

 

4. Search Engine Roundtable

 

Search Engine Roundtable to serwis czerpiący informacje z najciekawszych wątków i dyskusji, które odbywają się na forach związanych z marketingiem w wyszukiwarkach. Pierwsze i główne źródło wiedzy, kiedy na naszą stronę wpływa aktualizacja algorytmu lub też inna zmiana wprowadzona przez Google.

Strona została założona w 2004 roku przez Barry’ego Schwartza jako jego osobisty blog dotyczący SEO. Do dziś publikuje on wpisy odnoszące się do nowości, wydarzeń i dyskusji w branży.

Search Engine Roundtable zbiera najciekawsze tematy poruszane na forach branży SEM i ułatwia w ten sposób pracę marketerów. Podsumowanie najważniejszych wiadomości dnia można znaleźć w sekcji Daily Search Forum Recap. Warto również przeglądać komentarze pojawiające się pod wpisami, które często przeradzają się w burzliwe, ale i merytoryczne dyskusje.

Dlaczego warto śledzić?

Korzystanie z Search Engine Roundtable to oszczędność czasu – nie trzeba przeszukiwać wątków na forach marketingu internetowego, aby być na bieżąco ze zmianami w branży.

 

5. The Moz Blog

 

The Moz blog to źródło porad i wskazówek dotyczących SEO, social mediów i contentu. Uważany za jedną z pierwszych stron, którą powinny śledzić osoby zapoznające się z optymalizacją pod kątem wyszukiwarek.

Strona wystartowała w 2004 jako blog poświęcony przede wszystkim zagadnieniom SEO. Następnie Moz zajął się również tworzeniem oprogramowania. W międzyczasie The Moz blog stał się bazą unikalnych, dopracowanych i przedstawionych w przejrzysty sposób treści.

Na blogu pojawia się od czterech do pięciu artykułów tygodniowo. Największą popularnością cieszy się cykl „Whiteboard Friday”, o którym wspominaliśmy przy okazji najlepszych źródeł do nauki SEO. Tematy poruszane w klipach podsumowane są również w obszernych i szczegółowych wpisach na blogu.

Dlaczego warto śledzić?

Blog Moza to źródło zarówno dla początkujących w branży SEO, jaki i dla tych, którzy poszukują wskazówek, trików i porad, które pomogą im w optymalizacji strony.

 

6. The Ahrefs blog

 

O Ahrefsie pisaliśmy jako o dobrym źródle wiedzy dla uczących się SEO – na blogu popularnego narzędzia można znaleźć mnóstwo wskazówek, tutoriali, nie brakuje też wypowiedzi ekspertów z branży. Oprócz tego warto zauważyć, że Ahrefs dysponuje sporą i aktualną bazą linków zwrotnych, zamieszczane na stronie case studies oparte są na realnych danych. Publikowane raporty poruszają interesujące dla rozwijających swoje serwisy tematy, jak na przykład pozyskiwanie ruchu na podstawie linków zwrotnych konkurencji.

Blog Ahrefs nie jest aktualizowany zbyt często (średnio jeden nowy wpis na tydzień), ale w zamian oferuje analityczne i bogate w dane artykuły. Zarówno narzędzie, jak i blog, mają stanowić pomoc w zwiększaniu widoczności witryny, artykuły skoncentrowane są więc wokół tematów takich jak link building, dobór słów kluczowych, content marketing i techniczne SEO. Oprócz tego z bloga można dowiedzieć się, w jaki sposób korzystać z funkcjonalności narzędzia.

Dlaczego warto śledzić?

Blog Ahrefs to źródło o SEO wiedzy poparte bogatą bazą danych i przydatne wskazówki, które ułatwiają korzystanie z samego narzędzia.

 

7. Majestic

 

Blog Majestica, kolejnego obok Ahrefsa narzędzia do analizy profilu linków, to dobre źródło zarówno dla zdobywających wiedzę o SEO, jaki i dla tych, których interesują informacje o aktualizacjach narzędzia, co wiąże się często z nowymi szansami na rozwój własnej strony. Wpisy skoncentrowane są wokół link buildingu i możliwości, jakie oferuje w tym zakresie Majestic. Nie brakuje artykułów podpowiadających, jak za pomocą narzędzia poprawić wyniki SEO.

Dlaczego warto śledzić?

Blog Majestica to źródło wiedzy na temat samego programu i jego wykorzystania w celu pozyskiwania linków dla witryny.

 

8. Deep crawl

 

Wartościowym źródłem wiedzy o SEO jest blog prowadzony na stronie crawlera Deep Crawl. Artykuły na stronie dotyczą przede wszystkim technicznego SEO, w tym tematów takich jak budowa adresów URL, indeksowanie strony czy przekierowania. Dodatkowo blog wybiera najważniejsze i najciekawsze informacje z Google Webmaster hangouts, o których wspominaliśmy w poprzednim artykule, dzięki czemu żadna nowa wiadomość płynąca od pracowników Google nie zostaje pominięta.

Dlaczego warto śledzić?

Blog Deep Crawl to cenne źródło wiedzy na temat optymalizacji technicznej witryny, a także zestawienie najważniejszych informacji prosto od Google.

 

9. SEMrush blog

 

Następny blog towarzyszący oprogramowaniu SEO. W związku z tym, że firma oferuje również narzędzia do audytu stron, jest świadoma różnych aspektów marketingu w wyszukiwarkach i na blogu dzieli się kompleksową wiedzą z zakresu SEO, PPC i content marketingu. Wszystko to przedstawione jest z wysoką dbałością o odsłonę graficzną – artykuły uzupełnione są o materiały ilustrujące dany temat, nie brakuje również przydatnych ikonografik i filmów wideo.

Dlaczego warto śledzić?

SEMrush to wszechstronne źródło wiedzy na temat marketingu w wyszukiwarkach i dobre miejsce dla uczących się SEO.

 

10. SEO by the Sea

 

Tematyka Seo by the Sea skupiona jest wokół patentów i raportów tworzonych przez Google, stąd też strona jest przydatnym źródłem informacji dla tych, którzy chcą monitorować informacje pochodzące bezpośrednio od wyszukiwarki. Ideą bloga jest wydobycie istotnej wiedzy na temat mechanizmów wyszukiwania, która zawiera się w składanych przez Google wnioskach o patenty. Na stronie zamieszczane są streszczenia wypełnionych językiem prawniczym dokumentów wraz z autorskimi komentarzami i wnioskami, które mogą rzucić nowe światło na optymalizację stron pod kątem wyszukiwarki.

Dlaczego warto śledzić?

Seo by the Sea to rozłożone na części pierwsze googlowskie patenty, które dają wgląd w mechanizmy stojące za działaniem wyszukiwarki.

 

Podsumowanie

Wymienione adresy to tylko niewielka część dostępnych w sieci informacji o SEO. Wiadomości docierają do zainteresowanych za pośrednictwem forów, blogów, mediów społecznościowych, gdzie nowinkami dzielą się sami użytkownicy. W ich dyskusjach linki do podanych stron pojawiają się bardzo często, co świadczy o tym, że są wiarygodnymi i sprawdzonymi źródłami. Warto je odwiedzać dla zdobycia różnego wiedzy związanej z wyszukiwaniem.

Jak sprawdzić, czy Twoja strona jest dobrze zoptymalizowana pod mobile?

 

Optymalizacja strony internetowej pod urządzenia mobilne to obecnie absolutny „must have”. Niezależnie od tego, czy tworzysz swoją stronę od zera, czy już ją posiadasz, musisz zadbać o to, by była odpowiednio wyświetlana na każdym urządzeniu.

DLACZEGO WITRYNA POWINNA BYĆ ZOPTYMALIZOWANA POD MOBILE?

Według badań Google, w Stanach Zjednoczonych aż 94% użytkowników smartfonów szuka informacji lokalnych za pomocą swojego telefonu (źródło: The Mobile Playbook). Co ciekawe, większość z nich robi to w swoim domu, gdzie mają przecież do dyspozycji komputer stacjonarny, bądź laptopa. Również w Polsce ten odsetek jest duży i z roku na rok rośnie coraz bardziej. Wstąpiliśmy w erę post PC. Jeśli chcesz, aby Twoja firma zaistniała w Internecie, to koniecznie musisz stworzyć stronę internetową, która jest wygodna do użytkowania również na urządzeniach mobilnych.

Chodzi o to, aby strony nie trzeba było przesuwać i powiększać na smartfonie czy tablecie. Wszystkie elementy powinny być odpowiednio duże i dopasowane, a sama strona przejrzysta, prosta i czytelna. Również pojawiające się znienacka reklamy zajmujące cały ekran telefonu potrafią skutecznie zniechęcić użytkowników do dalszego korzystania z naszej witryny.

STRONA RWD

Strona RWD (Responsive Web Design) ma dynamicznie dopasowujący się rozmiar zależnie od urządzenia, z którego korzystamy.  Podczas wczytywania strony RWD, pobierane są informacje o rozdzielczości urządzenia. Dzięki temu elementy na stronie są zawsze dobrze dopasowane i czytelne. Jest to o tyle wygodne rozwiązanie, że wyświetlane treści na każdym urządzeniu są takie same. Różni się tylko sposób ich prezentacji.

 

STRONA MOBILNA

Strona mobilna jest alternatywnym rozwiązaniem dla strony RWD. Mobilna wersja posiada inne adresy URL, przez co wymaga osobnego zarządzania treścią na stronie. Do plusów tego rozwiązania możemy zaliczyć fakt, że strona mobilna działa szybciej i jest zazwyczaj wygodniejsza w użytkowaniu, ponieważ od początku tworzy się ją z myślą o urządzeniach przenośnych. Dzięki temu nie jest przeładowana treściami zbyt obciążającymi ograniczone na urządzeniach transfery danych czy też ich moc obliczeniową. Można przyjąć, że wariant mobilny stron ustępuje miejsca witrynom responsywnym. Dzisiejsze smartfony dysponują świetnymi parametrami sprzętowymi, a dostępna ilość megabajtów do pobrania z roku na rok rośnie w drastycznym tempie. 

 

NARZĘDZIE DO TESTOWANIA OPTYMALIZACJI MOBILNEJ GOOGLE

https://search.google.com/test/mobile-friendly

Zanim zaczniesz się zamartwiać, że Twoja witryna nie działa dobrze w mobile’u, skorzystaj z prostego narzędzia weryfikacji, które oferuje Google. Wystarczy wpisać adres URL strony internetowej, którą chcemy sprawdzić, a cały test trwa niecałą minutę. W wynikach możemy zobaczyć jak Google „widzi” naszą stronę na urządzeniach mobilnych oraz listę błędów (jeżeli takie występują), które należy poprawić.

Narzędzie do testowania optymalizacji mobilnej rozpoznaje poniższe błędy związane z obsługą i czytelnością stron:

Ze względu na to, że większość przeglądarek mobilnych nie potrafi renderować treści Flash, strona zawierająca takie treści może być nieczytelna i niezdatna do prawidłowego użytkowania.

Użytkownicy odwiedzający Twoją witrynę korzystają z urządzeń mobilnych o różnej wielkości. Co za tym idzie, strona powinna automatycznie rozpoznawać wielkość wyświetlacza i dostosować się do niego. Tutaj z pomocą przychodzi tag meta viewport, który informuje przeglądarkę o sposobie regulacji wyświetlanej strony oraz jej skalowaniu w celu jak najlepszego dopasowania do urządzenia.

Stronę należy zaprojektować tak, aby obszar widoczny dopasowywał się do wielkości urządzenia i był odpowiednio skalowany. Więcej informacji na ten temat znajduje się w artykule Google na temat podstaw elastycznego projektowania witryn:
https://developers.google.com/web/fundamentals/design-and-ux/responsive/

Ten błąd polega na niedopasowaniu treści na stronie, przez co wymagane jest przewijanie poziome w celu odczytania znajdującego się na niej tekstu lub obrazu. Aby uniknąć tego problemu, korzystaj ze względnych wartości szerokości i pozycji elementów CSS oraz zadbaj o skalowanie elementów.

Czcionka powinna być na tyle duża, aby nie wymagała przybliżania widoku strony w celu odczytania treści. Należy ustawić odpowiednie skalowanie czcionki, tak by była ona czytelna na każdym urządzeniu.

Jest to bardzo uciążliwy problem dla osób, które korzystają z naszej strony internetowej. Kiedy elementy dotykowe umieszczone są zbyt blisko siebie, to użytkownik może mieć problem z dotknięciem palcem odpowiedniego elementu – to może być frustrujące! Dlatego należy zadbać, aby elementy klikane były odpowiedniej wielkości i znajdowały się w odpowiednio dużej odległości od siebie. Korzystanie z naszej strony internetowej stanie się wtedy dużo przyjemniejsze.

GOOGLE SEARCH CONSOLE

Z poziomu narzędzia Google Search Console również możemy dowiedzieć się o podstawowych błędach, które powodują problemy z wyświetlaniem naszej strony na urządzeniach mobilnych. W pulpicie nawigacyjnym GSC wybieramy zakładkę „Ruch związany z wyszukiwaniem”, a następnie „Obsługa na urządzeniach mobilnych”.

W raporcie możemy znaleźć informacje na temat podstron, których obsługa na urządzeniach mobilnych jest problematyczna. Poniżej kilka najpopularniejszych błędów:

PAGESPEED INSIGHTS

To kolejne narzędzie ze stajni Google’a, które umożliwia sprawdzenie szybkości wczytywania naszej strony zarówno na urządzeniach mobilnych, jak i na komputerze. Wystarczy, że wpiszemy adres URL strony, którą chcemy zbadać i już po paru sekundach dostaniemy pełny raport.

https://developers.google.com/speed/pagespeed/insights/

Optymalizacja strony oceniana jest w skali od 0 do 100, co ilustruje także sugestywna kolorystyka. Im lepiej zoptymalizowana jest nasza strona, tym więcej punktów zgromadzi. Dodatkowo narzędzie wyświetla spersonalizowaną listę wskazówek optymalizacyjnych, które pomogą w osiągnięciu lepszego wyniku, takich jak na przykład:

Parametry „Page Speed” obliczane są na podstawie rzeczywistych danych, dostarczanych przez użytkowników przeglądarki Google Chrome. Więcej informacji na ten temat znajduje się w osobnym artykule na blogu Semahead: Aktualizacja narzędzia PageSpeed Insights.

GOOGLE LIGHTHOUSE

Google Lighthouse możemy pobrać i zainstalować w postaci darmowej wtyczki dla przeglądarki Chrome. Narzędzie przeprowadza serię testów na wybranej stronie. Testy wykonywane są tak, aby w jak największym stopniu odzwierciedlały realne sytuacje (wczytywanie strony na urządzeniu, które korzysta z połączenia 3G i którego procesor jest obciążony).

Po wykonaniu testów otrzymujemy między innymi informacje na temat tego, ile czasu zajmuje wyświetlenie głównej treści strony, a także czas, w którym strona staje się częściowo lub w pełni interaktywna. W raporcie znajdziemy również wskazówki dotyczące poprawy szybkości naszej witryny. Rozbudowany wpis na temat możliwości tego narzędzia znajduje się na naszym blogu: Google Lighthouse – recenzja narzędzia.

 

WEBPAGETEST.ORG

WebPagetest to bardzo rozbudowane narzędzie na licencji Open Source. Jego główną funkcjonalnością jest sprawdzanie szybkości stron internetowych i ocena w 6-stopniowej skali, gdzie A to najlepsza ocena strony, a F najgorsza. Przed przeprowadzeniem testu możemy wybrać dokładny model telefonu, na którym chcemy sprawdzić szybkość naszej witryny oraz różne przeglądarki mobilne, takie jak Chrome, Chrome Canary, Opera Mini, Firefox czy Samsung Internet.

W zaawansowanych opcjach możemy wybrać również odpowiadającą nam prędkość przesyłania danych, wykonać testy z przechwytywaniem video czy wyłączeniem JavaScript. To jednak tylko niewielka część ze wszystkich zaawansowanych funkcji tego narzędzia.

PODSUMOWANIE

Jeśli chcesz zaistnieć ze swoją firmą w Internecie, koniecznie trzeba zadbać o optymalizację swojej strony pod mobile. Nie chodzi tu tylko o poprawę wygody użytkowania, ale również o postrzeganie naszej strony przez roboty Google. Od 26 marca bieżącego roku Google rozpoczęło wdrażanie indeksu mobilnego, czyli tzw. „Mobile-First Index”. W związku z tym, to właśnie wersja strony na urządzenia przenośne będzie w pierwszej kolejności sprawdzana pod kątem optymalizacji i to od niej zależeć będzie pozycja naszego serwisu w organicznych wynikach wyszukiwania.

Zapisz się do newslettera!

  • Dążymy do tego, aby świadczyć usługi na najwyższym poziomie. Z tego powodu w naszym serwisie korzystamy z plików cookies. Pliki cookies możesz kontrolować za pomocą ustawień swojej przeglądarki internetowej. Dalsze korzystanie z naszego serwisu, bez zmiany ustawień przeglądarki internetowej oznacza, iż akceptujesz stosowanie plików cookies. Więcej informacji znajdziesz w naszej polityce prywatności.
  • Zamknij