Zajrzyj na swoją pocztę, aby poznać szczegóły oferty ;)
Tymczasem, sprawdź nowości na naszym blogu semahead.agency/blog/
Zespół Semahead
W idealnym świecie po wpisaniu konkretnej frazy kluczowej w wyszukiwarkę, ta przekierowuje nas na stronę, która jest dokładnie powiązana z zapytaniem. Aby było to możliwe z pomocą przychodzą algorytmy Google, które cały czas analizują witryny, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Odpowiedź w poniższym artykule!
Według raportu WeAreSocial internet, a wraz z nim wyszukiwarki internetowe, stają się nieodzownym elementem życia człowieka. Ponad 4,5 miliarda ludzi korzystało z internetu w 2020 roku, co stanowi 59% populacji. To wzrost o 7 procent w stosunku do roku poprzedniego. W związku z popularnością internetu, niezbędne są narzędzia, które pomagają odnaleźć się w gąszczu rozmaitych stron internetowych, wszak internet to nie tylko social media. Takimi narzędziami są wyszukiwarki internetowe, a wśród nich najpopularniejsza (według danych ze stycznia 2021), czyli Google. Procentowy rozkład użytkowników danych wyszukiwarek internetowych wg. netmarketshare.com przedstawia się następująco:
Wyszukiwarka Google, by wyświetlać jak najbardziej stosowne wyniki wyszukiwania wykorzystuje system rankingowy. Ranking ustalany jest na podstawie szeregu algorytmów. Algorytmy Google to zaawansowane procesy posiadające określony schematy postępowania, których zadaniem jest ocena stron internetowych i uszeregowanie ich według z góry określonych kryteriów. Ich głównym celem jest przedstawienie jak najbardziej naturalnych i zróżnicowanych wyników, które odpowiedzą trafnie na zapytanie użytkowników wyszukiwarki.
Algorytmy Google wykorzystują setki, jeśli nie tysiące różnych czynników rankingujących. Tylko niektóre z nich zostały oficjalnie potwierdzone przez pracownika Google – większośc należy do sfery przypuszczeń. Niewiadomą jest nie tylko to, jakie są czynniki rankingowe, ale również jaką mają wagę w ogólnym rozrachunku.
Szacuje się, że algorytm Google jest updatowany około 600 razy w ciągu roku. Aktualizacje algorytmu zwykle są drobne nie prowadzą do dużych przetasowań w wynikach wyszukiwania, a ich duża ilość wiąże się z wykorzystaniem uczenia maszynowego. Niektóre jednak są na tyle duże, że doczekały się własnej nazwy.
Page Rank był pierwszą próbą uporządkowania wyników wyszukiwania Google. Polegał on na nadawaniu określonej wartości przy pomocy algorytmu matematycznego. Był on wyliczany automatycznie na podstawie ilości linków prowadzących do witryny oraz treści i zawierał wartość pomiędzy 0 a 10. Został stworzony przez założycieli Google – Larry’ego Page’a i Sergeya Brina. Page Rank był jawny dla każdej witryny i można było na bieżąco ewaluować on-going wyniki swojej pracy. Algorytm ten z czasem stał się narzędziem manipulacji – branża szybko go rozgryzła i wykorzystywała do boostowania niskiej jakości treści linkami np. z farm linków bądź keyword stuffingiem. Wymogło to na Google stosowanie innej metody klasyfikacji stron internetowych. W 2016 roku wycofano się z informowania o wyniku Page Rank, jednak na Twitterze wciąż pojawiają się pytania kierowane do Matta Cuttsa o to, czy Page Rank w rzeczywistości wciąż działa.
By zapobiec dużej ilości spamu, która wynikała z niedoskonałości Page Ranka, wprowadzono algorytm Panda, który stanowił niemałą rewolucję w podejściu do prowadzenia działań SEO. Został tak nazwany na cześć inżyniera Navneeta Pandy i został oficjalnie wdrożony 23 stycznia 2011 roku. Początkowo był aktualizowany co miesiąc, razem z aktualizacjami algorytmu głównego, więc trudno było wyodrębnić zmiany w samej Pandzie. Algorytm Panda zaczął badać strony pod kątem ich przydatności oraz wartości prezentowanej treści. Negatywnie oceniał treści, które:
Tym sposobem wyeliminowane zostały famry linków, a Panda zmusiła SEO-wców do tego, by przykładali większą wartość do jakości publikowanych treści. Zmniejszyło się znaczenie treści synonimizowanych i sztucznie generowanych. Od tego momentu zaczęto mówić „content is king” i skupiać się na odbiorcach, a nie wyłącznie robotach Google.
W 2016 roku algorytm Panda został scalony z głównym algorytmem Google. Oznacza to, że Panda jest aktualizowana w czasie rzeczywistym. Co to zmienia? Otóż natychmiast po wprowadzeniu zmian na stronie, tuż po przeindeksowaniu ich przez robota, można obserwować ewentualne zmiany w wynikach wyszukiwania.
W 2012 roku pojawiła się aktualizacja algorytmu z serii Page Layout, które obniżała ocenę witrynom zawierającym sporą ilość reklam i nieużytecznych elementów powyżej linii załamania (scrollowania). Należy zwrócić uwagę, czy nie blokujemy istotnych dla wyglądu strony elementów oraz jak dana strona wygląda na urządzeniach mobilnych.
Pingwin odpowiada za ocenę linków przychodzących. Wprowadzony został 24 kwietnia 2021 roku i stał się immanentnym elementem wyszukiwarki Google. Miał za zadanie ograniczenie spamu w linkbuildingu. Za co premiował?
Gdy Pingwin dostrzegał ingerencje w profil linków nakładał karę – albo na pojedyczne podstrony, albo nawet na całą witrynę. Aktualnie jednak kary ręczne są rzadkością, a Google, jak twierdzi, ignoruje niskiej jakości linki bez nakładania kar na witryny. Aktualnie jest częścią głównego algorytmu i działa w czasie rzeczywistym. Google nie informuje już o kolejnych wydaniach.
Algorytm Pirat zajął się stronami, które kopiują treści objęte prawem autorskim. Negatywnie wpłynął na serwisy, które nielegalnie oferują możliwość pobierania filmów, muzyki oraz portale, które linkują do tych serwisów bądź udostępniają tzw. torrenty. Działa on jak filtr, który jest nakładany, gdy na daną stronę jest duża liczba skarg o naruszenie praw autorskich. Został wprowadzony w 2012 roku. Jeśli ktoś uważa, że jakaś strona narusza ich prawa autorskie, może ją zgłosić w formularzu tutaj.
Google bada sprawę i jeśli uzna, że materiał narusza własnośc intelektualną, wówczas strona zostaje usunięta z indeksu Google, a właściciel otrzyma stosowną informację w Google Search Console. Razem z algorytmem Pirate zmienił się sposób wyświetlania zapytań z dopiskiem +mp3+torrent+download. Google stara się wyświetlać najpierw oficjalne kanały zdobycia jakiegoś dzieła kultury. Wyszukiwarka Google ułatwia korzystanie z legalnych treści, prezentując wszystkie możliwe miejsca, w których możemy zobaczyć dany materiał legalnie:
Bądź wysłuchać legalnie:
Algorytm Koliber ułątwia odnalezienie odpowiedzi na złożone pytania. To właśnie dzięki niemu powstał termin „frazy longtailowe”. Pomógł robotom Google analizować strony jako całość, a nie jako poszczególne frazy składowe. Pojawiło się pojęcie intencji użytkownika – nie chodziło już tylko o nieodmienną frazę kluczową, ale też o to, co konkretnie użytkownik chce znaleźć. Dzięki Kolibrowi strony internetowe, które nie posiadają fraz exact match i tak mogą być wysoko w wynikach wyszukiwania, jeśli tylko odpowiadają ogólnej intencji zapytania. Google zaczął radzić sobie z synonimami, choć nie zawsze skutecznie.
Dzięki Kolibrowi większe znaczenie mają wyszukiwania lokalne bez konieczności wpisywania miast (Google sam lokalizuje urządzenie) oraz punktowane są serwisy, które pokrywają całe tematyczne zagadnienie. Koliber sprawdza potencjalną przydatność danej treści, dlatego to właśnie ją powinniśmy mieć na uwadze. Dodatkowo, to właśnie ten algorytm odpowiada za wynik zerowy, czyli wynik, który pojawia się w wynikach wyszukiwania Google bez konieczności kliknięcia.
Nazwa Google Koliber (Hummingbird) pochodzi od szybkości i precyzji, którą zapewnia ta zmiana w wyszukiwarce. Można uznać, że jest to jedna z kluczowych zmian ostatnich lat. Wdrożenie tego algorytmu poskutkował tym, że w SERP można zobaczyć więcej podstron serwisów, a nie tylko stron głównych. Szacuje się, że Koliber zmienił 90% wyników wyszukiwania.
Google Pigeon to algorytm usprawniający zapytania i wyszukiwania lokalne. Od wprowadzenia aktualizacji Google lepiej łączy wyniki organiczne z wynikami wyszukiwania w maoach. Dzięki usprawnieniom nie jest wymagane wpisanie miejscowości w zapytaniu, ponieważ Google dostosuje wynik do aktualnej lokalizacji użytkownika. Niezbędne stało się dokładnie uzupełnienie wizytówki Google i podawanie jak największej ilości informacji w Google Moja Firma. Dane teleadresowe stały się niezbędne – przydatne jest także tworzenie NAP-ów (Google lepiej ocenia witryny z zachowanym standardem NAP (Name, Adress, Phone)). W procesie rozwoju budowania marki w internecie należy skupić się na korelacji nazwy firmy z lokalizacją, zachowywać standardy adresów w katalogach internetowych czy zadbaniu o dane strukturalne na stronie. O tym, jak uzupełnić wizytówkę GTM pisaliśmy w naszym artykule. Aktualizacja ta przeznaczona była pierwotnie dla użytkowników anglojęzycznych. Jednocześnie, Google potwierdził, że istotny jest czynnik, na który nie mamy bezpośredniego wpływu – odległośc i lokalizacja.
Dodatkową aktualizacją, która zatrzęsła lokalnymi wynikami wyszukiwań jest Opos – wprowadził znane trzy rezultaty w belce pod mapą, które są pobierane z Google Moja Firma.
Wprowadzony został w 2015 roku. Algorytm ten sprawił, że stronom niezoptymalizowanym pod kątem urządzeń mobilnych, którym trudniej jest wejśc na wysokie pozycje w rankingu. Ponadto, bardz popularny stał się tani i szybki Internet Mobilny – stąd duży wzrost liczby osób konsumujących treści z poziomu tego typu urządzeń, czyli zwykle z mniejszych rozdzielczości ekranu. Warto zaznaczyć, że Mobilegeddon nie wypłynął na wyniki wyszukiwania na urządzeniach stacjonarnych.
W kolejnych latach Google wprowadził kolejne usprawnienia algorytmów dotyczących wersji mobilnych strony:
Przetestować optymalizację naszej strony do urządzeń mobilnych możemy np. poprzez tę stronę. Jednocześnie nie zapominając, że dostosowanie do urządzeń mobilnych jest cechą pojedynczej strony, a nie całej witryny – nie wystarczy np. sprawdzić strony głównej, lecz należy wybrać więcej reprezentatywnych przykładów, które dadzą pogląd na to, jak podstrony są dopasowane do niskich rozdzielczości.
To algorytm, który wpłynął na to, jak wydawcy serwisów prezentują reklamy na swoich stronach. Google Intrusive Interstitials Mobile Penalty pojawił się w 2017 roku i wpłynął niekorzystnie na rankingi stron prezentujących pełnowymiarowe reklamy, które przysłaniają treść. Jest to jeden z elementów zmian dostosowujących strony do urządzeń mobilnych – brak kursora myszki na ekranie smartfonów mógłby utrudniać zamknięcie pełnoekranowych reklam. Nie wszystkie typy „wyskakujących” informacji narażały strony na kary – akceptowalne były pliki cookies oraz blokady dla osób poniżej 18 roku życia na stronach dla dorosłych.
RankBrain to jeden z najnowocześniejszych elementów algorytmu Google. Uruchomiono go w 2015 roku – jako pierwsze algorytm wykorzystuje sztuczną inteligencję. RankBrain stara się jeszcze lepiej zrozumieć intencję użytkownika i znaleźć najtrafniejszą odpowiedź na jego pytanie. Algorytm korzysta z podobnych mechanizmów co Koliber. Co więcej, rozpoznaje nie tylko pojedyncze słowa i zdania, ale potrafi zrozumieć znaczenie zapytania i zwrócić trafną odpowiedź na daną frazę mimo, że w samym zapytaniu jej nie ma. Dzięki zastosowaniu sztucznej inteligencji RankBrain cały czas się udoskonala, wykorzystując uczenie maszynowe.
Aktualizacja BERT (ang. Bidirectional Encoder Representations from Transformers) to, najprościej ujmując, uzupełnienie opisanego wcześniej mechanizmu RankBrain. Aktualizacja oparta jest na sieci neuronowej i jest na tyle duża, że Google musiało umieścić ją w całości w chmurze Cloud TPUs. BERT usprawnia założenie RankBrain, jeszcze lepiej odczytując pozwiązania oraz kontekst pomiędzy frazami w zapytaniu. Głównym usprawnieniem jest lepsze zrozumienie odmiany słów oraz zaimków w zapytaniu, które często odgrywają kluczowe role. Zmiany te nie dotyczą oceny strony internetowej, ale przestawiają wyniki wyszukiwania. Oznacza to, że zmiany w wynikach wyszukiwania pod wpływem Berta nie są nagrodą ani karą lecz efektem lepszego dopasowania wyników do zapytań.
Szacuje się, że w dniu uruchomienia aktualizacji w 2018 roku BERT wpłynął na blisko 10% wyników wszystkich zapytań. To więcej niż Panda oraz Pingwin. Od grudnia 2019 roku aktualizacja obejmuje również zapytania w języku polskim.
W bercie została wykorzystana technologia NLP (ang. Natural language processing), co pozwoliło na lepsze zrozumienie intencji osób wyszukujących. Każdy język ma swoje unikatowe niuanse, które mogą nastręczać trudności algorytmom Google. Sprawa komplikuje się tym bardziej, jeśli weźmiemy pod uwagę np. polskie homonimy oraz wyraz typu homogonicznego. Takie przypadki rzadko występują w języku polskim, co dodatkowo utrudnia Voice Search, czyli wyszukiwanie głosowe. Dla ludzi wieloznaczność nie jest problemem – mierzymy się z nią codziennie i wiemy, że kontekst jest kluczowy dla komunikacji. Rozumiemy instrynktownie, czy chodzi nam o zamek w kurtce czy zamek w Książu. Dla robotów wieloznacznośc jest wyzwaniem. Wyzwaniem jest również dla inżynierów z Google, którzy chcieli dostarczać jak najbardziej dopasowane odpowiedzi na konkretne zapytanie.
Jak wpływa to na tworzenie treści? Otóż to kolejny krok w tworzeniu tekstów dla użytkowników, nie dla robotów – słowa kluczowe przestają być nomen omen kluczowe. Stają się dodatkiem. Google przestaje ignorować stop words, czyli zaimki, przyimki i spójniki.
Algorytm Google nie jest monolitem – nieustannie zmienia się i ewoluuje, by coraz lepiej dopasować się do użytkowników internetu. Użytkownik ten jest coraz bardziej świadomy, nastawiony na cel np. zdobycie wiedzy i chce ten cel osiągać natychmiastowo na swoim urządzeniu przenośnym.
Złożonoć algorytmów sprawia, że nie sposób ułożyć jednego sprawnego procesu pozycjonowania bądź jasnych wytycznych, co należy zrobić, by strona była na wysokiej pozycji – wszystko uzależnione jest od branży, języka, jakim operujemy oraz konkurencji, z którą przyszło się mierzyć. Sprawę utrudnia fakt, że Google nie zawsze informuje o planowanych zmianach algorytmów – trudno je zatem włączyć do procesu planowania działań SEO.
Strony, na których można śledzić update’y Google:
Narzędzie to monitoruje około 17 tysięcy fraz i na podstawie ich fluktuacji wyciąga wnioski dotyczące zmian w algorytmie. Opiera się na wskaźniku „roo” – im wyższa wartość, tym wyższa zmienność. Niska wartość roo oznacza mniejsze natężenie zmian w algorytmie. Ciekawym dodatkiem jest przedstawienie „tygodniowyh zwycięzców” i „tygodniowych przegranych”. Funkcja jest dostępna wyłącznie dla stron agnlojęzycznych, jednka na podstawie tych danych można wyciągnąc wnioski, które branże mają wahania dobowe.
Szczególną zaletą narzędzia jest fakt, że można posortować zmiany w oparciu o konkretne kategorie, jak wrónież według urządzenia czy też lokalizacji (na maj 2021 roku wciąż niedostepna jest wersja polska).
Prawdopodobnie nie ma na świecie osoby, która z zadowoleniem przyjęłaby konieczność czekania na załadowanie się treści. Tyczy się to zwłaszcza millenialsów oraz pokolenia Z, którzy są przyzwyczajeni do natychmiastowych odpowiedzi. Według badań z 2018 roku dla Google, jeśli wczytywanie strony zajmuje 5 sekund, to prawdopodobieństwo zamknięcia jej wynosi 50 procent, co jasno świadczy o tym, że szybka strona to nie tylko dobre rozwiązanie, ale obecnie konieczność.
Z tego artykułu dowiesz się między innymi:
Masz zaledwie chwilę, by zrobić dobre pierwsze wrażenie. Jeśli ci się nie uda, istnieje wysokie prawdopodobieństwo, że nie będzie drugiej szansy i nie zatrzymasz użytkownika na dłużej. Dostępność rozmaitych stron internetowych sprawia, że wygrają najlepsi, najlepiej zoptymalizowani pod kątem SEO i UX.
Równie niecierpliwy jest robot Google, który również nie będzie czekał w nieskończoność na załadowanie treści znajdującej się na danej stronie. Zarówno użytkownicy, jak i roboty są coraz bardziej wymagający a ich akceptowalny czas oczekiwania na daną treść to: natychmiast.
Google nie zostawia jednak stron internetowych bez pomocy. Narzędzie o nazwie Google Page Speed jest w stanie wygenerować listę błędów, które powodują spowolnienie strony. Daje również zalecenia, których wprowadzenie spowoduje przyśpieszenie witryny. Jednym z zaleceń jest wdrożenie tzw.mechanizmu „Lazy Loading”.
Lazy loading (inaczej opóźnione ładowanie) występuje najczęściej w formie skryptu, który powoduje, że część treści, która nie jest istotna w danym momencie, ładuje się dopiero w momencie, kiedy zachodzi taka potrzeba, czyli jeśli użytkownik do niej „zescrolluje”. Przykład:
Źródło: https://developers.google.com/web/fundamentals/performance/lazy-loading-guidance/images-and-video
Mechanizm ten występuje najczęściej w parze z obrazkami, które znajdują się np. na końcu strony. Nie ma potrzeby, by ładowały się one od razu, ponieważ może to znacząco spowolnić podstawowe elementy strony. Dopiero gdy użytkownik zjedzie do danego obszaru, to wtedy on się załadowuje.
Nie oszukujmy się, użytkownik często nawet nie dotrze do galerii na samym dole strony, ani do filmu below the fold, czyli treści, którą zobaczmy dopiero po przescrollowaniu się przez stronę – części której nie widać od razu po załadowaniu się witryny. Dlatego nie warto marnować na nie czasu.
Poprzez opóźnienie ich załadowania (tzw. initial render) można zyskać ułamki sekund, jednak są one bardzo cenne, biorąc pod uwagę, że strona osiąga dobry wynik, jeśli ładuje się około 2 sekundy. Dzięki zastosowaniu tej techniki pierwsze ładowanie strony zajdzie dużo szybciej również dla robota Google.
Wiele osób z pewnością spotkało się, nawet nieświadomie, z obecnością lazy loading w serwisach, które przeglądają. Jeśli widziałeś rozmyte obrazki, które dopiero po chwili nabierają ostrości, coś, co wydawało się tylko obrazkiem, okazywało się filmem, bądź też pod koniec listy z artykułami pojawiał się znak ładowania i pojawiały się kolejne artykuły – oznacza to, że na danej stronie najprawdopodobniej zastosowano lazy loading.
Wszystkie logo znajdujące się na stronie powinny wczytać się od razu. Ponadto zdjęcia, filmy i inne treści, które znajdują się na samej górze strony, czyli treści, które widzimy zaraz po wejściu na stronę, powinny wczytać się priorytetowo.
Jeśli zaimplementujemy błędnie ten skrypt, możemy sprawić, że na stronie pojawi się chaos, a użytkownik nie zobaczy w odpowiednim czasie grafik, które zdecydowanie powinien zobaczyć.
Czym jest pojęcie above the fold/below the fold?
https://www.alltechbuzz.net/google-allows-large-ads-above-fold/
Szybkość ładowania się strony jest jednym z istotnych czynników rankingowych wpływających na pozycję strony w wyszukiwarce. Ponadto, co dla wielu osób jest bardzo istotne – można wprowadzić lazy loading zupełnie za darmo (kosztem w tym wypadku jest programista posiadający odpowiednią wiedzę o implementacji lazy loading).
By zastosować lazy loading, należy sprawnie posługiwać się JS. Najpopularniejsze CMS-y wychodzą naprzeciw właścicielom sklepów i osobom bez wsparcia programistycznego, proponując rozmaite wtyczki. Do WordPressa można zaimplementować Lazy Loader. Pozwala ona na wprowadzenie lazy loading na obrazki, elementy audio i video. Wtyczki do lazy loading są dostępne również w CMSach takich jak: Joomla, Drupal, Magento, Presta.
Jednym z rozwiązań jest skorzystanie z darmowych i lekkich gotowych bibliotek. Przykładowa lekka biblioteka.
Z jednej strony Google zaleca, by witryny były jak najszybsze. Z drugiej jednak strony w pewnym sensie lazy loading blokuje robotowi Google pełny dostęp. Parę lat temu Google boty całkowicie ignorowały kod JS, jednak aktualne przeznaczone są pewne zasoby Googla do renderowania kodu Java Script, jednak Robot Google nie scrolluje, ani nie wykonuje żadnych akcji na stronie.
Oznacza to, że obrazki się po prostu nie wczytają. Rozwiązaniem są tzw. fallbacki, które uruchamiają się, gdy Java Script nie działa – wówczas obrazki załadują się „normalnie”. To zabezpieczenie dla robota, ale również np. dla użytkowników, którzy w swojej przeglądarce mają wyłączone JS. Można użyć np. tagu <noscript>, a w nim umieścić adres zdjęcia. Co ważne, fallback powinien uruchamiać wtedy, gdy JS nie jest obsługiwany (i tylko wtedy).
Są to skuteczne sposoby implementacji, jednak przeglądarka chrome wychodzi naprzeciw twórcom i właścicielom stron internetowych i przygotowuje natywne wsparcie lazy loading w najnowszej wersji Chrome.
Od wersji 75 oferuje tzw. natywne lazy loading. Polega to na tym, że Chrome po swojej stronie wprowadza to rozwiązanie na stronach posiadających dużą liczbę grafik. Zaletą tego rozwiązania jest to, że nie tylko ograniczony zostanie czas potrzebny na wczytanie obrazków, ale również ograniczamy liczbę Java Scriptów na stronie.
Więcej o tym rozwiązaniu opowiada Addy Osmani, który jest inżynierem ds. technicznych w Google odpowiedzialnym za przeglądarkę Chrome – https://addyosmani.com/blog/lazy-loading/.
Takim przykładem jak miałoby to być zaimplementowane w kodzie z użyciem odpowiednich atrybutów dla obrazków, może być kod:
<!– Lazy-load an offscreen image when the user scrolls near it –> <img src=”unicorn.jpg” loading=”lazy” alt=”..”/> <!– Load an image right away instead of lazy-loading –> <img src=”unicorn.jpg” loading=”eager” alt=”..”/> <!– Browser decides whether or not to lazy-load the image –> <img src=”unicorn.jpg” loading=”auto” alt=”..”/> <!– Lazy-load images in <picture>. <img> is the one driving image loading so <picture> and srcset fall off of that –> <picture> <source media=”(min-width: 40em)” srcset=”big.jpg 1x, big-hd.jpg 2x”> <source srcset=”small.jpg 1x, small-hd.jpg 2x”> <img src=”fallback.jpg” loading=”lazy”> </picture> <!– Lazy-load an image that has srcset specified –> <img src=”small.jpg” srcset=”large.jpg 1024w, medium.jpg 640w, small.jpg 320w” sizes=”(min-width: 36em) 33.3vw, 100vw” alt=”A rad wolf” loading=”lazy”> <!– Lazy-load an offscreen iframe when the user scrolls near it –> <iframe src=”video-player.html” loading=”lazy”></iframe>
Aktualnie jest to domyślne w Google Chrome. Jeśli zaawansowany użytkownik ma potrzebę wyłączenia lazy loading należy przejść w Chromie do: chrome://flags a następnie wyłączyć „Enable lazy image loading” oraz „Enable lazy frame loading”. W tym samym miejscu można również ponownie włączyć lazy loading.
Jeśli wprowadzimy lazy loading, należy sprawdzić, czy nie ukryliśmy niechcący treści przed robotem. Google udostępnia jednak narzędzie, które pozwoli sprawdzić, czy implementacja zaszła tak, by robot zobaczył wszystko, co powinien. Więcej o sprawdzeniu lazy loading dowiesz się w dokumentacji Google: https://developers.google.com/search/docs/guides/lazy-loading?hl=pl.
Znajduje się tam m.in. skrypt Puppeteer, który pozwala przetestować implementację lokalnie, jednak niezbędna jest wiedza programistyczna. Po uruchomieniu skryptu zostaną wykonane zrzuty ekranu, tego, jak widzi daną stronę Google – można wówczas porównać screeny z tym, co powinien widzieć zarówno użytkownik, jak i Google.
Inną, łatwiejszą opcją by sprawdzić, jak rednerowana jest strona przy zastosowaniu lazy loadingu, a więc czy wszystkie obrazki i treści wyświetlają się prawidłowo w oczach Google, jest użycie Google Search Console – udostępniona jest tam opcja sprawdzenia tego.
Bez wątpienia szybkość strony jest jednym z ważniejszych czynników rankingowych. Pojawia się pytanie – czy warto walczyć o każdą milisekundę? Zdecydowanie tak – będzie to nie tylko dobrze wpływało na SEO, ale również zyskamy w oczach użytkowników. Akamai sprawdziło, że dla prawie połowy użytkowników więcej niż 2 sekundy to zbyt długi czas, by czekać na odpowiedź strony – zadbajmy o naszych użytkowników i nie pozwólmy im czekać.
Zgłoś się do nas – a pomożemy ogarnąć Twoje SEO.
Dostępność narzędzi i źródeł wiedzy na temat SEO sprawia, że wiele działań jesteśmy w stanie przeprowadzić we własnym zakresie. Na co zwrócić uwagę, kiedy decydujemy się na samodzielną optymalizację witryny i które działania w szczególności wdrożyć?
Z tego artykułu dowiesz się między innymi:
To, czy warto podjąć się prowadzenia SEO we własnym zakresie, zależy od kilku czynników. Przede wszystkim należy wziąć pod uwagę skalę naszego biznesu. Jeśli strona ma już zbudowaną historię i przynosi realne zyski, nieodpowiednimi działaniami możemy przynieść więcej strat niż korzyści.
W takim przypadku dobrym pomysłem jest utworzenie dodatkowego serwisu w celach testowych, gdzie będziemy mogli sprawdzić skuteczność naszych rozwiązań i dopiero wtedy stosować je na właściwej stronie. Jednak jeśli nie mamy pewności co do efektów naszych działań, bezpieczniej skonsultować je ze specjalistą SEO.
W przypadku gdy rozpoczynamy pracę nad nową stroną lub też zajmujemy się niewielką witryną, która nie wypracowała jeszcze widoczności i ruchu, nic nie stoi na przeszkodzie, aby samodzielnie podjąć się działań optymalizacyjnych.
W przypadku niewielkiej strony możemy zadbać o optymalizację elementów takich jak:
Zmiany dotyczące tych elementów są możliwe do wprowadzenia z poziomu panelu większości systemów CMS i ich wdrożenie nie powinno przysporzyć problemów. Wiedzę na temat ich optymalizacji możemy czerpać z licznych blogów branżowych, e-booków, kursów czy też oficjalnych wytycznych Google. Możemy też skorzystać z darmowych wtyczek czy „audytów SEO online” i zapoznać się z aktualną sytuacją strony. Ważne, aby stale monitorować wyniki testowanych rozwiązań, dzięki czemu sami możemy weryfikować, co jest skuteczne w przypadku naszej witryny.
Pierwszym krokiem przy pracy nad naszym serwisem powinien być dobór fraz kluczowych, na które chcemy być widoczni w wyszukiwarce. W tym celu warto najpierw przeprowadzić analizę konkurencji i sprawdzić, na jakie frazy wyświetlają się rywalizujące z naszą stroną witryny, co pomoże w wytypowaniu najważniejszych także z naszego punktu widzenia słów. Do wybrania odpowiednich fraz możemy skorzystać z dedykowanych narzędzi takich jak Planer słów kluczowych Google czy Ubbersuggest. Propozycje słów kluczowych otrzymujemy też już na poziomie samej wyszukiwarki, która przy wpisywaniu zapytania podpowiada frazy wyszukiwane przez internautów.
Zanim przejdziemy do uzupełnienia witryny o dobrane wcześniej frazy, musimy dopasować je do odpowiednich stron w serwisie. Jeśli umieścimy je w zbyt wielu miejscach, doprowadzimy do zjawiska kanibalizacji treści, czyli sytuacji, w której kilka stron zoptymalizowanych pod te same słowa kluczowe rywalizuje ze sobą o widoczność w wyszukiwarce. Aby temu zapobiec, należy zadbać o czytelną, zarówno dla użytkowników, jak i wyszukiwarki, strukturę serwisu. Przemyślana architektura informacji znacznie ułatwi osiągnięcie założonych efektów, dlatego jej zaplanowanie powinno stać się punktem wyjściowym dla dalszych prac nad serwisem.
Drugim krokiem jest krótki audyt SEO, który pozwoli zweryfikować nam, w jakim stopniu strona jest zoptymalizowana pod interesujące nas słowa kluczowe. Nawet bez zaawansowanej wiedzy na temat optymalizacji, jesteśmy w stanie sprawdzić poprawność wdrożenia wielu elementów na stronie. Z pomocą przychodzą różne darmowe narzędzia i wtyczki, dzięki którym możemy przyjrzeć się ewentualnym błędom.
Przykładem są rozszerzenia takie jak SEOquake i Web Developer przydatne przy analizie onsite witryny. Narzędzie Screaming Frog, którego bezpłatna wersja umożliwia sprawdzenie 500 adresów URL, dostarczy nam istotnych informacji na temat struktury serwisu. Nie można też zapomnieć o dodaniu strony do Google Search Console i Google Analytics, aby na bieżąco śledzić stan indeksowania, monitorować ruch i wykrywać pojawiające się problemy.
Jak zdobywać linki, prowadząc samodzielne działania SEO? Przede wszystkim warto obserwować, a także udzielać się w roli eksperta na blogach, forach oraz w branżowych social mediach. W ten sposób zwiększymy rozpoznawalność brandu, a tam, gdzie to możliwe, do merytorycznego i wyczerpującego komentarza dodamy również odnośnik do naszej witryny.
Płatne działania link buildngowe, jeśli nie mamy w nich doświadczenia, lepiej zlecić freelancerowi lub agencji. Bez odpowiedniej wiedzy i narzędzi trudno zweryfikować, czy zainwestowane pieniądze przyniosą adekwatny rezultat.
Konsultacji ze specjalistą wymagają też elementy związane z technicznym SEO. Jeśli chcemy uniknąć poważnych błędów na stronie, których konsekwencje mogą być odczuwalne przez długi czas, działania takie optymalizacja przekierowań czy zarządzanie dostępem dla robotów warto powierzyć specjaliście SEO.
Jeśli współpracujemy z deweloperem, we własnym zakresie możemy również wykonać optymalizację szybkości strony. Samo zmniejszenie rozmiaru grafik pozwoli nam na znaczne przyspieszenie działania witryny. Do tego możemy dodać optymalizację pod kątem UX, która przełoży się na lepszy odbiór naszej strony przez użytkowników i poprawę współczynnika konwersji.
Wiele z istotnych zmian, które przekładają się na wyniki w postaci widoczności i ruchu, możemy wprowadzić we własnym zakresie. Testowanie różnych rozwiązań i stałe monitorowanie wyników naszych działań pomoże nam w weryfikacji, które z nich się sprawdzają i przynoszą najlepsze efekty.
Kiedy chcemy optymalizować serwis, który ma już zbudowaną historię i przynosi realne zyski, bezpieczniej jest utworzyć stronę testową, gdzie będziemy sprawdzać rezultaty naszych działań, lub też skonsultować się ze specjalistą SEO. W ten sposób nie narazimy strony na trudne do odbudowania spadki.
Każdy specjalista SEO, przy wykonywaniu swoich codziennych zadań, korzysta z wielu różnorodnych narzędzi. Począwszy od crawlerów (m.in.: Screaming Frog, Sitebulb) poprzez programy do monitorowania pozycji fraz kluczowych (m.in. Stat4seo, Cmonitor) czy narzędzi do doboru słów kluczowych. Mimo że ten temat był już wielokrotnie opisywany przez SEOwców, skupiłem się w artykule na pokazaniu tych wtyczek, które pomagają mi każdego dnia w pracy.
Jest to narzędzie do analizy poprawności ścieżki przekierowań. Na przykład: wpisując w nim domenę w wersji z www (bez www oraz http i https), otrzymujemy informacje, jakie przekierowania występują pod danym adresem.
Przykład poprawnie wykonanych przekierowań strony głównej:
Dzięki temu narzędziu w szybki sposób wykryjemy nieprawidłowości w przekierowaniach oraz zobaczymy, jaki kod odpowiedzi zwraca strona, na którą prowadzą przekierowania.
Link Redirect Trace to wtyczka dostępna dla przeglądarki Chrome i Firefox. Pozwala zbadać występujące przekierowania odwiedzanej przez nas strony. Po wejściu na konkretną podstronę od razu dostajemy informację, czy gdzieś po drodze wystąpiło przekierowanie. Jeżeli nie – wtyczka wyświetli nam kod odpowiedzi 200. Natomiast w momencie, kiedy weszliśmy na stronę i zostaliśmy przekierowani na inną, to również zostaniemy o tym powiadomieni.
W poniższym przypadku możemy zaobserwować, że wystąpiło przekierowanie 301. Po rozwinięciu wtyczki widzimy szczegóły dotyczące tego przekierowania:
Co więcej, jak widać powyżej, wtyczka oferuje nam dużo innych możliwości, np.:
• pokazuje instrukcje dla robotów,
• wskazuje tagi canoniczne,
• diagnozuje, czy dana podstrona zablokowana jest w pliku robots.txt.
Funkcji jest naprawdę sporo. Prezentowane dane możemy w szybki sposób wyeksportować do pliku, skopiować do schowka lub – jednym kliknięciem w „Save screenshot”- zapisać zrzut ekranu samego narzędzia, taki jak powyżej.
Copy Links to narzędzie, które umożliwia kopiowanie linków z danej podstrony. Możemy skopiować wszystkie linki występujące na stronie, używając opcji „Copy All Links” lub wyłącznie te linki z zaznaczonej przez nasz sekcji – opcja „Copy Links From Selection”.
Skopiowanie linki możemy wkleić np. do Excela w celu ich szczegółowej analizy.
Korzystając z tej funkcji, możemy np. w szybki sposób wyciągnąć wszystkie linki w menu strony.
Open Multiple URLs to prosta wtyczka do przeglądarki Chrome, która pozwala nam na otwarcie wielu linków na raz. Wystarczy wkleić do niej listę odnośników (np. linki skopiowane ze strony za pomocą wcześniejszej wtyczki), które chcemy otworzyć, a narzędzie otworzy każdy link w osobnej karcie.
Dodatkowo, wtyczka potrafi wyodrębnić linki z wklejonego bloku tekstu/kodu. Aby skorzystać z tej opcji, wystarczy wkleić tekst do naszego narzędzia i kliknąć „Extract URLs from text”.
Przykład:
Ze skopiowanego kawałku kodu strony wtyczka wyciągnęła szukane linki:
Narzędzie posiada dodatkowe opcje przy otwieraniu linków. Funkcja „Random order” umożliwia otwarcie linków w losowej kolejności, natomiast opcja „Don’t load tabs until selected” pozwala otworzyć zakładki bez ich wczytywania. Każda strona załaduje się dopiero po wejściu na odpowiednią kartę. Dzięki tej opcji, otwierając kilkanaście-kilkadziesiąt linków, unikniemy „ścięcia się” przeglądarki, poprzez otwarcie i ładowanie wszystkich linków na raz.
Seerobots to bardzo prosta wtyczka, która ma za zadanie pokazać, jakie instrukcje dla robotów posiada dana strona. Ikona tego narzędzia składa się z dwóch pionowych prostokątów, w których pierwszy informuje nas o tym, jaką instrukcje dla robotów strona posiada („index” lub „noindex”). Natomiast drugi – „follow” lub „nofollow” – pomaga zweryfikować w szybki sposób, czy strona posiada niepożądaną instrukcję. Poniżej znajdziesz wszystkie możliwe warianty wyglądu wtyczki:
A oto przykład ze strony Semahead:
Rozwijając wtyczkę, możemy upewnić się, jakie instrukcje dla robotów występują. Domyślą wartością dla instrukcji meta tagu robots jest „index, follow”. Więc pomimo braku instrukcji wtyczka poprawnie interpretuje wartości oraz poinformuje nas o tym, że dana instrukcja nie występuje w kodzie.
Jest wiele narzędzi i wtyczek pełniących podobne zadanie lub posiadających podobne funkcjonalności (np. wyżej wymieniona „Link Redirect Trace”). Cenię sobie właśnie tę wtyczkę ze względu na jej prostotę. Wchodząc na konkretną podstronę, od razu rzuca mi się w oczy, jeżeli jakaś strona ma inną instrukcję niż „index, follow”. Może jest to sentyment, a może to tylko kwestia przyzwyczajenia? W każdym razie – polecam!
Funkcja ta zaznacza wszystkie linki „nofollow” na stronie. Dzięki temu od razu wiemy, który link ma atrybut „dofolllow” lub „nofollow” i do którego linka na naszej stronie należy dodać jeszcze atrybut „nofollow”, by nie przekazywać mocy domeny do witryn zewnętrznych. Przykład działania wtyczki:
Narzędzie automatycznie zaznaczyło w czerwone ramki te linki, które posiadają atrybut „nofollow”. Sposób zaznaczenia możemy dostosować do swoich preferencji w ustawieniach wtyczki. Może również zaznaczać nie tylko linki „nofollow”, ale również „dofollow” czy też tylko linki wychodzące. Każde zaznaczenie możemy ustawiać według naszego upodobania i potrzeb.
Dodatkowo wtyczka – podobnie jak SeeRobots – wykrywa meta tagi „nofollow” i „noindex”. W momencie wykrycia, w prawym dolnym rogu pojawia nam się ikonka wtyczki:
Po kliknięciu w nią otrzymujemy informację o wystąpieniu instrukcji „nofollow” lub „noindex”:
Jest to dobra alternatywa dla wcześniej opisanego narzędzia Seerobots. Gdy zaznaczenia na stronie za bardzo rzucają się w oczy, a nie potrzebujemy w danej chwili wiedzieć, które linki mają atrybut „nofollow”, wtedy wtyczkę można czasowo lub całkowicie wyłączyć dla konkretnej domeny.
Wappalyzer to narzędzie, które identyfikuje najistotniejsze technologie zastosowane na stronie internetowej wraz z ich wersją: począwszy od CMS-a poprzez platformy e-commerce, oprogramowanie serwera aż po narzędzia analityczne. Dzięki tym informacjom jesteśmy w stanie w szybki sposób stwierdzić, czy zalecane wdrożenia dla klienta mogą zostać w prosty sposób wprowadzone, czy jednak będą wymagać większego nakładu czasu i pieniędzy.
Ciężko wyobrazić sobie codzienną pracę bez arkusza kalkulacyjnego. Mając na myśli arkusz kalkulacyjny, przychodzą mi do głowy przede wszystkim dwa narzędzia: Excel od Microsoftu oraz Arkusze Google. Oba narzędzia mają swoje plusy i minusy, o których można napisać osobny artykuł.
W codziennej pracy korzystam głównie z Excela. Narzędzie bezpośrednio nie służy do pozycjonowania, ale dzięki niemu możemy analizować duże ilości danych dotyczących naszej witryny. Co więcej, do Excela można wpiąć dodatek „SEO Tools for Excel”, który posiada integrację z takimi narzędziami jak: Majestic, Google Analytics czy też Google Search Console. Dzięki temu jesteśmy w stanie wykonać m.in. analizę profilu linków czy też podstawowy audyt strony.
Obecnie istnieje bardzo dużo wszelakich narzędzi, które ułatwiają pracę specjaliście SEO. Niektóre z nich nie służą bezpośrednio do pozycjonowania, ale ułatwiają codzienne zadania. Możemy dzięki nim zaoszczędzić cenny czas, który możemy poświęcić na dalszą optymalizację serwisu. Wiele z nich ma zbliżone funkcjonalności, każde – ma swoje plusy i minusy. Dlatego dobrze jest przetestować kilka z nich i wybrać dla siebie najlepszą opcję. Opisałem Ci kilka narzędzi, z których na co dzień – po prostu – dobrze mi się korzysta.
Masz swoje ulubione narzędzia, bez których nie wyobrażasz sobie życia? Podziel się nimi z nami.
W czasach, gdy dostępność wszelkiego rodzaju towarów jest niemal nieograniczona, osoba otwierająca sklep internetowy powinna zastanowić się nad trzema, równie ważnymi kwestiami. Co będzie sprzedawać? Komu? I w jaki sposób? Zwłaszcza na trzecie pytanie z odpowiedzią przychodzi szeroko pojęty marketing internetowy. Jedną z jego podstawowych gałęzi jest SEO. Poniżej przedstawię pięć aspektów, nad którymi warto skupić się podczas pozycjonowania strony e-commerce.
Przemyślana struktura Urli to jedna z kluczowych kwestii, jeśli chcemy uniknąć w przyszłości nieprzyjemnych sytuacji związanych z nagłymi, nieoczekiwanymi spadkami pozycji w wynikach wyszukiwania. Poza dość intuicyjnym faktem, że Urle powinny sygnalizować użytkownikowi zawartość strony i nie zawierać niepotrzebnych (wyglądających nieatrakcyjnie) znaków, ważne jest również, by ewentualne zmiany w drzewku kategorii/podkategorii witryny nie powodowały zmiany Urli produktów. Przykład:
domena.pl/mezczyzni/skarpety/skarpety-xyz -> domena.pl/akcesoria-meskie/skarpety-xyz
Bez wprowadzenia odpowiednich przekierowań takie zmiany spowodują (po wejściu z wyników organicznych) wyświetlanie się informacji o błędzie 404 i w konsekwencji spadek widoczności danych odsłon produktowych. Dlatego najlepszym rozwiązaniem jest następująca struktura Urli:
Odsłona kategorii głównej:
domena.pl/kategoria
Odsłona podkategorii:
domena.pl/podkategoria
odsłona produktu:
domena.pl/produkt
Każda przebudowa drzewka menu nie spowoduje wówczas zmiany Urli poszczególnych produktów. W ten sposób oszczędzamy sobie również problemów związanych z duplikacją treści pojawiającej się w przypadku obecności danego produktu w kilku kategoriach/podkategoriach – przykład:
domena.pl/turystyka/plecaki/plecak-xyz
domena.pl/dzieci/plecaki-dzieciece/plecak-xyz
domena.pl/mezczyzni/plecaki-meskie/plecak-xyz
domena.pl/kobiety/plecaki-damskie/plecak-xyz
Naturalnie w takiej sytuacji duplikacji można uniknąć, stosując tag canonical do wybranego (zwykle najlepiej widocznego w wynikach wyszukiwania Urla). Rozwiązanie takie nie sprawi jednak, że crawl budget (w przypadku dużej ilości tego typu produktów) zostanie spożytkowany optymalnie, a bot Google uzna, że witryna jest dla niego czytelna i przejrzysta.
Sprawienie, by bot Google nie indeksował określonych podstron, jest kolejną ważną kwestią niezbędną w osiągnięciu wysokich pozycji w wynikach wyszukiwania. W ten sposób minimalizujemy duplikację w obrębie domeny, a także kontrolujemy to, co chcemy pokazać użytkownikowi w wyszukiwarce. Zablokować przed indeksacją można na 2 sposoby (nie dają one jednak identycznych rezultatów).
Podstrony, nad których indeksacją warto się zastanowić w pierwszej kolejności, to generujące nowe URLe podstrony filtrowania/sortowania. O ile dane filtry nie generują dużego potencjału wyszukiwań (jeżeli tak, to odsyłam do innego artykułu) warto zapobiec pojawianiu się ich w wynikach wyszukiwania. Dzięki temu unikniemy duplikacji treści (możliwej na przykład, gdy filtrowane podstrony zawierają ten sam opis kategorii) i przede wszystkim wskażemy botowi Google, które podstrony nie są dla nas istotne i na których odwiedzanie nie powinien tracić czasu (w rezultacie nie mając go na interesujące nas sekcje serwisu). Dodatkowo zapobiegamy hipotetycznej sytuacji, gdy nasza domena pod daną frazę rankuje na kategorię z przypadkowym filtrem.
Różnica pomiędzy zastosowaniem tagu noindex a zablokowaniem dostępu w pliku robots.txt polega na tym, że w przypadku noindex bot Google może wejść na daną podstronę, ale jej nie zaindeksuje. W przypadku natomiast zablokowania danej podstrony (podstron) w pliku robots.txt, crawler Google w ogóle jej już nie odwiedzi i siłą rzeczy – nie zaindeksuje (o ile nie zrobił tego wcześniej, w takim wypadku strona pozostanie zaindeksowana, bo robot nie będzie miał okazji jej wyindeksować!)
Skoro mowa o indeksacji, warto również wspomnieć o pliku sitemap.xml. Powinien znajdować się w katalogu głównym witryny i zawierać wszystkie podstrony, które chcemy, by znalazły się w indeksie Google. W ten sposób jeszcze dobitniej zwrócimy uwagę bota na interesujące nas sekcje domeny.
Treść zawsze była i jest jednym z najważniejszych czynników, decydujących o tym, na jakie frazy wyświetla się w wynikach wyszukiwania nasza domena. Dlatego w przypadku sklepów internetowych bezwzględnie należy zadbać o to, by wyczerpująco (ale nie przesadnie) opisać kategorie i produkty. Ważne, żeby były atrakcyjne nie tylko dla bota Google, ale również dla użytkownika, którego decyzja o kupnie w dużym stopniu zależy właśnie od odpowiedniego przedstawienia mu produktu.
Oczywiście stworzenie unikalnych opisów dla przykładowo dziesiątek tysięcy produktów nie jest proste. Większość sklepów albo ich nie ma, albo pobiera je bezpośrednio od producenta. W efekcie popularnym zjawiskiem jest sytuacja, gdy dziesiątki sklepów mają ten sam opis danego produktu.
Jak wiadomo posiadanie zduplikowanych treści w swoim serwisie nie jest kluczem do sukcesu w pozycjonowaniu. Warto jednak wyjaśnić, że Google nie karze za powielone opisy produktów. Google za nie po prostu nie nagradza. Nagradza natomiast, gdy widzi unikalną treść niepojawiającą się na innych domenach. Dlatego mimo wszystko warto zadbać, by przynajmniej potencjalnie najbardziej dochodowe produkty zawierały atrakcyjną, niezduplikowaną treść.
Niezduplikowany i dobrze zoptymalizowany (pod odpowiednie frazy – zwłaszcza longtailowe) opis produktu może przynieść bardzo duże korzyści. Osoby wpisujące frazy z długiego ogona są bowiem często w końcowych etapach lejka sprzedażowego. Sprawienie więc, by treści na odsłonach produktowych (które mają największy potencjał do zawarcia fraz longtailowych) były pod nie zoptymalizowane, powinno znacznie zwiększyć ruch i przychody w sklepie.
Pozycjonowanie sklepu w dużym stopniu sprowadza się do tego, co i jaki sposób zaprezentujemy botowi Google. W związku z tym warto dobrze wykorzystać linkowanie wewnątrz serwisu. W ten sposób wzmocnimy interesujące nas, dochodowe podstrony/sekcje domeny. Dobre rezultaty przynosi linkowanie z opisów kategorii do innych kategorii. Za pomocą odpowiednich anchorów pomożemy botowi Google lepiej poznać, przecrawlować i zaindeksować witrynę.
Warto tutaj wspomnieć również o linkach z menu. Jako że znajdują się one prawdopodobnie na każdej podstronie serwisu, ich wartość jest ograniczona. Istnieje wiele różnych opinii dotyczących mocy linków zawartych w Menu. Wszystkie jednak zgodnie sugerują, że wartość linka w unikalnej treści podstrony jest znacznie większa. Dlatego dobrze jest zadbać, żeby bot potrafił dostać się do danej kategorii na kilka różnych sposobów.
Wzmocnieniu linkowania wewnętrznego pomaga również prowadzenie bloga. Powiązanie angażujących czytelnika artykułów z oferowanymi produktami nie tylko zwiększa szanse na konwersje, ale również poprawia renomę całej domeny. Google widząc, że strona stanowi realną wartość dla użytkownika (angażuje) – uznaje ją za autorytet w danej branży i winduje wyżej w wynikach wyszukiwania. Warunkiem koniecznym jest tutaj nie tyle samo w sobie prowadzenie bloga, ale przede wszystkim robienie tego w odpowiedni sposób.
CTR jest istotnym czynnikiem rankingowym. W wielu przypadkach Google podwyższa pozycje danego wyniku wyszukiwania, jeśli skuteczniej zwraca on uwagę użytkownika i jest częściej klikany, niż konkurencja. Osiągnąć to można odpowiednio go wyróżniając. W przypadku produktów warto zadbać (za pomocą tzw. danych strukturalnych) o wyświetlanie się oceny użytkowników, ilości opinii, ceny produktu czy jego dostępności.
Wyniki wyszukiwania kierujące do odsłon kategorii powinny natomiast zachęcać atrakcyjnym, unikalnym, ale i zawierającym frazy kluczowe meta description. Dzięki tym prostym zabiegom nie dość, że zwiększymy klikalność snippetów znajdujących się poza TOP3 wyników wyszukiwania, ale w dłuższym okresie poprawimy również ich pozycje.
Istnieje jeszcze wiele innych ważnych aspektów dotyczących skutecznego pozycjonowania sklepu internetowego – zaczynając od poprawy szybkości ładowania się strony, optymalizacji grafik, analizie UX, na budowie profilu linków kończąc. SEO to złożony proces, który wymaga dobrej współpracy co najmniej kilku osób. Dobrze wypracowana i egzekwowana strategia przyniesie duże korzyści.
W czasach, gdy dostępność wszelkiego rodzaju towarów jest niemal nieograniczona, osoba otwierająca sklep internetowy powinna zastanowić się nad trzema, równie ważnymi kwestiami. Co będzie sprzedawać? Komu? I w jaki sposób? Zwłaszcza na trzecie pytanie z odpowiedzią przychodzi szeroko pojęty marketing internetowy. Jedną z jego podstawowych gałęzi jest SEO. Poniżej przedstawię pięć aspektów, nad którymi warto skupić się podczas pozycjonowania strony e-commerce.
Przemyślana struktura Urli to jedna z kluczowych kwestii, jeśli chcemy uniknąć w przyszłości nieprzyjemnych sytuacji związanych z nagłymi, nieoczekiwanymi spadkami pozycji w wynikach wyszukiwania. Poza dość intuicyjnym faktem, że Urle powinny sygnalizować użytkownikowi zawartość strony i nie zawierać niepotrzebnych (wyglądających nieatrakcyjnie) znaków, ważne jest również, by ewentualne zmiany w drzewku kategorii/podkategorii witryny nie powodowały zmiany Urli produktów. Przykład:
domena.pl/mezczyzni/skarpety/skarpety-xyz -> domena.pl/akcesoria-meskie/skarpety-xyz
Bez wprowadzenia odpowiednich przekierowań takie zmiany spowodują (po wejściu z wyników organicznych) wyświetlanie się informacji o błędzie 404 i w konsekwencji spadek widoczności danych odsłon produktowych. Dlatego najlepszym rozwiązaniem jest następująca struktura Urli:
Odsłona kategorii głównej:
domena.pl/kategoria
Odsłona podkategorii:
domena.pl/podkategoria
odsłona produktu:
domena.pl/produkt
Każda przebudowa drzewka menu nie spowoduje wówczas zmiany Urli poszczególnych produktów. W ten sposób oszczędzamy sobie również problemów związanych z duplikacją treści pojawiającej się w przypadku obecności danego produktu w kilku kategoriach/podkategoriach – przykład:
domena.pl/turystyka/plecaki/plecak-xyz
domena.pl/dzieci/plecaki-dzieciece/plecak-xyz
domena.pl/mezczyzni/plecaki-meskie/plecak-xyz
domena.pl/kobiety/plecaki-damskie/plecak-xyz
Naturalnie w takiej sytuacji duplikacji można uniknąć, stosując tag canonical do wybranego (zwykle najlepiej widocznego w wynikach wyszukiwania Urla). Rozwiązanie takie nie sprawi jednak, że crawl budget (w przypadku dużej ilości tego typu produktów) zostanie spożytkowany optymalnie, a bot Google uzna, że witryna jest dla niego czytelna i przejrzysta.
Sprawienie, by bot Google nie indeksował określonych podstron, jest kolejną ważną kwestią niezbędną w osiągnięciu wysokich pozycji w wynikach wyszukiwania. W ten sposób minimalizujemy duplikację w obrębie domeny, a także kontrolujemy to, co chcemy pokazać użytkownikowi w wyszukiwarce. Zablokować przed indeksacją można na 2 sposoby (nie dają one jednak identycznych rezultatów).
Podstrony, nad których indeksacją warto się zastanowić w pierwszej kolejności, to generujące nowe URLe podstrony filtrowania/sortowania. O ile dane filtry nie generują dużego potencjału wyszukiwań, warto zapobiec pojawianiu się ich w wynikach wyszukiwania. Dzięki temu unikniemy duplikacji treści (możliwej na przykład, gdy filtrowane podstrony zawierają ten sam opis kategorii) i przede wszystkim wskażemy botowi Google, które podstrony nie są dla nas istotne i na których odwiedzanie nie powinien tracić czasu (w rezultacie nie mając go na interesujące nas sekcje serwisu). Dodatkowo zapobiegamy hipotetycznej sytuacji, gdy nasza domena pod daną frazę rankuje na kategorię z przypadkowym filtrem.
Różnica pomiędzy zastosowaniem tagu noindex a zablokowaniem dostępu w pliku robots.txt polega na tym, że w przypadku noindex bot Google może wejść na daną podstronę, ale jej nie zaindeksuje. W przypadku natomiast zablokowania danej podstrony (podstron) w pliku robots.txt, crawler Google w ogóle jej już nie odwiedzi i siłą rzeczy – nie zaindeksuje (o ile nie zrobił tego wcześniej, w takim wypadku strona pozostanie zaindeksowana, bo robot nie będzie miał okazji jej wyindeksować!)
Skoro mowa o indeksacji, warto również wspomnieć o pliku sitemap.xml. Powinien znajdować się w katalogu głównym witryny i zawierać wszystkie podstrony, które chcemy, by znalazły się w indeksie Google. W ten sposób jeszcze dobitniej zwrócimy uwagę bota na interesujące nas sekcje domeny.
Treść zawsze była i jest jednym z najważniejszych czynników, decydujących o tym, na jakie frazy wyświetla się w wynikach wyszukiwania nasza domena. Dlatego w przypadku sklepów internetowych bezwzględnie należy zadbać o to, by wyczerpująco (ale nie przesadnie) opisać kategorie i produkty. Ważne, żeby były atrakcyjne nie tylko dla bota Google, ale również dla użytkownika, którego decyzja o kupnie w dużym stopniu zależy właśnie od odpowiedniego przedstawienia mu produktu.
Oczywiście stworzenie unikalnych opisów dla przykładowo dziesiątek tysięcy produktów nie jest proste. Większość sklepów albo ich nie ma, albo pobiera je bezpośrednio od producenta. W efekcie popularnym zjawiskiem jest sytuacja, gdy dziesiątki sklepów mają ten sam opis danego produktu.
Jak wiadomo posiadanie zduplikowanych treści w swoim serwisie nie jest kluczem do sukcesu w pozycjonowaniu. Warto jednak wyjaśnić, że Google nie karze za powielone opisy produktów. Google za nie po prostu nie nagradza. Nagradza natomiast, gdy widzi unikalną treść niepojawiającą się na innych domenach. Dlatego mimo wszystko warto zadbać, by przynajmniej potencjalnie najbardziej dochodowe produkty zawierały atrakcyjną, niezduplikowaną treść.
Niezduplikowany i dobrze zoptymalizowany (pod odpowiednie frazy – zwłaszcza longtailowe) opis produktu może przynieść bardzo duże korzyści. Osoby wpisujące frazy z długiego ogona są bowiem często w końcowych etapach lejka sprzedażowego. Sprawienie więc, by treści na odsłonach produktowych (które mają największy potencjał do zawarcia fraz longtailowych) były pod nie zoptymalizowane, powinno znacznie zwiększyć ruch i przychody w sklepie.
Pozycjonowanie sklepu w dużym stopniu sprowadza się do tego, co i jaki sposób zaprezentujemy botowi Google. W związku z tym warto dobrze wykorzystać linkowanie wewnątrz serwisu. W ten sposób wzmocnimy interesujące nas, dochodowe podstrony/sekcje domeny. Dobre rezultaty przynosi linkowanie z opisów kategorii do innych kategorii. Za pomocą odpowiednich anchorów pomożemy botowi Google lepiej poznać, przecrawlować i zaindeksować witrynę.
Warto tutaj wspomnieć również o linkach z menu. Jako że znajdują się one prawdopodobnie na każdej podstronie serwisu, ich wartość jest ograniczona. Istnieje wiele różnych opinii dotyczących mocy linków zawartych w Menu. Wszystkie jednak zgodnie sugerują, że wartość linka w unikalnej treści podstrony jest znacznie większa. Dlatego dobrze jest zadbać, żeby bot potrafił dostać się do danej kategorii na kilka różnych sposobów.
Wzmocnieniu linkowania wewnętrznego pomaga również prowadzenie bloga. Powiązanie angażujących czytelnika artykułów z oferowanymi produktami nie tylko zwiększa szanse na konwersje, ale również poprawia renomę całej domeny. Google widząc, że strona stanowi realną wartość dla użytkownika (angażuje) – uznaje ją za autorytet w danej branży i winduje wyżej w wynikach wyszukiwania. Warunkiem koniecznym jest tutaj nie tyle samo w sobie prowadzenie bloga, ale przede wszystkim robienie tego w odpowiedni sposób.
CTR jest istotnym czynnikiem rankingowym. W wielu przypadkach Google podwyższa pozycje danego wyniku wyszukiwania, jeśli skuteczniej zwraca on uwagę użytkownika i jest częściej klikany, niż konkurencja. Osiągnąć to można odpowiednio go wyróżniając. W przypadku produktów warto zadbać (za pomocą tzw. danych strukturalnych) o wyświetlanie się oceny użytkowników, ilości opinii, ceny produktu czy jego dostępności.
Wyniki wyszukiwania kierujące do odsłon kategorii powinny natomiast zachęcać atrakcyjnym, unikalnym, ale i zawierającym frazy kluczowe meta description. Dzięki tym prostym zabiegom nie dość, że zwiększymy klikalność snippetów znajdujących się poza TOP3 wyników wyszukiwania, ale w dłuższym okresie poprawimy również ich pozycje.
Istnieje jeszcze wiele innych ważnych aspektów dotyczących skutecznego pozycjonowania sklepu internetowego – zaczynając od poprawy szybkości ładowania się strony, optymalizacji grafik, analizie UX, na budowie profilu linków kończąc. SEO to złożony proces, który wymaga dobrej współpracy co najmniej kilku osób. Dobrze wypracowana i egzekwowana strategia przyniesie duże korzyści.
Jakie zmiany pojawiły się w ciągu ostatniego miesiąca w świecie SEO i Content Marketingu? W najnowszych nowinkach piszemy między innymi o nowych atrybutach linków, Google News, nowościach w wyszukiwarce oraz odpowiednim feedbacku dla copywritera. Szczegóły poznacie poniżej.
Dotychczas atrybut „nofollow” używany był dla oznaczania linków reklamowych, sponsorowanych, komentarzy i innych linków, które z różnych przyczyn miały być pominięte przez robota Google. Wprowadzono nowe sposoby oznaczenia linków z ich rozróżnieniem na:
rel=”sponsored” – czyli linki sponsorowane, np. w płatnych artykułach,
rel=”ugc” – (consumer-generated media) – ma zastosowanie przy treściach generowanych przez użytkowników (np. fora, komentarze).
Jak podaje Google, atrybut “nofollow” nadal pozostaje w użyciu i nie ma potrzeby zmieniać atrybutów linków już istniejących. Więcej na ten temat można przeczytać tutaj: https://searchengineland.com/google-to-treat-nofollow-link-attribute-as-a-hint-after-march-1-2020-321664
Google tradycyjnie stawia nas przed faktem dokonanym: w ostatnim czasie nastąpiła aktualizacja algorytmu. Chodzi o identyfikację i premiowanie oryginalnych materiałów – tych które pojawiły się jako pierwsze oraz tych najbardziej rzetelnych. Teksty uznane za oryginalne źródło danej wiadomości mają być dłużej utrzymywane na wysokich pozycjach w wynikach wyszukiwania. Zmiany zostały już wprowadzone w wyszukiwarce, będą również wdrażane w Google News i Google Discover. Więcej informacji można znaleźć tu:
https://blog.google/products/search/original-reporting/
13 września odbyła się trzynasta edycja semKRK, czyli cyklicznych spotkań w Krakowie, poświęconych szeroko rozumianemu marketingowi i analityce. Podczas wydarzenia najlepsi specjaliści z branży dzielą się swoją wiedzą i doświadczeniami. Jest to również dobra okazja do integracji.
Podczas ostatniego spotkania Krystian Kucharski z PromoTraffic podzielił się casem dotyczącym sklepu SneakerStudio. Automatyzacja działań w firmie była tematem prelekcji Macieja Drzewieckiego z Kuzni-Kadr.pl oraz Macieja Wiśniewskiego z Premiumads. Aneta i Dawid Krystosik z AdPeak opowiedzieli, jak skrypty i bazy danych mogą poprawić wyniki w Google Ads. Piotr Michalak z Grupy TENSE przestawił swój pomysł na pozycjonowanie strony za pomocą dedykowanej infrastruktury SEO. Robert Niechciał przedstawił prezentację dotyczącą czasu potrzebnego na wejście strony do TOP10. Ostatnim wystąpieniem były praktyczne porady, jak znaleźć się w Google News, udzielone przez Grzegorza Strzelca.
Wydarzeniem towarzyszącym tegorocznej konferencji były odbywające się tego dnia warsztaty SEM i SEO prowadzone przez m.in. Krzysztofa Marca, Karola Dziedzica (SEM), Pawła Gontarka czy Tomasza Stopkę (SEO).
Więcej na temat spotkań można przeczytać na oficjalnej stronie wydarzenia: https://semkrk.pl
Jednym z tematów ostatniego semKRK była prezentacja Grzegorza Strzelca „Historia bardzo praktyczna o Google News”. Autor podzielił się własnymi doświadczeniami na temat działań, jakie należy podjąć, aby znaleźć się w gronie wydawców Google News, jak przebiega ten proces oraz jakie efekty możliwe są do osiągnięcia.
Dzięki przeprowadzonym testom wiemy już m.in. że Google News nie jest przeznaczone jedynie dla dużych serwisów, treści muszą cechować się dobrą jakością, poprawnością gramatyczną i zgodnością z prawami autorskimi. Powinny być pozbawione przemocy i nienawiści, nie mogą być to też treści sponsorowane, wyraźnie reklamowe. Przedstawione zostały również wymagania techniczne, jakie musi spełniać tekst newsa. Wiedza tym bardziej cenna, gdyż Google dosyć ogólnikowo przedstawiało dokumentację dotyczącą tej usługi.
Wywiad z Grzegorzem Strzelcem wraz z prezentacją z semKrk#13.
W narzędziu Senuto dodano dwa nowe raporty, które ułatwią pracę ze słowami kluczowymi.
1. Szczegóły frazy kluczowej – raport umożliwia uzyskanie statystyk dotyczących wybranej frazy.
2. Grupy słów – dzięki niemu można sprawdzić, jakie połączenia wyrazów pojawiają się najczęściej w kontekście wyszukiwanej frazy. Więcej informacji można znaleźć na blogu Senuto: https://www.senuto.com/pl/blog/nowe-raporty-szczegoly-frazy-kluczowej-i-grupy-slow
Druga połowa roku to często czas podsumowań. Interaktywnie.com opublikowało raport Content Marketing 2019, w którym można znaleźć porady i opinie ekspertów z tej dziedziny dotyczące przygotowania treści, sprzedaży, budowania wizerunku. Specjaliści (m.in. Witor Orzeł, nasz Specjalista ds. Content Marketingu) podpowiadają, jak skutecznie prowadzić działania w oparciu o content, które kanały promocji są najlepsze, a także na jakiej podstawie wybrać agencję do tego typu działań. Raport znajdziecie tutaj:
https://interaktywnie.com/biznes/artykuly/raporty-interaktywnie-com/raport-content-marketing-2019-259058
We wszystkich relacjach ważną rolę pełni sprawna komunikacja. Nie inaczej jest na linii klient – copywriter. W artykule znajdziemy wskazówki, jak współpracować z copywriterem oraz na jakie aspekty tekstu powinniśmy zwrócić uwagę, formułując feedback dla osoby piszącej. Więcej szczegółów: https://marketingdlaludzi.pl/czym-jest-wartosciowy-feedback-dla-copywritera
Jakie zmiany pojawiły się w ciągu ostatniego miesiąca w świecie SEO i Content Marketingu? W najnowszych nowinkach piszemy między innymi o nowych atrybutach linków, Google News, nowościach w wyszukiwarce oraz odpowiednim feedbacku dla copywritera. Szczegóły poznacie poniżej.
Dotychczas atrybut „nofollow” używany był dla oznaczania linków reklamowych, sponsorowanych, komentarzy i innych linków, które z różnych przyczyn miały być pominięte przez robota Google. Wprowadzono nowe sposoby oznaczenia linków z ich rozróżnieniem na:
rel=”sponsored” – czyli linki sponsorowane, np. w płatnych artykułach,
rel=”ugc” – (consumer-generated media) – ma zastosowanie przy treściach generowanych przez użytkowników (np. fora, komentarze).
Jak podaje Google, atrybut “nofollow” nadal pozostaje w użyciu i nie ma potrzeby zmieniać atrybutów linków już istniejących. Więcej na ten temat można przeczytać tutaj: https://searchengineland.com/google-to-treat-nofollow-link-attribute-as-a-hint-after-march-1-2020-321664
Google tradycyjnie stawia nas przed faktem dokonanym: w ostatnim czasie nastąpiła aktualizacja algorytmu. Chodzi o identyfikację i premiowanie oryginalnych materiałów – tych które pojawiły się jako pierwsze oraz tych najbardziej rzetelnych. Teksty uznane za oryginalne źródło danej wiadomości mają być dłużej utrzymywane na wysokich pozycjach w wynikach wyszukiwania. Zmiany zostały już wprowadzone w wyszukiwarce, będą również wdrażane w Google News i Google Discover. Więcej informacji można znaleźć tu:
https://blog.google/products/search/original-reporting/
13 września odbyła się trzynasta edycja semKRK, czyli cyklicznych spotkań w Krakowie, poświęconych szeroko rozumianemu marketingowi i analityce. Podczas wydarzenia najlepsi specjaliści z branży dzielą się swoją wiedzą i doświadczeniami. Jest to również dobra okazja do integracji.
Podczas ostatniego spotkania Krystian Kucharski z PromoTraffic podzielił się casem dotyczącym sklepu SneakerStudio. Automatyzacja działań w firmie była tematem prelekcji Macieja Drzewieckiego z Kuzni-Kadr.pl oraz Macieja Wiśniewskiego z Premiumads. Aneta i Dawid Krystosik z AdPeak opowiedzieli, jak skrypty i bazy danych mogą poprawić wyniki w Google Ads. Piotr Michalak z Grupy TENSE przestawił swój pomysł na pozycjonowanie strony za pomocą dedykowanej infrastruktury SEO. Robert Niechciał przedstawił prezentację dotyczącą czasu potrzebnego na wejście strony do TOP10. Ostatnim wystąpieniem były praktyczne porady, jak znaleźć się w Google News, udzielone przez Grzegorza Strzelca.
Wydarzeniem towarzyszącym tegorocznej konferencji były odbywające się tego dnia warsztaty SEM i SEO prowadzone przez m.in. Krzysztofa Marca, Karola Dziedzica (SEM), Pawła Gontarka czy Tomasza Stopkę (SEO).
Więcej na temat spotkań można przeczytać na oficjalnej stronie wydarzenia: https://semkrk.pl
Jednym z tematów ostatniego semKRK była prezentacja Grzegorza Strzelca „Historia bardzo praktyczna o Google News”. Autor podzielił się własnymi doświadczeniami na temat działań, jakie należy podjąć, aby znaleźć się w gronie wydawców Google News, jak przebiega ten proces oraz jakie efekty możliwe są do osiągnięcia.
Dzięki przeprowadzonym testom wiemy już m.in. że Google News nie jest przeznaczone jedynie dla dużych serwisów, treści muszą cechować się dobrą jakością, poprawnością gramatyczną i zgodnością z prawami autorskimi. Powinny być pozbawione przemocy i nienawiści, nie mogą być to też treści sponsorowane, wyraźnie reklamowe. Przedstawione zostały również wymagania techniczne, jakie musi spełniać tekst newsa. Wiedza tym bardziej cenna, gdyż Google dosyć ogólnikowo przedstawiało dokumentację dotyczącą tej usługi.
Wywiad z Grzegorzem Strzelcem wraz z prezentacją z semKrk#13.
W narzędziu Senuto dodano dwa nowe raporty, które ułatwią pracę ze słowami kluczowymi.
1. Szczegóły frazy kluczowej – raport umożliwia uzyskanie statystyk dotyczących wybranej frazy.
2. Grupy słów – dzięki niemu można sprawdzić, jakie połączenia wyrazów pojawiają się najczęściej w kontekście wyszukiwanej frazy. Więcej informacji można znaleźć na blogu Senuto: https://www.senuto.com/pl/blog/nowe-raporty-szczegoly-frazy-kluczowej-i-grupy-slow
Druga połowa roku to często czas podsumowań. Interaktywnie.com opublikowało raport Content Marketing 2019, w którym można znaleźć porady i opinie ekspertów z tej dziedziny dotyczące przygotowania treści, sprzedaży, budowania wizerunku. Specjaliści (m.in. Witor Orzeł, nasz Specjalista ds. Content Marketingu) podpowiadają, jak skutecznie prowadzić działania w oparciu o content, które kanały promocji są najlepsze, a także na jakiej podstawie wybrać agencję do tego typu działań. Raport znajdziecie tutaj:
https://interaktywnie.com/biznes/artykuly/raporty-interaktywnie-com/raport-content-marketing-2019-259058
We wszystkich relacjach ważną rolę pełni sprawna komunikacja. Nie inaczej jest na linii klient – copywriter. W artykule znajdziemy wskazówki, jak współpracować z copywriterem oraz na jakie aspekty tekstu powinniśmy zwrócić uwagę, formułując feedback dla osoby piszącej. Więcej szczegółów: https://marketingdlaludzi.pl/czym-jest-wartosciowy-feedback-dla-copywritera
]]>
Wielu specjalistów SEO pamięta czasy, gdzie w branży wyszukiwarek liczyła się bardziej ilość niż jakość. Wraz z rozwojem technologicznym i postępami Google użytkownik został postawiony w centrum uwagi. Dlatego SEO coraz bardziej zaczyna łączyć się z działaniami UX, co daje bardzo dobrą współpracę poprzez synergię.
Najprościej mówiąc User Experience jest to całość doświadczeń użytkownika związanych z danym produktem lub usługą. W naszym przypadku są to strony internetowe. UX otacza nas wszędzie, nawet w codziennym życiu, korzystając na przykład z nowego ekspresu w biurze, zmywarki, a nawet otwierając drzwi w sklepie. Ilu z was zdarzyło się pchnąć drzwi, kiedy trzeba było je pociągnąć?
Dlatego właśnie naklejki na drzwiach zwiększają User Experience i podpowiadają co mamy z nimi zrobić. Tak samo jest ze stronami internetowymi. Jeśli nie poprowadzimy użytkownika za rękę i nie dostosujemy jej tak jak on tego oczekuje, to możemy liczyć na to, że zrazimy do swojej strony bardzo wiele osób.
Dlaczego UX wspiera działania SEO? Odpowiedź jest bardzo prosta! Ogół działań SEO ma na celu przyciągnięcie użytkownika do naszej witryny. Użytkownik został sprowadzony, ale co dalej? Zostawiamy go w otchłani witryny ze słowami „Drogi użytkowniku – dalej musisz poradzić sobie sam”.
Tak naprawdę, jeśli zostawimy użytkownika samemu sobie, to może szybko się okazać, że zwiększył nam w Google Analytics nasz współczynnik odrzuceń, a tego byśmy nie chcieli. Dlatego z pomocą przychodzi nam UX, dzięki któremu jesteśmy w stanie pokazać użytkownikowi znaki, w którą stronę ma podążać. Chodzi oczywiście o spełnienie celu witryny, którym jest zakup produktu, wysłanie wiadomości, telefon.
Dlatego poza działaniami SEO warto się skupić na tym, aby nasza strona była użyteczna, atrakcyjna i dawała wartość użytkownikowi, której oczekuje. Dlaczego? Ponieważ mam tylko kilka sekund, by zatrzymać użytkownika na naszej stronie. Pierwsze wrażenie, jakie dostaje użytkownik po wejściu na witrynę, jest najważniejsze. Jeśli jest negatywne, to niestety użytkownik ucieka do konkurencji, która jest praktycznie w każdej branży (za wyjątkiem monopolistów).
No właśnie: jak sprawdzić, czy strona internetowa podoba się naszym użytkownikom? Jest na to kilka prostych sposobów, które pozwolą dokonać takiej analizy oraz kilka takich, które wymagają czasu. Chcesz się dowiedzieć? Poniżej prezentuję 3 wskazówki. Oczywiście jest ich o wiele więcej.
Jednym z tych najszybszych sposobów jest sprawdzenie współczynnika (bounce rate) odrzuceń w Google Analytics. Ta prosta i ogólna metryka da nam pogląd na to, jak witryna jest odbierana przez wszystkich użytkowników. Przyjmujemy, że poprawna wartość współczynnika powinna wynosić około 30-40%. Jeśli jest on powyżej tej wartości, wówczas warto bliżej przyjrzeć się naszej stronie. Jeśli jest wyższa o 60%, to strona wymaga niezwłocznej analizy i znalezienia przyczyny tego, że użytkownicy tak często uciekają ze strony.
Twoja strona jest w tym górnym przedziale? Spokojnie, to jeszcze nie pora na panikę. Duża część ruchu w Internecie to boty, więc jeśli Twój widok nie posiada filtrów, które „odsiewają” pusty ruch, to prawdopodobnie wysoki współczynnik odrzuceń jest spowodowany nimi.
Współczynnik odrzuceń można sprawdzić przechodząc w Google Analytics do Odbiorcy > Przegląd.
Bardziej dokładne informacje rozdzielone na poszczególne podstrony mamy w zakładce Zachowanie > Zawartość witryny > Wszystkie strony.
Drugą podstawową metryką, na którą warto zwrócić uwagę, jest średni czas trwania sesji, który również daje nam rozeznanie w tym, ile czasu spędzają użytkownicy na naszej stronie. Jeśli nasza strona ma angażować, a średni czas jest krótki, to również zalecamy przegląd strony pod kątem użyteczności. Tutaj tak samo jak w przypadku współczynnika odrzuceń warto w pierwszej kolejności upewnić się, że „odsiewamy” ruch botów.
Średni czas trwania sesji można sprawdzić przechodząc w Google Analytics do Odbiorcy > Przegląd.
Bardziej dokładne informacje rozdzielone na poszczególne podstrony mamy w zakładce Zachowanie > Zawartość witryny > Wszystkie strony.
Jeśli pomimo dobrego ruchu na stronie nie realizuje ona założonego celu, który został postawiony przy jej tworzeniu (bądź nie, co jest ogromnym błędem), to prawdopodobnie strona nie jest dostosowana do użytkowników i nie spełnia ich oczekiwań w taki sposób, jak powinna. To jest jednak tylko hipoteza, którą trzeba zweryfikować na przykład przy użyciu narzędzi analitycznych, takich jak Google Analytics lub takich, które badają zachowania użytkowników (np. Hotjar).
Przedstawiliśmy kilka przykładów jak sprawdzić, czy strona jest dobrze odbierana przez użytkownika. A teraz podamy kilka najczystszych błędów użyteczności na stronach internetowych, które skutecznie powodują klikanie przycisku wstecz i zamykanie kart w przeglądarkach internetowych. Jeśli występują na Twojej stronie, to już wiesz od czego zacząć optymalizację strony.
Jeśli ktoś Ci mówi, że SEO nie da się połączyć z UXem, to uciekaj! A tak całkiem serio: z czasem można zauważyć, że SEO bardzo mocno zaczyna korelować z UXem. Google od dłuższego czasu namawia, by dostosowywać strony internetowe tak, by była przyjazna dla użytkowników. Dlatego, jeśli Twoja strona aktualnie posiada SEO, a nigdy nie była analizowana pod kątem UX, to warto przeprowadzić ten krok. Połączenie działań SEO i UX może dać wymierne korzyści w postaci wzrostu współczynnika konwersji na Twojej stronie. Zachęcony do działania? To do dzieła!
Blog jest obecnie w wielu przypadkach integralną częścią sklepów internetowych lub stron należących do firm reklamujących swoje usługi w sieci. Systematyczne pojawianie się nowych, angażujących treści może prowadzić do zwiększenia ruchu w witrynie lub wzmocnienia rozpoznawalności i wizerunku firmy w Internecie. Jeśli prowadzisz bloga to w tym artykule dowiesz się jak zadbać o jego widoczność w wyszukiwarce.
Jesteś przed podjęciem decyzji o rozpoczęciu prowadzenia własnego bloga? To doskonała okazja na dokładne zaplanowanie strategii, według której będziesz podejmować kolejne działania związane z publikowaniem artykułów.
Po pierwsze określ główne cele jakie chcesz osiągnąć. Czy będą związane z edukacją? Wywoływaniem konkretnych emocji? Promocją produktów lub usług? Zarabianiem na publikowanych treściach? Jeśli na początku odpowiesz na te pytania, będziesz mógł ustalić wskaźniki, które pomogą Ci w ocenie efektów. Miarą może być np. współczynnik konwersji w sklepie, ilość subskrybentów, a także komentarze o określonym oraz stopień zaangażowania użytkowników w portalach branżowych lub social media.
Oczywiście jednym z najważniejszych celów powinno być dla Ciebie zwiększenie widoczności w wyszukiwarce i docieranie do wybranej przez Ciebie. W tym miejscu polecam, aby nie zostawiać tego tematu na później i od razu stworzyć grupę tzw. person, czyli fikcyjnych osób, które będą utożsamiane z realnymi użytkownikami. Będą to postacie zainteresowane Twoimi usługami, produktami lub treściami, jakie udostępniasz. Dzięki temu zawsze będziesz wiedzieć, do kogo kierujesz swoje przemyślenia i łatwiej dobierzesz język swoich wypowiedzi.
Twórz swoje artykuły według określonego planu. Rozpisuj tematykę treści przynajmniej na następny tydzień. Zaplanuj swoje działania na cały miesiąc lub kwartał. Ustal częstotliwość publikacji i nie wyznaczaj sobie nierealnej do osiągnięcia liczby. Będzie lepiej, jeśli raz w tygodniu dostarczysz angażującą, świeżą w Internecie treść, aniżeli powielonego tekstu na temat, poruszany już przez innych w podobny sposób.
Jeśli określiłeś już tematykę – czas na odpowiednie przygotowanie fraz kluczowych. Na początku wybierz jedną, najistotniejszą frazę. Jeśli prowadzisz sklep internetowy z akcesoriami dla dzieci może to być np. „wózek dla dzieci”. Załóżmy, że posiadasz już taką kategorię produktów i nie chcesz kanibalizować słów kluczowych, tworząc nowy tekst.
Nie skupiaj się więc na doborze fraz, które będą stricte związane z tym czego szuka użytkownik. Do tego służy właśnie odsłona kategorii lub odsłona produktowa. Zastanów się natomiast nad tym, co wiąże się z tą tematyką, co może pomóc użytkownikowi, który nie do końca wie czego szuka. Być może szuka wiedzy na jakiś temat? Prowadzi research? Na początku skorzystaj z odpowiednich narzędzi, które pomogą Ci w znalezieniu odpowiednich pytań, na które może odpowiedzieć Twój artykuł. Wypróbuj na przykład https://answerthepublic.com/. Po wpisaniu frazy głównej i wybraniu języka polskiego, otrzymasz interesujące Cię podpowiedzi. Na poniższej grafice znajdziesz przykładową ich część.
Po weryfikacji tego co otrzymaliśmy i zbadaniu średniej ilości wyszukań danej frazy np. w Planerze słów kluczowych lub Ubersuggest, czy Senuto, uzyskamy kilka interesujących nas sformułowań. Przy okazji te narzędzia wskażą nam pasujące słowa, dzięki czemu stworzymy odpowiednią listę. Poniżej przykłady:
W tym miejscu koniecznie pamiętaj o sezonowości – artykuły nasycone przez dane słowa mogą być częściej wyszukiwane np. w sezonie zimowym, zamiast letnim. Dlatego jeśli zależy Ci na wysokich pozycjach, twórz je odpowiednio wcześniej, aby mieć czas na ich optymalizację oraz osiągnięcie odpowiednich pozycji w wyszukiwarce. Do określenia takich słów najbardziej przydatne będzie narzędzie Google Trends.
Kiedy już wybierzesz odpowiednie frazy kluczowe, pamiętaj o zawarciu ich w konkretnych elementach podstrony, takich jak:
Nie skupiaj się jednak na sztucznym upychaniu słów kluczowych, a raczej na naturalnym ich rozmieszczeniu i odmianie przez przypadki. Często wystarczy jeśli konkretne sformułowania pojawią się w tekście tylko raz.
Ustal również z góry orientacyjną ilość znaków, które będą składały się na Twoje artykuły. Będzie łatwiej zachować Ci systematyczność w ich tworzeniu. Pamiętaj, aby nie trzymać się ich sztywno, ponieważ długość tekstu jest zależna głównie od ilości i potencjału wybranych fraz kluczowych, stopnia trudności oraz rodzaju tematu, jaki wybierzesz.
Kiedy chcesz dopasować swoją treść do tego co robi konkurencja, dobrym narzędziem może okazać się edytor tekstów, dostępny w płatnym narzędziu Surfer SEO. Analizuje on teksty konkurencji pojawiające się na wysokich pozycjach w wyszukiwarce, a następnie według tego rekomenduje parametry takie jak: długość tekstu, konkretne frazy kluczowe oraz ich nasycenie.
Zazwyczaj najwięcej udostępnień ma krótki content (np. news, post w social mediach) albo treść kompleksowa, rozwinięta i wyczerpująca dany temat. Zdarza się, że warto stworzyć krótki tekst, ale jednocześnie zawrzeć w nim wiele atrakcyjnych zdjęć. Przykładem może być poradnik o tym, jak urządzić kuchnię lub opis tego czym jest styl skandynawski. Istotne będzie tutaj określenie grupy docelowej lub tzw. person. Widoczność może wzrosnąć, jeśli oprócz tekstu zadbamy również o użyteczność strony. Content i UX to w obecnych czasach rzeczy równie ważne w osiągnięciu wyznaczonych celów.
Dobry tekst powinien:
Jeśli dobrze rozpiszesz sobie to, o czym powinieneś napisać w tekście oraz zawrzesz w nim odpowiednie elementy to masz szansę, że tekst będzie widoczny na dużą ilość fraz oraz nie zginie w natłoku innych, krótkich treści na innych portalach. Co więcej: jeśli artykuł precyzyjnie odpowiada na często zadawane pytania, które zaczynają się od słów: „co to”, „jak zrobić”, „jak ugotować” itd., a serwis, na którym jest publikowany posiada odpowiedni autorytet, wówczas może on znaleźć się w okienku Direct Answers wyszukiwarki Google. Może okazać się to bardzo przydatne:
Warto podejść do tego w sposób sumienny, ponieważ poza podstawowymi wynikami organicznymi artykuł może pozyskać naturalne wejścia również z:
– Google Grafika – jeśli artykuł posiada np. autorskie, wartościowe infografiki lub inne grafiki, które nie zostały już wcześniej wielokrotnie powielone. Oczywiście należy w tym miejscu wspomnieć o odpowiedniej optymalizacji grafik.
– Google News – jeśli artykuł posiada charakter newsowy warto uwzględnić możliwość pojawienia się w tym medium. Dobrą praktyką jest mieć osobną kategorię dla tego typu treści oraz odpowiednio przystosowaną sitemapę. Natomiast oprócz tego należy spełnić warunki stawiane przez Google: https://support.google.com/news/publisher-center/answer/40787?hl=pl i zgłosić witrynę do Centrum wydawców Wiadomości Google.
– Google Discover – to medium służy do wskazywania treści na urządzeniu mobilnym, która potencjalnie może zainteresować jego właściciela. Wybierając artykuły algorytm bazuje m.in. na tym, jakie serwisy dana osoba już wcześniej odwiedzała oraz na podstawie poprzednio wpisywanych fraz w wyszukiwarkę. Czynników jest oczywiście o wiele więcej. Natomiast Google nie stawia konkretnych wytycznych, pozwalających na pojawianie się serwisu w tym medium. W tym miejscu wspomina głównie o tym, że artykuł powinien być angażujący oraz unikalny. Kolejny raz przydaje się tutaj posiadanie określonej grupy odbiorców.
Oczywiście jeśli mowa o urządzeniach mobilnych warto, aby dana witryna ładowała się odpowiednio szybko i nie kazała czekać użytkownikowi zbyt długo. Strony, które mają z tym duży problem, mogą skorzystać z rozwiązania Google AMP. Dzięki niemu witryna może znacząco skrócić czas ładowania i stać się bardziej przyjazna dla użytkowników. Pamiętaj jednak, że istnieją pewne minusy tego rozwiązania, takie jak ograniczenie ilości elementów interaktywnych na stronie.
Aby artykuły stawały się dobrze widoczne i przynosiły wartościowy ruch, należy stale wzbogacać profil linków o odpowiednie domeny, które wzmocnią autorytet Twojej strony. Jeśli publikujesz artykuły, wymagające dużej wiarygodności, np. o tematyce około-medycznej, wówczas pamiętaj o odpowiednim wyeksponowaniu autora, który powinien mieć odpowiednią renomę w sieci. W tym konkretnym przypadku najlepiej, jeśli będzie to np. lekarz lub dietetyk.
Nie zapominaj o monitorowaniu efektów. Jeśli masz jasno określone i mierzalne cele – możesz pozyskać swoisty feedback od Twoich odbiorców i dzięki temu konfigurować i aktualizować artykuł, żeby stawał się jeszcze lepszy, ciekawszy oraz angażujący. Oczywiście podstawowym narzędziem do tego może być Google Analytics. Dzięki niemu dowiesz się więcej np. na temat czasu spędzonego na podstronie danego artykułu i porównasz w ten sposób między sobą wartościowość kilku swoich tekstów.
Do zbadania głębokości, na jaką przechodzą użytkownicy podczas czytania artykułu oraz np. w jakie odnośniki klikają, może posłużyć narzędzie Hot Jar. Nagrywa ono sesje użytkowników oraz tworzy mapy ciepła dla wybranych przez Ciebie podstron. Pozyskane w ten sposób dane pozwolą Ci na jeszcze lepsze zrozumienie Twoich odbiorców.
Zwykle najbardziej wartościowi odbiorcy to Ci, którzy chętnie wracają na Twoją stronę i czytają kolejne, publikowane przez Ciebie artykuły. Dlatego nie zapomnij o stworzeniu mechanizmu newslettera, za pomocą którego będziesz mógł komunikować się ze swoimi czytelnikami. Pamiętaj jednak o podstawowych zasadach przyzwoitości i nie wykorzystuj zaangażowania użytkowników w zbyt nachalny sposób, serwując im zbyt dużo irytując pop-upów. Staraj się tworzyć swoją listę mailingową w sposób subtelny i zastanów się dobrze, czy dany element strony zamiast zachęcać do zapisu, nie prowadzi raczej do poirytowania i prowadzi użytkownika do szybkiej ucieczki z witryny.
Publikowane przez Ciebie treści mogą być doskonałą okazją na pozyskanie nowych klientów lub oddanych czytelników. Aby Twoja droga prowadziła do oczekiwanych przez Ciebie efektów, pamiętaj o stworzeniu planu, trzymaniu się zasad webwritingu, tworzeniu angażujących oraz unikalnych treści, byciu systematycznym i nie zapominaj o SEO. Zwiększaj autorytet serwisu pozyskując wartościowe linki, oczywiście w sposób naturalny.
Działania wchodzące w skład marketingu w wyszukiwarkach to SEO i PPC. Oba mają na celu ułatwienie dostępu użytkownikowi do naszej strony i co za tym idzie, zwiększenie sprzedaży/liczby pozyskanych leadów. Czy połączenie działań SEO i PPC to rozwiązanie idealne? Dowiesz się tego z naszego artykułu.
Planując strategię marketingową w wyszukiwarce zastanawiamy się, które z tych działań wybrać lub od których zacząć. Wiele osób zakłada, że obie metody promocji się kanibalizują lub że jedna jest wystarczająca, ale każdy punkt styku z marką daje możliwość pozyskania klienta. SEO i PPC mają inną specyfikę i występują między nimi kluczowe różnice, ale przy umiejętnym połączeniu mogą też świetnie się uzupełniać.
Kampanie PPC w sieci wyszukiwania dają natychmiastowe efekty, pozwalają na konkurowanie od początku z liderami w branży i są odporne na zmiany algorytmu wyszukiwarki. Natomiast działania SEO przynoszą długofalowe efekty, ale na rezultaty w postaci pojawienia się wysoko w bezpłatnych wynikach wyszukiwania trzeba poczekać od 3 do 12 miesięcy, w zależności od konkurencyjności fraz.
Umiejętne ich połączenie i współpraca specjalistów pozwoli na osiągnięcie lepszych efektów. Dlatego najlepiej zlecić te działania jednej agencji, która zapewni kompleksową obsługę. Decydując się na łączenie SEO i PPC mamy szansę na lepszą optymalizację obu działań. Jak zaplanować strategię marketingową w wyszukiwarkach i co możemy zrobić, aby osiągnąć jak najlepsze rezultaty?
Optymalizacja stron, na które kierujemy reklamy, według zaleceń specjalisty SEO (dodanie treści uzupełnionych o wybrane frazy, odpowiednie nagłówki, zwiększenie szybkości strony itp.), pozwala poprawić wynik jakości w systemie Google Ads – jednego z czynników branych pod uwagę podczas przeprowadzania aukcji przez system Google. Dzięki temu algorytm uzna reklamę za adekwatną wobec strony docelowej i intencji użytkownika. Podwyższenie wyniku jakości przekłada się na obniżenie kosztu za kliknięcie oraz częstszy udział w aukcjach.
Przy nieprawidłowo wykonanej migracji domeny, aktualizacjach algorytmu i innych działaniach, które mogą obniżyć pozycje w bezpłatnych wynikach wyszukiwania, tymczasowo tracimy ruch organiczny. Zwiększanie stawek CPC lub ustawienie nowych kampanii reklamowych pozwoli nadrobić spadki ruchu z bezpłatnego źródła.
Można zastosować różne taktyki łączenia kampanii PPC i SEO. Jedną z metod jest równoległe prowadzenie działań dla fraz, które są najistotniejsze dla danego biznesu i najbardziej konwertujące, aby zwiększyć prawdopodobieństwo kliknięć w odnośnik i uzyskać możliwie jak największy ruch w serwisie. Korzyścią ze zmaksymalizowanej widoczności w SERP jest też zwiększenie świadomości i rozpoznawalności marki.
Kolejną metodą jest pewien podział fraz, na które prowadzi się działania lub zwiększenie zasobów w jednym z kanałów.
W działaniach reklamowych można skupić się na wybranych zapytaniach, które nie osiągnęły jeszcze wysokich pozycji w bezpłatnych wynikach wyszukiwania lub pozycjonowanie z jakiegoś powodu nie przynosi oczekiwanych efektów. Trzeba jednak pamiętać o tym, żeby w reklamach skupiać się na frazach o long tailowym charakterze.
Frazy ogólniejsze (typu „buty męskie”) mogą wykorzystać sporą część budżetu w Google Ads w krótkim czasie, co nie będzie efektywne. Dodatkowo działką specjalistów PPC powinno być promowanie krótkoterminowych ofert i promocji oraz wyświetlanie się na frazy brandowe konkurencji.
System Google Ads posiada pewne ograniczenia w niektórych obszarach działalności, takich jak branża gamingowa czy alkoholowa. W przypadku fraz zakazanych w reklamach należy skupić się na działaniach SEO.
Kolejnym elementem, na którym może skoncentrować się specjalista SEO, są frazy, które mają wysokie stawki za kliknięcie i prowadzenie dla nich kampanii wymaga bardzo dużych budżetów. Trzeba jednak pamiętać, że frazy te są również wysoko konkurencyjne w SEO i osiągnięcie topowych pozycji będzie wymagało sporo czasu.
Podstawą do efektywnego łączenia SEO i PPC jest współpraca pomiędzy specjalistami i wymiana danych ze skuteczności prowadzonych działań.
Kolejnym elementem integracji obu kanałów może być wspieranie reklamą działań SEO PR, czyli reputacji w wyszukiwarce. Wykorzystanie reklam miałoby na celu „zepchnięcie” na dalsze pozycje podstron, które zawierają niewygodne treści czy wpisy z negatywnymi opiniami o firmie. Pod taką reklamę można przygotować dedykowaną podstronę z referencjami klientów lub opiniami.
W niektórych przypadkach trudno będzie o wyświetlanie się na zapytania, które nie są zgodne z intencją użytkownika. Np. gdy ktoś wpisuje frazę w połączeniu z nazwą danego forum/agregatora opinii, a my chcemy mu wyświetlić podstronę naszej domeny.
Podsumowując: kompetentne połączenie działań pozycjonowania i kampanii PPC przynosi wiele korzyści, w tym przede wszystkim zwiększa skuteczność każdej z kampanii. Zapewnia również większą ekspozycję strony w SERP, co buduje zaufanie do marki. Podstawą synergii SEO i PPC jest wykorzystanie danych z obydwu kanałów, co pozwala na zdobycie przewagi konkurencyjnej.
Organizacje wydają coraz więcej pieniędzy na działania content marketingowe, notując równocześnie wzrosty ruchu, subskrypcji i sprzedaży. Ponadto w Google Search Console pojawiło się kilka nowych raportów. Co jeszcze ciekawego dzieje się w SEO i content marketingu? Tego dowiecie się z naszego artykułu.
7 maja na oficjalnym blogu Google pojawiła się informacja, że od tej pory renderowanie strony będzie wykonywane za pomocą najnowszej wersji przeglądarki – Chrome 74 (wcześniej była to wersja 41). Googlebot ma być też równolegle aktualizowany wraz z przeglądarką. Obecnie wspiera on ponad 1000 funkcji, w tym między innymi: ES6 oraz nowsze atrybuty JavaScript, IntersectionObserver dedykowany do lazy-loading, interfejsy API komponentów v1. Więcej na ten temat można dowiedzieć się pod adresem.
W Google Search Console pojawił się nowy raport dla portali wyświetlających się w Google Discover. Jest to kanał, bazujący na upodobaniach użytkowników wyszukiwarki. Jego działanie polega na wyświetlaniu na urządzeniach mobilnych propozycji interesujących artykułów. Wyniki zliczane są od początku marca tego roku. Dzięki nowemu raportowi można dokładnie sprawdzić liczbę kliknięć, wyświetleń oraz wskaźnik CTR w poszczególnych dniach. Jest to szczególnie istotne dla stron z wiadomościami, treściami evergreen czy cyklicznymi. Więcej o nowym raporcie można przeczytać tutaj.
Dane z Google Discover to nie jedyna nowość, która pojawiła się w ostatnim czasie w Search Console. Oprócz niej dodano raporty dotyczące stanu danych strukturalnych. Są to:
Dodatkowo Google opublikowało na swoim blogu post poświęcony monitorowaniu danych strukturalnych za pomocą GSC.
Google na platformie YouTube rusza z nową serią „SEO Mythbusting”, która ma rozprawić się z największymi mitami związanymi z SEO. Twórcy projektu podejmą temat technicznego SEO, postarają się wyjaśnić powszechne nieporozumienia i odpowiedzieć na powtarzające się pytania dotyczące Googlebota, JavaScript, aplikacji czy strategii działań. Zapowiedź programu można zobaczyć tutaj.
10 maja w Katowicach odbyła się kolejna, siódma już edycja Festiwalu SEO – największej tego typu konferencji w Polsce. Jak co roku byliśmy na niej obecni. Festiwal składał się z kilkunastu prezentacji, case studies i towarzyszących im dyskusji. Była to świetna okazja do wymiany doświadczeń między SEOwcami z całej Polski. Dla naszej agencji to na pewno duża dawka pomysłów, które przełożą się na optymalizację stron naszych partnerów biznesowych. Agenda tegorocznej edycji dostępna jest tutaj.
Hubspot.com opublikował wyniki ankiety dotyczącej CM, przeprowadzonej wśród marketerów. Jakie są wnioski? Przede wszystkim rośnie budżet na działania CM, a reklamodawcy są zadowoleni wyników, które zapewnia marce content marketing. Najważniejszymi wskaźnikami jego efektywności są wzrosty ruchu, wzrosty w SEO, a także zwiększenie liczby subskrypcji i sprzedaży. Ponadto okazuje się, że spada liczba marketerów, zatrudniających influencerów. Z drugiej strony Ci, którzy z nimi współpracują, zadowoleni są z efektów. Ikonografikę z rezultatami ankiety można znaleźć tutaj.
IAB Polska opublikowało raport, z którego wynika, że zjawisko korzystania z wielu ekranów jednocześnie dotyczy aż 93% internautów. Oprócz analizy multiscreeningu w publikacji znajdziemy sporo informacji na temat tego, w jaki sposób content trafia do użytkowników i jak telewizja oddziałuje na nasze zachowania w Internecie. Raport dostępny jest pod tym adresem.
Będąc właścicielem strony internetowej, prędzej czy później zaczynasz się zastanawiać nad tym, jak efektywnie poprawić jej widoczność w wyszukiwarce Google. Jeśli chodzi o efektywność działań SEO, wiele zależy od ich profesjonalnej realizacji. Bez fachowej wiedzy działania te nie tylko nie przyniosą efektów, ale mogą wręcz zaszkodzić. Poniżej omawiamy najbardziej prawdopodobne przyczyny, dlaczego Twoje SEO nie działa?
Działania SEO wymagają czasu. Po niespełna 3-6 miesiącach, od rozpoczęcia pracy z agencją, albo samodzielnych prób optymalizacji serwisu, nie należy spodziewać się oszałamiających wyników. Na efekty trzeba odpowiednio długo poczekać; od kilku miesięcy, niekiedy nawet do roku. SEO jest inwestycją długoterminową; to, ile czasu będziemy czekać na efekty, zależy od wielu czynników. Dlatego w pierwszych miesiącach działań możesz mylnie stwierdzić, że Twoje SEO nie działa.
Podobnie, jak w poprzednim punkcie, także i tutaj ważną rolę odgrywa czas. Rozpoczynając działania SEO tuż przed początkiem sezonu sprzedażowego, nie powinniśmy być zdziwieni, że nie przynoszą one oczekiwanych efektów. Sami bowiem nie daliśmy sobie odpowiednio dużo czasu. Aby SEO mogło zadziałać w sezonie sprzedażowym (w przypadku, gdy prowadzimy działalność sezonową), przygotowanie działań związanych z pozycjonowaniem należy zacząć kilka miesięcy wcześniej.
„SEO samo się nie zrobi” – to zdanie często powtarzane i prawdziwe. Kiedy posiadamy umowę na działania SEO (z agencją lub z freelancerem), musimy pamiętać, że my także będziemy zaangażowani we współpracę. Kiedy dostaniemy audyt SEO, wytyczne czy wszelkie rekomendacje od specjalisty, powinniśmy je wdrożyć możliwie jak najszybciej. Im szybciej wdrożymy wytyczne, tym szybciej zauważymy efekty. W przypadku, gdy nie wprowadzamy zalecanych zmian, nasz serwis może nie notować oczekiwanych wzrostów widoczności w wynikach wyszukiwania. Tym samym nie możemy liczyć na wzrost ruchu oraz konwersji.
W takim przypadku serwis może odnotować spadki. Pamiętajmy, że konkurencja nie śpi, ciągle udoskonala swoje strony i czeka tylko, aby móc nas wyprzedzić w wynikach wyszukiwania. Żeby osiągnąć oczekiwane i zadowalające efekty, należy wprowadzać wszystkie zmiany zalecane przez specjalistę.
Nawet, jeżeli posiadamy świetnie zoptymalizowaną stronę, możemy nie osiągnąć zadowalających wyników, jeśli nie dysponujemy jej wersją mobilną. Obecnie w wielu krajach, w tym Polsce, liczba smartfonów przewyższa liczbę komputerów. Dlatego posiadanie witryny dostosowanej do urządzeń mobilnych jest tak ważne dla obecności w Internecie.
Źródło: http://ranking.gemius.com/pl/ranking/platforms/
Dodatkowo Google w marcu 2018 wprowadził Mobile-first-index. Co za tym idzie, strony dostosowane do wersji mobilnej mają znaczącą przewagę nad pozostałymi oraz będą się wyświetlać wyżej w wynikach wyszukiwania. Dlatego, aby SEO działo, należy zadbać o wersje strony dostosowanej do różnych urządzeń. Inaczej nasze działania mogą nie przełożyć się na konkretny efekt.
Czasami SEO nie działa, ponieważ osoba zajmująca się optymalizacją serwisu nie posiada wystarczającej wiedzy, narzędzi lub czasu. Odpowiednia wiedza jest konieczna, aby działania SEO mogły przynieść oczekiwany efekt. Na SEO ma wpływ bardzo dużo czynników, które cały czas się zmieniają. Jeśli nie czujemy się pewnie w tym obszarze, zdecydowanie lepiej zlecić te działania specjaliście.
Szukając oszczędności w firmie, lepiej nie szukać ich w działaniach SEO. Za tanim pozycjonowaniem idą marne efekty lub ich całkowity brak. Bywa tak, że zbyt niskie kwoty, które są na granicy utrzymania specjalisty, powodują braki w budżecie (np. na zakup wartościowych linków czy zlecenie napisania unikatowych tekstów na stronę). Braki te mogą znacząco wpłynąć na efekt działań SEO.
Przy wyborze oferty na pozycjonowanie, gdy kierujemy się wyłącznie jak najniższą ceną, nasz serwis może trafić w ręce mało doświadczonego specjalisty, z ograniczonym dostępem do profesjonalnych narzędzi. Wówczas również nie możemy liczyć na profesjonalny audyt strony. Dokładna analiza serwisu stanowi podstawę działań SEO. Oszczędzanie na niej może przynieść efekt odwrotny od oczekiwanego.
SEO również może „nie działać”, jeśli niewłaściwie dobierzemy frazy, na które chcemy się pozycjonować w wynikach wyszukiwania. Błędnymi frazami będą słowa kluczowe niezwiązane z ofertą strony internetowej. Jeżeli dobierzemy frazy niepowiązane z oferowanymi przez firmę usługami czy produktami, to ciężko będzie uzyskać jakikolwiek pozytywny efekt. Co prawda ruch na stronie może się zwiększyć, lecz automatycznie wzrośnie współczynnik odrzuceń. Będzie to ruch bezwartościowy.
Zbyt ogólne frazy to również nie najlepszy pomysł. Ze względu na zbyt wysoką konkurencyjność bardzo trudno bowiem efektywnie się na nie wypozycjonować. Pozycjonowanie takich fraz jest trudne i wiąże się z dużym (a niekoniecznie potrzebnym) nakładem finansowym. Dlatego należy dobrze przeanalizować pozycjonowanie się na frazy ogólne. Wszystko zależy od budżetu, rodzaju biznesu oraz czasu przeznaczonego na działania SEO.
Dodatkowo zdarza się, że właściciele stron internetowych często próbują sami proponować pozycjonowane frazy. Niejednokrotnie są to frazy z prawie zerowym potencjałem wyszukiwania (to znaczy, że nikt ich nie wyszukuje). Frazy te szybko uzyskują pozycje TOP 3, jednak są one bezwartościowe, gdyż uzyskanie wysokich pozycji nie przekłada się na ruch w serwisie. Dlatego, żeby SEO działało, dobór odpowiednich fraz kluczowych powinien być bardzo dobrze przemyślany. Warto w tym celu skorzystać z odpowiednich narzędzi. Klika z nich odpisałem w artykule: 7 narzędzi do doboru fraz kluczowych.
Na końcu warto dodać, że ciągłość w działaniach SEO ma ogromne znaczenie. Niektórzy mylnie twierdzą, że wystarczy raz wdrożyć optymalizację i dodać kilka linków, aby cieszyć się dużymi efektami. SEO to proces ciągły, wymagający systematyczności oraz analizy efektów. Dodatkowo aktywność konkurentów zmusza nas do ciągłej pracy nad serwisem, nawet w momencie osiągnięcia satysfakcjonujących pozycji w wynikach wyszukiwania.
Skuteczne działania SEO nie są łatwe. Google stworzył ponad 200 czynników rankingowych, na podstawie których ocenia, czy konkretna strona jest mniej lub bardziej wartościowa. Proces optymalizacji musi być długotrwały i ciągły, aby przyniósł odpowiedni efekt. Czasami Twoje SEO faktycznie może nie działać. Dlatego najlepiej opiekę nad stroną powierzyć profesjonaliście, posiadającemu odpowiednią wiedzę i narzędzia. Wtedy mamy pewność, że nasz budżet inwestowany jest w najlepszy możliwy sposób.
Zdobywanie wartościowych linków to jedno z podstawowych zadań osoby, zajmującej się pozycjonowaniem strony. Profil linków przychodzących wciąż jest i najprawdopodobniej zawsze będzie jednym z ważniejszych czynników rankingowych Google. Ostatnimi czasy można odnieść wrażenie, że link building stracił na znaczeniu i tylko nieznaczna część zdobywanych linków oddziałuje na pozycje w wynikach wyszukiwania. Wynika to jednak nie z faktycznego spadku wartości linkowania jako czynnika rankingowego, lecz z rozwoju algorytmów Google, które wraz z ciągłymi aktualizacjami stają się coraz bardziej wymagające.
Link jest dla Google sygnałem świadczącym o zaufaniu do domeny. Kilka, kilkanaście lat temu o autorytecie strony w danej branży świadczyła po prostu ilość prowadzących do niej linków. Z czasem coraz większego znaczenia nabierała (kosztem ilości) ich jakość. Obecnie zdobywanie jak największych ilości linków w celu wypozycjonowania domeny jest nieskuteczne. Skupić się trzeba przede wszystkim na ich jakości. Skuteczność link buildingu w starym stylu – przy wykorzystaniu SWL-i, katalogów czy internetowych forów jest bardzo niska.
Warto jednak podkreślić – bardzo niska, ale nie zerowa. Nadal za pomocą tego typu linków można wpłynąć na pozycje mało popularnych fraz w mało konkurencyjnych branżach. Jest to jednak działanie dość ryzykowne. Google w przypadku wykrycia nienaturalnego linkowania może obniżyć ranking domeny i w rezultacie jej widoczność. Trzeba jednak zaznaczyć, że to stwierdzenie stoi w opozycji do ostatnich słów Johna Mullera, który oznajmił, że nie warto przejmować się podejrzanymi linkami – algorytmy po prostu nie zwrócą na nie uwagi. Sugerowałbym jednak podchodzenie do oficjalnych komunikatów Google z lekką rezerwą – z nie do końca jasnych przyczyn zdarza im się wprowadzać w błąd. Poza tym narzędzie do zrzekania się linków przychodzących nie zostało wycofane.
Obecnie najpopularniejszą metodą pozyskiwania linków są artykuły sponsorowane i to na ich przykładzie się tutaj skupię. Na popularnych platformach contentowych jak Whitepress czy Linkhouse możemy znaleźć tysiące portali, gotowych za określoną opłatą opublikować tekst z linkiem do naszej domeny. Teoretycznie im bardziej wartościowy portal, tym wyższa cena publikacji artykułu. W praktyce często wyznacznikiem ceny publikacji artykułu są wskaźniki mające obecnie coraz mniejsze znaczenie. Jednym z nich jest legendarny Trust Flow. Jest to wskaźnik, opracowany przez popularne narzędzie Majestic w celu określenia jakości profilu linków. Każda domena oceniona jest w skali od 0 do 100. Im wyższy Trust Flow, tym większy autorytet strony i tym bardziej wartościowy jest link z niej prowadzący. W praktyce manipulacja Trust Flow nie jest skomplikowana i dlatego na różnych platformach zrzeszających portale, skłonne publikować artykuły sponsorowane często spotkać można typowe zaplecza SEO, mające bardzo wysoki Trust Flow, dziesiątki artykułów sponsorowanych i brak jakiegokolwiek realnego ruchu.
A to właśnie realny ruch jest obecnie najlepszym wyznacznikiem wartości linka. Jeżeli w danej witrynie widzimy interakcje pomiędzy użytkownikami, komentarze, reakcje pod artykułami, zaangażowanie w social media, możemy spodziewać się, że Google uzna link z takiej domeny za wartościowy. Będzie to dla wyszukiwarki sygnał, świadczący o prawdziwym zainteresowaniu użytkowników. Poziom ruchu warto również zbadać za pomocą narzędzi takich jak np. Ahrefs, które na podstawie potencjału i pozycji fraz, na które widoczna jest dana domena, całkiem nieźle oszacowuje poziom ruchu organicznego. Za pomocą tego samego narzędzia możemy również sprawdzić profil linków przychodzących. Warto upewnić się, że domena, na której chcemy opublikować artykuł sponsorowany, nie posiada nienaturalnych linków z SWL-i, czy innych podejrzanych (na przykład chińskich) stron.
Przykład domeny wykorzystującej linkowanie z systemu wymiany linków (Ahrefs – odsyłające domeny)
Moc linka będzie naturalnie większa, jeśli tematyka linkującej witryny jest powiązana z naszą. Za pomocą web archive warto sprawdzić historię domeny. Jeśli odkryjemy, że mimo dobrej widoczności tematyka była wielokrotnie zmieniana, strona miała kilku właścicieli, powinniśmy zastanowić się, czy aby na pewno jest ona wiarygodna. Często spotykana jest sytuacja, gdy ktoś przechwytuje adres niegdyś popularnej witryny, stawia na niej nową stronę i korzystając z autorytetu, na który wcześniej sobie zapracowała, oferuje możliwość dodania płatnego artykułu z linkiem. Jego cena często przekracza 200 czy 300 złotych, a realna wartość jest niemal zerowa. Domeny takie bowiem często charakteryzują się regularnie spadającą widocznością w wynikach wyszukiwania.
Przykład widoczności fraz przechwyconej domeny
Naturalnie może również zdarzyć się tak, że osoba przechwytująca domenę zadba o szybkie odbudowanie jej – aby treści odpowiadały tym z historii. W takim wypadku spadków widoczności nie będzie lub będą niewielkie, a link pozyskany z domeny – pełnowartościowy.
Umiejscowienie artykułu w strukturze strony również ma duże znaczenie. Jeżeli dana podstrona nie jest odpowiednio podlinkowana wewnętrznie, to nawet mimo dużego autorytetu domeny wartość linka z niej prowadzącego może być niska. Witryny, oferujące możliwość publikacji artykułu, często gwarantują obecność tekstu na stronie głównej przez 3 dni. Później jednak wiele z nich kończy głęboko w słabo podlinkowanym wewnętrznie archiwum, do którego nikt nie zagląda. Nawet robot Google. Teoretycznie więc może zdarzyć się tak, że jeśli robot Google nie odwiedzi danej witryny przez kilka dni (gdy nasz artykuł będzie na stronie głównej), to już nigdy nie dowie się o jego istnieniu. Dlatego też bardzo ważne jest sprawdzenie jak i przede wszystkim gdzie dokładnie dany wydawca opublikuje nasz artykuł.
Pozyskiwanie wartościowych linków jest obecnie zadaniem trudnym i drogim. Realna wartość dużej części ofert, przekraczających nawet 200, 300 złotych za publikację artykułu jest niska. Dlatego wybranie konkretnego miejsca, z którego chcemy pozyskać link, należy poprzedzić głęboką analizą z dbałością o każdy szczegół. Inaczej łatwo jest wydać naprawdę spore pieniądze, nie zyskując w zamian żadnych korzyści.
Wybór odpowiednich fraz kluczowych to jedno z podstawowych i obowiązkowych zadań każdego specjalisty SEO przy rozpoczęciu pracy nad pozycjonowaniem i optymalizacją każdego serwisu. To właśnie od dokładnego dobrania fraz dla poszczególnych podstron będzie zależeć widoczność serwisu w wynikach wyszukiwania Google. Dziś zaprezentuję narzędzia do doboru fraz kluczowych, z których sam na co dzień korzystam. Oczywiście, w Internecie jest ich znacznie więcej (i ciągle powstają nowe). Dlatego skupiłem się tylko na tych 7, z którymi mam styczność praktycznie każdego dnia.
Ciężko znaleźć dziś kogoś, kto nie korzysta z wyszukiwarek internetowych, aby odnaleźć konkretne informacje. Słowa i zestawy słów, które wpisujemy do Google w celu odnalezienia interesujących nas treści to właśnie frazy kluczowe – zwane też słowami kluczowymi.
Wśród fraz kluczowych możemy wyodrębnić ich najważniejsze typy:
Brandowe – frazy kluczowe związane z nazwą firmy (brand – marka, nazwa firmy).
Ogólne frazy kluczowe – frazy składające się z 1-2 wyrazów. Są to ogólne słowa typu: buty, książki. Charakteryzują się dużą ilością wyszukiwań oraz – co za tym idzie – bardzo dużą konkurencyjnością. Użytkownicy, wpisując takie frazy, są zainteresowani produktem, ale nie mają sprecyzowanych preferencji. Pozycjonowanie takich fraz kluczowych jest trudne i wiąże się z dużym nakładem finansowym. Uzyskanie wysokich pozycji niekoniecznie przekłada się na korzyści biznesowe.
Frazy kluczowe z długiego ogona (tzw. long tail) – frazy long tailowe, to frazy składające się więcej niż z dwóch słów, np. „Buty do biegania damskie adidas”. Frazy takie mają mniejszy potencjał wyszukiwań, lecz w porównaniu do ogólnych zapytań użytkownik ma już sprecyzowane preferencje zakupowe. Są to frazy szczegółowe, charakteryzujące się mniejszą konkurencją oraz dużym współczynnikiem konwersji.
Korzystaj z dedykowanych narzędzi
Korzystając z odpowiednich narzędzi płatnych lub też darmowych, będziesz mieć pewność, że dobierzesz takie frazy, których szukają internauci.
Przeanalizuj obecną sytuację serwisu
Zamiast wymyślać frazy od zera, warto sprawdzić na jakie słowa kluczowe już rankuje strona.
Dzięki temu otrzymamy gotową listę fraz, którą możemy uzupełnić poprzez kolejne metody ich doboru.
Pamiętaj, że frazy kluczowe powinny odzwierciedlać oferowane usługi i produkty
Jeżeli dobierzesz frazy niezwiązane z oferowanymi przez Ciebie usługami i produktami, to trudno będzie Ci osiągnąć jakiekolwiek pozytywne efekty, jeśli chodzi o konwersje – nawet jeśli zwiększy się widoczność witryny, stanie się to przy równoczesnym wzroście współczynnika odrzuceń. Natomiast jeżeli działasz lokalnie, dobrze jak dodasz do frazy nazwę miasta czy województwa. W końcu internauci poszukujący usługi lokalnej dodają często nazwę interesującej ich miejscowości.
Analizuj konkurencję
Dobierając słowa kluczowe do serwisu, warto sprawdzić, na jakie frazy pozycjonuje się konkurencja. Każdy serwis jest inny, dlatego analizując kilka serwisów konkurencji, możemy natrafić na wartościowe frazy, które mogły nam umknąć.
Korzystaj z sugestii Google
Podpowiedzi podczas wpisywania fraz w wyszukiwarkę Google nie tylko pomagają użytkownikowi szukającemu oferty lub usługi, ale mogą przydać się tez specjaliście SEO przy szukaniu fraz. Po wpisaniu pierwszego słowa Google automatycznie podpowiada nam frazy wyszukiwane przez internautów.
Zrób „burzę mózgów” dotyczącą najważniejszych produktów i kategorii
Przed przystąpieniem do wyboru najbardziej efektywnych i najtrafniejszych fraz, warto wykonać „burzę mózgów”. Należy przeanalizować aktualną zawartość strony i zastanowić się co internauci mogą wpisać w wyszukiwarkę, żeby trafić na nasz serwis. Powinniśmy zwrócić uwagę na posiadane kategorie, podkategorie w menu nawigacyjnym oraz najważniejsze produkty. Dzięki temu otrzymamy zbiór możliwych pomysłów na frazy kluczowe.
Dobieranie fraz na rynki zagraniczne
Przy dobieraniu fraz na rynki zagraniczne należy pamiętać o tym, że w różnych krajach język nieco się od siebie różni. Brytyjski angielski jest nieco inny od amerykańskiego i o tej lokalności języka trzeba pamiętać. Poza tym ciężko dobrać precyzyjnie frazy, kiedy klient specjalizuje się w niszowej branży, jeżeli nie jest się native speakerem. Warto w takiej sytuacji skorzystać z pomocy tłumacza lub kogoś z branży.
Dla mnie pierwszym i podstawowym narzędziem przy wyborze fraz kluczowych jest Keyword Planner od Google. Jednocześnie jest to jedno z najczęściej wybieranych narzędzi przy tworzeniu kampanii Google Ads.
Aby skorzystać z narzędzia, wpisujemy interesującą nas frazę. Otrzymujemy średnią miesięczną liczbę wyszukiwań oraz sugerowaną stawkę za kliknięcie w reklamę.
W pierwszej tabeli zawsze wyświetlają się dane dotyczące wpisanego słowa. Natomiast w kolejnej Keyword Planner podaje listę powiązanych fraz (Chyba, że wybierzemy opcję „Sprawdź dane o liczbie operacji wyszukiwania i jej zmiennych”). Dzięki temu od razu dostajemy mnóstwo fraz, które mogą nas zainteresować. Natomiast po wpisaniu adresu URL domeny, dostaniemy słowa proponowane dla konkretnego adresu URL, kontekstowo dobrane do tego, co jest już w treści serwisu.
Z prezentowanych wyników możemy wykluczyć nieinteresujące nas frazy lub uwzględnić fazy zawierające konkretne słowo. Mamy możliwość posortowania po trafności, potencjale lub sugerowanej stawce CPC. Do dyspozycji są również przydatne filtry.
Narzędzie od pewnego czasu dostępne jest w nowej formie.
Ja preferuję jednak ciągle starszą wersję m.in. dlatego, że wpisane frazy są oddzielone od proponowanych.
Plusy
Minusy:
Dobrą, bezpłatną alternatywą planera słów kluczowych jest Ubersuggest. Główna zaletą Ubersuggesta (poza tym, że jest bezpłatny) jest fakt, że podpowiada słowa kluczowe oparte na wynikach wyszukiwań z wyszukiwarek.
Po wpisaniu frazy przechodzimy do zakładki „keyword ideas”. Dostajemy tam obszerną listę fraz posortowaną od największego potencjału wyszukiwania. Dodatkowo mamy również wartości CPC, które nieznacznie różnią się od sugerowanego CPC w planerze słów kluczowych. Następnie mamy PD oraz SD, czyli trudność frazy w płatnych i bezpłatnych wynikach wyszukiwania (im większa wartość parametru PD lub SD, tym większa konkurencyjność na daną frazę). Możemy również skorzystać z filtrów, żeby wyniki bardziej dostosować do naszych oczekiwań.
Co więcej, po prawej stronie widzimy spis podstron, które wyświetlają się w wynikach wyszukiwania na wpisane przez nas słowo. Od razu możemy zobaczyć, jak nasza strona wypada na tle konkurencji.
Plusy:
Minusy:
Kolejnym narzędziem do doboru fraz kluczowych, z którym warto się zapoznać, jest Senuto i jego „baza słów kluczowych”. W obsłudze narzędzie podobne jest do planera Google. Wpisujemy interesującą nas frazę lub frazy, otrzymujemy średnią miesięczną liczbę wyszukiwań, CPC oraz wykres sezonowości. Dodatkowo dostajemy bogatą listę sugerowanych słów.
Tak samo, jak we wcześniejszych narzędziach również tutaj możemy stosować wybrane filtry, które ułatwią odnalezienie interesujących nas fraz. Z bazy słów kluczowych oraz ze wszystkich pozostałych opcji Senuto możemy korzystać bezpłatnie przez 14 dni. Po tym okresie, aby dalej korzystać z narzędzia, należy wykupić abonament.
Plusy:
Minusy:
Również Ahrefs ma obecnie narzędzie do doboru fraz kluczowych. Żeby móc korzystać z programu trzeba mieć, podobnie jak w Senuto, wykupiony abonament. Możemy jednak wykupić za 7 dolarów dostęp na 7 dni dla przetestowania narzędzia. Większość specjalistów SEO zapewne jednak posiada Ahrefsa do analizy profili linków, więc przy okazji może korzystać z „Keywords Explorera”.
Z ciekawszych opcji, Ahrefs posiada między innymi podział procentowy na wejścia organiczne i płatne, globalną ilość wyszukiwań oraz historię pozycji w wynikach wyszukiwania.
Plusy
Minusy
Doskonałym uzupełnieniem zaprezentowanych powyżej narzędzi do doboru fraz kluczowych jest Answer The Public. Pozwala on w bardzo szybki sposób wyszukać long tailowe frazy. Narzędzie pokazuje nie tylko słowa kluczowe z długiego ogona, ale również pełne zdania, które internauci wpisują w wyszukiwarki. Niejednokrotnie, gdy brakuje już pomysłu na frazy kluczowe, Answer The Public przychodzi nam z pomocą. Warto zwrócić uwagę na fakt, że narzędzie jest całkowicie bezpłatne. Niestety nie pokazuje ono potencjału wyszukanych fraz. Na szczęście, od tego mamy wcześniej opisane narzędzia. Answer The Public równie dobrze sprawdza się przy szukaniu inspiracji do wpisów blogowych.
Wyniki otrzymujemy w atrakcyjnej formie diagramów kołowych, jak również list posortowanych alfabetycznie.
Plusy:
Minusy:
Przy doborze słów kluczowych, niejednokrotnie sprawdzamy frazy nie znacznie się różniące, np. „buty do biegania nike”, „buty do biegania adidas” oraz „buty do biegania puma”. Jeżeli chcielibyśmy wpisać wszystkie marki po kolei, zajmie nam to naprawdę sporo czasu.
Aby go oszczędzić, warto skorzystać z narzędzia, które za nas połączy słowa w różnych konfiguracjach. Takich programów jest sporo w Internecie. Osobiście korzystam z PPC keyword tool ze względu na możliwość wpisania 4 odrębnych części oraz łączenia ich w różnej konfiguracji i z różnymi łącznikami.
Zamiast ręcznie wpisywać i łączyć każdą frazę ze sobą, mamy możliwość wpisania raz w osobnych kolumnach powtarzającą się cześć, a w oddzielnej kolumnie – słowa zmienne. Narzędzie dzięki jednemu kliknięciu połączy frazy na wszelakie sposoby. Wracając do naszego przykładu: otrzymujemy 62 rezultaty i oszczędzamy czas, który musielibyśmy poświęcić na ich ręczne wpisywanie.
Po otrzymaniu listy połączonych słów możemy ją przekopiować np. do Planera i sprawdzić, które frazy kluczowe posiadają największe potencjały.
Plusy
Przy pisaniu o narzędziach do doboru fraz kluczowych nie można zapomnieć o Google Trends. Jest to dość ciekawe narzędzie, które umożliwia sprawdzenie popularności fraz kluczowych w danym przedziale czasowym. Dzięki temu możemy zaobserwować, czy popularność interesującej nas frazy zmienia się, czy też utrzymuje się na podobnym poziomie w dłuższym czasie. Dodatkowo możemy zobaczyć, w których lokalizacjach fraza cieszyła się największą popularnością w danym okresie.
Plusy
Minusy
Tak jak już na początku wspomniałem: narzędzi do doboru fraz kluczowych jest bardzo dużo. Mimo to, nie ma jednego idealnego. Każde z nich ma swoje plusy i minusy. Również każdy specjalista ma swoje preferencje i korzysta z narzędzi, które najbardziej mu odpowiadają.
Z mojego doświadczenia wynika, że najlepiej nie ograniczać się do jednego narzędzia. Korzystając z kilku, które będą się wzajemnie uzupełniać, jestem w stanie dobrać frazy kluczowe nawet do tych podstron, które na pierwszy rzut oka nie mają żadnego potencjału.
Jeśli masz swoje ulubione narzędzie do doboru fraz kluczowych, które nie znalazło się w moim zestawieniu, koniecznie daj znać o nim w komentarzu.
Aktualizacja algorytmu wyszukiwarki grafiki, baza słów kluczowych odświeżana w czasie rzeczywistym czy nowe narzędzia do analizy contentu stron – to rzeczy, które ostatnio są na czasie. Zapoznaj się z ciekawostkami z branży i zobacz co w trawie piszczy.
27 września Google zaktualizowało algorytm wyszukiwarki grafiki. Do najważniejszych wprowadzonych zmian należy zwiększenie znaczenia czynnika rankingowego, jakim jest autorytet strony, z której pochodzi obraz. Update wpłynął też na porządek pojawiania się grafik w wyszukiwarce – w pierwszej kolejności mają być wyświetlane najnowsze z nich. Oprócz tego pod uwagę brane będzie ich położenie, co oznacza, że obrazy znajdujące się w środkowej i górnej części strony staną się ważniejsze dla Google od pozostałych. Więcej informacji można przeczytać tutaj: https://www.seroundtable.com/google-images-algorithm-update-26422.html
John Mueller z Google zapytany o to, czy do indeksu mobilnego trafią strony gier oparte w dużym stopniu o JavaScript, odpowiedział, że w takich przypadkach googlowskie systemy mogą być zdezorientowane i w konsekwencji nie zostanie podjęta decyzja o przeniesieniu witryny do mobile-first index. Dodał też, że rozwiązaniem jest umieszczenie problematycznej zawartości w desktopowej wersji serwisu. Więcej informacji na ten temat znajduje się tutaj: https://www.searchenginejournal.com/google-sites-using-a-lot-of-javascript-may-not-be-moved-to-mobile-first-indexing/268571/
Z okazji 20 urodzin Google Danny Sullivan podzielił się na Twitterze kilkoma nowinkami dotyczącymi wyszukiwania. Jedną z nich jest Neural Matching, czyli dopasowywanie słów i fraz do odpowiednich tematów, co rozwiązuje problem zapytań sformułowanych w inny sposób niż adekwatne do nich odpowiedzi. Metoda, którą Sullivan nazwał „Super synonimami”, testowana jest od kilku miesięcy i obejmuje już 30% wyników wyszukiwania. Więcej informacji dostępnych jest tutaj: https://www.seostation.pl/wiedza/czym-jest-neural-matching
We wrześniu nowości nie ominęły użytkowników Senuto, które udostępniło globalną i odświeżaną w czasie rzeczywistym bazę słów kluczowych. Keywords explorer od Senuto umożliwia wyszukiwanie fraz powiązanych nie tylko na zasadzie długiego ogona, ale także tych, które łączy znaczenie. Więcej informacji można znaleźć pod tym adresem: https://www.facebook.com/SENUTOtool/photos/a.866424653427151/1829983353737938/?type=3&theater
ASO, czyli App Store Optimization, jest tym dla aplikacji mobilnych, czym SEO dla stron internetowych. Celem ASO jest poprawa widoczności aplikacji i zwiększenie konwersji, a więc liczby jej instalacji. Do czynników, które na to wpływają, należą między innymi ocena i opinie na temat aplikacji, a także elementy takie jak jej ikona czy nazwa. Z całym artykułem dotyczącym pozycjonowania aplikacji mobilnych można zapoznać się pod tym adresem: https://netpeak.net/pl/blog/jak-promowac-aplikacje-mobilna-krotki-przewodnik-po-aso/
W dniach 4–7 września w Cleveland miała miejsce największa na świecie konferencja poświęcona content marketingowi. W imprezie organizowanej przez Content Marketing Institute uczestniczyło 4000 marketerów, którzy brali udział w licznych wystąpieniach na temat różnych aspektów branży, a także zapoznawali się z najnowszym oprogramowaniem dedykowanym CM. Podsumowanie i najważniejsze wnioski z wydarzenia można znaleźć tutaj: https://nowymarketing.pl/a/19730,7-najwazniejszych-wnioskow-z-content-marketing-world-2018
Ahrefs wprowadził ostatnio nowe narzędzie do analizy contentu stron. Funkcja nazwana Content Gap (w polskiej wersji Ahrefsa dostępna pod nazwą „Różnica treści”) służy do wykrywania luk w treści, a więc znajdowaniu tych słów kluczowych, na które wyświetlają się konkurencyjne strony, a na które nie rankuje nasza witryna. Instrukcja wykorzystania Content Gap do obejrzenia poniżej.
[su_youtube url=”https://www.youtube.com/watch?v=n-kxOhnSH-Q” width=”740″]https://www.youtube.com/watch?v=YbYWhdLO43Q[/su_youtube]