Zajrzyj na swoją pocztę, aby poznać szczegóły oferty ;)
Tymczasem, sprawdź nowości na naszym blogu semahead.agency/blog/
Zespół Semahead
W idealnym świecie po wpisaniu konkretnej frazy kluczowej w wyszukiwarkę, ta przekierowuje nas na stronę, która jest dokładnie powiązana z zapytaniem. Aby było to możliwe z pomocą przychodzą algorytmy Google, które cały czas analizują witryny, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Odpowiedź w poniższym artykule!
Według raportu WeAreSocial internet, a wraz z nim wyszukiwarki internetowe, stają się nieodzownym elementem życia człowieka. Ponad 4,5 miliarda ludzi korzystało z internetu w 2020 roku, co stanowi 59% populacji. To wzrost o 7 procent w stosunku do roku poprzedniego. W związku z popularnością internetu, niezbędne są narzędzia, które pomagają odnaleźć się w gąszczu rozmaitych stron internetowych, wszak internet to nie tylko social media. Takimi narzędziami są wyszukiwarki internetowe, a wśród nich najpopularniejsza (według danych ze stycznia 2021), czyli Google. Procentowy rozkład użytkowników danych wyszukiwarek internetowych wg. netmarketshare.com przedstawia się następująco:
Wyszukiwarka Google, by wyświetlać jak najbardziej stosowne wyniki wyszukiwania wykorzystuje system rankingowy. Ranking ustalany jest na podstawie szeregu algorytmów. Algorytmy Google to zaawansowane procesy posiadające określony schematy postępowania, których zadaniem jest ocena stron internetowych i uszeregowanie ich według z góry określonych kryteriów. Ich głównym celem jest przedstawienie jak najbardziej naturalnych i zróżnicowanych wyników, które odpowiedzą trafnie na zapytanie użytkowników wyszukiwarki.
Algorytmy Google wykorzystują setki, jeśli nie tysiące różnych czynników rankingujących. Tylko niektóre z nich zostały oficjalnie potwierdzone przez pracownika Google – większośc należy do sfery przypuszczeń. Niewiadomą jest nie tylko to, jakie są czynniki rankingowe, ale również jaką mają wagę w ogólnym rozrachunku.
Szacuje się, że algorytm Google jest updatowany około 600 razy w ciągu roku. Aktualizacje algorytmu zwykle są drobne nie prowadzą do dużych przetasowań w wynikach wyszukiwania, a ich duża ilość wiąże się z wykorzystaniem uczenia maszynowego. Niektóre jednak są na tyle duże, że doczekały się własnej nazwy.
Page Rank był pierwszą próbą uporządkowania wyników wyszukiwania Google. Polegał on na nadawaniu określonej wartości przy pomocy algorytmu matematycznego. Był on wyliczany automatycznie na podstawie ilości linków prowadzących do witryny oraz treści i zawierał wartość pomiędzy 0 a 10. Został stworzony przez założycieli Google – Larry’ego Page’a i Sergeya Brina. Page Rank był jawny dla każdej witryny i można było na bieżąco ewaluować on-going wyniki swojej pracy. Algorytm ten z czasem stał się narzędziem manipulacji – branża szybko go rozgryzła i wykorzystywała do boostowania niskiej jakości treści linkami np. z farm linków bądź keyword stuffingiem. Wymogło to na Google stosowanie innej metody klasyfikacji stron internetowych. W 2016 roku wycofano się z informowania o wyniku Page Rank, jednak na Twitterze wciąż pojawiają się pytania kierowane do Matta Cuttsa o to, czy Page Rank w rzeczywistości wciąż działa.
By zapobiec dużej ilości spamu, która wynikała z niedoskonałości Page Ranka, wprowadzono algorytm Panda, który stanowił niemałą rewolucję w podejściu do prowadzenia działań SEO. Został tak nazwany na cześć inżyniera Navneeta Pandy i został oficjalnie wdrożony 23 stycznia 2011 roku. Początkowo był aktualizowany co miesiąc, razem z aktualizacjami algorytmu głównego, więc trudno było wyodrębnić zmiany w samej Pandzie. Algorytm Panda zaczął badać strony pod kątem ich przydatności oraz wartości prezentowanej treści. Negatywnie oceniał treści, które:
Tym sposobem wyeliminowane zostały famry linków, a Panda zmusiła SEO-wców do tego, by przykładali większą wartość do jakości publikowanych treści. Zmniejszyło się znaczenie treści synonimizowanych i sztucznie generowanych. Od tego momentu zaczęto mówić „content is king” i skupiać się na odbiorcach, a nie wyłącznie robotach Google.
W 2016 roku algorytm Panda został scalony z głównym algorytmem Google. Oznacza to, że Panda jest aktualizowana w czasie rzeczywistym. Co to zmienia? Otóż natychmiast po wprowadzeniu zmian na stronie, tuż po przeindeksowaniu ich przez robota, można obserwować ewentualne zmiany w wynikach wyszukiwania.
W 2012 roku pojawiła się aktualizacja algorytmu z serii Page Layout, które obniżała ocenę witrynom zawierającym sporą ilość reklam i nieużytecznych elementów powyżej linii załamania (scrollowania). Należy zwrócić uwagę, czy nie blokujemy istotnych dla wyglądu strony elementów oraz jak dana strona wygląda na urządzeniach mobilnych.
Pingwin odpowiada za ocenę linków przychodzących. Wprowadzony został 24 kwietnia 2021 roku i stał się immanentnym elementem wyszukiwarki Google. Miał za zadanie ograniczenie spamu w linkbuildingu. Za co premiował?
Gdy Pingwin dostrzegał ingerencje w profil linków nakładał karę – albo na pojedyczne podstrony, albo nawet na całą witrynę. Aktualnie jednak kary ręczne są rzadkością, a Google, jak twierdzi, ignoruje niskiej jakości linki bez nakładania kar na witryny. Aktualnie jest częścią głównego algorytmu i działa w czasie rzeczywistym. Google nie informuje już o kolejnych wydaniach.
Algorytm Pirat zajął się stronami, które kopiują treści objęte prawem autorskim. Negatywnie wpłynął na serwisy, które nielegalnie oferują możliwość pobierania filmów, muzyki oraz portale, które linkują do tych serwisów bądź udostępniają tzw. torrenty. Działa on jak filtr, który jest nakładany, gdy na daną stronę jest duża liczba skarg o naruszenie praw autorskich. Został wprowadzony w 2012 roku. Jeśli ktoś uważa, że jakaś strona narusza ich prawa autorskie, może ją zgłosić w formularzu tutaj.
Google bada sprawę i jeśli uzna, że materiał narusza własnośc intelektualną, wówczas strona zostaje usunięta z indeksu Google, a właściciel otrzyma stosowną informację w Google Search Console. Razem z algorytmem Pirate zmienił się sposób wyświetlania zapytań z dopiskiem +mp3+torrent+download. Google stara się wyświetlać najpierw oficjalne kanały zdobycia jakiegoś dzieła kultury. Wyszukiwarka Google ułatwia korzystanie z legalnych treści, prezentując wszystkie możliwe miejsca, w których możemy zobaczyć dany materiał legalnie:
Bądź wysłuchać legalnie:
Algorytm Koliber ułątwia odnalezienie odpowiedzi na złożone pytania. To właśnie dzięki niemu powstał termin „frazy longtailowe”. Pomógł robotom Google analizować strony jako całość, a nie jako poszczególne frazy składowe. Pojawiło się pojęcie intencji użytkownika – nie chodziło już tylko o nieodmienną frazę kluczową, ale też o to, co konkretnie użytkownik chce znaleźć. Dzięki Kolibrowi strony internetowe, które nie posiadają fraz exact match i tak mogą być wysoko w wynikach wyszukiwania, jeśli tylko odpowiadają ogólnej intencji zapytania. Google zaczął radzić sobie z synonimami, choć nie zawsze skutecznie.
Dzięki Kolibrowi większe znaczenie mają wyszukiwania lokalne bez konieczności wpisywania miast (Google sam lokalizuje urządzenie) oraz punktowane są serwisy, które pokrywają całe tematyczne zagadnienie. Koliber sprawdza potencjalną przydatność danej treści, dlatego to właśnie ją powinniśmy mieć na uwadze. Dodatkowo, to właśnie ten algorytm odpowiada za wynik zerowy, czyli wynik, który pojawia się w wynikach wyszukiwania Google bez konieczności kliknięcia.
Nazwa Google Koliber (Hummingbird) pochodzi od szybkości i precyzji, którą zapewnia ta zmiana w wyszukiwarce. Można uznać, że jest to jedna z kluczowych zmian ostatnich lat. Wdrożenie tego algorytmu poskutkował tym, że w SERP można zobaczyć więcej podstron serwisów, a nie tylko stron głównych. Szacuje się, że Koliber zmienił 90% wyników wyszukiwania.
Google Pigeon to algorytm usprawniający zapytania i wyszukiwania lokalne. Od wprowadzenia aktualizacji Google lepiej łączy wyniki organiczne z wynikami wyszukiwania w maoach. Dzięki usprawnieniom nie jest wymagane wpisanie miejscowości w zapytaniu, ponieważ Google dostosuje wynik do aktualnej lokalizacji użytkownika. Niezbędne stało się dokładnie uzupełnienie wizytówki Google i podawanie jak największej ilości informacji w Google Moja Firma. Dane teleadresowe stały się niezbędne – przydatne jest także tworzenie NAP-ów (Google lepiej ocenia witryny z zachowanym standardem NAP (Name, Adress, Phone)). W procesie rozwoju budowania marki w internecie należy skupić się na korelacji nazwy firmy z lokalizacją, zachowywać standardy adresów w katalogach internetowych czy zadbaniu o dane strukturalne na stronie. O tym, jak uzupełnić wizytówkę GTM pisaliśmy w naszym artykule. Aktualizacja ta przeznaczona była pierwotnie dla użytkowników anglojęzycznych. Jednocześnie, Google potwierdził, że istotny jest czynnik, na który nie mamy bezpośredniego wpływu – odległośc i lokalizacja.
Dodatkową aktualizacją, która zatrzęsła lokalnymi wynikami wyszukiwań jest Opos – wprowadził znane trzy rezultaty w belce pod mapą, które są pobierane z Google Moja Firma.
Wprowadzony został w 2015 roku. Algorytm ten sprawił, że stronom niezoptymalizowanym pod kątem urządzeń mobilnych, którym trudniej jest wejśc na wysokie pozycje w rankingu. Ponadto, bardz popularny stał się tani i szybki Internet Mobilny – stąd duży wzrost liczby osób konsumujących treści z poziomu tego typu urządzeń, czyli zwykle z mniejszych rozdzielczości ekranu. Warto zaznaczyć, że Mobilegeddon nie wypłynął na wyniki wyszukiwania na urządzeniach stacjonarnych.
W kolejnych latach Google wprowadził kolejne usprawnienia algorytmów dotyczących wersji mobilnych strony:
Przetestować optymalizację naszej strony do urządzeń mobilnych możemy np. poprzez tę stronę. Jednocześnie nie zapominając, że dostosowanie do urządzeń mobilnych jest cechą pojedynczej strony, a nie całej witryny – nie wystarczy np. sprawdzić strony głównej, lecz należy wybrać więcej reprezentatywnych przykładów, które dadzą pogląd na to, jak podstrony są dopasowane do niskich rozdzielczości.
To algorytm, który wpłynął na to, jak wydawcy serwisów prezentują reklamy na swoich stronach. Google Intrusive Interstitials Mobile Penalty pojawił się w 2017 roku i wpłynął niekorzystnie na rankingi stron prezentujących pełnowymiarowe reklamy, które przysłaniają treść. Jest to jeden z elementów zmian dostosowujących strony do urządzeń mobilnych – brak kursora myszki na ekranie smartfonów mógłby utrudniać zamknięcie pełnoekranowych reklam. Nie wszystkie typy „wyskakujących” informacji narażały strony na kary – akceptowalne były pliki cookies oraz blokady dla osób poniżej 18 roku życia na stronach dla dorosłych.
RankBrain to jeden z najnowocześniejszych elementów algorytmu Google. Uruchomiono go w 2015 roku – jako pierwsze algorytm wykorzystuje sztuczną inteligencję. RankBrain stara się jeszcze lepiej zrozumieć intencję użytkownika i znaleźć najtrafniejszą odpowiedź na jego pytanie. Algorytm korzysta z podobnych mechanizmów co Koliber. Co więcej, rozpoznaje nie tylko pojedyncze słowa i zdania, ale potrafi zrozumieć znaczenie zapytania i zwrócić trafną odpowiedź na daną frazę mimo, że w samym zapytaniu jej nie ma. Dzięki zastosowaniu sztucznej inteligencji RankBrain cały czas się udoskonala, wykorzystując uczenie maszynowe.
Aktualizacja BERT (ang. Bidirectional Encoder Representations from Transformers) to, najprościej ujmując, uzupełnienie opisanego wcześniej mechanizmu RankBrain. Aktualizacja oparta jest na sieci neuronowej i jest na tyle duża, że Google musiało umieścić ją w całości w chmurze Cloud TPUs. BERT usprawnia założenie RankBrain, jeszcze lepiej odczytując pozwiązania oraz kontekst pomiędzy frazami w zapytaniu. Głównym usprawnieniem jest lepsze zrozumienie odmiany słów oraz zaimków w zapytaniu, które często odgrywają kluczowe role. Zmiany te nie dotyczą oceny strony internetowej, ale przestawiają wyniki wyszukiwania. Oznacza to, że zmiany w wynikach wyszukiwania pod wpływem Berta nie są nagrodą ani karą lecz efektem lepszego dopasowania wyników do zapytań.
Szacuje się, że w dniu uruchomienia aktualizacji w 2018 roku BERT wpłynął na blisko 10% wyników wszystkich zapytań. To więcej niż Panda oraz Pingwin. Od grudnia 2019 roku aktualizacja obejmuje również zapytania w języku polskim.
W bercie została wykorzystana technologia NLP (ang. Natural language processing), co pozwoliło na lepsze zrozumienie intencji osób wyszukujących. Każdy język ma swoje unikatowe niuanse, które mogą nastręczać trudności algorytmom Google. Sprawa komplikuje się tym bardziej, jeśli weźmiemy pod uwagę np. polskie homonimy oraz wyraz typu homogonicznego. Takie przypadki rzadko występują w języku polskim, co dodatkowo utrudnia Voice Search, czyli wyszukiwanie głosowe. Dla ludzi wieloznaczność nie jest problemem – mierzymy się z nią codziennie i wiemy, że kontekst jest kluczowy dla komunikacji. Rozumiemy instrynktownie, czy chodzi nam o zamek w kurtce czy zamek w Książu. Dla robotów wieloznacznośc jest wyzwaniem. Wyzwaniem jest również dla inżynierów z Google, którzy chcieli dostarczać jak najbardziej dopasowane odpowiedzi na konkretne zapytanie.
Jak wpływa to na tworzenie treści? Otóż to kolejny krok w tworzeniu tekstów dla użytkowników, nie dla robotów – słowa kluczowe przestają być nomen omen kluczowe. Stają się dodatkiem. Google przestaje ignorować stop words, czyli zaimki, przyimki i spójniki.
Algorytm Google nie jest monolitem – nieustannie zmienia się i ewoluuje, by coraz lepiej dopasować się do użytkowników internetu. Użytkownik ten jest coraz bardziej świadomy, nastawiony na cel np. zdobycie wiedzy i chce ten cel osiągać natychmiastowo na swoim urządzeniu przenośnym.
Złożonoć algorytmów sprawia, że nie sposób ułożyć jednego sprawnego procesu pozycjonowania bądź jasnych wytycznych, co należy zrobić, by strona była na wysokiej pozycji – wszystko uzależnione jest od branży, języka, jakim operujemy oraz konkurencji, z którą przyszło się mierzyć. Sprawę utrudnia fakt, że Google nie zawsze informuje o planowanych zmianach algorytmów – trudno je zatem włączyć do procesu planowania działań SEO.
Strony, na których można śledzić update’y Google:
Narzędzie to monitoruje około 17 tysięcy fraz i na podstawie ich fluktuacji wyciąga wnioski dotyczące zmian w algorytmie. Opiera się na wskaźniku „roo” – im wyższa wartość, tym wyższa zmienność. Niska wartość roo oznacza mniejsze natężenie zmian w algorytmie. Ciekawym dodatkiem jest przedstawienie „tygodniowyh zwycięzców” i „tygodniowych przegranych”. Funkcja jest dostępna wyłącznie dla stron agnlojęzycznych, jednka na podstawie tych danych można wyciągnąc wnioski, które branże mają wahania dobowe.
Szczególną zaletą narzędzia jest fakt, że można posortować zmiany w oparciu o konkretne kategorie, jak wrónież według urządzenia czy też lokalizacji (na maj 2021 roku wciąż niedostepna jest wersja polska).
Maj rozpoczął się dużą zmianą w algorytmie wyszukiwarki Google, więc tradycyjnie już – aby ktoś mógł zyskać, ktoś musiał stracić… Kto i prawdopodobnie dlaczego doświadczył efektów aktualizacji, a także jak COVID-19 wpłynął na wyszukiwania związane z wakacjami czy pożądane przez odbiorców treści, dowiecie się z poniższego artykułu.
Majowa aktualizacja kodu źródłowego algorytmu Google przyniosła kilka istotnych zmian. Swoim rozmachem, można już śmiało powiedzieć, że była to największa aktualizacja od zeszłego roku. Największe fluktuacje dotknęły stron dotyczących m.in. zdrowia, medycyny, żywienia czy bankowości i finansów.
Najboleśniej odczuli ją ci, którzy nie inwestowali w treści na podstronach i landing-page’ach, czyli strony z thin contentem (mało unikalne treści, automatycznie generowane, niskiej jakości). Niewykluczone, że nastąpi korekta i sytuacja się nieco ustabilizuje, ponieważ pojawiły się głosy, jakoby aktualizacja sprawiła, że w niektórych przypadkach pierwsze lub zerowe miejsca zyskały np. nieaktualizowane treści.
Tradycyjnie, ciężko przygotować się na aktualizację, a najlepszym sposobem jest po prostu dbanie o jakość strony i jej jak najlepsze zoptymalizowanie. Google robi porządki, stawiając na jakość, eksperckość i autorytet w branży.
Więcej bardziej szczegółowych informacji pod adresem: https://www.searchenginejournal.com/google-update-analysis/367604/
Rafał Cała z Senuto dokonał bardzo ciekawej analizy trendów wyszukiwania związanych z wakacjami, sprawdzając jak wpłynął na nie koronawirus. Oczywiście nie powinno nikogo dziwić, że zainteresowanie zagranicznymi wyjazdami spadło niemal do zera. Niepewność sytuacji, poczucie zagrożenia i rządowe zalecenia skutecznie zniechęcają ludzi do planowania międzynarodowych wojaży. Duże wzrosty zanotowały za to “domki nad jeziorem” – dają poczucie izolacji, bezpieczeństwa. I nie ma potrzeby rozkładania parawanu.
Pełna analiza na stronie: https://www.senuto.com/pl/blog/koronawirus-turystyka/
Na fali rozpaczliwych apelów przedsiębiorców i firm stojących na skraju bankructwa w związku z sytuacją epidemiczną, Google uruchomiło nową funkcjonalność w zakładce Moja Firma. Można dodać do swojej głównej wizytówki informacje o darowiznach lub kartach podarunkowych, które pomogą biznesowi przetrwać czas zamknięcia. Dla klientów to możliwość wsparcia swoich ulubionych przedsiębiorstw. Na ten moment, przy przekazywaniu darowizn, Google współpracuje z PayPalem i GoFundMe. Przedsiębiorca, który chce skorzystać z tej funkcji, musi mieć zweryfikowane konto na jednej z tych platform.
Informacje jak i kto może skorzystać pod linkiem: https://support.google.com/business/answer/9872059
Nowość przydatna w pracy i w domu. Google mówi, że dla wszystkich, ale umówmy się, bardziej dla tych, którzy nie znają umiaru w ilości otwartych jednocześnie kart ? Od 13 maja istnieje możliwość otagowania każdej karty i połączenia je w grupy. Te można nazywać po swojemu i przypisać im ulubione kolory. Jeżeli jesteś więc osobą, która uwielbia robić wiele rzeczy naraz i przerzucać się między jedną a drugą otwartą stroną – to rozwiązanie dla Ciebie.
Jak to zrobić? Instrukcja w linku poniżej.
https://www.blog.google/products/chrome/manage-tabs-with-google-chrome/
Ostatni czas dla prawie całego świata (z wyjątkiem Antarktydy) był bardzo specyficzny. Dużo contentu mozolnie przygotowywanego przez wcześniejsze miesiące stało się bezużyteczne. Jeżeli tworzysz treści dla którejś z branż mocno dotkniętych przez COVID-19, warto zapoznać się z poniższym materiałem.
Dowiesz się z niego, że np. w turystyce warto większy nacisk położyć na kwestię ubezpieczeń; warto doradzać w zakresie pracy zdalnej; promocje w e-commerce mają się lepiej niż kiedykolwiek; w kontekście zdrowia królują sposoby na wzmocnienie odporności.
Niezależnie od branży, w jakiej piszesz treści – staraj się przekazywać dużo pozytywnej energii i budujących treści!
https://moz.com/blog/what-readers-want-during-covid19
Odpowiedź na to pytanie nie jest oczywista. Warto je jednak sobie zadać zawsze przed rozpoczęciem tekstu. Pierwszą zależną odpowiedzi jest odbiorca. Jeżeli kierujesz swoją treść do szerokiego grona, na przykład podając wskazówki co należy zabrać ze sobą idąc w góry tekst powinien być krótki i zwięzły, najlepiej w formie listy. Odbiorcą jest zapewne niedzielny, okazjonalny turysta, który wybiera się pierwszy raz i pragnie gotowych rozwiązań.
Natomiast jeżeli piszesz specjalistyczny tekst dla profesjonalistów, którzy podstawy mają w małym palcu, i planują wyprawę w Himalaje – dla nich tekst może być długi. Najlepiej osadzony w konkretnej historii, ukazującej wydarzenia, z którymi dotychczas się nie zetknęli. Taki odbiorca ma sporo czasu na planowanie, a co za tym idzie na wertowanie dużych ilości treści.
Więcej cennych porad w temacie na stronie: https://contentmarketinginstitute.com/2020/04/long-form-content/
Na forum WebmasterWorld pojawiły się głosy, że około 16 kwietnia mogła mieć miejsce aktualizacja algorytmu wyszukiwania Google. Niektórzy obserwatorzy odnotowali nagły wzrost ruchu po tygodniach spadków. Google nie potwierdza żadnych z przypuszczeń. Pod linkiem można zobaczyć m.in wykresy z narzędzi monitorujących oraz opinie obserwatorów.
https://www.seroundtable.com/google-search-algorithm-ranking-update-april-16th-29319.html
Wiele firm prowadzących biznes oparty na stacjonarnej sprzedaży poddało się bez walki już w pierwszych dniach lockdownu. Warto jednak przyjrzeć się dobrym i skutecznym praktykom, które pozwoliły niektórym nie tylko przetrwać, ale także wzmocnić swój biznes. Wśród tych praktyk dominuje rzetelna i jasna informacja dla klientów np.:
Dotrzeć do swoich klientów można przez newsletter, social media lub własną stronę. Jeśli potrzebujecie pomysłów jak odnaleźć się w trudnej sytuacji, sprawdźcie jakie działania podjęły inne firmy i zainspirujcie się dobrymi rozwiązaniami: https://www.devagroup.pl/blog/prowadze-e-commerce-co-moge-zrobic-w-czasie-epidemii
Wizytówka w Google to zazwyczaj pierwsza informacja, z jaką stykają się klienci poszukujący danego przedsiębiorcy. Są tam wszelkiego rodzaju dane kontaktowe oraz godziny otwarcia/dostępności. W związku z licznymi utrudnieniami, spowodowanymi przez COVID-19 Google wprowadziło modyfikacje “Covid-19 update” w panelu Google My Business – to specjalna rubryka pod wizytówką, w której przedsiębiorca może umieścić wszelkie aktualne informacje o swojej firmie, nie zmieniając przy tym całej wizytówki. https://www.seroundtable.com/google-posts-with-covid-19-updates-29254.html
Dla specjalistów, dla pasjonatów, dla laików, dla każdego. Darmowe kursy, czasowy dostęp do świetnych materiałów, które podniosą poziom wiedzy, rozwieją wątpliwości, odpowiedzą na pytania, których w codziennym zabieganiu nie było możliwości szukać. Dysponując sporą ilością czasu i odrobiną chęci można poznać wiele tajników SEO, Content Marketingu, analizy danych czy nawet prowadzenia własnej agencji. Kursy i materiały przygotowane przez najlepszych specjalistów z branży. Kompaktowa lista możliwości przygotowana przez SENUTO pod adresem: https://www.senuto.com/pl/blog/kursy-seo-marketing-lista/
Google, tak jak i wiele przedsiębiorstw na całym świecie, doświadcza skutków pandemii. Zespoły pracujące nad wprowadzaniem i weryfikowaniem wszelkich informacji – zwłaszcza w Google Moja Firma – pracują w okrojonym składzie. W odpowiedzi na pojawiające się zgłoszenia od przedsiębiorców Google wyjaśnia, że pozostający w pracy, priorytetowo traktują wszystkie firmy i instytucje bezpośrednio zaangażowane w walkę z COVID-19. Aby ułatwić ich zadania, zawieszone zostały możliwości recenzowania i zadawania pytań pozostałym przedsiębiorcom za pośrednictwem Google. Więcej pod linkami:
https://delante.pl/ograniczenia-w-google-moja-firma-przez-covid-19/
https://support.google.com/business/answer/9792336?hl=pl
Na początku roku Google poinformowało, że w kwietniu na dobre przestanie wspierać mikrodane oparte na data-vocabulary, pozostając całkowicie przy wprowadzonych od 2011 roku schema.org. Słowo stało się faktem i wiele stron bazujących na data-vocabulary w GSC powiadamia o błędzie w menu nawigacyjnym (breadcrumbs, menu okruszowe). Dla stron zbudowanych na popularnym WordPressie czy Shoperze pojawiły się już wtyczki rozwiązujące ten problem. Warto jednak dokładnie sprawdzić budowę i kod strony, aby nie utracić wypracowanej przez lata pozycji. Jak to zrobić? Poniżej kilka linków z cennymi poradami:
https://www.devagroup.pl/blog/google-rezygnuje-z-data-vocabulary
https://webmasters.googleblog.com/2020/01/data-vocabulary.html
Efekty działań SEO są widoczne, w większości przypadków po upływie pewnego czasu – przynajmniej po kilku miesiącach. Przerwanie działań SEO, które z założenia są długofalowe, może wiązać się z zaprzepaszczeniem wykonanych działań. Trwająca od przeszło miesiąca pandemia wydaje się więc idealnym czasem, aby wiele rzeczy i treści na swojej stronie uporządkować. Oczywiście, nie każda firma ma możliwość i środki, aby obecnie zaangażować się w takie działania. Jeżeli jednak warunki sprzyjają, warto teraz zainwestować czas na optymalizację (nawet samodzielną), aby po zakończeniu pandemii, odczuć w pełni efekty dobrego SEO. Jak się do tego zabrać i z czego skorzystać, radzi Senuto w ramach swojej Tarczy Antykryzysowej: https://www.senuto.com/pl/blog/dlaczego-nie-rezygnowac-z-seo/
Zastanawiałeś się kiedyś, dlaczego większość cen ma tę nieznośną końcówkę X.99, po której kasjer z uśmiechem zazwyczaj pyta, a w zasadzie bardziej oznajmia “Będę winna grosika”? To najpowszechniejsze zastosowanie psychologii liczb w marketingu. Dlaczego 39.99 zł brzmi lepiej niż 40.00 zł? Nawet mając świadomość, że różnica jest niewielka, podświadomość i pamięć z czasów nauki matematyki, że 3 to mniej niż 4, działa wręcz odwrotnie. Zastanów się, czy wolałbyś wygrać 500 tysięcy, czy pół miliona? Jak wykorzystać psychologię liczb w content marketingu? Dziesięć cennych porad pod adresem: https://smartblogger.com/how-to-write-a-headline-that-converts
W czasie, gdy zdecydowana większość populacji nie wychodzi z własnych domów, warto do niej dotrzeć poprzez ekran. Trzeba to jednak zrobić dobrze, na przykład poprzez Webinar. Odpowiedni dobór tematu, formatu, nakreślenie scenariusza Webinaru, przestrzeń na niewielki offtopic, różnorodność slajdów i użytych mediów, odpowiednie słownictwo – zrozumiałe dla grupy docelowej. Te elementy wydają się podstawami. Wiele osób, chcąc dotrzeć do odbiorców ze swoją treścią, zapomina o nich, łudząc się, że najlepszy jest ten, kto pierwszy. Niestety dla nich, górą są ci, którzy stawiają na jakość. Jak przygotować wartościowy Webinar i z jakich narzędzi skorzystać, dowiecie się z poradnika od Shane’a Barker pod linkiem: https://contentmarketinginstitute.com/2020/04/create-webinar-content/
Bezpośrednio z powyższym wiąże się po prostu dobry content. Obecnie broni się on jak nigdy wcześniej. Przede wszystkim, odbiorcy mają dużo więcej czasu – są skłonni czytać dłuższe teksty, które niosą za sobą jakąś wartość. Rosną zasięgi organiczne. Przedsiębiorcy rezygnują z płatnych reklam. Przede wszystkim z oszczędności i niepewności. Ale też dzięki temu, że tworząc dobry content (często związany z okazywaniem empatii), mogą liczyć na swoich followersów, którzy dzięki wzmożonej aktywności, rozprzestrzenią go za darmo. Dlaczego i ile CM zyskał w czasie pandemii, przeczytacie pod adresem: https://contentmarketinginstitute.com/2020/04/content-marketing-survive/
Każdy specjalista SEO, przy wykonywaniu swoich codziennych zadań, korzysta z wielu różnorodnych narzędzi. Począwszy od crawlerów (m.in.: Screaming Frog, Sitebulb) poprzez programy do monitorowania pozycji fraz kluczowych (m.in. Stat4seo, Cmonitor) czy narzędzi do doboru słów kluczowych. Mimo że ten temat był już wielokrotnie opisywany przez SEOwców, skupiłem się w artykule na pokazaniu tych wtyczek, które pomagają mi każdego dnia w pracy.
Jest to narzędzie do analizy poprawności ścieżki przekierowań. Na przykład: wpisując w nim domenę w wersji z www (bez www oraz http i https), otrzymujemy informacje, jakie przekierowania występują pod danym adresem.
Przykład poprawnie wykonanych przekierowań strony głównej:
Dzięki temu narzędziu w szybki sposób wykryjemy nieprawidłowości w przekierowaniach oraz zobaczymy, jaki kod odpowiedzi zwraca strona, na którą prowadzą przekierowania.
Link Redirect Trace to wtyczka dostępna dla przeglądarki Chrome i Firefox. Pozwala zbadać występujące przekierowania odwiedzanej przez nas strony. Po wejściu na konkretną podstronę od razu dostajemy informację, czy gdzieś po drodze wystąpiło przekierowanie. Jeżeli nie – wtyczka wyświetli nam kod odpowiedzi 200. Natomiast w momencie, kiedy weszliśmy na stronę i zostaliśmy przekierowani na inną, to również zostaniemy o tym powiadomieni.
W poniższym przypadku możemy zaobserwować, że wystąpiło przekierowanie 301. Po rozwinięciu wtyczki widzimy szczegóły dotyczące tego przekierowania:
Co więcej, jak widać powyżej, wtyczka oferuje nam dużo innych możliwości, np.:
• pokazuje instrukcje dla robotów,
• wskazuje tagi canoniczne,
• diagnozuje, czy dana podstrona zablokowana jest w pliku robots.txt.
Funkcji jest naprawdę sporo. Prezentowane dane możemy w szybki sposób wyeksportować do pliku, skopiować do schowka lub – jednym kliknięciem w „Save screenshot”- zapisać zrzut ekranu samego narzędzia, taki jak powyżej.
Copy Links to narzędzie, które umożliwia kopiowanie linków z danej podstrony. Możemy skopiować wszystkie linki występujące na stronie, używając opcji „Copy All Links” lub wyłącznie te linki z zaznaczonej przez nasz sekcji – opcja „Copy Links From Selection”.
Skopiowanie linki możemy wkleić np. do Excela w celu ich szczegółowej analizy.
Korzystając z tej funkcji, możemy np. w szybki sposób wyciągnąć wszystkie linki w menu strony.
Open Multiple URLs to prosta wtyczka do przeglądarki Chrome, która pozwala nam na otwarcie wielu linków na raz. Wystarczy wkleić do niej listę odnośników (np. linki skopiowane ze strony za pomocą wcześniejszej wtyczki), które chcemy otworzyć, a narzędzie otworzy każdy link w osobnej karcie.
Dodatkowo, wtyczka potrafi wyodrębnić linki z wklejonego bloku tekstu/kodu. Aby skorzystać z tej opcji, wystarczy wkleić tekst do naszego narzędzia i kliknąć „Extract URLs from text”.
Przykład:
Ze skopiowanego kawałku kodu strony wtyczka wyciągnęła szukane linki:
Narzędzie posiada dodatkowe opcje przy otwieraniu linków. Funkcja „Random order” umożliwia otwarcie linków w losowej kolejności, natomiast opcja „Don’t load tabs until selected” pozwala otworzyć zakładki bez ich wczytywania. Każda strona załaduje się dopiero po wejściu na odpowiednią kartę. Dzięki tej opcji, otwierając kilkanaście-kilkadziesiąt linków, unikniemy „ścięcia się” przeglądarki, poprzez otwarcie i ładowanie wszystkich linków na raz.
Seerobots to bardzo prosta wtyczka, która ma za zadanie pokazać, jakie instrukcje dla robotów posiada dana strona. Ikona tego narzędzia składa się z dwóch pionowych prostokątów, w których pierwszy informuje nas o tym, jaką instrukcje dla robotów strona posiada („index” lub „noindex”). Natomiast drugi – „follow” lub „nofollow” – pomaga zweryfikować w szybki sposób, czy strona posiada niepożądaną instrukcję. Poniżej znajdziesz wszystkie możliwe warianty wyglądu wtyczki:
A oto przykład ze strony Semahead:
Rozwijając wtyczkę, możemy upewnić się, jakie instrukcje dla robotów występują. Domyślą wartością dla instrukcji meta tagu robots jest „index, follow”. Więc pomimo braku instrukcji wtyczka poprawnie interpretuje wartości oraz poinformuje nas o tym, że dana instrukcja nie występuje w kodzie.
Jest wiele narzędzi i wtyczek pełniących podobne zadanie lub posiadających podobne funkcjonalności (np. wyżej wymieniona „Link Redirect Trace”). Cenię sobie właśnie tę wtyczkę ze względu na jej prostotę. Wchodząc na konkretną podstronę, od razu rzuca mi się w oczy, jeżeli jakaś strona ma inną instrukcję niż „index, follow”. Może jest to sentyment, a może to tylko kwestia przyzwyczajenia? W każdym razie – polecam!
Funkcja ta zaznacza wszystkie linki „nofollow” na stronie. Dzięki temu od razu wiemy, który link ma atrybut „dofolllow” lub „nofollow” i do którego linka na naszej stronie należy dodać jeszcze atrybut „nofollow”, by nie przekazywać mocy domeny do witryn zewnętrznych. Przykład działania wtyczki:
Narzędzie automatycznie zaznaczyło w czerwone ramki te linki, które posiadają atrybut „nofollow”. Sposób zaznaczenia możemy dostosować do swoich preferencji w ustawieniach wtyczki. Może również zaznaczać nie tylko linki „nofollow”, ale również „dofollow” czy też tylko linki wychodzące. Każde zaznaczenie możemy ustawiać według naszego upodobania i potrzeb.
Dodatkowo wtyczka – podobnie jak SeeRobots – wykrywa meta tagi „nofollow” i „noindex”. W momencie wykrycia, w prawym dolnym rogu pojawia nam się ikonka wtyczki:
Po kliknięciu w nią otrzymujemy informację o wystąpieniu instrukcji „nofollow” lub „noindex”:
Jest to dobra alternatywa dla wcześniej opisanego narzędzia Seerobots. Gdy zaznaczenia na stronie za bardzo rzucają się w oczy, a nie potrzebujemy w danej chwili wiedzieć, które linki mają atrybut „nofollow”, wtedy wtyczkę można czasowo lub całkowicie wyłączyć dla konkretnej domeny.
Wappalyzer to narzędzie, które identyfikuje najistotniejsze technologie zastosowane na stronie internetowej wraz z ich wersją: począwszy od CMS-a poprzez platformy e-commerce, oprogramowanie serwera aż po narzędzia analityczne. Dzięki tym informacjom jesteśmy w stanie w szybki sposób stwierdzić, czy zalecane wdrożenia dla klienta mogą zostać w prosty sposób wprowadzone, czy jednak będą wymagać większego nakładu czasu i pieniędzy.
Ciężko wyobrazić sobie codzienną pracę bez arkusza kalkulacyjnego. Mając na myśli arkusz kalkulacyjny, przychodzą mi do głowy przede wszystkim dwa narzędzia: Excel od Microsoftu oraz Arkusze Google. Oba narzędzia mają swoje plusy i minusy, o których można napisać osobny artykuł.
W codziennej pracy korzystam głównie z Excela. Narzędzie bezpośrednio nie służy do pozycjonowania, ale dzięki niemu możemy analizować duże ilości danych dotyczących naszej witryny. Co więcej, do Excela można wpiąć dodatek „SEO Tools for Excel”, który posiada integrację z takimi narzędziami jak: Majestic, Google Analytics czy też Google Search Console. Dzięki temu jesteśmy w stanie wykonać m.in. analizę profilu linków czy też podstawowy audyt strony.
Obecnie istnieje bardzo dużo wszelakich narzędzi, które ułatwiają pracę specjaliście SEO. Niektóre z nich nie służą bezpośrednio do pozycjonowania, ale ułatwiają codzienne zadania. Możemy dzięki nim zaoszczędzić cenny czas, który możemy poświęcić na dalszą optymalizację serwisu. Wiele z nich ma zbliżone funkcjonalności, każde – ma swoje plusy i minusy. Dlatego dobrze jest przetestować kilka z nich i wybrać dla siebie najlepszą opcję. Opisałem Ci kilka narzędzi, z których na co dzień – po prostu – dobrze mi się korzysta.
Masz swoje ulubione narzędzia, bez których nie wyobrażasz sobie życia? Podziel się nimi z nami.
Początek nowego roku to tradycyjnie czas podsumowań i spoglądania na przyszłość branży. Patrząc wstecz: miniony rok to kolejne aktualizacje i zmiany w wyszukiwarce Google. March 2019 Core Update czy BERT update w październiku to jedne z ważniejszych aktualizacji, choć oczywiście nie jedyne. Sprawdźcie co się działo w 2019 i poznajcie aktualne ciekawostki ze świata SEO oraz content marketingu.
Zmiany w algorytmach Google są nieuniknione, służą dobrej sprawie, ale mogą przynosić również niepożądane skutki. Jak więc zostać zwycięzcą każdej aktualizacji algorytmu? Artykuł na konkretnym przykładzie przedstawia wnioski jak wyjść obronną ręka z każdej aktualizacji Google i przeciwdziałać negatywnym następstwom zmian w algorytmach, takim jak spadki pozycji.
Więcej na: https://www.oncrawl.com/technical-seo/how-to-become-a-winner-from-every-google-core-algorithm-update/
Na blogu Zgreda, czyli Pawła Gontarka, pojawił się wyczerpujący artykuł dotyczący weryfikacji błędów na stronie w Google Search Console. W tekście znajdziemy porady w jaki sposób odnaleźć błędy, które ograniczają widoczność strony, takie jak błędy 404 czy błędne przekierowania.
https://www.zgred.pl/blog/weryfikacja-bledow-na-stronie-raportowanych-przez-search-console/
Senuto w swoim 200 stronicowym raporcie dzieli się wnioskami z analizy 54 226 sklepów internetowych w Polsce. W raporcie „eCommerce w Polsce 2019” znajdziecie szczegółową analizę TOP100 sklepów w Polskim internecie. Obszerny raport z ciekawymi analizami można pobrać za darmo:
https://www.senuto.com/pl/raport-senuto-ecommerce-w-polsce-2019
Po raz kolejny pojawił się błąd związany z indeksowaniem/wyindeksowaniem stron z wyszukiwarki Google. Problem dotyczył wyindeksowywania podstron, posiadających atrybut max-image-preview z wartością „none”. Więcej informacji na: https://www.seroundtable.com/google-max-image-preview-none-bug-28575.html
Yandex to największa rosyjska firma z branży technologicznej, a także wyszukiwarka internetowa, która posiada około 50% udziału tamtejszego rynku. Najnowsza aktualizacja głównego algorytmu o nazwie Vega przyniosła 1500 usprawnień, aby jeszcze lepiej rozumieć pytania użytkowników i usprawnić wyszukiwanie. Dwie najistotniejsze kwestie wprowadzonych zmian to:
Więcej o procesie zmian pod linkami:
https://yandex.com/company/blog/vega
https://www.searchenginejournal.com/yandex-algorithm-update-vega/340823/
Deva Group podsumowało zeszły rok pod kątem zmian, usterek i ulepszeń w SEO. W artykule znajdziecie zestawienie zmian jakie zaszły w każdym miesiącu minionego roku
Artykuł pod linkiem: https://www.devagroup.pl/blog/seo-podsumowanie-roku-2019-i-prognozy-na-rok-2020
W artykule zebrano 10 najważniejszych trendów SEO, które trzeba znać, według najlepszych specjalistów w branży. Sprawdź czego można się spodziewać w nowym roku w świecie SEO:
https://www.searchenginejournal.com/2020-seo-trends/338697
January 2020 Core Update jest zmianą dotycząca głównego algorytmu wyszukiwania o światowym zasięgu. Na blogu Google Webmaster została zamieszczona lista pytań, które mogą być wskazówką do modyfikacji treści po aktualizacji algorytmu, jeśli zmiany dotknęły witryny: https://webmasters.googleblog.com/2019/08/core-updates.html
Grupa Tense przedstawiła podsumowanie poprzedniego roku przypominając najciekawsze i dominujące trendy w branży. Rozwiązania, które się sprawdziły, umocniły swoją pozycję i stały się standardem, który wyznacza dobre praktyki w branży. Oprócz automatyzacji działań, skupiono uwagę jednocześnie na personalizacji treści. W dalszym ciągu widać było wzrost znaczenia elementów wizualnych zdjęcia, video, a także łączenie kanałów komunikacji. Więcej informacji na: https://www.grupa-tense.pl/blog/podsumowanie-roku-w-content-marketingu/
Według ekspertów w świecie content marketingu w dalszym ciągu największy udział w dystrybucji treści będą mieć pisemne:
W kontekście treści, jeszcze większą wagę zyska interaktywność. Chodzi o to, aby jak najbardziej ożywić użytkowników oraz zdobyć o nich informacje, poprzez na przykład:
Więcej na temat przewidywanych trendów:
https://merehead.com/blog/content-marketing-trends-2020/
https://thekeenfolks.com/keensights/content-marketing-trends/
Zespół Coastal Creative w przystępnej formie infografiki, po raz kolejny przygotował prognozę trendów w projektowaniu graficznym w przyszłym roku. Według nich wśród trendów królować będą cyfrowe krajobrazy czy surrealistyczne tendencje w prezentowaniu produktów.
https://www.socialmediatoday.com/news/the-digital-and-graphic-design-trends-of-2020-infographic/568850/
https://www.coastalcreative.com/design-trends/
Najnowszy update od Google jest jedną z najważniejszych zmian, które pojawiły się w listopadzie. Co jeszcze czeka świat SEO i content marketingu? Tego dowiecie się z artykułu, który dla Was przygotowaliśmy.
Najpopularniejsza wyszukiwarka w pierwszym tygodniu listopada zaskoczyła kolejnym niezapowiedzianym updatem. Jak raportują obserwatorzy, dotknął on w największym stopniu kilku niszowych branż. Budzi on jednak ambiwalentne uczucia, niczym Robin Hood, który jednym zabrał, a drugim dał. Wzrost ruchu na stronie o 30% u jednych – spadki u drugich o 25%. Jak donoszą eksperci, najbardziej ucierpiał filtr anty-spam, który pożądane domeny traktuje jak wrogie, a faktyczny spam nie jest odrzucany.
Więcej na: https://www.searchenginejournal.com/google-update-november-2019/334803
Google zdecydowało się wypuścić oficjalny plugin do niezwykle popularnego CMSa WordPress, oferując możliwość podglądu danych z narzędzi takich jak: AdSense, Analitics, PageSpeed Insight czy Google Search Console w panelu WordPress.
Plugin dla użytkowników do pobrania na stronie: https://wordpress.org/plugins/google-site-kit
Google Search Console zaprezentowało nowe ulepszenie – panel analizujący szybkość ładowania strony. Oczywiście bazuje wyłącznie na danych zgromadzonych z przeglądarki Chrome i wskazuje błędy, które należy poprawić, aby strona wczytywała się szybciej i rankowała lepiej w wynikach. Narzędzie jest dostępne w zakładce ulepszenia w GSC.
https://dailyweb.pl/google-prezentuje-panel-szybkosci-wczytywania-stron-w-google-search-console
Digitalfest, który odbył się 13 listopada w krakowskim Multikinie, okazał się prawdziwą ucztą dla wszystkich zainteresowanych marketingiem, sprzedażą i analityką. Wypełniony po brzegi program konferencji gwarantował różnorodność tematów i prezentacje na najwyższym poziomie. Można było posłuchać wystąpień między innymi:
Szczegółowa relacja pod adresem: https://www.devagroup.pl/blog/relacja-z-digitalfest-w-krakowie
11 i 12 listopada w Yerba Buena Center for the Arts w San Francisco miało miejsce jedno z najważniejszych wydarzeń tego roku dla deweloperów i społeczności skupionych wokół przeglądarki Chrome. Przez dwa dni bogate w interesujące panele prezentowano rozwiązania, które będą miały ogromny wpływ na przyszłość przeglądania internetu. Architektura, funkcjonalności, ulepszenia, narzędzia dla deweloperów i użytkowników to tylko kilka tematów poruszanych w czasie wystąpień, z których relacje można znaleźć w linkach dostępnych na stronie z programem: https://developer.chrome.com/devsummit/schedule
Korzystając codziennie z narzędzi typu Google Docs, często możemy nie zdawać sobie sprawy z funkcjonalności, jakie oferują. Poza bardzo oczywistymi ułatwieniami, jak możliwość pracy z każdego miejsca i łatwość w tworzeniu nowych dokumentów, Google udostępnia nam także bardziej zaawansowane i przydatne funkcje.
Oto niektóre z nich:
Więcej na blogu Zgreda: https://www.zgred.pl/blog/7-zastosowan-aplikacji-google-w-content-marketingu
26 listopada odbyła się uroczysta gala wręczenia najważniejszych nagród w branży content marketingu organizowana przez Content Marketing Association. Pełna lista nominowanych, których kampanie i działania mogą być inspiracją do własnej pracy, są dostępne pod adresem: https://events.the-cma.com/pages/2019-nominations
Pełna list zwycięzców dostępna Twitterze: https://twitter.com/the_cma
Najnowszy update od Google jest jedną z najważniejszych zmian, które pojawiły się w listopadzie. Co jeszcze czeka świat SEO i content marketingu? Tego dowiecie się z artykułu, który dla Was przygotowaliśmy.
Najpopularniejsza wyszukiwarka w pierwszym tygodniu listopada zaskoczyła kolejnym niezapowiedzianym updatem. Jak raportują obserwatorzy, dotknął on w największym stopniu kilku niszowych branż. Budzi on jednak ambiwalentne uczucia, niczym Robin Hood, który jednym zabrał, a drugim dał. Wzrost ruchu na stronie o 30% u jednych – spadki u drugich o 25%. Jak donoszą eksperci, najbardziej ucierpiał filtr anty-spam, który pożądane domeny traktuje jak wrogie, a faktyczny spam nie jest odrzucany.
Więcej na: https://www.searchenginejournal.com/google-update-november-2019/334803
Google zdecydowało się wypuścić oficjalny plugin do niezwykle popularnego CMSa WordPress, oferując możliwość podglądu danych z narzędzi takich jak: AdSense, Analitics, PageSpeed Insight czy Google Search Console w panelu WordPress.
Plugin dla użytkowników do pobrania na stronie: https://wordpress.org/plugins/google-site-kit
Google Search Console zaprezentowało nowe ulepszenie – panel analizujący szybkość ładowania strony. Oczywiście bazuje wyłącznie na danych zgromadzonych z przeglądarki Chrome i wskazuje błędy, które należy poprawić, aby strona wczytywała się szybciej i rankowała lepiej w wynikach. Narzędzie jest dostępne w zakładce ulepszenia w GSC.
https://dailyweb.pl/google-prezentuje-panel-szybkosci-wczytywania-stron-w-google-search-console
Digitalfest, który odbył się 13 listopada w krakowskim Multikinie, okazał się prawdziwą ucztą dla wszystkich zainteresowanych marketingiem, sprzedażą i analityką. Wypełniony po brzegi program konferencji gwarantował różnorodność tematów i prezentacje na najwyższym poziomie. Można było posłuchać wystąpień między innymi:
Szczegółowa relacja pod adresem: https://www.devagroup.pl/blog/relacja-z-digitalfest-w-krakowie
11 i 12 listopada w Yerba Buena Center for the Arts w San Francisco miało miejsce jedno z najważniejszych wydarzeń tego roku dla deweloperów i społeczności skupionych wokół przeglądarki Chrome. Przez dwa dni bogate w interesujące panele prezentowano rozwiązania, które będą miały ogromny wpływ na przyszłość przeglądania internetu. Architektura, funkcjonalności, ulepszenia, narzędzia dla deweloperów i użytkowników to tylko kilka tematów poruszanych w czasie wystąpień, z których relacje można znaleźć w linkach dostępnych na stronie z programem: https://developer.chrome.com/devsummit/schedule
Korzystając codziennie z narzędzi typu Google Docs, często możemy nie zdawać sobie sprawy z funkcjonalności, jakie oferują. Poza bardzo oczywistymi ułatwieniami, jak możliwość pracy z każdego miejsca i łatwość w tworzeniu nowych dokumentów, Google udostępnia nam także bardziej zaawansowane i przydatne funkcje.
Oto niektóre z nich:
Więcej na blogu Zgreda: https://www.zgred.pl/blog/7-zastosowan-aplikacji-google-w-content-marketingu
26 listopada odbyła się uroczysta gala wręczenia najważniejszych nagród w branży content marketingu organizowana przez Content Marketing Association. Pełna lista nominowanych, których kampanie i działania mogą być inspiracją do własnej pracy, są dostępne pod adresem: https://events.the-cma.com/pages/2019-nominations
Pełna list zwycięzców dostępna Twitterze: https://twitter.com/the_cma
Sierpień przyniósł kolejne ciekawostki ze świata SEO i content marketingu. Poniżej dowiecie się między innymi o wycieku danych z Google, dobrych praktykach optymalizacji wideo, jak radzić sobie z wycofanymi produktami oraz poznacie odpowiedź na pytanie „dlaczego clickbaity na nas działają”? Zapraszam do lektury.
Google zaktualizowało algorytm odpowiadający za Direct Answers, a więc fragmenty odpowiedzi wyświetlające się bezpośrednio w wyszukiwarce. Wprowadzone zmiany mają na celu dostarczenie użytkownikowi możliwie najnowszych informacji. Dla zapytań, w przypadku których istotny jest czas, algorytm poleci najświeższą odpowiedź. Więcej na ten temat można przeczytać tutaj.
Na kanale Google Webmasters na YouTube wystartowała nowa seria krótkich filmów, w których John Mueller odpowiada na pytania związane z SEO. Czy linki nofollow to backlinki? W jaki sposób linkowanie do innych stron wpływa na naszą witrynę? Jak i gdzie możemy sprawdzić wyniki wyszukiwania głosowego? Wyjaśnienie tych i innych kwestii można znaleźć tutaj.
Były pracownik Google – Zachary Vorhies – udostępnił na projectveritas.com setki stron dokumentów, które mają stanowić wewnętrzne dane jego wcześniejszego pracodawcy. Wyciek, mimo że nie wiadomo, czy zawiera prawdziwe informacje, wywołał sporo kontrowersji – ujawnione materiały wskazują, że Google manipulowało wynikami wyszukiwania. Tymczasem Barry Schwartz na stronie Seroundtable.com sprawdza, czego jeszcze można dowiedzieć się z „Google Leaks”. Z publikacji Vorhiesa wynika między innymi, że przyjmowanych jest jedynie około 18-25% zgłoszeń witryn do Google News. Więcej na ten temat można przeczytać tutaj.
Na Portent.com opublikowano garść wskazówek dla prowadzących serwisy e-commerce, w których często występuje sytuacja tymczasowej niedostępności lub wycofania produktu. Jak poradzić sobie z tym problemem i nie stracić wypracowanych efektów? Artykuł z przykładami rozwiązań można znaleźć pod tym adresem.
Odpowiednio zoptymalizowane pod kątem SEO wideo umieszczone na stronie to droga do pozyskania nowych użytkowników i zwiększenia liczby odwiedzin witryny. Dobrze dobrany tytuł, wysokiej jakości content czy sposób hostingu – to między innymi te czynniki decydują o pozycji naszego filmu w wyszukiwarce. Opis optymalizacji wideo podany w 11 krokach znajduje się pod tym adresem.
W czerwcu 2019 po raz pierwszy większość użytkowników „została w wyszukiwarce” i nie kliknęła w żaden odnośnik. Rozbudowaną analizę tego zjawiska i dużo ciekawych danych, wniosków i podpowiedzi, jak reagować na ten trend, można znaleźć w tym artykule.
Tytułowanie artykułów w sposób, który nie oddaje ich rzeczywistej treści to powszechny problem. Okazuje się jednak, że jego podłoże jest bardziej skomplikowane niż może się wydawać, a za skłonnością do odwiedzania opatrzonych clickabitowymi nagłówkami stron stoją nie tylko przyczyny psychologiczne, ale też biologiczne. O fenomenie clickbaitów, ich rodzajach oraz o tym, dlaczego w nie klikamy, można przeczytać tutaj.
Nowymarketing.pl przedstawia kilka pomysłów na przemyślaną strategię marketingową w małych firmach i podaje przykłady kanałów oraz formatów treści, w które warto inwestować. O tym, w jaki sposób skutecznie dotrzeć do klientów bez dużego budżetu na promowanie produktów i usług, dowiesz się tutaj.
Sierpień przyniósł kolejne ciekawostki ze świata SEO i content marketingu. Poniżej dowiecie się między innymi o wycieku danych z Google, dobrych praktykach optymalizacji wideo, jak radzić sobie z wycofanymi produktami oraz poznacie odpowiedź na pytanie „dlaczego clickbaity na nas działają”? Zapraszam do lektury.
Google zaktualizowało algorytm odpowiadający za Direct Answers, a więc fragmenty odpowiedzi wyświetlające się bezpośrednio w wyszukiwarce. Wprowadzone zmiany mają na celu dostarczenie użytkownikowi możliwie najnowszych informacji. Dla zapytań, w przypadku których istotny jest czas, algorytm poleci najświeższą odpowiedź. Więcej na ten temat można przeczytać tutaj.
Na kanale Google Webmasters na YouTube wystartowała nowa seria krótkich filmów, w których John Mueller odpowiada na pytania związane z SEO. Czy linki nofollow to backlinki? W jaki sposób linkowanie do innych stron wpływa na naszą witrynę? Jak i gdzie możemy sprawdzić wyniki wyszukiwania głosowego? Wyjaśnienie tych i innych kwestii można znaleźć tutaj.
Były pracownik Google – Zachary Vorhies – udostępnił na projectveritas.com setki stron dokumentów, które mają stanowić wewnętrzne dane jego wcześniejszego pracodawcy. Wyciek, mimo że nie wiadomo, czy zawiera prawdziwe informacje, wywołał sporo kontrowersji – ujawnione materiały wskazują, że Google manipulowało wynikami wyszukiwania. Tymczasem Barry Schwartz na stronie Seroundtable.com sprawdza, czego jeszcze można dowiedzieć się z „Google Leaks”. Z publikacji Vorhiesa wynika między innymi, że przyjmowanych jest jedynie około 18-25% zgłoszeń witryn do Google News. Więcej na ten temat można przeczytać tutaj.
Na Portent.com opublikowano garść wskazówek dla prowadzących serwisy e-commerce, w których często występuje sytuacja tymczasowej niedostępności lub wycofania produktu. Jak poradzić sobie z tym problemem i nie stracić wypracowanych efektów? Artykuł z przykładami rozwiązań można znaleźć pod tym adresem.
Odpowiednio zoptymalizowane pod kątem SEO wideo umieszczone na stronie to droga do pozyskania nowych użytkowników i zwiększenia liczby odwiedzin witryny. Dobrze dobrany tytuł, wysokiej jakości content czy sposób hostingu – to między innymi te czynniki decydują o pozycji naszego filmu w wyszukiwarce. Opis optymalizacji wideo podany w 11 krokach znajduje się pod tym adresem.
W czerwcu 2019 po raz pierwszy większość użytkowników „została w wyszukiwarce” i nie kliknęła w żaden odnośnik. Rozbudowaną analizę tego zjawiska i dużo ciekawych danych, wniosków i podpowiedzi, jak reagować na ten trend, można znaleźć w tym artykule.
Tytułowanie artykułów w sposób, który nie oddaje ich rzeczywistej treści to powszechny problem. Okazuje się jednak, że jego podłoże jest bardziej skomplikowane niż może się wydawać, a za skłonnością do odwiedzania opatrzonych clickabitowymi nagłówkami stron stoją nie tylko przyczyny psychologiczne, ale też biologiczne. O fenomenie clickbaitów, ich rodzajach oraz o tym, dlaczego w nie klikamy, można przeczytać tutaj.
Nowymarketing.pl przedstawia kilka pomysłów na przemyślaną strategię marketingową w małych firmach i podaje przykłady kanałów oraz formatów treści, w które warto inwestować. O tym, w jaki sposób skutecznie dotrzeć do klientów bez dużego budżetu na promowanie produktów i usług, dowiesz się tutaj.
]]>
W idealnej sytuacji po wpisaniu danego słowa kluczowego w wyszukiwarkę kierowani jesteśmy na stronę, która dokładnie powiązana jest z treścią naszego zapytania. Aby było to możliwe konieczne jest zastosowanie algorytmów, które cały czas analizują poszczególne strony internetowe, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Wszystkiego dowiesz się poniżej.
Algorytm to „skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu”. Inaczej mówiąc jest to zbiór reguł i kroków, dzięki którym możliwe jest przeanalizowanie informacji przez wyszukiwarkę na stronach, aby potem ocenić ich zawartość i wyświetlić optymalny wynik. Powstały po to, aby wyświetlać użytkownikom bardziej optymalne wyniki wyszukiwania. Google przeczesuje Internet, skanuje strony, indeksuje je (gromadzi dane na temat treści stron) i w końcu wyświetla je użytkownikowi w odpowiedzi na wpisywane przez niego słowa kluczowe.
W 1998 roku Sergey Brian i Larry Page założyli firmę Google, której głównym produktem była właśnie wyszukiwarka internetowa, a nazwa firmy i wyszukiwarki to błędnie zapisane słowo „googol”, które oznacza liczbę 10100 (jedynka i sto zer w zapisie dziesiętnym). Jednym z algorytmów wyszukiwarki Google był PageRank, który został oparty na kanwie pracy dyplomowej Briana i Page`a z 1996 roku, kiedy byli jeszcze studentami Uniwersytetu Stanford. Algorytm odpowiadał za ocenę linków prowadzących do domeny, co w konsekwencji doprowadziło do zmian wyników wyszukiwania, aby mogłyby trafniej odpowiadać na zapytania użytkowników.
Nazwa algorytmu nie pochodzi od słowa page – strona, ale właśnie od nazwiska jednego z twórców – Larre`go Page`a. Ogólnym założeniem PageRank była koncepcja, że każdy link do strony jest czymś na kształt głosu na nią. Jednak nie wszystkie głosy są sobie równe. Linki dla algorytmu mają większą lub mniejszą wartość. Wartość strony oceniana jest na podstawie ilości innych witryn odsyłających do tej strony i wartości ich samych. Część wartości przekazywana jest ze strony na stronę poprzez link. Jeśli strona jest często odwiedzana i inne strony się do niej odwołują, oznacza to, że jest wartościowa i popularna. Oceny strony przybierały wartości od 0 do 10, ale same szczegóły działania algorytmu nigdy nie zostały przez Google zdradzone.
Oczywiście z czasem, gdy wyszukiwarka zyskała na popularności, coraz więcej osób chciało uzyskiwać lepsze pozycje, aniżeli konkurencja. Stosowano różne metody, aby sztucznie zwiększać wartość PageRank. Przez pewien czas dodatkowym elementem, wpływającym na powiązanie strony z frazą, był tag meta keywords. Zaprzestano brania go pod uwagę z powodu nieuczciwych praktyk – wykorzystywano popularne frazy, które umieszczano na stronach jako frazy kluczowe, pomimo braku powiązania tematycznego z zawartością strony. Naturalną konsekwencją powstania wyszukiwarki był dalszy rozwój, ulepszenia i kolejne algorytmy przynoszące zmiany wyników wyszukiwania.
Panda to algorytm, wprowadzony w lutym 2011. Drugie wydanie wyszło w kwietniu tego samego roku. Od tej pory było wiele aktualizacji algorytmu. Podstawowym zadaniem Pandy było analizowanie jakości treści. Chodziło o ograniczenie w wynikach wyszukiwania takich stron, które zawierały słabą, nieprzydatną zawartość – bezwartościowe, nikomu niepotrzebne, skopiowane treści. Wyżej w rankingu miały znajdować się treści odpowiadające na potrzeby użytkowników, oryginalne i unikalne.
Jak karze Panda?
Algorytm surowo oceniał serwisy i surowo karał. Najczęściej kary dotyczyły całych stron, a nie tylko podstron. Dotykało to zwłaszcza tzw. „farm treści”, a więc stron, skupiających wiele contentu skopiowanego z innych stron.
Jakie strony były przez Pandę ukarane?
Page Layout został wdrożony na początku 2012, a jego zadaniem jest ocena układu strony. Dla Google ważna jest treść strony, ale również to jak i w którym miejscu na stronie znajdują się jej elementy. Zadaniem algorytmu było obniżenie wartości stron, które nad linią załamania zawierają nadmierną ilość nieużytecznych elementów, jak na przykład reklamy czy bannery, które przeszkadzają użytkownikowi. Algorytm bierze również pod uwagę:
Page Layout doczekał się trzech aktualizacji, aktualnie prowadzone są prace nad koleją, związaną z samoczynnym blokowaniem nadmiaru reklam w wyszukiwarce Chrome.
24 kwietnia 2012 Google uruchomiła algorytm o nazwie Pingwin. Odnosił się do karania stron z linkami niskiej jakości, obniżając ich pozycję w rankingu wyszukiwania. Jakość linków zależy od domeny i otoczenia na stronie, z której pochodzi. Pod uwagę brane są takie rzeczy, jak naturalne nasycenie frazą kluczową, odpowiednia tematyczność linków w stosunku do treści. Oceniając profil linków strony algorytm zwraca uwagę na takie czynniki jak:
Przyrost linków w czasie
Przed wdrożeniem algorytmu można było masowo i automatycznie dodać stronę do dziesiątek czy setek katalogów – przynosiło to efekt w postaci podniesienia pozycji strony. Zbyt duża liczba linków, dodana w krótkim czasie, jest podejrzanym zachowaniem.
Jakość linków
Pożądanym profilem linków to taki, w którym zdecydowana większość linków pochodzi z wartościowych i godnych zaufania stron.
Dywersyfikacji linków
Ważne jest zróżnicowanie źródeł i typów linków. Schematyczne działania mogą być kojarzone działaniami spamerskimi. Warto dodawać odnośniki z różnych źródeł, jak wysokiej jakości zaufane katalogi, fora, komentarze, inne serwisy, stopki, media społecznościowe. Warto zadbać o różnorodne typy linków – anchory, linki neutralne (sam url), graficzne. Ogólnie rzecz ujmując im większe zróżnicowanie, tym lepiej.
Jak karze Pingwin?
Karą za naruszenia w kwestii linkowania jest obniżenie pozycji strony. Może to dotyczyć niektórych słów kluczowych, ale również wszystkich. Filtry mogą być nałożone na podstrony lub całą domenę. Proces odzyskiwania pozycji może być bardzo żmudny. Wszystko zależy od wcześniej wspomnianej skali, jakiej dotyczyły filtry. Działaniami jakie należy podjąć jest usunięcie szkodliwych linków oraz zgłoszenie linków w narzędziu Disavow Tool. Algorytm na przestrzeni lat doczekał się wielu poprawek, a od września 2016 działa w czasie rzeczywistym.
Wprowadzony został 10 sierpnia 2012 roku, a jego zadaniem było usunięcie stron, zawierających materiały chronione prawami autorskimi, zgodnie z ustawą Digital Millennium Copyright Act. Karą objęte zostały również strony, umożliwiające pobieranie nielegalnej muzyki, filmów czy programów, a także strony zawierające odnośniki do nich lub pośredniczące w tym.
Aktualizacja wdrożona została 27 września 2012 roku i miała wpływ na strony, zawierające w nazwie domeny frazy kluczowe. Dawniej dzięki temu można było uzyskać przewagę konkurencyjną, ale zdarzały się sytuacje wykorzystywania tego w nieodpowiedni sposób. Celem wprowadzenia tej zmiany było zmniejszenie ilości wyników wyszukiwania stron, posiadających domeny typu exact-match. Obecnie Google nie bierze nazwy domeny pod uwagę.
Payday Loan wprowadzono 11 czerwca 2013. Algorytm dotyczył stron z kontrowersyjnych branż, narażonych szczególnie na działania spamerskie, takie jak jak kasyna, pożyczki, branża erotyczna/pornograficzna. Wdrożenie Payday Loan skutkowało obniżeniem wartości zaspamowanych stron.
Koliber jest algorytmem z 2013. 20 sierpnia poinformowano o wprowadzeniu go już miesiąc wcześniej. Nazwa Koliber ma symbolizować precyzję i szybkość działania algorytmu, a jego celem jest sprawne zwracanie odpowiednio dopasowanych wyników wyszukiwania użytkownikom. Wiąże się z nim technologia, która wcześniej wykorzystywana była w wyszukiwaniu głosowym. Podczas mówienia z reguły używamy całych zdań, a nie pojedynczych słów kluczowych. Aby zwracane były trafne odpowiedzi, wyszukiwarka musi rozumieć nasze zapytanie, a więc musi znać jego kontekst. Metoda używana wcześniej w wyszukiwaniu głosowym została zastosowana w wyszukiwarce tekstowej. Od momentu wprowadzenia Kolibra:
Wyszukiwanie semantyczne kładzie, więc nacisk na relacje między zapytaniami i elementami danych, indeksuje je, dzięki czemu coraz lepiej rozumie ich znaczenie.
Wprowadzenie Kolibra spowodowało:
Gołąb został wprowadzony w lipcu 2014 roku. Jego wprowadzenie miało na celu poprawić dopasowanie wyników lokalnych, aby były bardziej spójne. Integracja organicznych wyników z rankingiem map podniosła widoczność firm z rynku lokalnego. Od tego czasu zdecydowanie większe znaczenie w procesie pozycjonowania lokalnego ma:
– uzupełnienie kompletnych danych kontaktowych
– wprowadzenie danych strukturalnych do danych kontaktowych firmy
– utworzenie wizytówki firmy w Google Moja Firma
– tworzenie dobrze uzupełnionych, firmowych wizytówek w sprawdzonych katalogach firm
21 kwietnia 2015 roku Google wprowadziło aktualizację, która miała na celu promowanie stron dostosowanych do urządzeń mobilnych. Spodziewano się radykalnej rewolucji w wynikach wyszukiwania, jednak w praktyce nie były to gwałtowne zmiany. Strony z mobilną wersją miały nieco wyższe miejsca w rankingu, aniżeli strony bez tej wersji.
RankBrain, oparty na uczeniu maszynowym, uznawany jest za część algorytmu Koliber. 26 października 2015 roku Google potwierdziło, że został wdrożony kilka miesięcy wcześniej i jest trzecim najważniejszym czynnikiem rankingowym. RankBrain stale analizuje frazy, szukając między nimi powiązań, aby w ten sposób ciągle się uczyć. Dostrzega powiązania nawet w bardziej skomplikowanych zapytaniach, a w przypadku zupełnie nowych dokonuje prognoz.
Aktualizacja pojawiła się w okolicach sierpnia 2018 roku. Jak wskazuje nazwa dotyczyła szczególnie branży medycznej, ale dotknęła również działalności finansowej, czyli stron zajmujących się szczególnie ważnymi tematami – mogącymi wpłynąć na zdrowie, bezpieczeństwo i finanse użytkowników (Google nazwa takie strony „Your Money or Your Life (YMYL) Pages”). I właśnie z tego powodu Google przyjęło surowe standardy oceny stron, dotyczących tych dziedzin. Trzy podstawowe wymogi dla witryn:
Nie są to oczywiście wszystkie algorytmy i ich aktualizacje. Każdego roku Google zmienia je nawet kilkaset razy, bardzo często nie informując o tym na bieżąco. Wówczas wiadomości pojawiają się w sieci dopiero wówczas, kiedy widać już jakieś zmiany w wynikach wyszukiwania. Rodzi to problem, ponieważ w zasadzie nie możemy się do takiej zmiany przygotować. Warto więc po prostu postępować zgodnie z oficjalnymi zaleceniami Google, który nieustannie ulepsza swoje algorytmy.
Nowa platforma, dedykowana portalom informacyjnym od Google, aktualizacja adresu do sprawdzania adresów URL, długo wyczekiwany asystent Google po polsku, prognoza wydatków Polaków w Internecie a na koniec barometr zachowań konsumenckich oraz content marketing w promocji dóbr luksusowych. Nowy miesiąc nadszedł, czas więc na nowinki SEO i Content Marketingowe.
Google we współpracy z WordPress planuje wypuszczenie narzędzia Newspack, czyli nowego systemu do zarządzania treścią. Z zapowiedzi wynika, że nie będzie to jednak samodzielny CMS. Newspack, wykorzystując rozwiązania znane z WordPress, ma stanowić wygodną i prostą w obsłudze platformę, dedykowaną portalom informacyjnym. Wersja beta narzędzia ma pojawić się w lipcu. Zapisy dostępne są pod tym adresem: https://newspack.blog/. Więcej można dowiedzieć się pod tym adresem: https://en.blog.wordpress.com/2019/01/14/newspack-by-wordpress-com/
Google wykorzystuje treść plików PDF do tworzenia polecanych fragmentów odpowiedzi. Zrzuty ekranu z powstałymi w ten sposób Featured snippets pojawiły się ostatnio na Twitterze. To od wyszukiwarki zależy jednak wybór źródła informacji. Warto zadbać o optymalizację plików PDF, aby zyskać dodatkową możliwość osiągnięcia pozycji „zero” na stronie SERP. Więcej na ten temat można przeczytać tutaj: https://www.seostation.pl/wiedza/google-wykorzystuje-tresci-z-plikow-pdf-do-tworzenia-featured-snippets
Google udostępniło na swoim blogu garść wskazówek, które mają pomóc wyświetlać się stronie w sekcji wiadomości, czyli Google News. Do dobrych praktyk należy między innymi: tworzenie przejrzystych nagłówków, dodawanie informacji o dacie publikacji i modyfikacji artykułu, a także unikanie zduplikowanego contentu. Porady na temat Google News można znaleźć pod tym adresem: https://webmasters.googleblog.com/2019/01/ways-to-succeed-in-google-news.html
Google aktualizuje narzędzie do sprawdzenia adresów URL w GSC. Po kliknięciu w „Wyświetl zaindeksowaną stronę” otrzymujemy informację o odpowiedzi HTTP, zablokowanych zasobach i komunikaty konsoli JS. Jak na razie narzędzie nie pokazuje przekierowań. Więcej można dowiedzieć się pod tym adresem: https://www.seroundtable.com/google-url-inspection-tool-redirect-http-response-26970.html
50 mld złotych – tyle według badań wydadzą Polacy na zakupy w internecie w 2019 roku. W jaki sposób wykorzystać ten potencjał? Interaktywnie.com opublikowało raport na temat rynku e-commerce w Polsce, a w nim informacje dotyczące budowania wizerunku marki, analizy preferencji grupy docelowej i rolę user experience w powodzeniu e-sklepu. W raporcie znajdziemy między innymi wypowiedź Katarzyny Miki, managera Marketing Automation w Semahead, która wyjaśnia różnicę między marketing automation a e-mail marketingiem. Dokument można pobrać pod tym adresem: https://interaktywnie.com/biznes/artykuly/raporty-interaktywnie-com/raport-interaktywnie-com-e-commerce-2019-258454
Asystent Google jest już dostępny w języku polskim – taką wiadomością 16 stycznia podzieliło się Google. Oprócz możliwości głosowego komunikowania się z urządzeniem skierowanej do zwykłych użytkowników, udostępniona została platforma Actions on Google, umożliwiająca firmom integrację z Asystentem. Pełną informację o wdrożeniu polskiej wersji Asystenta można znaleźć tutaj: https://polska.googleblog.com/2019/01/z-asystentem-google-mozecie-juz.html
Consumer Barometer to narzędzie Google, które bada, w jaki sposób mieszkańcy z całego świata (uwzględnionych zostało ponad 45 krajów) korzystają z sieci. Sprawdzimy tu między innymi: jak podejmujemy decyzje zakupowe, gdzie robimy zakupy i jakiego rodzaju produktami jesteśmy zainteresowani. Więcej o narzędziu i o jego możliwościach można dowiedzieć się tutaj: https://www.thinkwithgoogle.com/tools/consumer-barometer/
Link do narzędzia: https://www.consumerbarometer.com/en/
Prowadzenie działań contentowych dla e-commerce luksusowych brandów wymaga opracowania specjalnej strategii. Kreacja content marketingowa przygotowana z myślą o prestiżowych markach powinna uwzględniać potrzeby ich klientów i dotrzeć do nich za pomocą umiejętnego wykorzystania personalizacji treści, storytellingu czy form wideo. Z artykułem na ten temat można zapoznać się pod tym adresem: https://marketingprzykawie.pl/artykuly/content-marketing-promocji-dobr-luksusowych-e-commerce/
Więcej informacji o rynku dóbr luksusowych w Polsce można znaleźć w raporcie KPMG: https://home.kpmg/pl/pl/home/insights/2018/12/raport-rynek-dobr-luksusowych-w-polsce-edycja-2018.html
Dla każdego właściciela strony internetowej ważne jest, aby jego domena pojawiała się jak najwyżej w wynikach wyszukiwania. Czasami, pomimo dobrych chęci, może pojawić się błąd, który spowoduje zanik jej widoczności. W skrajnych przypadkach nasza strona może stać się całkowicie niewidzialna dla Google. Jakich błędów unikać przy wprowadzaniu zmian w serwisie, aby nie dopuścić do takiej sytuacji? Poniżej opisałem 5 błędów, których nie warto popełniać.
Noindex jest jedną z możliwych wartości meta tagu „robots”. Domyślnymi wartościami tego tagu są „index” i „follow”. Wartość „index” informuje robota Google, że dana podstrona może zostać przez niego zaindeksowana, dzięki czemu będzie widoczna w wynikach wyszukiwania Google. Natomiast wartość „follow” to informacja dla robota o tym, że może podążać za linkami na danej podstronie. Meta tag „robots” z domyślnymi wartościami wygląda następująco:
<meta name=”robots” content=”index, follow”>
Znaczniki te powinny znajdować się na wszystkich podstronach, które mają być zaindeksowane w wynikach wyszukiwania Google. Instrukcja ma za zadanie pomóc robotowi Google w indeksacji serwisu w przypadku, gdyby wystąpiły problemy podczas indeksowania.
W serwisie mogą wystąpić strony, których nie chcemy zaideksować w Google (np. strony powstałe w wyniku sortowania, czy też filtracji) – wówczas korzystamy z wartości „noindex” meta tagu „robots”. Taka strona nie jest indeksowana przez robota Google, przez co jest niewidoczna w Google.
Niewłaściwie użyjcie wartości „noindex” może spowodować spadki widoczności serwisu. Dla przykładu: dzieje się tak wówczas, gdy wdrożymy wartość na stronach kategorii, podkategorii lub produktów. Natomiast gdy wartość „noindex” wdrożymy na wszystkich podstronach serwisu (przez przypadek czy też celowo) witryna stanie się niewidoczna w wynikach wyszukiwania Google, ponieważ zostanie wyindeksowana.
Plik robots.txt ma za zadanie zdefiniować, które obszary witryny powinny zostać zablokowane przed dostępem robotów. Podstawowym błędem, który może wystąpić przy tworzeniu pliku robots.txt, jest zablokowanie robotom dostępu do witryny. Podstawowy plik robots.txt może zawierać instrukcje:
User-agent: *
Allow: /
User-agent: * – oznacza, że dyrektywa odnosi się do robotów wszystkich wyszukiwarek internetowych, a nie tylko do robota Google.
Allow:/ – oznacza zezwolenie na indeksacje całej witryny.
Jeżeli zrobimy błąd, czyli zamiast „allow” wpiszemy „disallow”:
User-agent: *
Disallow: /
W takim przypadku zamiast dać robotom dostęp do wszystkich zasobów strony, uniemożliwiamy im to. Roboty nie będą miały dostępu do zawartości strony, przez co witryna nie będzie mogła być zaindeksowana i widoczna w wynikach wyszukiwania Google.
Przykładowo, po wdrożeniu certyfikatu SSL, powinniśmy zadbać, aby serwis w wynikach wyszukiwania był dostępny jedynie pod jednym adresem. W tym celu wybieramy wersje z www lub bez www i wszystkie pozostałe przekierowujemy za pomocą przekierowania „301” na wybraną przez nas wersję. Jeżeli wszystko wykonamy poprawnie, możemy cieszyć się z efektu naszej pracy. A co, jeśli popełnimy błąd we wdrożeniu przekierowań w pliku .htaccess?
Przez przypadek możemy wówczas stworzyć tzw. pętlę przekierowań. Dla przykładu podstrona z www będzie przekierowywać na podstronę bez www, a strona bez www na stronę z www (podobnie może być z http i https). W tej sytuacji robot Google nie będzie w stanie dostać się na naszą stronę i nie zaindeksuje jej. Przez błędnie wykonane przekierowania w pliku .htaccess możemy stać się niedostępni dla niego.
Zapewne większość z was korzysta z narzędzia Google Search Console do analizy błędów na stronie czy też poprawnej indeksacji serwisu. Narzędziem tym można również tymczasowo (na maksymalnie 90 dni) usunąć swoje adresy URL z wyników wyszukiwania. Jeżeli została zaindeksowana podstrona, której nie chcieliśmy indeksować, możemy w szybki sposób usunąć ją z wyników wyszukiwania. Jeżeli jednak zamiast konkretnej podstrony wpiszemy adres strony głównej, Google Search Console wyindeksuje nam nie tylko stronę główną, ale również wszystkie podstrony w witrynie. Przez maksymalnie 90 dni staniemy się niewidzialni w Google – chyba, że anulujemy zgłoszoną prośbę o wyindeksowanie.
Może również zdarzyć się tak, że zależy nam na bardzo szybkich efektach i uzyskaniu wysokich pozycji w wyszukiwarce Google w jak najkrótszym czasie. Wtedy możemy wykorzystać metody, które mają na celu „oszukać” wyszukiwarki. W momencie, kiedy Google zauważy, że dana strona internetowa stosuje zabronione praktyki, może nałożyć na stronę filtr, który powoduje spadki pozycji w wyszukiwarce o kilkadziesiąt pozycji. W przypadku, kiedy rażąco naruszymy wytyczne Google, możemy otrzymać za to ban, który skutkuje całkowitym usunięciem strony z wyników wyszukiwania. Ban nakładany jest bardzo rzadko i nie jest wynikiem spamowych linków przychodzących czy też czynników zewnętrznych, na które właściciel witryny nie ma wpływu. Przez swoje świadome lub nieświadome działanie możemy gwałtownie utracić pozycję w wyszukiwarce Google i po prostu stać się niewidzialni.
Proces optymalizacji i pozycjonowania strony jest procesem złożonym, który wymaga dużej wiedzy i nadzoru nad wprowadzanymi zmianami. Czasami przez mały błąd lub niepoprawne działania jesteśmy w stanie stać się niewidzialni dla Google. Trzeba być uważnym, aby nie popełniać wyżej wymienionych błędów, ponieważ cała nasza praca nad serwisem może pójść na marne.
Na szczęście większość opisanych błędów jesteśmy w stanie bardzo szybko naprawić. Dzięki wprowadzanym działaniom naprawczym w krótszej lub dłuższej perspektywie widoczność serwisu w Google powróci do podobnego poziomu sprzed wyindeksowania. Czas ten zależy od tego, jak długo nasza domena przebywała poza indeksem Google.
Kiedy obserwujemy drastyczne spadki pozycji fraz i co za tym idzie – ruchu na stronie, można podejrzewać, iż na naszą witrynę została nałożona kara. Wciąż aktualizowane algorytmy wyszukiwarki walczą ze spamem oraz nieuczciwymi praktykami SEO. Za postępowanie niezgodne z wytycznymi dla webmasterów ustalonymi przez Google, witryna może być ukarana za pomocą filtra lub bana. W tym artykule dowiecie się, jakie są rodzaje kar, za co można je otrzymać oraz jak się ich pozbyć.
Rozróżnia się dwie kary, które może nałożyć Google: ban i filtr. Często są to mylone pojęcia, które w rzeczywistości różnią się od siebie rodzajem przewinień, za jakie zostaliśmy ukarani i konsekwencjami ich nałożenia.
Ban jest najwyższą karą, jaka może zostać nałożona przez Google. Skutkuje to całkowitym usunięciem witryny z indeksu wyszukiwarki, czyli w praktyce strona przestaje istnieć. Ban nakładany jest w przypadku bardzo poważnych naruszeń. Jest rzadko używany i nie jest wynikiem spamowych linków przychodzących oraz czynników zewnętrznych, na które właściciel witryny nie ma wpływu. Zatem za co można otrzymać bana? Między innymi za:
Można łatwo sprawdzić, czy ban został nałożony na naszą witrynę poprzez użycie w wyszukiwarce operatora „site:”, który sprawdza stan zaindeksowania domeny. Gdy nie zostanie zwrócony żaden wynik – strona najprawdopodobniej została zbanowana.
Filtry są zdecydowanie częściej spotykane niż bany. Dzielą się one na ręczne i algorytmiczne, a skutkiem otrzymania filtra jest duży i nagły spadek pozycji fraz i ruchu witryny. Mniejsza widoczność może być zauważona na części pozycjonowanych fraz lub całości.
Kara ręczna jest nakładana przez pracowników Google Search Quality Team (SQT). Jest to zespół, który przeglądając strony pod kątem zgodności z wytycznymi dla webmasterów, dba o jakość wyników wyszukiwania. Według raportu Google, w 2017 roku wysłano 6 milionów komunikatów o ręcznych działaniach.
Google Search Console jest kopalnią wiedzy i podstawowym narzędziem do monitorowania stanu witryny. Jest również miejscem, w którym pojawi się informacja, jeśli nasza witryna otrzymała filtr ręczny. Będzie się ona znajdować w zakładce Ruch związany z wyszukiwaniem –> Ręczne działania. Raport ten został szczegółowo opisany tutaj. W przypadku braku działań ręcznych, w zakładce wyświetli się komunikat:
W innym wypadku dostaniemy wiadomość:
Wśród przyczyn otrzymania kary ręcznej wyróżnia się:
Głównie kary nakładane są za różnego rodzaju spam. Naruszenie wytycznych dotyczących treści, takich jak automatyczne generowanie tekstów, kopiowanie lub maskowanie treści. Kolejnym obszarem karania są nienaturalne, złej jakości linki prowadzące do naszej witryny lub linki wychodzące.
Na nałożenie filtru, mogą być narażone serwisy korzystające z systemu wymiany linków. Natomiast jeśli nasza strona padła ofiarą hakerów, to prawdopodobnie w GSC pojawi się taka informacja. Bardzo często hakerzy zamieszczają spam w witrynie, odpowiednio go maskując. Google wówczas obniża pozycje takiej witryny, aby chronić użytkowników przed wejściem na zainfekowaną stronę.
Wszystkie te działania opisane są w wyżej wspomnianym raporcie Google – Ręczne działania. Są to techniki zaliczane do Black Hat SEO, czyli niezgodne z wymaganiami wyszukiwarek.
Drugim rodzajem kary w postaci filtra jest filtr algorytmiczny, który jest trudniejszy do rozpoznania niż ręczny, ponieważ jest on nakładany automatycznie i nie zostajemy o nim poinformowani. Należy zatem dokładnie przeanalizować i porównać zaobserwowane drastyczne spadki pozycji i ruchu organicznego z datą aktualizacji algorytmów. Jeśli daty się pokrywają, wówczas możemy mieć pewność otrzymania filtra algorytmicznego. Dostępnych jest kilka narzędzi, takich jak Algoroo lub Accuranker, monitorujących ważne zmiany algorytmów.
Przyczyn otrzymania takiego filtr może być wiele, otrzymuje się go za te elementy, za które odpowiadają algorytmy, czylli m.in. nienaturalny profil linków oraz mało wartościowe i zduplikowane treści.
Zaczynając proces wychodzenia z filtra lub usuwania bana, najpierw należy zidentyfikować przyczynę nałożenia kary. W przypadku filtra ręcznego sprawa jest jasna. Jeśli chodzi o filtr algorytmiczny lub ban, należy dokładnie przeanalizować serwis i przeprowadzić audyt SEO, aby rozpoznać źródło problemu.
Po znalezieniu przyczyny należy zlikwidować problem oraz wysłać prośbę poprzez Google Search Console wraz z opisanym zagadnieniem i czekać cierpliwie na odpowiedź. Jeśli filtr zostanie usunięty, otrzymamy informację w GSC, że ręczne działania zostały wycofane. W przypadku zdjęcia filtra algorytmicznego nie dostaniemy takiej informacji. Wzrost pozycji będzie równoznaczny z usunięciem kary. Czas wychodzenia z filtra jest różny i zależy od rodzaju nałożonej kary. Nie jest to łatwy proces.
Najczęstszą z kar ręcznych jest ta, za nienaturalne linki. Wówczas w przypadku linków wychodzących, należy je usunąć. Jeśli problem dotyczy linków prowadzących do naszego serwisu to należy przeprowadzić solidną analizę całego profilu linków, wybrać te szkodliwe i zgłosić je w piku Disavow Tool.
Przede wszystkim pozycjonując stronę, należy stosować się do wytycznych dla webmasterów, czyli praktykować tzw. metody White Hat SEO. Powinno zadbać się o to, aby publikowane treści były wartościowe i unikalne oraz pozyskiwać wysokiej jakości linki ze zdywersyfikowanych źródeł. Kategorycznie należy unikać systemu wymiany linków. Stale powinno się monitorować pozycje fraz i ruch organiczny na stronie.