Zajrzyj na swoją pocztę, aby poznać szczegóły oferty ;)
Tymczasem, sprawdź nowości na naszym blogu semahead.agency/blog/
Zespół Semahead
Wakacje trwają w najlepsze, jednak nie dla wszystkich. W świecie analityki wciąż dużo się dzieje, o czym świadczą nowości z ostatnich tygodni. Dla większej przejrzystości zebraliśmy je w kolejnym wydaniu naszego Analityka Express.
Według Search Engine Land, Google przymierza się do połączenia usług GA i GSC w nowy sposób. Obecnie część danych z Search Console jest dostępnych w Google Analytics po połączeniu usług. Google planuje wdrożenie nowego raportu w GSC o nazwie Google Search Console Insights. Raport będzie zawierał dane o zachowaniach użytkowników, pochodzące z połączonej usługi w Google Analytics.
Jeśli nowa opcja będzie pomagać w zwracaniu większej uwagi na jakość, a nie tylko ilość ruchu – jesteśmy na tak. Źródło: https://searchengineland.com/google-tests-showing-analytics-data-in-search-console-with-insights-336835
Obawy o blokowanie kodów śledzących przez przeglądarki (zwłaszcza te od Apple’a) powracają jak bumerang. Po pierwszej chwili paniki zazwyczaj okazuje się, że blokada dotyczy ciasteczek firm zewnętrznych, użytkownik musi ją sam włączyć, a w ogóle to jeszcze nie w tej wersji przeglądarki…
Podobnie było tym razem. Plotki zdementował guru analityki, Simo Ahava, który podkreślił jak bardzo jest rozczarowany faktem, że wprowadzające w błąd informacje rozeszły się w branży tak szybko. Jak widać, nawet branża analityki internetowej nie jest wolna od fake news’ów.
Co byśmy zrobili bez Simo: https://www.simoahava.com/analytics/no-safari-does-not-block-google-analytics/
Google od pewnego czasu rozwija nowy rodzaj usługi Google Analytics o nazwie App + Web. W usłudze tej, po odpowiedniej konfiguracji, zbierane są dane zarówno z witryny internetowej, jak również z aplikacji.
Kilka dni temu na blogu Marketing Platform pojawiła się zapowiedź dwóch nowych metryk, poszerzających możliwości analizy danych oraz tworzenia grup odbiorców reklam. Prawdopodobieństwo zakupu (purchase probability) przewiduje szansę, że użytkownicy, którzy odwiedzili Twoją aplikację lub witrynę, dokonają zakupu w ciągu najbliższych siedmiu dni. Prawdopodobieństwo odejścia (churn probability) przewiduje szansę, że ostatnio aktywni użytkownicy nie odwiedzą Twojej aplikacji lub witryny w ciągu najbliższych siedmiu dni.
Brzmi ciekawe, czekamy zatem na wdrożenie nowych metryk w naszych usługach Google Analytics.
Więcej na ten temat: https://blog.google/products/marketingplatform/analytics/new-predictive-capabilities-google-analytics/
Październik minął prawie niepostrzeżenie, przynosząc kilka nowości. Warto zapoznać się z najważniejszymi z nich, aby pozostać na bieżąco. Zapraszamy do jesiennej lektury!
BERT (Bidirectional Encoder Representations from Transformers) to technika przetwarzania języka naturalnego, która ma pomóc algorytmowi Google w lepszym dopasowaniu odpowiedzi do zapytań. Dotychczas odpowiedzi opierały się głównie o same słowa kluczowe, zupełnie ignorując rolę przyimków (bez, pod, z, na, do, po etc.) w zapytaniach. BERT ma poprawić ich rozumienie, analizując je jako całość w odpowiednim kontekście słów. Google szacuje, że zmiany mają doprowadzić do poprawy około 10% wyników wyszukiwania.
Więcej na ten temat można przeczytać na stronie: https://searchengineland.com/welcome-bert-google-artificial-intelligence-for-understanding-search-queries-323976
Na kanale YT Google Webmaster pojawił się nowy cykl, w którym John Mueller opowiada o najważniejszych nowościach, istotnych nie tylko dla SEO, ale także dla webmasterów i wszystkich publikujących w sieci. W pierwszym odcinku John poruszył m.in. tematy takie, jak:
Pierwszy materiał znajdziecie w poniższym linku: https://www.youtube.com/watch?v=78GFh553Vbc
Jedno z podstawowych narzędzi w SEO doczekało się aktualizacji do wersji 12.0. Poprawiono i usprawniono w niej między innymi:
Wszystkie zmiany i ich dokładny opis dostępny jest na stronie producenta: https://www.screamingfrog.co.uk/seo-spider-12/
Marzeniem każdej publikującej w internecie osoby jest to, aby być na pierwszej pozycji w wynikach wyszukiwania. Istnieje jednak coś lepszego – pozycja 0 – zawierająca nie tylko link i krótki opis, ale także zdjęcie i jednoznaczną odpowiedź na zadane pytanie.
Na podstawie badań przeprowadzonych przez Artura Strzeleckiego okazuje się, że blisko 49% wyników wyświetlanych we Featured snippets jest zaciąganych z pierwszych wyników w SERP. Aby dostać się na pozycję 0, trzeba włożyć sporo wysiłku w dopasowanie strony do konkretnego zapytania. Podpowiedź, jak to zrobić znajdziecie tutaj:
https://moz.com/blog/writing-content-for-featured-snippets
https://www.senuto.com/pl/blog/featured-snippets-jak-zajac-wiecej-miejsca-w-serp/
Pierwsze wzmianki o testach wyników wyszukiwania bez adresów URL pojawiały się już od 2013 roku. Testy wyglądu strony SERP bez URLi znów powracają! Jakie konsekwencje mogłoby przynieść takie rozwiązanie? Poniżej materiał z wypowiedziami ekspertów spekulujących na ten temat: https://interaktywnie.com/biznes/newsy/wyszukiwarki/nowy-wyglad-wynikow-wyszukiwania-czyli-google-testuje-serpy-bez-urli-259374
18 października odbyła się druga edycja branżowej imprezy SEO Barcamp organizowanej przez Linkhouse. Wydarzenie miało niezwykły charakter ze względu na jednoczesne świętowanie 5-lecia organizatora. Imprezę poprzedziły 3 prelekcje.
Jako pierwszy zaprezentował się Grzegorz Strzelec, który opowiedział o trudnościach związanych z zarządzaniem SEO w dużej firmie i podzielił się doświadczeniem z pracy w Grupie Onet. Następnie Szymon Słowik zdradził sposoby na urozmaicenie i wzbogacenie link buildingu. Na koniec merytorycznej części wystąpili Robert Niechciał oraz Damian Sałkowski. Mówili między innymi o zmieniającym się podejściu Google do analizy i oceny rankingowej stron.
Więcej na ten temat przeczytacie na stronie: http://seobarcamp.pl
Zdarza Ci się patrzeć w sufit w poszukiwaniu natchnienia i łudzisz się, że (jak Don Draper – Mad Men) nagle doznasz olśnienia i Twój genialny pomysł zrewolucjonizuje branżę? Niestety, takie historie zdarzają się tylko w serialach. Ale nic straconego! Kilka praktycznych i regularnych ćwiczeń pomoże każdemu pobudzić swoją kreatywność. W poniższym linku znajdziecie kilka ciekawych propozycji: https://www.wordstream.com/blog/ws/2019/10/15/copywriting-tips
Dla osób niewtajemniczonych na pewno nie będzie stanowiło to żadnej różnicy. Natomiast specjaliści SEO muszą wiedzieć, że pomimo podobieństw czynności – efekty jednego i drugiego pisania są diametralnie różne. Najprościej rzecz ujmując, Content Writing służy wygenerowaniu jak największego ruchu organicznego. Copywriting natomiast ma na celu przekonwertować ten ruch na sprzedaż.
Szersze spojrzenie na ten temat można znaleźć na stronie: https://www.searchenginejournal.com/seo-content-writing-vs-seo-copywriting
Dobrze prowadzone konto na Instagramie to podstawa szanującego się biznesu. UGC to jedna z najbardziej dostępnych i najtańszych metod na zwiększenie zasięgu i promowanie własnej marki. Warto zatem zapoznać się z kilkoma trikami, które pozwolą lepiej wykorzystać użytkowników, chcących nawiązać interakcję z naszym profilem.
Więcej na temat benefitów przeczytacie pod adresem: https://www.socialmediatoday.com/news/6-tips-to-help-you-generate-and-utilize-ugc-on-instagram/565186/
Październik minął prawie niepostrzeżenie, przynosząc kilka nowości. Warto zapoznać się z najważniejszymi z nich, aby pozostać na bieżąco. Zapraszamy do jesiennej lektury!
BERT (Bidirectional Encoder Representations from Transformers) to technika przetwarzania języka naturalnego, która ma pomóc algorytmowi Google w lepszym dopasowaniu odpowiedzi do zapytań. Dotychczas odpowiedzi opierały się głównie o same słowa kluczowe, zupełnie ignorując rolę przyimków (bez, pod, z, na, do, po etc.) w zapytaniach. BERT ma poprawić ich rozumienie, analizując je jako całość w odpowiednim kontekście słów. Google szacuje, że zmiany mają doprowadzić do poprawy około 10% wyników wyszukiwania.
Więcej na ten temat można przeczytać na stronie: https://searchengineland.com/welcome-bert-google-artificial-intelligence-for-understanding-search-queries-323976
Na kanale YT Google Webmaster pojawił się nowy cykl, w którym John Mueller opowiada o najważniejszych nowościach, istotnych nie tylko dla SEO, ale także dla webmasterów i wszystkich publikujących w sieci. W pierwszym odcinku John poruszył m.in. tematy takie, jak:
Pierwszy materiał znajdziecie w poniższym linku: https://www.youtube.com/watch?v=78GFh553Vbc
Jedno z podstawowych narzędzi w SEO doczekało się aktualizacji do wersji 12.0. Poprawiono i usprawniono w niej między innymi:
Wszystkie zmiany i ich dokładny opis dostępny jest na stronie producenta: https://www.screamingfrog.co.uk/seo-spider-12/
Marzeniem każdej publikującej w internecie osoby jest to, aby być na pierwszej pozycji w wynikach wyszukiwania. Istnieje jednak coś lepszego – pozycja 0 – zawierająca nie tylko link i krótki opis, ale także zdjęcie i jednoznaczną odpowiedź na zadane pytanie.
Na podstawie badań przeprowadzonych przez Artura Strzeleckiego okazuje się, że blisko 49% wyników wyświetlanych we Featured snippets jest zaciąganych z pierwszych wyników w SERP. Aby dostać się na pozycję 0, trzeba włożyć sporo wysiłku w dopasowanie strony do konkretnego zapytania. Podpowiedź, jak to zrobić znajdziecie tutaj:
https://moz.com/blog/writing-content-for-featured-snippets
https://www.senuto.com/pl/blog/featured-snippets-jak-zajac-wiecej-miejsca-w-serp/
Pierwsze wzmianki o testach wyników wyszukiwania bez adresów URL pojawiały się już od 2013 roku. Testy wyglądu strony SERP bez URLi znów powracają! Jakie konsekwencje mogłoby przynieść takie rozwiązanie? Poniżej materiał z wypowiedziami ekspertów spekulujących na ten temat: https://interaktywnie.com/biznes/newsy/wyszukiwarki/nowy-wyglad-wynikow-wyszukiwania-czyli-google-testuje-serpy-bez-urli-259374
18 października odbyła się druga edycja branżowej imprezy SEO Barcamp organizowanej przez Linkhouse. Wydarzenie miało niezwykły charakter ze względu na jednoczesne świętowanie 5-lecia organizatora. Imprezę poprzedziły 3 prelekcje.
Jako pierwszy zaprezentował się Grzegorz Strzelec, który opowiedział o trudnościach związanych z zarządzaniem SEO w dużej firmie i podzielił się doświadczeniem z pracy w Grupie Onet. Następnie Szymon Słowik zdradził sposoby na urozmaicenie i wzbogacenie link buildingu. Na koniec merytorycznej części wystąpili Robert Niechciał oraz Damian Sałkowski. Mówili między innymi o zmieniającym się podejściu Google do analizy i oceny rankingowej stron.
Więcej na ten temat przeczytacie na stronie: http://seobarcamp.pl
Zdarza Ci się patrzeć w sufit w poszukiwaniu natchnienia i łudzisz się, że (jak Don Draper – Mad Men) nagle doznasz olśnienia i Twój genialny pomysł zrewolucjonizuje branżę? Niestety, takie historie zdarzają się tylko w serialach. Ale nic straconego! Kilka praktycznych i regularnych ćwiczeń pomoże każdemu pobudzić swoją kreatywność. W poniższym linku znajdziecie kilka ciekawych propozycji: https://www.wordstream.com/blog/ws/2019/10/15/copywriting-tips
Dla osób niewtajemniczonych na pewno nie będzie stanowiło to żadnej różnicy. Natomiast specjaliści SEO muszą wiedzieć, że pomimo podobieństw czynności – efekty jednego i drugiego pisania są diametralnie różne. Najprościej rzecz ujmując, Content Writing służy wygenerowaniu jak największego ruchu organicznego. Copywriting natomiast ma na celu przekonwertować ten ruch na sprzedaż.
Szersze spojrzenie na ten temat można znaleźć na stronie: https://www.searchenginejournal.com/seo-content-writing-vs-seo-copywriting
Dobrze prowadzone konto na Instagramie to podstawa szanującego się biznesu. UGC to jedna z najbardziej dostępnych i najtańszych metod na zwiększenie zasięgu i promowanie własnej marki. Warto zatem zapoznać się z kilkoma trikami, które pozwolą lepiej wykorzystać użytkowników, chcących nawiązać interakcję z naszym profilem.
Więcej na temat benefitów przeczytacie pod adresem: https://www.socialmediatoday.com/news/6-tips-to-help-you-generate-and-utilize-ugc-on-instagram/565186/
]]>
Organizacje wydają coraz więcej pieniędzy na działania content marketingowe, notując równocześnie wzrosty ruchu, subskrypcji i sprzedaży. Ponadto w Google Search Console pojawiło się kilka nowych raportów. Co jeszcze ciekawego dzieje się w SEO i content marketingu? Tego dowiecie się z naszego artykułu.
7 maja na oficjalnym blogu Google pojawiła się informacja, że od tej pory renderowanie strony będzie wykonywane za pomocą najnowszej wersji przeglądarki – Chrome 74 (wcześniej była to wersja 41). Googlebot ma być też równolegle aktualizowany wraz z przeglądarką. Obecnie wspiera on ponad 1000 funkcji, w tym między innymi: ES6 oraz nowsze atrybuty JavaScript, IntersectionObserver dedykowany do lazy-loading, interfejsy API komponentów v1. Więcej na ten temat można dowiedzieć się pod adresem.
W Google Search Console pojawił się nowy raport dla portali wyświetlających się w Google Discover. Jest to kanał, bazujący na upodobaniach użytkowników wyszukiwarki. Jego działanie polega na wyświetlaniu na urządzeniach mobilnych propozycji interesujących artykułów. Wyniki zliczane są od początku marca tego roku. Dzięki nowemu raportowi można dokładnie sprawdzić liczbę kliknięć, wyświetleń oraz wskaźnik CTR w poszczególnych dniach. Jest to szczególnie istotne dla stron z wiadomościami, treściami evergreen czy cyklicznymi. Więcej o nowym raporcie można przeczytać tutaj.
Dane z Google Discover to nie jedyna nowość, która pojawiła się w ostatnim czasie w Search Console. Oprócz niej dodano raporty dotyczące stanu danych strukturalnych. Są to:
Dodatkowo Google opublikowało na swoim blogu post poświęcony monitorowaniu danych strukturalnych za pomocą GSC.
Google na platformie YouTube rusza z nową serią „SEO Mythbusting”, która ma rozprawić się z największymi mitami związanymi z SEO. Twórcy projektu podejmą temat technicznego SEO, postarają się wyjaśnić powszechne nieporozumienia i odpowiedzieć na powtarzające się pytania dotyczące Googlebota, JavaScript, aplikacji czy strategii działań. Zapowiedź programu można zobaczyć tutaj.
10 maja w Katowicach odbyła się kolejna, siódma już edycja Festiwalu SEO – największej tego typu konferencji w Polsce. Jak co roku byliśmy na niej obecni. Festiwal składał się z kilkunastu prezentacji, case studies i towarzyszących im dyskusji. Była to świetna okazja do wymiany doświadczeń między SEOwcami z całej Polski. Dla naszej agencji to na pewno duża dawka pomysłów, które przełożą się na optymalizację stron naszych partnerów biznesowych. Agenda tegorocznej edycji dostępna jest tutaj.
Hubspot.com opublikował wyniki ankiety dotyczącej CM, przeprowadzonej wśród marketerów. Jakie są wnioski? Przede wszystkim rośnie budżet na działania CM, a reklamodawcy są zadowoleni wyników, które zapewnia marce content marketing. Najważniejszymi wskaźnikami jego efektywności są wzrosty ruchu, wzrosty w SEO, a także zwiększenie liczby subskrypcji i sprzedaży. Ponadto okazuje się, że spada liczba marketerów, zatrudniających influencerów. Z drugiej strony Ci, którzy z nimi współpracują, zadowoleni są z efektów. Ikonografikę z rezultatami ankiety można znaleźć tutaj.
IAB Polska opublikowało raport, z którego wynika, że zjawisko korzystania z wielu ekranów jednocześnie dotyczy aż 93% internautów. Oprócz analizy multiscreeningu w publikacji znajdziemy sporo informacji na temat tego, w jaki sposób content trafia do użytkowników i jak telewizja oddziałuje na nasze zachowania w Internecie. Raport dostępny jest pod tym adresem.
W idealnej sytuacji po wpisaniu danego słowa kluczowego w wyszukiwarkę kierowani jesteśmy na stronę, która dokładnie powiązana jest z treścią naszego zapytania. Aby było to możliwe konieczne jest zastosowanie algorytmów, które cały czas analizują poszczególne strony internetowe, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Wszystkiego dowiesz się poniżej.
Algorytm to „skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu”. Inaczej mówiąc jest to zbiór reguł i kroków, dzięki którym możliwe jest przeanalizowanie informacji przez wyszukiwarkę na stronach, aby potem ocenić ich zawartość i wyświetlić optymalny wynik. Powstały po to, aby wyświetlać użytkownikom bardziej optymalne wyniki wyszukiwania. Google przeczesuje Internet, skanuje strony, indeksuje je (gromadzi dane na temat treści stron) i w końcu wyświetla je użytkownikowi w odpowiedzi na wpisywane przez niego słowa kluczowe.
W 1998 roku Sergey Brian i Larry Page założyli firmę Google, której głównym produktem była właśnie wyszukiwarka internetowa, a nazwa firmy i wyszukiwarki to błędnie zapisane słowo „googol”, które oznacza liczbę 10100 (jedynka i sto zer w zapisie dziesiętnym). Jednym z algorytmów wyszukiwarki Google był PageRank, który został oparty na kanwie pracy dyplomowej Briana i Page`a z 1996 roku, kiedy byli jeszcze studentami Uniwersytetu Stanford. Algorytm odpowiadał za ocenę linków prowadzących do domeny, co w konsekwencji doprowadziło do zmian wyników wyszukiwania, aby mogłyby trafniej odpowiadać na zapytania użytkowników.
Nazwa algorytmu nie pochodzi od słowa page – strona, ale właśnie od nazwiska jednego z twórców – Larre`go Page`a. Ogólnym założeniem PageRank była koncepcja, że każdy link do strony jest czymś na kształt głosu na nią. Jednak nie wszystkie głosy są sobie równe. Linki dla algorytmu mają większą lub mniejszą wartość. Wartość strony oceniana jest na podstawie ilości innych witryn odsyłających do tej strony i wartości ich samych. Część wartości przekazywana jest ze strony na stronę poprzez link. Jeśli strona jest często odwiedzana i inne strony się do niej odwołują, oznacza to, że jest wartościowa i popularna. Oceny strony przybierały wartości od 0 do 10, ale same szczegóły działania algorytmu nigdy nie zostały przez Google zdradzone.
Oczywiście z czasem, gdy wyszukiwarka zyskała na popularności, coraz więcej osób chciało uzyskiwać lepsze pozycje, aniżeli konkurencja. Stosowano różne metody, aby sztucznie zwiększać wartość PageRank. Przez pewien czas dodatkowym elementem, wpływającym na powiązanie strony z frazą, był tag meta keywords. Zaprzestano brania go pod uwagę z powodu nieuczciwych praktyk – wykorzystywano popularne frazy, które umieszczano na stronach jako frazy kluczowe, pomimo braku powiązania tematycznego z zawartością strony. Naturalną konsekwencją powstania wyszukiwarki był dalszy rozwój, ulepszenia i kolejne algorytmy przynoszące zmiany wyników wyszukiwania.
Panda to algorytm, wprowadzony w lutym 2011. Drugie wydanie wyszło w kwietniu tego samego roku. Od tej pory było wiele aktualizacji algorytmu. Podstawowym zadaniem Pandy było analizowanie jakości treści. Chodziło o ograniczenie w wynikach wyszukiwania takich stron, które zawierały słabą, nieprzydatną zawartość – bezwartościowe, nikomu niepotrzebne, skopiowane treści. Wyżej w rankingu miały znajdować się treści odpowiadające na potrzeby użytkowników, oryginalne i unikalne.
Jak karze Panda?
Algorytm surowo oceniał serwisy i surowo karał. Najczęściej kary dotyczyły całych stron, a nie tylko podstron. Dotykało to zwłaszcza tzw. „farm treści”, a więc stron, skupiających wiele contentu skopiowanego z innych stron.
Jakie strony były przez Pandę ukarane?
Page Layout został wdrożony na początku 2012, a jego zadaniem jest ocena układu strony. Dla Google ważna jest treść strony, ale również to jak i w którym miejscu na stronie znajdują się jej elementy. Zadaniem algorytmu było obniżenie wartości stron, które nad linią załamania zawierają nadmierną ilość nieużytecznych elementów, jak na przykład reklamy czy bannery, które przeszkadzają użytkownikowi. Algorytm bierze również pod uwagę:
Page Layout doczekał się trzech aktualizacji, aktualnie prowadzone są prace nad koleją, związaną z samoczynnym blokowaniem nadmiaru reklam w wyszukiwarce Chrome.
24 kwietnia 2012 Google uruchomiła algorytm o nazwie Pingwin. Odnosił się do karania stron z linkami niskiej jakości, obniżając ich pozycję w rankingu wyszukiwania. Jakość linków zależy od domeny i otoczenia na stronie, z której pochodzi. Pod uwagę brane są takie rzeczy, jak naturalne nasycenie frazą kluczową, odpowiednia tematyczność linków w stosunku do treści. Oceniając profil linków strony algorytm zwraca uwagę na takie czynniki jak:
Przyrost linków w czasie
Przed wdrożeniem algorytmu można było masowo i automatycznie dodać stronę do dziesiątek czy setek katalogów – przynosiło to efekt w postaci podniesienia pozycji strony. Zbyt duża liczba linków, dodana w krótkim czasie, jest podejrzanym zachowaniem.
Jakość linków
Pożądanym profilem linków to taki, w którym zdecydowana większość linków pochodzi z wartościowych i godnych zaufania stron.
Dywersyfikacji linków
Ważne jest zróżnicowanie źródeł i typów linków. Schematyczne działania mogą być kojarzone działaniami spamerskimi. Warto dodawać odnośniki z różnych źródeł, jak wysokiej jakości zaufane katalogi, fora, komentarze, inne serwisy, stopki, media społecznościowe. Warto zadbać o różnorodne typy linków – anchory, linki neutralne (sam url), graficzne. Ogólnie rzecz ujmując im większe zróżnicowanie, tym lepiej.
Jak karze Pingwin?
Karą za naruszenia w kwestii linkowania jest obniżenie pozycji strony. Może to dotyczyć niektórych słów kluczowych, ale również wszystkich. Filtry mogą być nałożone na podstrony lub całą domenę. Proces odzyskiwania pozycji może być bardzo żmudny. Wszystko zależy od wcześniej wspomnianej skali, jakiej dotyczyły filtry. Działaniami jakie należy podjąć jest usunięcie szkodliwych linków oraz zgłoszenie linków w narzędziu Disavow Tool. Algorytm na przestrzeni lat doczekał się wielu poprawek, a od września 2016 działa w czasie rzeczywistym.
Wprowadzony został 10 sierpnia 2012 roku, a jego zadaniem było usunięcie stron, zawierających materiały chronione prawami autorskimi, zgodnie z ustawą Digital Millennium Copyright Act. Karą objęte zostały również strony, umożliwiające pobieranie nielegalnej muzyki, filmów czy programów, a także strony zawierające odnośniki do nich lub pośredniczące w tym.
Aktualizacja wdrożona została 27 września 2012 roku i miała wpływ na strony, zawierające w nazwie domeny frazy kluczowe. Dawniej dzięki temu można było uzyskać przewagę konkurencyjną, ale zdarzały się sytuacje wykorzystywania tego w nieodpowiedni sposób. Celem wprowadzenia tej zmiany było zmniejszenie ilości wyników wyszukiwania stron, posiadających domeny typu exact-match. Obecnie Google nie bierze nazwy domeny pod uwagę.
Payday Loan wprowadzono 11 czerwca 2013. Algorytm dotyczył stron z kontrowersyjnych branż, narażonych szczególnie na działania spamerskie, takie jak jak kasyna, pożyczki, branża erotyczna/pornograficzna. Wdrożenie Payday Loan skutkowało obniżeniem wartości zaspamowanych stron.
Koliber jest algorytmem z 2013. 20 sierpnia poinformowano o wprowadzeniu go już miesiąc wcześniej. Nazwa Koliber ma symbolizować precyzję i szybkość działania algorytmu, a jego celem jest sprawne zwracanie odpowiednio dopasowanych wyników wyszukiwania użytkownikom. Wiąże się z nim technologia, która wcześniej wykorzystywana była w wyszukiwaniu głosowym. Podczas mówienia z reguły używamy całych zdań, a nie pojedynczych słów kluczowych. Aby zwracane były trafne odpowiedzi, wyszukiwarka musi rozumieć nasze zapytanie, a więc musi znać jego kontekst. Metoda używana wcześniej w wyszukiwaniu głosowym została zastosowana w wyszukiwarce tekstowej. Od momentu wprowadzenia Kolibra:
Wyszukiwanie semantyczne kładzie, więc nacisk na relacje między zapytaniami i elementami danych, indeksuje je, dzięki czemu coraz lepiej rozumie ich znaczenie.
Wprowadzenie Kolibra spowodowało:
Gołąb został wprowadzony w lipcu 2014 roku. Jego wprowadzenie miało na celu poprawić dopasowanie wyników lokalnych, aby były bardziej spójne. Integracja organicznych wyników z rankingiem map podniosła widoczność firm z rynku lokalnego. Od tego czasu zdecydowanie większe znaczenie w procesie pozycjonowania lokalnego ma:
– uzupełnienie kompletnych danych kontaktowych
– wprowadzenie danych strukturalnych do danych kontaktowych firmy
– utworzenie wizytówki firmy w Google Moja Firma
– tworzenie dobrze uzupełnionych, firmowych wizytówek w sprawdzonych katalogach firm
21 kwietnia 2015 roku Google wprowadziło aktualizację, która miała na celu promowanie stron dostosowanych do urządzeń mobilnych. Spodziewano się radykalnej rewolucji w wynikach wyszukiwania, jednak w praktyce nie były to gwałtowne zmiany. Strony z mobilną wersją miały nieco wyższe miejsca w rankingu, aniżeli strony bez tej wersji.
RankBrain, oparty na uczeniu maszynowym, uznawany jest za część algorytmu Koliber. 26 października 2015 roku Google potwierdziło, że został wdrożony kilka miesięcy wcześniej i jest trzecim najważniejszym czynnikiem rankingowym. RankBrain stale analizuje frazy, szukając między nimi powiązań, aby w ten sposób ciągle się uczyć. Dostrzega powiązania nawet w bardziej skomplikowanych zapytaniach, a w przypadku zupełnie nowych dokonuje prognoz.
Aktualizacja pojawiła się w okolicach sierpnia 2018 roku. Jak wskazuje nazwa dotyczyła szczególnie branży medycznej, ale dotknęła również działalności finansowej, czyli stron zajmujących się szczególnie ważnymi tematami – mogącymi wpłynąć na zdrowie, bezpieczeństwo i finanse użytkowników (Google nazwa takie strony „Your Money or Your Life (YMYL) Pages”). I właśnie z tego powodu Google przyjęło surowe standardy oceny stron, dotyczących tych dziedzin. Trzy podstawowe wymogi dla witryn:
Nie są to oczywiście wszystkie algorytmy i ich aktualizacje. Każdego roku Google zmienia je nawet kilkaset razy, bardzo często nie informując o tym na bieżąco. Wówczas wiadomości pojawiają się w sieci dopiero wówczas, kiedy widać już jakieś zmiany w wynikach wyszukiwania. Rodzi to problem, ponieważ w zasadzie nie możemy się do takiej zmiany przygotować. Warto więc po prostu postępować zgodnie z oficjalnymi zaleceniami Google, który nieustannie ulepsza swoje algorytmy.
Platforma do optymalizacji marketingu w Google odsłania nową wersję, Google Search Console ujednolica wyświetlane raporty, a Moz aktualizuje jeden ze swoich parametrów. Do tego wszystkiego, dorzucamy grę od Google, który w ten sposób stara się zachęcić webmasterów do optymalizacji wydajności strony. Miłej lektury!
Senuto udostępniło nową wersję swojej platformy. Odświeżone narzędzie zostało wzbogacone o przebudowaną bazę słów kluczowych, na którą składają się frazy ze wszystkich krajów i języków, dodatkowe raporty takie jak „Pozyskane i utracone frazy” czy „Raport spadków i wzrostów”, a także moduł umożliwiający monitoring pozycji. Więcej informacji o aktualizacji Senuto, a także na temat najbliższych planów rozwoju platformy, można znaleźć pod tym adresem: https://www.senuto.com/pl/nowe-senuto/.
Google ujednoliciło raport skuteczności w GSC – taka informacja pojawiła się 6 lutego na oficjalnym blogu Google. Do tej pory dane w narzędziu były podzielone ze względu na rodzaj adresu URL, więc w przypadku gdy strona posiadała osobny adres dla wersji mobilnej, w Search Console pojawiały się dwa raporty. Google postanowiło ujednolicić dane i pokazywać zsumowane rezultaty dla strony kanonicznej, dzięki czemu wyniki ze stron mobilnych i AMP łączone są z danymi ze standardowych adresów. Więcej na temat uproszczonych raportów można przeczytać tutaj oraz na blogu dla webmasterów Google.
Moz zaktualizował Domain Authority, czyli parametr określający jakość domeny. Jak podał na swoim blogu Moz, DA ma lepiej niż dotychczas rozpoznawać strony, które nie wyświetlają się na żadne słowa kluczowe. Wiadomość wywołała spore zamieszanie w branży SEO, chociaż, jak przypomina Moz, DA nie jest czynnikiem rankingowym, a jedynie wskaźnikiem odzwierciedlającym konkurencyjność danego serwisu. Więcej na temat zmiany sposobu obliczania Domain Authority można przeczytać pod tym adresem.
Google przygotowuje rozszerzenie raportu Lighthouse, które jest dedykowane poszczególnym systemom CMS. Zamiast ogólnych wskazówek narzędzie ma dostarczać informacji na temat tego, jak zalecenia z audytu Lighthouse wdrożyć w danym systemie. Pierwszym wspieranym przez Google Lighthouse CMS-em ma być WordPress. Rozważane są dwie możliwości działania nowej funkcji – Lighthouse automatycznie wykryje CMS i poda dodatkowe, przeznaczone dla systemu wytyczne, albo w narzędziu pojawi się przełącznik, który pozwoli przejść do zaktualizowanej wersji narzędzia. Więcej na ten temat można dowiedzieć się pod tym adresem.
Google nie ustaje w pomysłach, w jaki sposób zachęcić webmasterów do optymalizacji wydajności i szybkości działania stron. W lutym udostępniona została gra oparta na wynikach z Google Lighthouse, która polega na niszczeniu wskazanych przez narzędzie błędów przedstawionych w postaci asteroid. Im lepiej zoptymalizowana jest witryna, tym większą moc uderzenia w asteroidę uzyskuje użytkownik. Aby zagrać i sprawdzić w ten sposób szybkość swojej strony, wystarczy wejść na https://perfgame-206511.appspot.com/ i wpisać nazwę swojej witryny.
Agencja influencer marketingu GetHero opublikowała pierwsze badanie użytkowników TikTok w Polsce. Aplikacja umożliwiająca dzielenie się krótkimi filmikami urozmaiconymi o filtry i nakładki cieszy się w naszym kraju coraz większą popularnością, zwłaszcza wśród pokolenia Z. Kim są polscy użytkownicy aplikacji, co pochłania ich wolny czas i jakie treści oglądają? Zestawienie danych na ten temat w formie ikonografiki można znaleźć pod tym adresem.
Na stronie brandbuddies.pl można znaleźć autorski system, który pozwala kompleksowo ocenić pracę influencera i porównać kilku z nich, aby jak najlepiej dobrać osobę do konkretnych działań promocyjnych marki. Ranking wiarygodności influencera uwzględnia takie wskaźniki, jak historia przyrostów jego kanałów, zaangażowanie użytkowników, oceny i referencje od agencji i marek, a także czynniki ryzyka współpracy z twórcą i negatywne interakcje. Program do analizy influencerów jest dostępny tutaj.
Wyłapaliście nowości, o których nie wspomnieliśmy w artykule? Podzielcie się nimi w komentarzach!
Jednym z ponad 200 czynników, wpływających na pozycje serwisu w wyszukiwarce, jest profil prowadzących do niej linków. Zdarza się, że wiele z nich pochodzi z domen słabej jakości lub nawet spamerskich, które mogą powodować spadki pozycji fraz kluczowych lub nałożenie kary przez Google. Jak zidentyfikować szkodliwe linki oraz jak się ich zrzec przy pomocy Google Disavow? Zapraszam do lektury.
Google Disavow to narzędzie, służące właścicielom stron internetowych do zrzekania się linków przychodzących, które, w ich ocenie, wpływają negatywnie na autorytet danej domeny. Dostęp do niego można uzyskać pod tym adresem.
Dzięki temu narzędziu możliwe jest zgłaszanie pojedynczych linków lub domen. W dalszej części artykułu przeczytasz o tym, jak go używać. Zanim jednak do tego przejdziemy powinieneś wiedzieć, gdzie szukać informacji o linkach przychodzących oraz jak je analizować.
Aby lepiej poznać listę linków prowadzących do danej domeny można zrobić to na przynajmniej kilka różnych sposobów. Poniżej wymieniam kilka z nich.
1. Google Search Console
Najlepszym darmowym sposobem jest skorzystanie z Google Search Console, będącym obowiązkowym narzędziem każdego, kto zajmuje się SEO. Z powodu tego, że w starej wersji tego narzędzia obecnie niemożliwe jest wygenerowanie raportu linków przychodzących, wskażę jak można zrobić to w nowej wersji, która jest uruchamiana domyślnie po zalogowaniu.
Kiedy już znajdziemy się w nowym GSC, klikamy w zakładkę „Linki”, gdzie otrzymujemy dostęp do fragmentu linków przychodzących, jakie znalazły roboty Google. Niestety Google nie udostępnia pełnej ich listy:
Możemy w tym miejscu przejrzeć:
W tym przypadku, kiedy interesuje nas uzyskanie szybkiego dostępu do pełnej listy linków, klikamy na przycisk „Wyeksportuj linki zewnętrzne”, dostępny w prawym górnym rogu ekranu. Po rozwinięciu listy wybieramy „Więcej przykładowych linków” i w zależności od preferencji pobieramy plik CSV lub generujemy arkusz Google z danymi. Przypominam, że nie otrzymamy tutaj wszystkich odnośników do naszej domeny, znajdujących się w Internecie, a jedynie pewnej wielkości ich próbkę, dlatego należy wspierać się innymi narzędziami.
2. Wyszukiwarka z odpowiednimi operatorami
Innym, szybkim sposobem na sprawdzenie linków przychodzących, jest wpisanie komendy „link:domena.pl -site:domena.pl” do wyszukiwarki Google. Dzięki niej otrzymamy listę stron, na której pojawia się link do naszej witryny. Nie jest to wygodna i szybka metoda, jednak może zapewnić nam szybki dostęp do wiedzy na temat losowej próbki odnośników, prowadzących na przykład do naszej konkurencji. Należy pamiętać, że linki nie są ułożone według ich „mocy” czy istotności.
3. Ahrefs
Ahrefs jest jednym z najbardziej popularnych płatnych narzędzi do analizy linków przychodzących. Zawdzięcza to bardzo dużej bazie. Oprócz tego posiada szereg przydatnych funkcji, takich jak analiza ruchu na stronie z danych słów kluczowych, czy wyszukiwarka nowych fraz. Ahrefs pozwala także na skorzystanie z 7 dniowej wersji trial.
Chcąc skorzystać z raportu linków kierujących do danej domeny, użyjemy tutaj sekcji „Linki zwrotne”. Możemy tutaj wybrać wszystkie odnośniki lub tylko jeden link na domenę (co znacząco może ograniczyć ich liczbę do analizy).
Raport z Ahrefsa, w przeciwieństwie do Google Search Console, daje nam już pewne informacje oraz pogląd na parametry konkretnych linków i domen. Przykładowo będą to „Domain Rating”, anchor linka, czy ilość linków wychodzących z danej podstrony. Dzięki temu możemy je podzielić na te wartościowe, potencjalnie szkodliwe oraz te, których nie jesteśmy pewni i będą wymagać bardziej szczegółowej analizy. Oczywiście istnieją osobne narzędzia, służące do analizy profilu linków. Jednym z nich jest Clusteric, o którym będę jeszcze wspominał.
4. Majestic
Majestic, podobnie jak Ahrefs, jest narzędziem płatnym, jednak pozwala na wypróbowanie niektórych jego funkcji po zarejestrowaniu. Po wpisaniu adresu domeny, którą chcemy sprawdzić, otrzymujemy podstawowe informacje o wskaźnikach jej dotyczących.
Aby przejść do listy wszystkich linków przychodzących, znajdujących się w bazie w bazie Majestica, należy użyć zakładki „Backlinki”.
Po przejrzeniu części z nich możemy wygenerować raport na podstawie jednego, trzech, dziesięciu lub wszystkich backlinków na domenę (czerwona ramka). Możemy również stworzyć listę bogatszą o linki już nieistniejące na danych stronach (niebieska ramka).
Mamy wówczas pogląd na to, skąd pochodziła część linków. Może się okazać, że były cenne i warto pomyśleć nad ich ponownym pozyskaniem. Kiedy już pozyskaliśmy oczekiwane dane, możemy kliknąć przycisk „Eksportuj dane”, dzięki któremu wygenerujemy odpowiedni raport. Podobnie, jak w przypadku Ahrefsa, uzyskamy w Excelu informacje na temat każdego linka, które pozwolą nam na ich wstępną selekcję. Narzędzi do badania linków przychodzących jest oczywiście więcej, jednak opisałem jedynie te najbardziej popularne.
W chwili, kiedy mamy już listę linków prowadzących do naszej witryny, możemy ja analizować przy pomocy informacji, które uzyskaliśmy wcześniej w raporcie z Ahrefsa lub Majestica. Możemy również skorzystać z innych narzędzi, które pomogą nam w zbiorczej analizie. Może być to na przykład Clusteric, który wystawi za nas ocenę danemu linkowi i poda o nim więcej niestandardowych informacji. Więcej o tym programie przeczytasz w dalszej części artykułu.
W ocenie linka lub domeny najistotniejsze będzie przyjrzenie się odpowiednim parametrom, uzyskanych z tych lub innych narzędzi. Poniżej opisałem wybrane wskaźniki pomagające w ocenie danego linka lub domeny.
1) Trust Flow (TF), dostępny w Majesticu – w uproszczeniu określa jakość linków przychodzących do danej domeny. Im wskaźnik jest wyższy, tym domena będzie lepszej jakości. Jeśli jest bliski zeru oznacza to, że linki z tego serwisu prawdopodobnie nie będą miały dla nas dużej wartości. Jego maksymalna wartość może wynieść 100.
2) Domain Rating (DA) oraz Rating URL (UR) – są wskaźnikami Ahrefsa, określającymi popularność i autorytet danej domeny (DA) oraz podstrony (UR). Ich wartości mogą wynieść od 0 do 100. Im są wyższe, tym lepiej. Oczywiście spoglądając na powyższe wskaźniki (TF, DA, UR) warto mieć punkt odniesienia w pozostałych linkach prowadzących do danej domeny.
Dodatkowo wspomnę o tym, że badając profil linków warto wziąć jako punkt odniesienia kilku bezpośrednich konkurentów dla naszej witryny. Pozwoli to na określenie średniego wskaźnika TF panującego w branży, w jakiej się znajdujemy, i w następnej kolejności określenie realnego możliwego do osiągnięcia TF.
3) Ilość linków wychodzących z danej domeny (wskaźnik dostępny w Majesticu oraz Ahrefsie) – im mniej linków wychodzących z danego portalu, tym możemy przyjąć, że trudniej je na nim zdobyć. Może to oznaczać, że posiadając na nim choć jednego linka będzie dla nas przydatne. I odwrotnie, jeśli ilość linków wychodzących jest duża, może nas to prowadzić do stwierdzenia, że każdy użytkownik z łatwością będzie mógł umieścić tam odnośnik do swojej strony, a sam portal jest „zaspamowany” i nie ma dla nas dużej wartości. Oczywiście należy również sprawdzić jaki jest stosunek linków wychodzących, posiadających atrybut „dofollow” do tych z atrybutem „nofollow”. Jeśli większość to „dofollow”, oznacza to w uproszczeniu, że portal przekazuje sporą ilość swojej „mocy” dalej.
3) Estymowany ruch na danym portalu z organicznych słów kluczowych (dostępny w Ahrefsie) – możemy dowiedzieć się dzięki temu czy ruch z wyszukiwarki w danych portalu rośnie, maleje, czy prawdopodobnie nie ma go w ogóle.
4) Rodzaj anchor-tekstu danego linka (dostępny w Majesticu i Ahrefsie) – istotne jest przyjrzenie się anchorom linków pochodzących z danej domeny pod kątem ich zawartości. Rozpatrując je pod kątem robotów Google, najbardziej bezpieczne wydają się anchory, zawierające cały adres URL danego linka, np. https://domena.pl/link1/link2. Najmniej bezpieczne są tzw. exact-matche, czyli anchory wyłącznie z tekstem frazy kluczowej, np. „pozycjonowanie warszawa”. Duża ich ilość przy słabej jakości profilu linków może okazać się bardzo szkodliwa.
5) Język, jaki używa dana strona www – należy zwrócić szczególną uwagę na linki pochodzące z krajów odległych od rynku, na którym działamy, np. z Chin. Może się okazać, że tego typu strony zagraniczne istnieją jedynie po to, żeby szkodzić innych witrynom. Możemy rozpoznać je po tym, że nie ma na nich naturalnych treści, ale np. same listy linków lub słowa związane z pornografią. Oczywiście poza takimi wypadkami linki zagraniczne są również bardzo przydatne.
6) Data rejestracji domeny – jeśli dana domena została zarejestrowana stosunkowo niedawno, a posiada wiele linków wychodzących z atrybutem „dofollow”, może to oznaczać, że nie jest zbyt wartościowa.
Powyższe wskaźniki są jedynie kilkoma z tych, na które można zwracać uwagę analizując linki oraz domeny i mogą okazać się niewystarczające w ocenie. W przypadku, kiedy nie jesteśmy pewni swojej oceny i nie wiemy, czy linki z danej strony mogą być dla nas szkodliwe, warto przejrzeć wątpliwej jakości linki. Jak to zrobić? Zwyczajnie – wchodząc na daną stronę i oceniając jej wygląd, otoczenie tematyczne danego linka, prowadzącego do naszej witryny oraz to, czy serwis prowadzi aktywną działalność. Oprócz tego warto zbadać widoczność portalu w wyszukiwarce pod kątem fraz kluczowych, dzięki narzędziom takim jak Senuto czy SemStorm. Wskażą one ilość słów, na jakie pojawia się dana domena. Przykładowo: na pierwszych dziesięciu miejscach w Google. Jeśli jest ich niewiele lub nie ma w ogóle, prawdopodobnie serwis nie będzie miał dla nas dużej wartości dodanej.
Jeśli chcemy poświęcić więcej czasu na analizę, to dodatkowym narzędziem, które może pomóc nam w przyjrzeniu się historii danej domeny jest https://web.archive.org/, gdzie po wpisaniu adresu URL, otrzymamy historyczną wersję serwisu z wybranych dni. W ten sposób możemy sprawdzić, czy przed miesiącem lub rokiem dana strona nie była np. narzędziem wyłudzania danych lub pieniędzy użytkowników, bądź też stroną z zawartością pornograficzną.
Wiele z wymienionych przeze mnie powyżej wskaźników i parametrów linków oraz domen uzyskamy zbiorczo, wykorzystując do analizy program Clusteric, o którym wspominałem wcześniej. Mając listę linków z GSC, Majestica, Ahrefsa lub innych narzędzi możemy wkleić je bezpośrednio do Clusterica i pozwalając mu na „lekką” lub „ciężką” analizę profilu linków. Poniżej znajduje się przykładowy widok z ustawiania lekkiej analizy przed jej wykonaniem:
Jak widać istnieje możliwość umieszczenia linków w programie poprzez wczytanie ich z różnego typu plików. Można również bezpośrednio je wkleić ze schowka.
Po wpisaniu badanej domeny, uzupełnienia czynników językowych oraz wybraniu odpowiednich kategorii, które są z nią związane, klikamy „Analizuj”. Później należy wybrać jak dużo linków na daną domenę powinien przebadać Clusteric. Kiedy program skończy swoją pracę otrzymamy raport, który możemy analizować bezpośrednio w tym narzędziu, bądź wyeksportować go do Excela.
Jeśli decydujemy się na pozostanie w programie, to co zobaczymy to wskaźniki, o których wspominałem już wcześniej, a także wiele innych. Ze względu na to, że Clusteric ma ogromne możliwości nie będę omawiał ich w tym artykule. To, co najbardziej nas interesuje, to ocena wystawiona przez Clusterica danemu linkowi. Może być ona zobrazowana za pomocą:
Obok wymienionych tutaj wskaźników możemy nadać własną ocenę danemu linkowi po jego uprzedniej analizie.
Nie musimy też oczywiście analizować każdego linka osobno. W przypadku, kiedy widzimy, że dana domena posiada wysoki autorytet, możemy się skupić na niej samej. Wszystko zależy od danego przykładu. Im więcej analiz przeprowadzimy, tym możemy dojść do większej wprawy w ich wykonywaniu oraz będziemy zauważać wiele zależności, które pozwolą na skrócenie czasu trwania pojedynczego badania.
Kiedy mamy już wybrane pojedyncze linki oraz domeny, które chcemy zgłosić, możemy przystąpić do przeniesienia ich do pliku .txt, przy czym należy pamiętać o zachowaniu kodowania UTF-8. W pliku powinny znajdować się jedynie te linki, których chcemy się zrzec. Jeśli używamy również domen, to dodajemy w odpowiednim wierszu komendę: „domain:”. Plik może również zawierać nasze komentarze na temat danych linków. Należy tutaj pamiętać o rozpoczynaniu w takim przypadku wiersza z użyciem symbolu „#”. Poniżej znajduje się przykładowy plik, gotowy do przesłania w Google Disavow:
Aby przesłać plik w narzędziu należy przejść na stronę: https://www.google.com/webmasters/tools/disavow-links-main, zalogować się do Google Search Console, na którym znajduje się dana strona oraz wybrać ją z listy:
Po kliknięciu w przycisk „Ignoruj linki” zostaniemy dodatkowo zapytani, czy na pewno chcemy użyć tej funkcji. Klikamy odpowiedni przycisk i następnie możemy wybrać plik z naszego dysku. Po jego przesłaniu otrzymamy informację o tym, czy narzędzie mogło poprawnie zinterpretować przesłane mu dane. Poniżej widzimy, że program wykrył 1 szkodliwą domenę oraz 2 szkodliwe linki. Wszystko się zgadza, więc możemy kliknąć „Wykonano”. Powinniśmy wówczas na naszą skrzynkę mailową otrzymać powiadomienie o tej operacji z Google Search Console.
Po wykonaniu wszystkich czynności pozostanie nam już tylko oczekiwać odpowiednich efektów i wzrostu pozycji lub pozbycia się filtra od Google. Należy pamiętać, że w przypadku, gdy wykonamy kolejną analizę tej samej domeny i stworzymy nowy plik tekstowy, musimy zawrzeć w nim już wcześniej zgłoszone strony, ponieważ istnieje jedynie możliwość podmiany obecnego już pliku w narzędziu Google Disavow. Nie ma możliwości dodania kolejnego pliku.
Analiza profilu linków to często długa i mozolna praca, w której lepiej polegać na wiedzy i doświadczeniu ekspertów, dzięki temu możemy być pewni otrzymanych wyników. Skontaktuj się z nami i poznaj ofertę, klikając w banner poniżej.
Google Moja Firma i nowa usługa – kontakt poprzez SMS. Nowe rozwiązanie ma przyspieszyć wymianę informacji pomiędzy użytkownikami. Wzrost budżetu na działania link buildingowe o 31 procent. Jak przyszłość czeka SEO? A na koniec odpowiedź na pytanie kim jest nowy konsument i czym dla Google jest charakterystyczny i wszechstronny content. Pierwsze w tym roku nowinki SEO i Content Marketingowe już na blogu. Zapraszamy do lektury.
Co wydarzyło się w roku 2018 w SEO? Senuto przygotowało podsumowanie najważniejszych ubiegłorocznych wydarzeń, sprawdzając przy okazji, w jakim stopniu spełniły się prognozy na 2018 rok. Ranking Senuto dostępny jest pod tym adresem: http://www.senuto.com/rok-2018-w-seo/
Linkhouse po raz kolejny przeanalizował trendy w branży link buildingu. Jak pod tym względem wypadł rok 2018? Okazuje się między innymi, że średni budżet na działania link buildingowe wzrósł o 31% względem roku 2017 i wyniósł 1852 złote. Z całym raportem można zapoznać się pod tym adresem:
https://linkhouse.co/link-building-w-polsce-2018-wyniki-badania/
Co czeka branżę SEO w 2019 roku? Odpowiedzi na to pytanie można szukać w przeprowadzonym przez Ashley Berman Hale i Johna Muellera webinarze poświęconym przyszłości SEO. W rozmowie poruszono szereg tematów, w tym sporo zagadnień dotyczących technicznych aspektów SEO. Nagranie wraz z podsumowaniem znajduje się pod tym adresem:
https://www.deepcrawl.com/blog/events/webinar-recap-future-of-seo-john-mueller-ashley-berman-hale/
Google stopniowo kończy działanie starej wersji Search Console. 13 grudnia z narzędzia zniknęły następujące raporty: Analityka wyszukiwania, Linki do Twojej witryny, Linki wewnętrzne, Ręczne działania, Obsługa na urządzeniach mobilnych, Stan indeksowania. Aby z nich skorzystać, należy użyć nowego GSC. Więcej informacji na ten temat można znaleźć tutaj:
https://searchengineland.com/google-to-redirect-old-search-console-reports-to-new-ones-dec-13-309232
W Google Moja Firma pojawiła się nowa funkcja, która umożliwia klientom wysyłanie wiadomości SMS z poziomu wyników wyszukiwania. Ma ona na celu przyspieszenie wymiany informacji z użytkownikami, którzy znaleźli wizytówkę firmy w Google. Informacja dotycząca otrzymywania SMS-ów od klientów dostępna jest tutaj:
https://support.google.com/business/answer/7177958?hl=pl
Google stworzyło liczący 108 stron ebook poświęcony optymalizacji UX sklepów internetowych, której celem jest zwiększenie liczby konwersji i sprzedaży. Publikacja Google omawia między innymi elementy takie jak menu i nawigacja, wyszukiwanie, kategorie i produkty czy budowa formularzy. Wszystko poparte jest przykładami rozwiązań ze stron znanych marek. Ebook można znaleźć pod tym adresem: https://services.google.com/fh/files/events/pdf_retail_ux_playbook.pdf
Oprócz tego dostępne są poradniki dedykowane różnym branżom:
Real Estate:
https://services.google.com/fh/files/events/pdf_realestate_ux_playbook.pdf
News and Content:
http://services.google.com/fh/files/events/pdf_news_ux_playbook.pdf
Travel:
http://services.google.com/fh/files/events/pdf_travel_ux_playbook.pdf
Finance:
http://services.google.com/fh/files/events/pdf_finance_ux_playbook.pdf
Marketing przy kawie przedstawia garść statystyk dotyczących nowego pokolenia konsumentów. Co odróżnia konsumentów z pokolenia Z od nabywców z generacji milenialsów czy pokolenia X? Komu ufają, na co zwracają uwagę przy wyborze produktów, jaki format działań reklamowych wpływa na ich decyzje reklamowe? Na te pytania próbuje odpowiedzieć artykuł:
https://marketingprzykawie.pl/artykuly/wspolczesny-konsument-rzeczywiscie-nowy-konsument/
Moz wyjaśnia, czym według Google charakteryzuje się wszechstronny i kompletny content. Podpowiada również, jakie warunki musi spełnić treść, aby została uznana przez wyszukiwarkę za wartościową. 5 cech wyczerpującego contentu można znaleźć pod tym adresem:
https://moz.com/blog/content-comprehensiveness
Platforma learningowa dla web developerów, nowa wersja PageSpeed Insights i zmiany w GSC – w listopadzie Google zasypało nas aktualizacjami swoich narzędzi. Sprawdź, o czym koniecznie należy pamiętać, aby dobrze przygotować się do świątecznego sezonu!
Dziś pierwszy dzień szkoły, co oznacza pierwszy powakacyjny przegląd branżowych newsów. W tym miesiącu kilka słów o nowej aktualizacji algorytmu Google, testach nowego wyglądu wyszukiwarki i nowym raporcie IAB o content marketingu. Zapraszamy na bloga!
1 sierpnia Google powiadomiło o rozpoczęciu aktualizacji algorytmu, która wywoła spore wahania w rankingu. Szczególnie duże spadki odnotowała branża medyczna – nie pojawiła się jednak żadna oficjalna informacja, która potwierdziłaby, że ich przyczyną jest najnowszy update wyszukiwarki. Jak podaje Google, aktualizacja dotyczyła rdzenia algorytmu i jest jedną z kilku tego typu zmian wprowadzanych w ciągu roku. Więcej na ten temat można przeczytać tutaj: https://www.seroundtable.com/google-search-algorithm-update-26141.html
W ostatnim czasie wersja beta Search Console została wzbogacona o trzy nowe funkcjonalności. Należą do nich: możliwość zarządzania użytkownikami danej domeny, dodawania i weryfikacji domen, a także dostęp do zakładki „obsługa na urządzeniach mobilnych”. Więcej informacji na ten temat można znaleźć tutaj: https://www.seostation.pl/wiedza/search-console-beta-z-nowymi-funkcjami
Google oficjalnie wycofało Submit URL, czyli pojawiające się w wynikach wyszukiwania narzędzie do przesyłania adresów do indeksacji. Teraz URLe można zgłaszać jedynie za pomocą Search Console lub bezpośrednio w sitemapie. Więcej informacji na ten temat dostępnych jest tutaj: https://www.seroundtable.com/google-public-submit-to-index-tool-going-away-26097.html
Google testuje nowy design wyszukiwarki. Główne zmiany obejmują pomniejszenie logo, zaokrąglenie krawędzie paska wyszukiwania, a także przypięcie go do górnej części strony, dzięki czemu jest widoczny podczas przewijania wyników. Testowany wygląd można zobaczyć pod tym adresem: https://searchengineland.com/google-confirms-testing-new-search-results-design-with-sticky-header-rounded-search-bar-304681
Ze względu na liczne problemy związane z niekompletnymi migracjami stron Google zaczęło wysyłać powiadomienia dotyczące błędów wynikających z przejścia z HTTP na HTTPS. Przesyłane komunikaty zawierają m.in. informacje o procencie zaindeksowanych wcześniej stron HTTP, których po migracji nie udało się odnaleźć ani w wersji HTTP, ani w HTTPS. Więcej na ten temat można przeczytać tutaj: https://www.seroundtable.com/google-https-gone-wrong-notifications-26225.html
Szymon Słowik przedstawia swoją subiektywną listę przydatnych narzędzi SEO oraz opisuje mniej znane funkcje Senuto. W artykule można między innymi przeczytać o rozwiązaniach oferowanych przez SEO SpyGlass, Sitebulb, SurferSEO czy SEOquake. Ranking dostępny jest pod tym adresem: http://www.senuto.com/narzedzia-seo-ktorych-prawdopodobnie-nie-uzywasz-a-powinienes/
IAB Polska opublikował coroczny raport, w którym nie zabrakło najnowszych badań na temat content marketingu. Według publikacji content jako formę pozyskiwania odbiorców wykorzystuje większość firm, a duża część z nich deklaruje, że odnosi na tym polu sukcesy. Z raportu wynika również, że coraz istotniejszą rolę zaczyna odgrywać reklama natywna i wirtualna rzeczywistość (VR). Największym wyzwaniem dla branży ma być natomiast analityka. Raport można pobrać z tej strony: https://iab.org.pl/aktualnosci/raport-internet-20172018-content-marketing/
Interaktywnie.com udostępniło raport na temat wideo w internecie, w tym sposobów wykorzystania tej formy reklamy w content marketingu. W podsumowaniu między innymi komentarz Krzysztofa Zacha, specjalisty Programmatic w Semahead, który wyjaśnia trudności związane wideo na Facebooku. Raport jest dostępny pod tym adresem: https://interaktywnie.com/biznes/artykuly/raporty-interaktywnie-com/raport-interaktywnie-com-wideo-w-internecie-2018-257812
W sierpniu ubiegłego roku stworzyliśmy raport, który szczegółowo opisywał platformy do udostępniania treści w kampanii SEO. Aktualnie nie dostępny: https://semahead.agency/blog/raport-platformy-udostepniania-tresci-kampanii-seo.html. Raport cieszył się dużym zainteresowaniem, dlatego postanowiliśmy rozszerzyć go o platformy działające nie tylko na rynku polskim, ale przede wszystkim na rynkach zagranicznych.
Pozyskiwanie linków jest nieodłączną częścią kampanii SEO, zwłaszcza na tak trudnych rynkach jak amerykański, dlatego rekomendujemy wykorzystywanie sprawdzonych i zaufanych rozwiązań, które precyzują jakość dostępnych stron. Zapraszam do lektury i dzielenia się własnymi spostrzeżeniami na temat platform.
UK, USA, Australia. Publikacje tylko w języku angielskim, domeny .com, .co.uk, .net, .org.
Fatjoe.co to agencja, która wykonuje link building premium oraz usługi tworzenia contentu. Współpracuje z firmami na 12 różnych rynkach. Obsługa tylko w języku angielskim. Teksty tworzone są przez copywriterów z UK i USA.
Usługi:
Blogger outreach service
Usługa, która zapewnia dostarczanie mocnych linków wraz z contentem z prawdziwych, wysokich jakościowo i sprawdzonych blogów. Możliwe jest wybranie DA bloga, na którym opublikowany zostanie tekst. Wszystkie pakiety zawierają możliwość śledzenia publikacji w panelu użytkownika oraz eksportowania ich w formie CSV. Teksty mają długość ok. 500 słów, za dodatkową opłatą teksty mogą być dłuższe. Na stronie http://fatjoe.co/blogger-outreach/#examples podejrzeć można przykładowe portale, które publikują treści. Teksty nie są tekstami sponsorowanymi, nie mogą wprost mówić o kliencie lub jego usłudze, będą one luźno nawiązywały jednak do tematyki strony i bloga. Zleceniodawca nie ma możliwości wcześniejszego zatwierdzenia tekstu. Content publikowany jest na min. 90 dni, zwykle nie jest jednak po tym czasie usuwany.
Uwaga! W kwestii branży dla dorosłych, hazardu i leków ceny mogą być wyższe.
Publikacje sprzedawane są w kilku pakietach:
Local Business Citations
Dodawanie wpisów w katalogach lokalnych (NAPach). Obowiązuje dla firm, które posiadają siedzibę w UK, USA, Australii lub Kanadzie. Po wykonaniu usługi dostarczany jest raport. Można także na bieżąco śledzić wpisy w panelu klienta. Wpisy tworzone są przez ludzi i dodawane ręcznie. Przykłady katalogów lokalnych: http://fatjoe.co/local-business-citations/#examples. Jeśli w katalogu jest już wpis, ale brakuje mu jakiś danych, zostaną one dodane za mniejszą kwotę. Ok 50% z dodawanych katalogów pozwala na umieszczenie linka i ok. połowa z nich zezwala na linki follow.
Uwaga! Wszystkie wpisy zawierają ten sam opis biznesu.
Wpisy sprzedawane są w pakietach:
Press Release Distribution
Newsy w mediach online. W ofercie znajduje się od 30 do 450 pewnych publikacji. Artykuły pisane są przez profesjonalistów, wiadomości te pojawiają się w Google News. Na żywo można śledzić swoje publikacje. Tematem newsa może być każda wiadomość, która informuje o nowościach (nowa firma, krok milowy w historii firmy, nowy produkt lub usługa, nowy pracownik, etc.) Podsumowanie w formie raportu. Przykłady mediów online: http://fatjoe.co/press-release-distribution/#examples
Stworzenie artykułu kosztuje $25, news tworzony przez profesjonalistów, zawiera od 400-600 słów oraz multimedia. Tekst przed publikacją musi zostać zatwierdzony przez zleceniodawcę. Jego stworzenie trwa 3 dni. Linki w takich publikacjach zwykle są nofollow, ok. 25 (połowa z najmniejszego pakietu) linków jest dofollow, niektóre publikacje nie zawierają linków. Współpracują z ok. 600-700 różnymi mediami online.
Publikacje sprzedawane są w pakietach:
Infographic Outreach Service
Za pomocą platformy można zamówić stworzenie infografiki oraz jej publikację na blogach z linkiem do strony. Content zawarty w publikacji to 100-300 słów. Infografiki tworzone w kolorze brandu lub strony internetowej, z estetycznym projektem. Grafiki, przyciski wysokiej jakości, dostarczony plik w pełni nadaje się do późniejszej edycji. Przykłady wykonanych infografik: http://fatjoe.co/infographic-design/#examples
Wykonanie researchu i tekstu do stworzenia grafiki: 45$, do 30 różnych elementów (statystyk, faktów), 1 poprawka wliczona, czas trwania – 3 dni.
Stworzenie infografiki to koszt:
Infografiki publikowane są w pakietach:
Języki: angielski, francuski, hiszpański, portugalski, niemiecki, włoski, szwedzki, rosyjski
Blogdash to platforma, która pozwala docierać do ponad 200 tys. blogerów z różnych krajów. Liczba osób współpracujących z platformą wciąż się zwiększa. Jest to łatwa w obsłudze platforma służąca do Blogger Outreach, która usprawnia komunikację między agencjami PR / markami a blogerami. Platforma umożliwia znalezienie, ocenienie, zaangażowanie blogera, a także stworzenie i śledzenie personalizowanej kampanii.
Korzystanie z plaformy jest darmowe lub płatne. W przypadku opcji darmowej dla każdego wyszukania otrzymujemy informacje dotyczące max. 30 blogerów. W opcji płatnej (199$ za miesiąc z możliwością anulowania w każdej chwili) otrzymujemy dostęp do całej bazy 225 000 blogerów. Obsługa jedynie w języku angielskim.
Brand mention
Artykuły publikowane w najlepszych branżowych magazynach, jak Forbes, Inc.com i huffingtonpost.com. Ilość postów dowolna, wykonanie w trakcie 30 dni. Ilość kategorii, do których zostanie dodany wpis jest limitowana. Tekst zoptymalizowany pod SEO, opieka dedykowanego Account Managera. Magazyny dobierane tematycznie. Cena dostosowywana do wymagań zlecającego i ustalana personalnie.
Kampania z blogerami
Artykuł tworzony przez blogera, ilość postów na życzenie klienta, czas wykonania – do ustalenia osobiście. Liczba kategorii, w których opublikowany zostanie post – nieograniczona. Tekst zoptymalizowany pod SEO, opieka dedykowanego Account Managera, pełny raport po wykonaniu usługi. Blogi dobierane tematycznie. Cena dostosowywana do wymagań zlecającego i ustalana personalnie.
Tworząc kampanię mamy możliwość wyboru daty rozpoczęcia i zakończenia, nazwy kampanii, jej widoczności dla blogerów, kategorii, tagów.
Platforma umożliwia kilka rodzajów płatności – gotówką, produktem lub prezentem lub inne – tutaj opisać można swój rodzaj wynagrodzenia i jego wysokość.
Do kampanii dodać można video, zdjęcie, plik tekstowy lub pdf.
Po dodaniu tych danych otrzymujemy dostęp do listy blogerów, spośród których możemy wybierać tych, których chcemy „śledzić”. Na tym etapie otrzymujemy informacje o imieniu i nazwisku blogera, adresie jego bloga, PR i DA. Możemy sprawdzić także profil blogera – to jakie ma oczekiwania względem kampanii, możemy także zobaczyć jego ostatnie publikacje na blogu, rekomendacje od innych użytkowników i aktywność blogera w social media. Możemy także filtrować dostępne strony blogerów po preferencjach, aktywności w mediach społecznościowych, parametrach SEO, płci, lokalizacji, języku, etc.
Po wybraniu blogerów możemy zachęcić ich do podjęcia zlecenia, wymienić maile, doprecyzować zlecenie.
Blogerzy samodzielnie konstruują wymagania dotyczące publikacji na ich blogach. W profilu każdego blogera udostępnione są informacje dotyczące tego jakiej oczekują płatności / wynagrodzenia za post. i czy publikują za darmo, jakiego typu posty tworzą i z jakiej kategorii.
Języki: angielski, niemiecki, hiszpański, francuski, włoski
Platforma Matomy SEO służy nie tylko do promowania contentu, ale także do pozyskiwania linków oraz promocji w social mediach. Za pomocą Matomy SEO można udostępniać treści, ale także tworzyć infografiki, kupować linki tekstowe oraz wyszukiwać podobne domeny, w celu reklamowania się na nich. Linki kierować mogą do dowolnej strony w domenie lub do strony głównej. Dostęp do platformy jest darmowy. Platforma jest prosta w obsłudze, zawiera trzy modły – dla reklamodawców, wydawców i agencji. Oferta agencyjna dostosowywana jest indywidualnie.
W trakcie rejestracji użytkownik otrzymuje możliwość wybrania kraju i języka jakim się posługuje, mimo tego platforma jest w języku angielskim.
Usługa content marketingowa ma na celu zwiększenie widoczności i świadomości marki w konkretnej niszy. Linki pochodzą z wysokiej jakości domen, z blogów oraz witryn internetowych. Content tworzony jest przez wyspecjalizowanych copywriterów – native speakerów. Teksty mogą zawierać zdjęcia, a także linki do innych stron, aby zyskać na wiarygodności. Minimalna ilość postów w zamówieniu to 5. Ceny za publikację wahają się od 250$ do 750$, w zależności od długości artykułu oraz parametrów domeny.
Po dodaniu zamówienia do koszyka otrzymujemy możliwość wybrania 2 kategorii, do których odnosi się publikacja. Należy opisać swoje wymagania co do publikacji, dodać adresy URL do każdej z nich (minimum 5 publikacji) oraz anchor teksty. Największą wadą platformy jest fakt, że na etapie wyboru zamówienia oraz płatności nie dostajemy dostępu do bazy blogów, nie mamy możliwości wybrać ich i wskazać. Jedyną możliwością jest wybranie długości tekstu oraz parametrów, które prezentowane są w 4 pakietach:
Niemcy*, Austria*, Szwajcaria*, Hiszpania, Włochy, Francja, Wielka Brytania, Stany Zjednoczone, Turcja, Rosja, Polska
* Najwięcej blogów dostępnych na rynkach niemieckojęzycznych – ponad połowa całej bazy
Portal służy do publikowania artykułów na blogach. Zapewnia także usługi copywriterskie. Oryginalnie platforma wykonana jest w języku angielskim, a treści przetłumaczone zostały automatycznie, dlatego komunikaty i oferta nie zawsze są zrozumiałe. Na etapie wyboru kampanii lub ofert z giełdy platforma nie udostępnia adresów witryn, na których można opublikować materiał. Dostępne są one dopiero po złożeniu zamówienia.
Kampanie
Reklamodawca tworzy przetarg, do którego zgłaszać mogą się wydawcy. Istnieje możliwość ustalenia warunków, jakie muszą spełniać strony wydawców. Reklamodawca sam ustala budżet.
Giełda
Blogatus to rynek wysokiej jakości blogów i czasopism on-line, na których publikować można natychmiast. Przy użyciu różnych opcji filtrowania, słów kluczowych i kategorii należy wybrać odpowiednie miejsce docelowe dla publikacji. Ceny publikacji wahają się od 15€ nawet do 1000€.
Sn2 Networks pisze artykuły w 6 językach – angielski, hiszpański, francuski, niemiecki, rosyjski i polski.
Artykuły wydawane są na portalach w krajach takich, jak: Kanada, USA, Wielka Brytania, Francja, Niemcy, Austria, Hiszpania, Rosja. Lista tych domen znajduje się na stronie głównej wydawcy.
Firma posiada ponad 40 serwisów wydawanych na całym świecie. Dużą zaletą wydawcy jest możliwość zlecenia stworzenia i publikacji artykułów w różnych językach i to właśnie do działań międzynarodowych najbardziej przydaje się Sn2. Nie jest to jednak platforma do udostępniania treści, a publikacje zleca się mailowo.
Artykuły sponsorowane
Artykuły powinny być poprawne i mieć wartość merytoryczną. Tekst może mieć charakter reklamowy. Można umieścić do 5 zdjęć w publikacji. Nie ma ograniczeń co do długości treści. Artykuł zostaje w portalu dożywotnio.
W treści może być wiele linków do reklamodawcy. Można zamieszczać filmy, np. z YouTube (embedować) i kody śledzenia. Artykuł jest promowany na stronie głównej i na wszystkich podstronach serwisu przez 30 dni. Ponadto artykuł zostaje dodany do Facebooka. Możliwa jest także współpraca bezgotówkowa po indywidualnych konsultacjach.
Języki: angielski, niemiecki, włoski, francuski, duński, polski, rosyjski, turecki, hiszpański, portugalski, arabski
Kraje: Niemcy, Stany Zjednoczone, Austria, Belgia, Wielka Brytania
Platforma służy do łączenia brandów z blogerami oraz użytkownikami mediów społecznościowych. Zrzesza:
Za pomocą narzędzia można zwiększyć widoczność marki oraz dostarczyć wysoki jakościowo ruch.
Po rejestracji otrzymujemy dostęp do dashboardu, w którym możemy m.in. dodać kampanię, podejrzeć swoje zamówienia oraz raporty, a także zbanować domeny, w których nie chcemy się reklamować. Otrzymujemy także dostęp do „rynku”, za pomocą którego wyszukamy interesujące nas blogi lub strony. Za darmo można skorzystać z wyszukiwarki i podejrzeć parametry stron, ich adresy url otrzymujemy jednak dopiero po opłacie (od 1 do 5 euro, w zależności od parametrów strony).
Publikacje
Spośród kilku rodzajów publikacji (artykuł, recenzja, tekst redakcyjny) mamy możliwość wybrania interesującej nas usługi. Możemy także możliwość decyzji o temacie publikacji, rodzaju linku, opisu publikacji. Musimy podać także adres URL, do którego ma kierować link w publikacji. Możemy określić minimalne parametry strony. W trakcie przeglądu blogerów możemy zobaczyć ceny, jakie oferują wydawcy za 1 publikację.
Kampania
Każdy reklamodawca może stworzyć własną, niestandardową kampanię, jeśli publikacje oferowane przez platformę nie spełniają jego oczekiwań. Po stworzeniu kampanii czeka się aż influencerzy zaproponują wykonanie zadania. Cena kampanii zależy od nas i możemy zaproponować ją blogerowi. Mamy możliwość przyjęcia zlecenia lub odrzucenia go. Minimalny budżet na kampanię to 100 euro. Po wykonaniu zadania otrzymujemy raport.
Języki: niemiecki, angielski, włoski, francuski, angielski (UK i US), duński, hiszpański, polski
Domainboosting to narzędzie do tworzenia kampanii, dzięki którym zainteresujemy liderów opinii swoją stroną. Największym minusem portalu jest fakt, że należy wpłacić pieniądze na konto w portalu i stworzyć realną ofertę, aby otrzymać dostęp do bazy blogerów. Bez dokonania płatności nie można uzyskać żadnych informacji o stronach, z którymi można współpracować.
Kampania
Jedyną możliwością korzystania z platformy jest stworzenie własnej, personalizowanej kampanii. Należy podać jej nazwę, język oraz tytuł, a także wybrać kategorię. Tekst można napisać samemu lub zlecić to blogerowi. Na tym etapie otrzymujemy także możliwość wybrania atrybutu linku, a także ich ilości oraz odrzucenia wydawców, którzy publikują tylko linki nofollow. Określamy także długość trwania kampanii i czas raportowania.
Języki: angielski, niemiecki, francuski, włoski, hiszpański, polski, portugalski, rosyjski, holenderski, węgierski, szwedzki, turecki, czeski, kataloński, indonezyjski, duński, chiński, rumuński, fiński, wietnamski, norweski, arabski, grecki, japoński
Kraje: Niemcy, Austria, Szwajcaria, Wielka Brytania, Stany Zjednoczone, Hiszpania, Francja, Włochy
Dzięki Seedingup otrzymujemy olbrzymi dostęp do bazy blogerów i influencerów, niemal z całego świata. Jest to niezawodne narzędzie marketingu treści online, za pomocą którego reklamodawcy mogą rozprzestrzeniać treści profesjonalnie, dzięki niezależnym wydawcom. Usługi te są również skutecznym i prostym sposobem na zwiększenie świadomości marki, wizerunku i ruchu, a jednocześnie wzmacniają SEO.
Platforma oferuje wiele rodzajów usług, w zależności od potrzeb. Wszystkie usługi znajdują się jednak w 1 panelu. Nieco przestarzały panel oferuje sortowanie usług po wielu parametrach:
Możemy także wybrać inną usługę, jak marketing dla bloga i kampania SEO, a także usługi contentowe – stworzenie tekstu oraz obrazów.
Post na blogu
Po wybraniu oferty (w tym wypadku post na blogu) typujemy blogerów po konkretnych parametrach:
Możemy także sortować blogi po:
Po przesortowaniu listy blogerów i sprawdzeniu wszystkich parametrów możemy dodać blogera do listy życzeń, uzyskać więcej szczegółów lub zlecić mu wykonanie zadania. Największą wadą platformy jest fakt, że aż do momentu opłacenia zlecenia nigdzie nie możemy zobaczyć adresu strony. Wynagradza nam to jednak fakt, że platforma serwuje olbrzymią ilość parametrów stron.
Z punktu widzenia specjalistów SEO na najlepszą ocenę zasługuje platforma Seedingup, głównie ze względu na największą ilość usług, dużą bazę portali, a także ilość krajów oraz języków, które platforma obsługuje, a także wysokie parametry blogów. Dzięki ogromnemu rozstrzałowi cenowemu na tej platformie każdy reklamodawca znajdzie ofertę odpowiadającą swoim wymaganiom i budżetowi. Seedingup oferuje także możliwość wybrania atrybutu linku i miejsca jego publikacji, dzięki czemu z łatwością można dostosować działania na tej platformie do swojej strategii. Największym minusem Seedingup jest nieco przestarzały layout, który wymaga cierpliwości w zapoznawaniu się, a także fakt, że dostęp do adresów stron otrzymujemy dopiero po opłaceniu zamówienia. Jednakże platforma, na etapie wyboru zlecenia, oferuje ogromną ilość parametrów tych stron, a także informacji o nich, więc wybór jest ułatwiony.
Drugie miejsce w naszej ocenie zajął Blogatus, który nie tylko oferuje dużą bazę portali w świetnych parametrach, ale także obsługuje 11 krajów, zapewnia zdywersyfikowane linki, a także bardzo przystępną cenowo ofertę. Publikacje rozpoczynają się już od 15 euro, co w porównaniu z konkurencyjnymi portalami stanowi niską opłatę.
Na duże uznanie zasługuje także Fatjoe, który uplasował się na 3 pozycji. Przewagą tej platformy jest to, że oferuje bardzo zdywersyfikowane usługi, a jeśli baza portali nie jest odpowiadająca, pracownicy Fatjoe znajdą dla nas własne propozycje. Zachęcająca jest także łatwość w obsłudze, płatnościach i obsługa o najwyższej jakości. Fatjoe wygrywa konkurencję z Blogdash (miejsce 4) a także Matomyseo także ceną swojego produktu, przejrzystym inferfejsem oraz przyjazną obsługą.
Pod względem ilości oferowanych portali wysoko plasuje się Blogdash oraz Matomyseo, jednak obydwa te portale pobierają bardzo wysokie opłaty za dostęp do swoich usług. W przypadku Blogdash, aby podejrzeć bazę wszystkich influencerów należy opłacić dostęp w wysokości 199$. Same usługi nie są niestety wycenione, opłata zostaje podana przez blogera dopiero po zaakceptowaniu przez niego naszych warunków i zapoznaniu się z ofertą. Ocena parametrów blogów dostępnych poprzez ten portal została także wykonana na podstawie niewielkiej próbki 30 stron, więc nie jest ona dokładna. Natomiast Matomyseo oferuje publikacje dopiero od 250$, co stanowi bardzo wysoką cenę. Z tego samego względu również Ranksider nie otrzymał bardziej pozytywnej oceny – aby otrzymać dostęp do adresów stron należy opłacić dostęp do każdego bloga z osobna. Ceny wahają się w zależności od parametrów od kilku do kilkunastu dolarów.
Za nami, kolejny webinar organizowany przez Call Page, który mieliśmy okazję poprowadzić. O narzędziach przydatnych w SEO, opowiadała Karolina Twardosz. Prezentujemy nagranie z tego wydarzenia, prezentację do pobrania oraz odpowiedzi na pytania uczestników webinaru.
Z webinaru dowiesz się m.in:
[su_youtube url=”https://www.youtube.com/watch?v=vg0NnlEnrQM” width=”740″](Film: https://www.youtube.com/watch?v=9UWbASEi7_o)[/su_youtube]
Adam: Jak przekierowanie 301 wpływa ma SEO oraz indeksowanie. Czy można spokojnie używać przekierowań 301 czy lepiej starać się je omijać? Czy wielokrotne użycie przekierowania 301 wpływa negatywnie na indeksowanie podstrony?
Przekierowania 301 nie wpływają negatywnie na SEO oraz indeksowanie pod warunkiem, że linki z takim kodem odpowiedzi nie znajdują się w obrębie witryny oraz w sitemapie. Takie linki należy usuwać z obrębu witryny i sitemapy i umieszczać zamiast nich odpowiedni odnośnik adresu zwracającego kod 200.
Należy również pamiętać aby nie stosować pętli/łańcucha przekierowań, np. http://domena.pl -> http://www.domena.pl -> https://www.domena.pl -> https://domena.pl. Stosowanie pętli przekierowań spowalnia również szybkość ładowania się strony oraz marnuje crawl budget.
Paweł Leśniak: a UBER SUGGEST ?
Ubersuggest jest darmowym narzędziem podobnym do Keyword Plannera. Pomaga w wyszukaniu słów kluczowych i jest kopalnią pomysłów na rozbudowę treści w witrynie lub na blogu. Pokazuje średnią miesięczną ilość wyszukiwań, CPC oraz współczynnik konkurencji. Więcej o narzędziach pomocnych w doborze odpowiednich słów kluczowych (np. Google Trends) oraz szukaniu inspiracji na wpisy blogowe znajdziecie w naszych artykułach:
https://semahead.agency/blog/33-darmowe-narzedzia-wspomagajace-dzialania-seo.html
Paweł Leśniak: a SEM storm ?
Semstorm ma bardzo zbliżone funkcjonalności do Senuto. Pozwala w prosty sposób ocenić kondycję witryny na podstawie analizy widoczności serwisu. W Semstorm możemy również monitorować pozycje fraz. Narzędzie to umożliwia też porównanie danej witryny ze stronami konkurencji oraz analizę słów kluczowych, na jakie serwis jest widoczny w sieci.
Anita Q: Jakie narzędzie poleca Pani do identyfikowania i rozwiązywania problemów z duplikacją treści?
Dwa przydatne i darmowe narzędzia do sprawdzania duplikacji to Siteliner i Copyscape.
Siteliner: http://www.siteliner.com/
Siteliner to narzędzie sprawdzające duplikację treści w obrębie witryny. Pozwala na tworzenie raportu wskazującego powielone słowa, ich procentowy udział oraz adresy zawierające zduplikowane treści.
Copyscape: http://www.copyscape.com/
Copyscape to narzędzie do sprawdzenia unikalności treści w obrębie sieci Internet. W raporcie pokazuje strony zawierające te same fragmenty tekstu. Umożliwia też porównanie dwóch różnych adresów URL (http://www.copyscape.com/compare.php) i wskazuje procent zduplikowanej treści na obu stronach.
Marcin Q: Czy są jakieś, najlepiej darmowe, narzędzia do badania optymalizacji tekstu pod kątem frazy przed wprowadzeniem jej na stronę?
Warto ocenić stronę samodzielnie i sprawdzić, jak duża jest częstotliwość występowania w teście fraz na daną liczbą znaków, czy słowa kluczowe pojawiają się w odmienionej formie, są obecne w nagłówkach.
Istnieją darmowe narzędzia do analizowania zagęszczenia słów kluczowych w tekście http://www.webconfs.com/seo-tools/keyword-density-checker/.
Levon Q: Jak określić czy firma z którą współpracuję w zakresie SEO nie stosuje złych/zakazanych praktyk, albo czy nie generuje całego ruchu przez tzw. zaplecze?
To jest temat na osobny artykuł. Wskazówką mogą być na przykład dodawane przez agencję linki, ich jakość i anchor texty. Warto zwrócić uwagę, by anchor texty były zróżnicowane, czyli nie występowały wyłącznie w postaci exact match, za co Google może nałożyć karę. Wyznacznikiem również powinny być efekty w postaci wzrostu ruchu rok do roku lub w przypadku sklepu internetowego – wzrost przychodów.
Paulina (Wredotek) Q: Można podłączyć stronę do GSC przez GTM? W instrukcjach nic konkretnego nie jest napisane i nie do końca wiem w jaki sposób to zrobić. Jakieś rady?
W tej chwili wystarczy posiadać konto Menedżera tagów Google. Można wtedy zweryfikować witrynę przy użyciu kodu kontenera Menedżera tagów Google. Instrukcje, jak to zrobić, są dostępne pod tym adresem: https://support.google.com/webmasters/answer/35179?hl=pl.
Witam was ponownie w kolejnej części artykułu związanego z programem do automatyzacji działań – Zennoposter. Dziś stworzymy szablon, który będzie odpowiadał za pobieranie danych z Google Search Console. Skupimy się na dwóch zmiennych: Linki do Twojej witryny oraz liczba linków zgłoszonych do mapy witryny w porównaniu z linkami zaindeksowanymi. Wszystkie dane będą zapisywać się automatycznie w pliku excel. Pomoże nam to monitorować podstawowe parametry naszej strony internetowej, a także sprawdzać na bieżąco jak zmieniała się sytuacja naszej witryny pod względem linkowania.
Zaczynajmy!
Pierwszym krokiem będzie stworzenie nowego projektu oraz podanie adresu URL w celu zalogowania się na naszego konto Google gdzie posiadamy zweryfikowane domeny. W module „Go to page” podajemy następujący adres URL: https://accounts.google.com/signin
Jeśli nie pamiętamy w jaki sposób tworzyło się moduł odpowiedzialny za otwierane wybranego adresu URL, wystarczy kliknąć PPM > Add action > Tabs > Go to page.
Następnie w polu URL podajemy nasz adres do konta Google.
W efekcie nasz początkowy moduł powinien wyglądać w następujący sposób:
Następnym krokiem będzie stworzenie modułu odpowiedzialnego za zalogowanie nas do konta Google.
Uruchamiamy tryb Recording (przycisk znajdziemy w lewym górnym rogu). Klikamy PPM w pole logowania, wybieramy opcję Set value from profile > Login. Program przypisze nam losowy login dla pola formularza i stworzy nam nowy moduł.
Edytujemy stworzony moduł i możemy zauważyć zmienną {-Profile.Login-} w polu What. Należy ją zmienić na nasz prawdziwy login dla konta Google, w innym wypadku logowanie nie zadziała.
Jeśli już wpisaliśmy nasz poprawny login (adres e-mail), klikamy PPM na przycisku Next(Dalej) i wybieramy opcję To actions designer. Następnie zadbajmy o to aby w sekcji Search element był wybrany atrybut:class oraz wartość wskazująca na przycisk. Nie zapomnijmy także ustawić w sekcji Select action opcji Rise i klikamy w Add to project. Opis funkcji Set, Get oraz Rise opisałem w ostatnim artykule na temat automatycznych wpisów na Twiterze.
https://semahead.agency/blog/zennoposter-automatyczne-wpisy-twiterze-cz.html
Po etapie wprowadzenia loginu oraz wybrania przycisku dalej, Google poprosi nas o podanie hasła. Postępujemy tak samo jak w przypadku podawania loginu tworząc nowe moduły. W efekcie nasz dotychczasowy schemat powinien wyglądać tak jak na poniższym zrzucie ekranu. Warto dodać także pauzy po każdym wybraniu przycisku Next. W innym wypadku może okazać się że, program zacznie wpisywać hasło zanim załaduje się formularz od Googla.
Pierwszy etap projektu mamy już za sobą, czas zrobić mechanizm który pozwoli nam pobierać dane z Google Search Console. Na samym początku musimy wybrać jedną ze swoich stron z której chcemy zaciągać dane o ilości linków oraz zaindeksowanych stron. Na samym początku wchodzimy w GSC naszej strony internetowej, wybieramy z menu zakładkę „Ruch związany z wyszukiwaniem” i przechodzimy do „Linki do Twojej witryny”. W tym miejscu kopiujemy nasz adres URL, będzie on miał następująca strukturę:
https://www.google.com/webmasters/tools/external-links?hl=pl&siteUrl=http://example.com
Należy teraz stworzyć moduł „Go to page”, który przekieruje nas do powyższej strony internetowej. Nadszedł czas kiedy zapiszemy swoją pierwszą wartość z GSC. Interesuje nas informacja o łącznej liczbie linków dla naszej witryny.
Aby pobrać powyższa wartość postępujemy zgodnie z następującymi krokami:
Edytujemy stworzony moduł i możemy zauważyć że ilość linków z GSC będzie zapisywana do zmiennej „Variable1”. Oczywiście samą nazwę możemy zmienić, jednak na chwilę obecną nie ma takiej potrzeby.
Pobieranie informacji o przesłanych oraz zaindeksowanych linkach
W Google search console wchodzimy w zakładkę Indeksowanie > Mapa witryny i kopiujemy adres URL. Będzie on miał następującą formę:
Tworzymy moduł „Go to page” i umieszczamy w nim powyższy link z naszą stroną internetową.
Aby dodać informację o przesłanych adresach URL do GSC podejmujemy następujące kroki:
Analogicznie postępujemy z informacją na temat zaindeksowanych stron. Z taka różnicą że wybieramy z opcji Search wartość „3”. Pamiętamy że wartość „2” odpowiadała ilości przesłanych adresów URL.
Obecnie nasz moduł powinien wyglądać tak jak na poniższej grafice. Dodałem tutaj także przerwę 3 sekundową pomiędzy pobieraniem ilości linków zgłoszonych, a linków zaindeksowanych.
Otwieramy pierwszy moduł Get value [innertext] i sprawdzamy jaka zmienna jest tam dopisana (powinna być stworzona automatyczna Variable2). Jeśli tak nie jest wchodzimy w moduł, rozwijamy listę „Put tu variable” i wybieramy z listy New…
Ja już wcześniej stworzyłem dwie zmienne:
Do tych zmiennych będę pobierał wartości z Google Search Console. Możemy także zmienić naszą pierwszą zmienną która pobierała ilość linków prowadzącą do naszej strony internetowej. Zamiast Variable0 stwórzmy zmienną IleAdresow.
Jeśli już cały schemat mamy skończony, przetestujmy go klikając przycisk Restart w głównym menu.
Następnie z głównego menu wybieramy zakładkę Windows > Variables. Ukaże nam się nowe okno ze zmiennymi, które wcześniej stworzyliśmy.
Pole Name odpowiada za nazwę zmiennej, natomiast Value to wartość która jest przechowywana w zmiennej i odpowiada danym zaciągniętym z GSC.
Mając już gotowy projekt z poprawnym pobieraniem danych z GSC warto rozważyć ich automatyczne zapisywanie w pliku Excel. Przedstawię to w kilku prostych krokach:
1. Tworzymy nowy plik excel w programie Zennoposter, poprzez kliknięcie PPM na dolny pasek programu i wybranie opcji „Add table”
2. Klikamy PPM na obszarze roboczym i wybieramy Add action > Tables > Table processing
3. Uzupełniamy do którego wiersza oraz kolumny ma zapisywać się pierwsza zmienna (IleAdresow)
4. Analogicznie postępujemy ze zmienną IloscZgloszonych oraz IloscZaindeksowanych. W efekcie powinniśmy uzyskać następujący moduł.
5. Uruchamiamy moduły przyciskiem Play, tak aby pokazały się zielone znaczki po lewej stronie informujące o wykonaniu danego zadania.
6. Ponownie otwieramy nasz plik excel z dolnego menu i zaznaczamy dwie opcje: Load from file oraz Save changes in table to file (dzięki temu nasze zmienne zostaną zapisane do pliku excel). Dodatkowo należy wybrać ścieżkę gdzie ma zapisywać się nasz plik i jaką ma mieć nazwę. Ja zapisałem na pulpicie i nazwałem plik DaneGSC.xlsx.
7. Nasz plik pojawił się na pulpicie, po otwarciu wygląda następująco:
Zachęcam do dalszej rozbudowy szablonu, można stworzyć moduły odpowiadające za wysyłanie informacji z GSC na nasze skrzynki pocztowe oraz zwiększyć ilość pobieranych danych. W tym artykule to już wszystko. Jeśli nie czytałeś wcześniejszych moich artykułów już teraz zapraszam do zapoznania się z nimi.
Koniec roku to czas podsumowań i prognoz, a w branży dużo się dzieje. Zmiana maksymalnej ilości znaków w meta description, zwiększenie zakresu dat w Google Search Console czy odświeżony poradnik dla adeptów SEO, to tylko niektóre prezenty, które w ostatnim czasie otrzymaliśmy od wujka Google. Zapraszamy na ostatnie w tym roku nowinki ze świata SEO i CM.
Maksymalna liczba znaków wyświetlanych w meta description zwiększyła się z około 160 do nawet 320 znaków. Google nie podaje oficjalnej rekomendowanej długości, ale wpis Dannny’ego Sullivana na Twitterze sugeruje, żeby nie tworzyć opisów dłuższych niż 320 znaków. Okazuje się, że po wprowadzonej zmianie większość meta opisów nie przekracza 300 znaków. John Mueller przypomniał z kolei, że meta description nie jest czynnikiem rankingowym. Dodał też, że Google dostosowuje opisy do zapytań użytkowników. Więcej o wydłużeniu meta description można przeczytać na MozBlog: https://moz.com/blog/googles-longer-snippets. Wypowiedź Johna Muellera znajduje się tutaj: https://www.seroundtable.com/google-longer-meta-descriptions-24912.html
Branża SEO otrzymała przedświąteczny prezent – Google zwiększyło zakres dat w filtrach GSC. Na razie aktualizacja dostępna jest w wersji beta. Opcja „performance report” umożliwia podejrzenie wyników z ostatnich 6 czy 12 miesięcy, co znacznie wykracza poza dotychczasowy 90-dniowy limit. Więcej o zmianach w Google Search Console można przeczytać tutaj: https://www.seroundtable.com/google-search-console-more-data-here-24917.html
Google zaktualizowało opublikowany w 2008 roku podręcznik SEO dla początkujących. Poradnik zawiera wszystkie niezbędne informacje dotyczące tworzenia i optymalizacji witryn dobrze współpracujących z wyszukiwarką. Odświeżony starter SEO od Google został uzupełniony o sekcje dotyczące dodawania znacznika danych strukturalnych oraz budowy strony przyjaznej dla urządzeń mobilnych. Podręcznik dostępny jest pod adresem: https://support.google.com/webmasters/answer/7451184.
Google testuje kolejny sposób wyświetlania rozszerzonych wyników wyszukiwania – tak zwanej karuzeli z najbardziej trafnymi odpowiedziami na zapytania z forów internetowych. Pojawienie się nowych boksów w polskiej wersji wyszukiwarki można było zaobserwować w ubiegłym tygodniu. Na razie funkcjonalność widoczna jest jedynie po wpisaniu do wyszukiwarki wybranych pytań w języku angielskim. Najlepsza według Google i głosujących odpowiedź zostaje wyróżniona etykietą „Best Answer”. Więcej na ten temat można przeczytać tutaj: https://www.seroundtable.com/google-best-answer-box-24867.html.
Które czynniki rankingowe mają aktualnie największe znaczenie? Według badań przeprowadzonych przez SEMrush bezpośrednie wejście na stronę internetową czy spędzony na niej czas są istotniejsze niż na przykład słowa kluczowe umieszczone w treści. Pełną wersję raportu zawierającą analizę dwunastu najważniejszych czynników rankingowych można znaleźć pod tym adresem: https://www.semrush.com/ranking-factors/.
Blog Google Polska publikuje coroczne zestawienie haseł, które najbardziej zyskały na popularności w mijającym roku. Jakie tematy zanotowały najszybszy wzrost zainteresowania polskich użytkowników? W rankingu Google znalazły się frazy związane z przyszłorocznym mundialem w Rosji czy skokami narciarskimi. Prawdziwym sportem narodowym Polaków okazuje się jednak grzybobranie – grzyby królują w kategoriach „przepisy” oraz pytań zaczynających się od „jak”. Podsumowanie „Rok w wyszukiwarce” można znaleźć tutaj: https://polska.googleblog.com/2017/12/rok-w-wyszukiwarce-czego-polacy-szukali.html.
Dzielenie się informacjami na temat firm, restauracji, salonów urody – takie zadanie stoi przed lokalnymi przewodnikami Google. Za udostępnianie swoich opinii i zdjęć przewodnicy otrzymują punkty, które następnie mogą wymienić na nagrody. Program uruchomiony przez Google ma na celu zdobycie aktualnych i unikalnych danych na temat lokalizacji widocznych w Google Maps. Więcej na ten temat można przeczytać tutaj: https://mapimedia.eu/lokalni-przewodnicy-google-korzysci-z-uczestnictwa-w-programie/.
LinkedIn jako serwis contentowy i YouTube w roli największej obok Google wyszukiwarki – nieszablonowe podejście do najpopularniejszych platform internetowych to sposób na content marketing, który pozwoli wyprzedzić konkurencję. Publikowanie artykułów na LinkedInie i pozycjonowanie treści na YouTubie to atrakcyjna alternatywa dla powszechnie wykorzystywanego formatu, jakim jest wpis na blogu. O wychodzeniu poza schematy w content marketingu można przeczytać w artykule: https://sprawnymarketing.pl/content-marketing-poza-schematem/.
NowyMarketing podsumowuje sukcesy i porażki 2017 roku w kategorii content marketingu. Specjaliści z polskich agencji i domów mediowych przyglądają się zmianom w branży i przedstawiają swój ranking najważniejszych wydarzeń i najciekawszych trendów ostatnich dwunastu miesięcy. Personalizacja i strategia „customer centric”, marki inwestujące we własne platformy contentowe, sukces Insta Stories – to tylko kilka dowodów na nieustanny rozwój content marketingu. W zestawieniu nie zabrakło również prognoz na rok 2018. Podsumowanie można zobaczyć tutaj: https://nowymarketing.pl/a/16830,nowymarketing-podsumowuje-rok-2017-content-marketing-cz-1
Półmetek wakacji już za nami! Co ma do zaoferowania urlopująca się branża? Nowy interfejs Google Search Console, wyszukiwanie głosowe i chatboty – to popularne tematy, którymi ostatnio żyjemy. Zapraszamy na kolejną odsłonę nowinek z sektora SEO i content marketingu.
Google testuje nowy design i interfejs dla narzędzia Google Search Console. Nowy interfejs jest wzorowany na wprowadzonym rok temu mobile-friendly testing tool. Google testowało wersję beta i umożliwiło testy nowej wersji niektórym użytkownikom narzędzia. Nie wiadomo jeszcze od kiedy GSC zmieni swój interfejs dla wszystkich użytkowników.
http://searchengineland.com/google-beta-testing-brand-new-google-search-console-design-279059
Od pewnego czasu w graficznych wynikach wyszukiwania w wersji mobilnej oraz w aplikacji na Android można zaobserwować pewną nowość – plakietki (ang. badge). W lewym dolnym rogu zdjęcia pojawiają się oznaczenia typu przepis, wideo, GIF lub produkt. Dzięki temu od razu wiadomo, czy po kliknięciu na daną grafikę uzyskamy jej większą wersję czy też kryją się pod nią dodatkowe treści. Więcej na temat tego rozwiązania na stronie Seostation: http://www.seostation.pl/wiedza/plakietki-w-wynikach-graf
Google dodało 30 nowych języków do wyszukiwania głosowego – teraz ich łączna liczba to 119. Dodatkową nowością wprowadzoną przez wyszukiwarkę jest to, że użytkownicy z USA mogą wyszukiwać głosowo emoji – wystarczy tylko, że podadzą ich nazwę. https://www.blog.google/products/search/type-less-talk-more/
Co jest lepsze – adres z www czy bez www? Na ten odwieczny dylemat odpowiedzi udzielił John Mueller w swoim tweetcie. Pracownik Google potwierdził, że dla giganta z Mountain View nie ma to znaczenia, a wybór jednej z tych wersji to jedynie decyzja wizerunkowa. https://twitter.com/JohnMu/status/893011897951375364
John Muller apeluje do branży SEO – uważa, że powinna ona bliżej zapoznać się z działaniem JavaScript. Zadaniem specjalistów SEO nie jest mówienie programistom w jaki sposób mają kodować, ale podpowiadanie, jak wykorzystać JS, tak by treść strony była indeksowana i wysoko oceniana przez Google. https://www.seroundtable.com/google-seo-javascript-24275.html
Gary Illyes z Google poinformował na Twitterze, że sam fakt, iż strona znajdzie się w czyimś pliku disavow, nie oznacza, że automatycznie spadną jej pozycje. Google nie karze bowiem zgłoszonych stron. Dotkliwa w tym wypadku może okazać się jedynie utrata linków. https://www.seroundtable.com/google-disavow-a-site-wont-hurt-24263.html
Czy warto wykorzystać chatbota w swojej strategii content marketinowej? Tak! I to zanim zrobi to twoja konkurencja – taki wniosek płynie z artykułu zamieszczonego na contentmarketinginstitute.com. Zakończone sukcesem wprowadzanie bota wiąże się ze zdobyciem lojalności klientów i zwiększeniem ich zaangażowania, co między innymi przekłada się na liczbę konwersji.
Świetnym przykładem wykorzystania bota w strategii content marketingowej są także ostatnie działania Semahead na Facebooku. Bot został wykorzystany do stworzenia … gry. I to nie byle jakiej, bo gry z nagrodami 🙂 Więcej na FP Semahead:
https://www.facebook.com/semahead/posts/1608873415813796
Raport w strategii content marketingowej to taka forma budowania treści, która angażuje odbiorców i dostarcza im rzetelnego materiału. Dzięki raportom skrojonym na miarę, możemy osiągać ambitne cele marketingowe, takie jak m.in. budowanie wizerunku eksperta, rozszerzanie zasięgu w mediach społecznościowych czy generowanie linków zewnętrznych. Chociaż dobry raport, który rozejdzie się viralowo wymaga uważnego opracowania, wysiłek ten może przełożyć się na wzmocnienie wizerunku firmy. Więcej na temat wartości korzystania z raportów w strategii CM w artykule Semstorm: https://www.semstorm.com/pl/blog/content-marketing/content-marketing-raport
Jak stworzyć dobry raport, który zrealizuje nasze cele? Najlepiej uczyć się od profesjonalistów i połączyć przykład raportu z wiedzą na temat platform do udostępniania treści w kampaniach SEO, czyli zapoznać się z Raportem na blogu Semahead: https://semahead.agency/blog/raport-platformy-udostepniania-tresci-kampanii-seo.html
Wiele firm postrzega personalizację jako trend, a nie jako sposób na zwiększenie sprzedaży, co może być sporym błędem, ponieważ 86% osób twierdzi, że spersonalizowana komunikacja marki wpływa na ich decyzję o zakupie. Aby zaoferować klientowi treści, które mu się spodobają, konieczna jest analiza jego zachowania. W taki sposób działa gigant e-commerce, jakim jest Zalando. Sklep proponuje nabywcy spersonalizowaną stronę oraz mailingi, zawierające podsumowanie jego stylu (ulubione kategorie i kolory ubrań). Wszystko to dzięki technologiom takim jak AI (Artificial Intelligence – sztuczna inteligencja), machine learning, data mining czy marketing automation.
https://interaktywnie.com/biznes/artykuly/trendy/zalando-inpost-i-coca-cola-zobacz-co-laczy-te-marki-255765
Jak co miesiąc, przygotowaliśmy dla was porcję nowości SEO i Content Marketingowych. W tym miesiącu przeczytacie o śmierci dmoz’u, spustoszeniach jakie przyniosła aktualizacja Fred oraz marcowej wpadce Google Search Console. Zapraszamy do lektury.
17 marca 2017 roku zakończyła się era, w trakcie której ludzie próbowali organizować Internet. Największy międzynarodowy katalog został oficjalnie zamknięty. Jak okazało się na początku kwietnia – w ślad za nim poszedł także katalog Onet, który wysłał maile o zakończeniu swojej działalności z dniem 1 czerwca. Czy wróży to koniec katalogów SEO? Czas pokaże …
Funkcja, niedostępna niestety póki co w polskiej przeglądarce, od niedawna sugeruje użytkownikowi podobne do zapytania frazy dynamicznie. Ma to na celu zachęcenie internauty do pozostania na stronie wyszukiwarki po zdobyciu pożądanej informacji i pogłębienia wiedzy na dany temat poprzez kolejne wyszukiwania.
Więcej o zmianach w funkcjonalności People Also Ask na blogu Semahead. Przeczytaj teraz.
Na konferencji SMX West pracownicy Google odpowiadali na pytania uczestników. Padło 39 pytań, które nie pozostały bez odpowiedzi specjalistów. O co zapytano Google? M.in. o ostatni update algorytmu – Fred, szczegóły Knowledge Graph, słowa kluczowe w adresie domeny, kierowanie międzynarodowe oraz wybór pomiędzy subdomeną i katalogiem, a także w wpływ kar nałożonych na subdomeny i wiele innych. Wszystkie pytania i odpowiedzi tutaj.
Po tym jak Gary Illyes na konferencji SMX West powiedział kilka słów o aktualizacji algorytmu, nazwanej Fred, dociekliwi SEOwcy wyciągnęli wnioski dotyczące tego, jakie strony atakuje algorytm. Agencja Artefakt na swoim blogu podsumowała je wszystkie.
Agencja Elephate na blogu Majestic podzieliła się ciekawym case study, o tym jak zwiększać ruch organiczny w bardzo trudnej branży. Większość zastosowanych rozwiązań dotyczy technicznego SEO, które spowodowało aż 676{9f75b044ad8c8fba75c61671f3556dd67129e6440c4de06dd5c4a2623be9263c} wzrostu ruchu na stronie, w trakcie 3 miesięcy. Artykuł Dawida Medwediuka- naszego dawnego współpracownika, przeczytasz tutaj.
W kolejnym odcinku Whiteboard Friday specjalista MOZ Dr. Pete wyjaśnia jakie są podstawowe różnice pomiędzy 301, 302 i canonicalami oraz w jakich sytuacjach najlepiej je stosować. Wykład do oglądnięcia tutaj.
Na swoim blogu Semrush przedstawia 4 najczęstsze przyczyny, przez które wzrost ruchu nie powoduje wzrostu konwersji. Z artykułu dowiesz się, jakie znaczenie ma odpowiednio sformułowane i umieszczone na stronie CTA, jakie problemy wywołują źle dobrane słowa kluczowe oraz dlaczego niechlujne strony nie generują przychodów. Przeczytaj teraz.
Jeśli w marcu z Twojego konta w GSC zniknęły dane, nie przejmuj się! Google Search Console, jak każde narzędzie, czasem się psuje 😉 W marcu miejsce miał poważny bug, który spowodował, że na wielu kontach nie wyświetlały się dane dotyczące ruchu 9 marca. Więcej na ten temat na stronie.
Dave Davies z Search Engine Land ocenił ostatnie badania przeprowadzone w tym temacie i przedstawił swoje wnioski w artykule. Publicysta wyjaśnił m.in. co sam rozumie poprzez termin „quality content” i jaki jest wpływ wysokiej jakości treści na pozycję strony. Dowiedź się więcej.
Enterpreneur przygotował na swojej stronie zestawienie 8 najlepszych platform do publikowania reklam. Wśród zwycięzców znalazły się takie brandy jak Redirect.com, Outbrain czy Taboola. Każda z tych platform umożliwia publikację naszych treści na tysiącach najpopularniejszych portali, przez co zwiększa możliwość monetyzowania contentu. Cynthia Johnson w swoim artykule szczegółowo opisała także największe wyróżniki każdego systemu. Przeczytaj teraz.
Tony Messer – Co-founder i CEO w Pickaweb opisał swoje ulubione sposoby na automatyzację procesów związanych z tworzeniem, udostępnianiem i monitorowaniem treści, które skierują cię na dobrą drogę do opanowania marketingu treści dla Twojej marki. Chcesz wiedzieć jak robią to najlepsi? Przeczytaj artykuł Tony`ego.