Zajrzyj na swoją pocztę, aby poznać szczegóły oferty ;)
Tymczasem, sprawdź nowości na naszym blogu semahead.agency/blog/
Zespół Semahead
Jest taki zawód, który coraz częściej przewija się wśród ofert pracy średnich i dużych sklepów internetowych, agencji marketingowych oraz domów mediowych. Jednorazowe oferty coraz częściej zastępuje rekrutacja stała. Każdy potencjalny kandydat błyskawicznie dostaje zaproszenie na rozmowy, a warunki finansowe dla pracodawców są kwestią drugorzędną. Dlaczego tak się dzieje? I jak stać się dobrym analitykiem internetowym?
Analityk internetowy to stosunkowo młody zawód. Obecny w Polsce zaledwie kilka lat, duże znaczenie zyskał w przeciągu ostatniego roku – dwóch. Najlepszy czas dla analityka internetowego dopiero się rozpoczyna, o czym dobitnie świadczy ilość ofert pracy. Pracodawcy zdają sobie sprawę z tego, że pozyskanie w szeregach firmy utalentowanego analityka pozwala zdobyć przewagę rynkową.
Analityk internetowy to osoba wszechstronnie uzdolniona, która wykorzystując dane, pomaga podejmować lepsze decyzje biznesowe.
Osoba na tym stanowisku musi być przede wszystkim zorientowana biznesowo. Analityk internetowy pracuje przede wszystkim w oparciu o cele, które wyznaczane są zazwyczaj w ramach strony czy aplikacji internetowej. Może być to generowanie nowej sprzedaży, ale także wzrost wyświetleń strony, zwiększanie zasięgu, zwiększenie współczynnika CR, itp.
Analityk to nie tylko ścisłe patrzenie na liczby i słupki. Dobry specjalista powinien odznaczać się dobrze rozwiniętymi kompetencjami miękkimi, a w szczególności umiejętnością dobrej komunikacji. Praca analityka internetowego zawsze wiążę się ze współpracą z innymi zespołami przedsiębiorstwa, m.in sprzedaży, marketingu czy bezpośrednio z zarządem. W rozmowie z przedstawicielami tak różnych profesji niezwykle istotne jest przekonanie rozmówcy o wadze prezentowanych wniosków i danych. Przede wszystkim, przy omawianiu ich wpływu na podejmowane decyzje.
ale poza „znajomością narzędzi” analityk powinien być wyposażony w zdolność logicznego oraz analitycznego myślenia. Na pewno przydadzą się też podstawy IT (HTML, Javascript, PHP) oraz zdecydowanie sprawna obsługa komputera 😉
Nie bez powodu wymieniamy te cechy w takiej kolejności – często wizerunek analityka kojarzony jest z nerdem-hackerem. Pora przestać patrzeć przez pryzmat stereotypów. Obecnie jest to funkcja często będąca w sercu organizacji, wpływająca na wiele decyzji i procesów.
Poziom dostępnej wiedzy i technologii jest na tyle wysoki, że paradoksalnie – utrudnia szybkie podejmowanie decyzji. Każdego dnia mamy dostęp do milionów cyfr, choćby w Google Analytics.
Dobry analityk internetowy ma wiedzę i narzędzia, aby wyprowadzić zagubionych z cyfrowego chaosu. Co najważniejsze – wie, jak odpowiedzieć na pytania, które są często kluczowe dla rozwoju biznesu w sieci.
Współczesny średni sklep internetowy wykonuje część zadań samodzielnie, a część zleca wyspecjalizowanym agencjom, pełniącym usługi w zakresie SEM, SEO, content marketingu czy komunikacji w social media. Prawdopodobnie każda agencja raportuje swoje prace, w autorski sposób próbując przedstawić wyniki, oczywiście w jak najlepszym świetle.
Analityk internetowy potrafi dokonać oceny takich raportów. Co więcej, potrafi zaprojektować i zaimplementować jeden przejrzysty system do mierzenia aktywności online. Dzięki temu klient oszczędza pieniądze i czas – nie płaci dwa razy za tę samą konwersję i nie musi czytać kilku różnych raportów.
Skuteczna strategia marketingowa dba o doświadczenie użytkownika (czyli dostarczanie mu korzyści) na każdym etapie lejka zakupowego – od pierwszego kontaktu z naszą marką aż po utrzymywanie relacji posprzedażowej.
Dwa najważniejsze trendy w marketingu to wykorzystywanie w kampanii urządzeń mobilnych w przemyślany sposób (właściwy komunikat, do właściwych osób, we właściwym momencie, na właściwym urządzeniu) oraz stosowanie content marketingu, czyli dostarczanie korzyści użytkownikom zamiast nachalnego komunikatu reklamowego.
W obu przypadkach wyzwaniem jest odpowiednie zmierzenie tych działań oraz ocena ich wpływu na pozostałe kanały. Dobry analityk będzie wiedział jak to zrobić. Dzięki narzędziom, takim jak DoubleClick, wykorzysta najnowszą technologię, aby sprawdzić czy inwestycja się opłaca i jakie przynosi korzyści.
Jeśli chcemy myśleć o sobie, jako dobrym analityku, musimy posiadać lub mieć chęć rozwijać umiejętność logicznego myślenia i pracy na danych. Pomogą z pewnością wszelkie kierunki studiów związanych z ekonometrią, matematyką, informatyką. Nie zmienia to faktu, że w branży pracuje wielu wybitnych analityków internetowych, którzy z wykształcenia są filozofami czy psychologami.
Pierwsze kroki w świecie analityki internetowej można postawić na kilka możliwych sposobów. Pierwszym z nich jest samodzielna nauka w domu. Poniżej proponujemy kilka źródeł od których warto zacząć:
Simo to Senior Data Advocate w agencji Reaktor. Jest znakomitym programistą, więc wynajduje wiele hacków i tricków, jak wykorzystać GA w niestandardowy sposób. Oprócz tego polecam ten blog, bo jest oprawiony w piękne zdjęcia.
Oficjalny blog Google Analytics. Zawiera bardzo wiele przykładów wykorzystania funkcji Google Analytics w praktyce zarówno dla początkujących, jak i zaawansowanych. Absolutny must-have do subskrypcji!
Blog prowadzony przez Justina Curoni (Analyst Advocate w Google). Justin często jako pierwszy publikuje jak używać najnowszych funkcji w Google Analytics i obszernie tłumaczy jak wykorzystać je biznesowo.
Blog, o wdzięcznej nazwie – Occam’s Razor (analityk powinien wprawnie ciąć dane brzytwą Ockhama: „Bytów nie mnożyć, fikcyj nie tworzyć, tłumaczyć fakty jak najprościej”). Jego autorem jest Avinash Kaushik (Digital Marketing Evangelist w Google, współzałożyciel Market Motive).
Publikacje książkowe
Kanały YouTube
Oficjalny kanał na YT Google Analytics. Znajdują się tu głównie anglojęzyczne materiały dotyczące podstaw używania GA, a także informacje z obszaru Google Adwords.
Kanał MeasureSchool niegdyś poświęcony Google Tag Managerowi zarówno dla tych, którzy chcą zacząć używać tego świetnego narzędzia, jak i dla tych, którzy oczekują zaawansowanych porad. Aktualnie to ogromna baza dotykająca wszelkich zagadnień z zakresu analityki internetowej.
Kurs z analityki internetowej z wykorzystaniem Google Analytics 4 od Przemysława Modrzewskiego. To idealny kurs, dla tych, którzy samodzielnie chcą pojąć implementację najnowszego interfejsu Analyticsa, które wkrótce (bo już 1 lipca 2023r.) wchłonie Universal Analytics.
Inną drogą jest uczestnictwo w szkoleniach. Swoją ścieżkę koniecznie rozpocznij od nauki najbardziej powszechnego i darmowego narzędzia jakim jest Google Analytics. Poznanie jego możliwości w stopniu średnio-zaawansowanym już pozwoli poczuć smak niesamowitych możliwości, jakie w swoim ekosystemie oferuje Google!
Najlepszą metodą jest jednak praktykowanie, a więc po pierwszych krokach w domowych warunkach zaaplikuj na stanowisko juniorskie lub zacznij od stażu. Możesz wykorzystać w tym celu portal Jooble, który agreguje oferty z przeróżnych portali ogłoszeniowych. Ucząc się pod opieką kogoś doświadczonego można szybko i na żywym organizmie poznać wiele aspektów tej pracy. Ważne, aby mieć pewność jak wygląda plan praktyk i czego konkretnie nauczymy się podczas ich trwania. Warto także zapytać pracodawcę o możliwość zdobycia certyfikatów (np. Google Analytics). To sprawi, że po ich ukończeniu nie trzeba będzie długo szukać pracy, ba! Być może znajdzie Ciebie sama! Pss… pamiętaj o Linkedinie!
Czym jest współczynnik odrzuceń? Jakie wnioski można wysunąć na jego podstawie? Co się dzieje kiedy użytkownik nie znajdzie interesujących treści na naszej stronie? Te i inne aspekty współczynnika odrzuceń, jego wpływ na SEO oraz konwersje omówimy w poniższym artykule.
Współczynnik odrzuceń to parametr przedstawiający, jaki procent użytkowników odwiedzających witrynę opuszcza ją bez przechodzenia na jakąkolwiek inną podstronę lub nie wykonuje żadnej innej akcji, pozwalającej na wysłanie kolejnego zapytania do serwera. Takie działanie oznacza, że kod Google Analytics wywoływany jest tylko raz.
Współczynnik odrzuceń wykorzystać możemy jako wskaźnik definiujący jakość naszej strony internetowej lub określając poziom zaangażowania użytkowników. Interpretacja jego zastosowania zależy od wielu czynników, chociażby takich jak: branża, typ strony, ustalona ścieżka konwersji.
Współczynnik odrzuceń jest obliczany na podstawie stosunku wszystkich sesji w serwisie, do sesji, podczas których użytkownicy odwiedzili tylko jedną stronę, a następnie opuścili serwis bez wywoływania kolejnego zapytania do Google Analytics. Czego wynikiem jest przypisanie sesjom z odrzuceń czasu 0 sekund. Przyczyną takiego działania jest to, że Analytics nie jest w stanie określić jaki czas użytkownik spędził na stronie z uwagi na otrzymanie tylko jednego zapytania.
Wysoki współczynnik odrzuceń może oznaczać trzy rzeczy:
Czy w takim razie wysoki współczynnik odrzuceń zawsze jest negatywny? Tutaj niestety nie ma jednej, konkretnej odpowiedzi. Dlatego trzeba się zmierzyć ze znienawidzonym przez wszystkich stwierdzeniem „To Zależy”.
A zależy to od wielu czynników, chociażby takich jak założenie, że nasza strona to sklep, gdzie wysoki współczynnik odrzuceń powinien przykuć naszą uwagę i zmotywować do dalszej analizy i znalezienia przyczyny. Na stronie sklepu wysoki bounce rate może być spowodowany złym layoutem, nieczytelnością strony lub niedopasowaniem zawartości strony do słów kluczowych, na które wyświetla się ona użytkownikom w wynikach wyszukiwania.
Natomiast w przypadku, gdzie nasza strona jest wizytówką lub blogiem, wysoki współczynnik odrzuceń jest zjawiskiem bardzo często spotykanym i nie musi oznaczać niczego złego. Jeśli na naszej stronie jest artykuł, który dokładnie odpowiada na zapytanie użytkownika, ten po jego przeczytaniu opuści stronę nie podejmując żadnych akcji. Taka sesja będzie odnotowana w Google Analytics jako odrzucenie pomimo tego, że strona dostarczyła użytkownikowi poszukiwanych informacji. W takich przypadkach warto poddać analizie inne czynniki, między innymi czas spędzony na stronie.
Jak w takim razie bounce rate wpływa na pozycję? Tutaj odpowiedź jest bardzo złożona. Google otwarcie przyznaje, że nie wykorzystuje danych z Google Analytics jako czynniki rankingowe. Ten ruch jest zrozumiały wiedząc, że dane z Google Analytics można łatwo manipulować.
Warto jednak rozróżnić współczynnik odrzuceń widoczny w Analytics na ten, który Google analizuje w SERP. Jeśli użytkownik wejdzie na naszą stronę, lecz nie znajdzie na niej oczekiwanych informacji i szybko wróci na stronę wyszukiwania, Google może potraktować takie zachowanie jako odrzucenie i w przypadku szerszej skali tego zjawiska, obniżyć pozycje serwisu ze względu na niedopasowanie do oczekiwań użytkowników. Pamiętajmy, że exit rate mierzony jest w inny, znany tylko Google sposób.
Niezależnie od tego, jaki jest rodzaj naszej strony, warto dbać o to, aby współczynnik odrzuceń był jak najniższy. Jednak nie zawsze powinno być to celem samym w sobie. Zależnie od tego, co chcemy osiągnąć, jeśli mamy stronę, wizytówkę, one-page, to przykładowo naszym celem może być wybranie numeru telefonu, który jest podany na tej stronie. Wówczas istotne będzie podpięcie odpowiednich zdarzeń w Google Analytics. Wyróżnić należy następujące sposoby ułatwiające osiągnięcie tego celu:
Żyjemy w czasach, gdzie liczy się każda sekunda. Nikt nie lubi czekać, tym bardziej w Internecie. Dlatego warto zadbać o to, aby nasza strona ładowała się szybko. Jeśli użytkownik przez pierwsze kilka sekund nie zobaczy na swoim ekranie żadnej wygenerowanej treści, istnieje bardzo duże prawdopodobieństwo opuszczenia strony, co doprowadzi do zwiększenia współczynnika odrzuceń. Najczęstszym powodem wolnego ładowania stron jest zbyt duży obraz oraz skrypt opóźniający ładowanie. Sprawdzenie obecnego stanu witryny jest możliwe poprzez wykorzystanie takich narzędzi jak GooglePageSpeedInsight czy Gtmetrix. Więcej o poprawie szybkości ładowania strony przeczytasz tutaj.
Ważną kwestią jest, aby treści na naszej stronie były dobrze dopasowane do zapytań użytkowników. Artykuły, opisy (np. produktów, kategorii) powinny zawierać wszystkie, ważne z punktu widzenia użytkownika, informacje. Tekst powinien zawierać nagłówki i pogrubienia tak, aby wskazać użytkownikowi ważne z naszego punktu widzenia fragmentu tekstu. Szerzej o poprawnym formatowaniu tekstów pod SEO znajdziesz tutaj.
Dodatkowo – pomocne w utrzymaniu uwagi użytkownika – będą krótkie akapity, obrazy oraz wszelkie wypunktowania, jak ma to miejsce na blogu keemple.
Jeśli nie posiadamy na naszej stronie wdrożonego certyfikatu SSL, użytkownicy wchodzący na naszą stronę mogą zobaczyć następujący komunikat:
Czerwony wykrzyknik i ostrzeżenie o potencjalnym zagrożeniu skutecznie odstraszy wielu użytkowników. Dlatego tak ważne jest, aby nasz certyfikat SSL był zawsze aktualny.
Czasem wysoki współczynnik odrzuceń nie jest spowodowany błędami na stronie, czy niedopasowaniem treści do zapytań użytkowników. Może zdarzyć się tak, że na stronie głównej umieszczony jest fragment, który jednak nie przesyła żadnych zdarzeń do Google Analytics. Użytkownik po wejściu na stronę skorzysta z formularza wysyłając zapytanie i opuści stronę. Jaki będzie tego efekt? Odrzucenie w Analytics.
Ważne jest dodanie dodatkowych zdarzeń do wszystkich istotnych przycisków dostępnych na stronie. Pozwoli to z jednej strony obniżyć współczynnik odrzuceń, a z drugiej – zliczać wszystkich użytkowników, którzy skorzystali z formularza.
Źle zaprojektowana strona również może być przyczyną wysokiego współczynnika odrzuceń. Nieczytelna nawigacja, źle dobrane kolory, czy też chaos informacyjny, mogą być powodem tego, że użytkownicy nie znajdą interesujących ich informacji, pomimo ich obecności na stronie. Sposobem na sprawdzenie, czy dotyczy nas ten problem, są teksty A/B. Pozwalają one na sprawdzenie, jak dana zmiana wpływa na zachowanie użytkowników na stronie.
Poprzez porównanie współczynnika przed i po zmianach możemy wywnioskować, czy dana modyfikacja poprawiła czytelność witryny, czy wręcz odwrotnie.
W przypadku sklepów internetowych, szczególnie ważne jest analizowanie współczynnika odrzuceń na ścieżce zakupowej. Jeśli na jakimś jej etapie współczynnik ten jest szczególnie wysoki, powinniśmy bliżej przyjrzeć się problemowi i go zidentyfikować. Problem może być prozaiczny, jak np. brak możliwości płacenia blikiem, albo też bardziej złożony jak: brak możliwości wpisania danych lub wybrania odpowiedniego paczkomatu.
Poniższe wykresy przedstawiają na jakim poziomie kształtuje się współczynnik odrzuceń dla poszczególnych typów stron:
Zrozumienie zasady działania współczynnika odrzuceń i późniejsza jego analiza pozwoli w lepszym zrozumieniu zachowań użytkowników. W dłuższej perspektywie, zrozumienie zależności związanych z współczynnikiem odrzuceń i potrzeb użytkowników, może przyczynić się do zwiększenia ruchu sprzedaży i poprawy widoczności witryny.
Google Analytics 4 to nowa odsłona narzędzia GA, która została wprowadzona pod koniec 2020 roku. Celem GA4 jest lepsze i głębsze rozumienie interakcji klienta z marką. Jeżeli chcesz przekonać się na własnej skórza jak działa narzędzie, to najwyższy czas na jego konfigurację! Poniżej przeprowadzimy Cię przez proces jego instalacji za pomocą Google Tag Managera.
Pierwszym krokiem, który musisz zrobić, jest wejście w panel administracyjny GA. Przycisk Administracja znajdziesz w lewym dolnym rogu pod raportami.
Następnie, w kolumnie Usługa, kliknij przycisk +Utwórz usługę.
Wprowadź nazwę dla nowej usługi. Wybierz kraj swojej firmy, strefę czasową raportów i główną walutę, w której będziesz chciał zbierać dane.
Dzięki rozwiązniu dual tracking możliwe jest posiadanie równocześnie aktywnej usługi Google Analytics 4 oraz Universal Analytics. UA zawiera dane historyczne, o ile usługa została wcześniej utworzona. GA4, podobnie jak UA, zbiera dane od momentu utworzenia usługi. Jeżeli chcemy stworzyć nową usługę dla konta to domyślnie będzie to zawsze GA4, ale możemy również utworzyć wyłącznie UA, tylko GA4 lub GA4 i UA. Takie rozwiązanie daje możliwość przejścia na GA4, które nie powoduje utraty dotychxasowych danych.
Następnie wybierz opcję Dalej, uzupełnij informacje o Twojej firmie i kliknij w niebieski przycisk Utwórz.
Voila! Twoja nowa usług jest gotowa 😉
W nowej wersji GA, zamiast struktury składającej się na konto, usługe i widok, mamy wyłącznie podział na konto i usługę. Widok został zastąpiony tzw. strumieniem danych. Jest to źródło, z którego zdarzenia będą przesyłane do Twojej usługi GA4.
Aby utworzyć strumień danych Google Analytics 4 dla strony internetowej, wejdź w administrację, a następnie w kolumnie konfiguracji usługi wybierz Strumienie danych.
W kolejnym kroku kliknij Sieć.
Następnie wprowadź adres URL Twojej witryny.
Uwaga! Domyślnie wybrany jest protokół https. Jeżeli Twoja stronie nie korzysta z SSL to przełącz tę opcję na http. Następnie wprowadź nazwę swojej witryny.
Podczas tworzenia strumienia danych internetowych, masz możliwość włączenia lub wyłączenia opcji Pomiar zaawansowany.
Funkcja ta jest domyślnie włączona i automatycznie śledzi wyświetlenia strony, przewinięcia, kliknięcia w linki wychodzące, wyszukiwanie w witrynie, interakcje z filmem oraz pobrania pliku. Możesz sam zdecydować, które zdarzenia chcesz wyłączyć. Aby to zrobić kliknij w ikonę koła zębatego w sekcji Pomiar zaawansowany, a następnie wybierz interesujące Cię zdarzenia.
Jeżeli wszystko ustawiłeś, kliknij przycisk Utwórz strumień. Wyświetli Ci się ekran Szczegóły strumienia danych z internetu, gdzie znajdziesz identyfikator pomiaru, czyli kod śledzący, który będziesz musiał podać w następnych krokach konfiguracji z wykorzystaniem Google Tag Managera.
Posiadasz już swój identyfikator śledzenia, zatem nadszedł czas, aby dodać tag Google Analytics 4 w Google Tag Managerze. Aby to zrobić, przejdź do swojego konta GTM i utwórz nowy tag wybierając opcję Tagi, a następnie: Nowy > Konfiguracja Tagu > Google Analytics: Konfiguracja GA4.
Wklej identyfikator pomiaru z Google Analytics do pola identyfikatora w Google Tag Managerze. Jeżeli chcesz automatycznie śledzić wyświetlenia strony, to pozostaw zaznaczone pole Wyślij zdarzenie wyświetlenia strony po załadowaniu tej konfiguracji. Jako regułę wybierz Wyświetlenie strony.
Jako dobrą praktykę po konfiguracji każdego tagu, zalecamy sprawdzić, czy jest on poprawnie wywoływany. Aby to zrobić, wybierz przycisk Podgląd w prawym górnym rogu ekranu. Powinien pojawić się w nim nowy tag GA4.
Efektem poprawnie działającego tagu konfiguracyjnego jest pojawienie się identyfikatora GA4 na górnym pasku (G-…). Po kliknięciu, można na nim śledzić rodzaje zdarzeń przesyłanych do Google Analytics 4.
Na screenie widać, że zgodnie z zamierzeniem, utworzony tag przesyła zdarzenie o odsłonie.
Po skonfigurowaniu zdarzeń należy je przetestować. Podstawowym narzędziem do debugowania danych GA4 jest funkcja DebugView. Możemy ją znaleźć w lewym dolnym rogu w sekcji Konfiguracja.
Będąc w trybie podglądu Google Tag Managera na Twojej stronie, będziesz mógł zobaczyć zbierające się zdarzenia.
Skoro konfiguracja Google Analytics 4 przebiegła pomyślnie, to ostatecznym krokiem będzie opublikowanie kontenera. Zrób to korzystając z przycisku Prześlij w prawym górnym rogu ekranu.
Po poprawnej implementacji kodu pojawienie się statystyk w raporcie może potrwać do 24 godzin. Jest możliwość ustawienia max 50 strumieni danych na usługę.
Google Analytics jest niezwykle ważnym źródłem wiedzy na temat naszej strony internetowej oraz zachowań użytkowników, którzy ją odwiedzają. Najnowsza wersja tego narzędzia, choć posiada jeszcze pewne wady i niedociągnięcia, pozwoli Ci zbierać dane zarówno dla stron www, jak i aplikacji mobilnych w jednym miejscu.
Wakacje trwają w najlepsze, jednak nie dla wszystkich. W świecie analityki wciąż dużo się dzieje, o czym świadczą nowości z ostatnich tygodni. Dla większej przejrzystości zebraliśmy je w kolejnym wydaniu naszego Analityka Express.
Według Search Engine Land, Google przymierza się do połączenia usług GA i GSC w nowy sposób. Obecnie część danych z Search Console jest dostępnych w Google Analytics po połączeniu usług. Google planuje wdrożenie nowego raportu w GSC o nazwie Google Search Console Insights. Raport będzie zawierał dane o zachowaniach użytkowników, pochodzące z połączonej usługi w Google Analytics.
Jeśli nowa opcja będzie pomagać w zwracaniu większej uwagi na jakość, a nie tylko ilość ruchu – jesteśmy na tak. Źródło: https://searchengineland.com/google-tests-showing-analytics-data-in-search-console-with-insights-336835
Obawy o blokowanie kodów śledzących przez przeglądarki (zwłaszcza te od Apple’a) powracają jak bumerang. Po pierwszej chwili paniki zazwyczaj okazuje się, że blokada dotyczy ciasteczek firm zewnętrznych, użytkownik musi ją sam włączyć, a w ogóle to jeszcze nie w tej wersji przeglądarki…
Podobnie było tym razem. Plotki zdementował guru analityki, Simo Ahava, który podkreślił jak bardzo jest rozczarowany faktem, że wprowadzające w błąd informacje rozeszły się w branży tak szybko. Jak widać, nawet branża analityki internetowej nie jest wolna od fake news’ów.
Co byśmy zrobili bez Simo: https://www.simoahava.com/analytics/no-safari-does-not-block-google-analytics/
Google od pewnego czasu rozwija nowy rodzaj usługi Google Analytics o nazwie App + Web. W usłudze tej, po odpowiedniej konfiguracji, zbierane są dane zarówno z witryny internetowej, jak również z aplikacji.
Kilka dni temu na blogu Marketing Platform pojawiła się zapowiedź dwóch nowych metryk, poszerzających możliwości analizy danych oraz tworzenia grup odbiorców reklam. Prawdopodobieństwo zakupu (purchase probability) przewiduje szansę, że użytkownicy, którzy odwiedzili Twoją aplikację lub witrynę, dokonają zakupu w ciągu najbliższych siedmiu dni. Prawdopodobieństwo odejścia (churn probability) przewiduje szansę, że ostatnio aktywni użytkownicy nie odwiedzą Twojej aplikacji lub witryny w ciągu najbliższych siedmiu dni.
Brzmi ciekawe, czekamy zatem na wdrożenie nowych metryk w naszych usługach Google Analytics.
Więcej na ten temat: https://blog.google/products/marketingplatform/analytics/new-predictive-capabilities-google-analytics/
Z czerwcowego expresu analitycznego dowiecie się o zmianie strategii jednego z najciekawszych analitycznych startupów. Poza tym poznacie nowy sposób przyswajania wiedzy z Semahead oraz zaplanujecie sobie ciekawy deszczowy weekend.
Narzędzie do atrybucji konwersji, dostępne do tej pory jedynie dla dużych graczy, otwiera się na mniejsze i średnie firmy. Dzięki zmianie modelu biznesowego teraz każde przedsiębiorstwo będzie mogło skorzystać ze wszystkich lub wybranych funkcjonalności systemu. Do najciekawszych z nich należą modelowanie atrybucji w oparciu o dane, analiza i predykcje zwrotu z inwestycji oraz integracja rozproszonych danych z rożnych systemów reklamowych na przykład Facebook Ads czy Google Ads.
Źródło: Roivenue.com
Od kilku tygodni w ofercie szkoleń Semahead znajduje się nowa pozycja – personalizowane szkolenia online. Dzięki temu możecie sami wybrać interesujące Was zagadnienie lub temat konsultacji. Następnie na pierwszej rozmowie specjalista wybada Wasze potrzeby i zaprojektuje szkolenie pod Was. Można skorzystać z jednej lub większej liczby godzin i poszerzyć swoją wiedzę nie tylko w zakresie analityki internetowej. Więcej informacji znajdziecie tutaj: https://semahead.agency/digital-marketing-assistance/
Jak wiadomo analiza zachowania użytkowników na stronie jest ściśle połączone z kwestiami dotyczącymi User Experience. Z tego powodu warto pogłębiać swoją wiedzę w zakresie UX. Bardzo ciekawe spojrzenie na to zagadnienie prezentuje książka Joel Marsh „UX dla początkujących: Sto krótkich lekcji”. Dowiecie się z niej w jaki sposób ludzie podejmują decyzję, co stanowi ich główną motywację i na co zwrócić uwagę podczas projektowania doświadczeń użytkownika. Dodatkowo wszystko napisane jest bardzo przystępnym i lekkim językiem, więc spokojnie „skonsumujecie” całą treść w ciągu jednego weekendu.
Obecnie ogrom uwagi poświęca się zadbaniu o dobre SEO. Jednak w cieniu wyszukiwarek internetowych pozostaje być może najczęściej pomijana szansa na optymalizację strony – wyszukiwarka wewnętrzna. Z tego rozpoczynającego cykl UX artykułu dowiesz się, jakich metod użyć, by wykorzystać ten potencjał.
Z tego artykułu dowiesz się między innymi:
Analizę wyszukiwarki rozpocząć możesz od przyjrzenia się danym, które z niej pochodzą. Ten etap sam w sobie prowadzić może do ciekawych obserwacji i odkryć.
Możesz analizować dane przechowywane w Google Analytics. Jeśli takich danych nie gromadzisz, to niestety ten etap analiz musisz odłożyć na parę miesięcy – informację o tym, jak skonfigurować raportowanie wyszukiwania w witrynie w GA znajdziesz tutaj.
Dane GA o swojej wyszukiwarce możesz znaleźć w sekcji raportów Zachowania, w Wyszukiwanie w witrynie. Skorzystać możesz z raportu Wyszukiwane hasła. Tutaj znajdziesz metryki dotyczące Korzystania z witryny oraz E-commerce, takie jak łączna liczba unikalnych wyszukiwań hasła, przychody i transakcje z nim powiązane lub wartość jednego wyszukiwania.
Zgromadzone w Analytics dane możesz wyeksportować i użyć w narzędziach, w których łatwiej je analizować, takich jak Excel, Tableau lub język R (więcej o eksportowaniu danych z Google Analytics przeczytaj w naszym artykule). Możesz analizować np.:
Podczas takich analiz powstają cenne hipotezy, które sprawdzisz możesz w następnym etapie – analizy eksperckiej UX. Mówiąc wprost, możesz wpisywać w wyszukiwarkę hasła, które w wyniku analiz zwróciły twoją uwagę i przekonać się, co naprawdę widzi użytkownik.
Prócz danych z Google Analytics możesz także wykorzystać dane o wyszukiwarce z własnych baz danych, jeśli takie zbierasz. Inne przykłady analiz możesz znaleźć m.in. w artykule na Nielsen Norman Group (NN/g).
Następnym krokiem w analizie wyszukiwarki może być przyjrzenie się jej bezpośrednio pod kątem zastosowanych rozwiązań UX.
Niezależnie od tego, czy analiza UX to dla ciebie nowość, czy też audytowałeś już pod tym kątem niejedną stronę – warto korzystać z informacji o dobrych praktykach UX. Są to zbiory zalecanych rozwiązań, często oparte na wynikach wielu testów i/lub na wiedzy o funkcjonowaniu człowieka. Z ich pomocą, nierzadko w krótkim czasie, można zidentyfikować wiele niewłaściwych rozwiązań na stronie.
Rzecz jasna nie wszystkie elementy można łatwo sklasyfikować jako jednoznacznie dobre albo złe. Zdarzyć się też może, że rozwiązanie łamiące dobrą praktykę UX w wypadku danej strony jest lepsze. Na szczęście dobre opracowania zawierają również listę powodów, dlaczego dane rozwiązanie uznawane jest za dobre, a także warunków, które muszą być do tego spełnione.
Oto kilka przykładów dobrych praktyk UX dotyczących wyszukiwarki wewnętrznej:
Zdecydowanie polecamy opracowania, które znaleźć można w artykułach Nielsen Norman Group. Innym cennym źródłem informacji na temat najlepszych praktyk UX mogą być materiały od Google: playbooki UX (np. UX Playbook for Retail) lub webinary organizowane co jakiś czas (np. zeszłoroczny Mobile UX Marathon, lub obecnie trwający Mobile on Air).
Co jednak zrobić z elementami strony, które nie dają się jednoznacznie sklasyfikować jako dobre lub złe? Albo jak przekonać się, czym zastąpić element, który nie spełnia wymogów dobrych praktyk?
Cennym uzupełnieniem analiz może być zebranie informacji o zachowaniach użytkowników w postaci map cieplnych kliknięć i scrollowań. Mapy te pozwalają na zebranie dodatkowych danych jakościowych – możemy zobaczyć w jaki obszar elementu użytkownicy klikają, nie tylko ilość kliknięć. Często zaobserwować można też kliknięcia w miejsca, w których interakcji użytkowników się nie spodziewamy. Mapy mogą pomóc w odpowiedzi na przykład na takie pytania:
W celu jeszcze dokładniejszego przyjrzenia się zachowaniom użytkowników skorzystać można także z nagrań sesji. Nie zawsze warto ich używać, ponieważ analiza kilkudziesięciu nagrań może być bardzo czasochłonna. Takie analizy warto wprowadzić, jeżeli masz już pewne przypuszczenia, jak mogą zachowywać się twoi użytkownicy. Mogą okazać się także cenne, kiedy interesuje cię konkretny moment w trakcie wizyty użytkownika. Na przykład:
W przypadku dwóch pierwszych analiz, kolejność wykonywania jest dowolna i można, a nawet powinno się powtarzać je wielokrotnie, iteracyjnie. Obie analizy uzupełniają się wzajemnie. Na pytania postawione w jednej odpowiedź znajdziesz często w drugiej. Inaczej jest w przypadku ostatniej sekcji analiz – testów.
W przeciwieństwie do analizy danych oraz analizy UX, które są nieinwazyjne, ponieważ bazują na informacjach już zebranych (zgromadzone dane oraz dostępna wersja strony) – testy angażują użytkowników bezpośrednio, np. przez wprowadzenie zmian na stronie lub dołączenie do niej ankiety. Z tego powodu badania na użytkownikach warto wdrożyć dopiero po przeanalizowaniu informacji, które już są nam dostępne. Dzięki postawionym wcześniej hipotezom możesz przygotować bardziej precyzyjne testy, które odpowiedzą na twoje wątpliwości.
Dużą zaletą testów jest to, że zbierają dane zupełnie nowe, przez co pozwalają pogłębić dotychczasowe analizy oraz przekonać się, jak twoi użytkownicy zareagują na zmiany w wyszukiwarce. To jakie testy zastosujesz powinno być uzależnione od informacji, które zebrałeś w toku poprzednich analiz. Poniżej przedstawiamy kilka możliwości:
Na zakończenie warto wspomnieć, że mnogość metod badawczych nie pociąga za sobą konieczności wykorzystania ich wszystkich. Analizy danych, dobrych praktyk UX, map cieplnych, czy w końcu testy – wszystkie uzupełniają się i wspierają na drodze do lepszego poznania użytkownika. W rzeczywistości nie zawsze możesz pozwolić sobie na przeznaczenie tak wielu zasobów, w szczególności czasu, na analizę jednego aspektu strony. Dlatego warto podkreślić, że nawet pojedyncza analiza może ujawnić kluczowe obszary, których usprawnienie przyniesie znaczną poprawę doświadczeń użytkowników, a w konsekwencji – jakości ruchu na stronie.
Aby przekonać się, jak te i inne narzędzia do analiz można wykorzystać do badania innych kluczowych elementów strony – śledź nasz blog. W następnym artykule z cyklu UX omówimy koszyk.
Google Optimize wychodzi naprzeciw firmom, będącym w trudnej sytuacji z powodu pandemii COVID-19. Ponadto warto skorzystać z obecnego czasu i rozwijać swoją wiedzę. Mamy ku temu okazję dzięki promocjom na szkolenia. To tylko dwie z nowości ze świata analityki, które poznacie z artykułu poniżej. Dobrej lektury.
W artykule Analityka w czasach zarazy pisałam o tym, jak można wykorzystać Optimize i doświadczenie “Personalizacja” do wprowadzenia szybkich zmian na stronie. Teraz Google wychodzi naprzeciw użytkownikom i usuwa na 90 dni limity dotyczące personalizacji. Dotychczas na koncie Google Optimize można było utworzyć jednocześnie 10 personalizacji. Limit ten został czasowo usunięty, aby pomóc firmom w radzeniu sobie ze skutkami pandemii COVID-19.
Drugą nowością jest możliwość dodania banera na stronie, informującego o ważnych zmianach w sklepie w związku z pandemią.
Więcej na ten temat przeczytasz na stronach pomocy Google Optimize https://support.google.com/optimize/answer/9823410
Bardzo ciekawe nowa opcja pojawiła się w Google Data Studio. Jest to możliwość wizualizacji danych na mapach Google. Podłączone źródło musi zawierać naturalnie co najmniej jeden wymiar geograficzny. Dobra wiadomość jest taka, że dane z Google Analytics i Google Ads już takie wymiary posiadają, a zatem można bez przeszkód korzystać z nowej opcji.
Jeśli masz więcej wolnego czasu ze względu na konieczność pozostania w domu, polecam kursy online na stronie DataCamp. Analityków może zainteresować między innymi R, Python czy Tableau. Obecnie kursy są oferowane ze zniżką 75%. Link: https://www.datacamp.com/promo/may-2020-em/ (nie, nie dostajemy za to żadnej prowizji :)).
Autor kultowej książki o użyteczności “Nie każ mi myśleć” udzielił wywiadu po 20 latach od jej ukazania się. Opowiedział w nim między innymi o najważniejszych lekcjach płynących z jego książki oraz czy opisane w niej zasady projektowania stron internetowych są aktualne dzisiaj. Przedstawił też swoją opinię, na temat tego, jaki największy błąd popełniają firmy próbując zaprojektować nową stronę.
Cały wywiad jest dostępny na stronie https://builtin.com/design-ux/simplicity-ux-steve-krug-interview
Oto kolejna dawka nowości ze świata analityki internetowej. Wśród nich znajdziesz między innymi: dalszy ciąg sprytnych rozwiązań w Google Data Studio, najlepszą wersję listy wyboru na Twoją stronę oraz #StayAtHome – czyli ciekawe darmowe lub promocyjne szkolenia, dzięki którym produktywnie spędzisz czas w domu.
Czy nie wspaniale byłoby móc zamieszczać w raportach GDS informacje z adnotacji, które tworzymy w GA? Tak się składa, że ta cenna możliwość Google Data Studio, została niedawno zapowiedziana. W oczekiwaniu na jej wdrożenie pojawiły się już „ręczne” rozwiązania pozwalające dodawać adnotacje. Na blogu Medium znajdziesz artykuł, który opisuje trzy takie możliwości: z wykorzystaniem pól obliczeniowych, adnotacji w pliku csv lub z wykorzystaniem Arkuszy Google. Na blogu Mehdi Oudjida również znajdziesz opisane krok po kroku rozwiązanie oparte na wykorzystaniu Arkuszy.
W ubiegłym tygodniu na blogu Nielsen Norman Group pojawił się artykuł omawiający różne formy prezentowania użytkownikom najbardziej typowych list elementów. Dotyczy on tych, które znaleźć możemy przy filtrowaniu, sortowaniu, wybieraniu różnych opcji itp.
We wpisie znaleźć można klasyfikację list, z podziałem na m.in. listy jedno- i wielokrotnego wyboru, statyczne i przewijane. Prócz tego omówione są mocne i słabe strony każdej z opcji, a na samym końcu znajdziemy podsumowanie w formie tabeli.
Od początku kwietnia coraz więcej platform decydowało się nie tylko na specjalne promocje, ale wręcz na nadawanie darmowych dostępów do swoich płatnych szkoleń. To doskonała okazja, by rozwinąć swoje umiejętności.
Jedną z takich platform jest Pluralsight, który nadał dostęp do swoich płatnych filmów szkoleniowych za darmo dla każdego konta do końca kwietnia. Znaleźć tam możemy kursy, dzięki którym rozwiniemy swoje umiejętności w analizie danych, np. przez naukę języka R lub Python. Inną możliwością jest rozwinięcie umiejętności w posługiwaniu się HTML i CSS – które nie tylko pomogą zrozumieć lepiej strony internetowe w ogóle, ale wzmocnią Twoje możliwości tworzenia bardziej wyszukanych testów A/B.
Jeżeli chcesz rozwijać swoje kompetencje analityczne, to na polecenie zdecydowanie zasługuje platforma DataCamp. Nie jest to opcja darmowa – jednak od kilku tygodni trwa tam promocja -75%. Na platformie możesz uczyć się R, Pythona, ale także SQL, arkuszy, a nawet Tableau.
No i oczywiście, nie należy zapominać o kursach Analytics Academy, gdzie rozwijać możemy umiejętności w korzystaniu z tak podstawowych narzędzi, jak Google Analytics, Google Tag Manager czy Google Data Studio. Te szkolenia na szczęście zawsze są dla nas darmowe.
Poprawne gromadzenie danych pozwala podejmować trafne decyzje biznesowe. Na podstawie naszego wieloletniego doświadczenia szacujemy, że aż 70%kont w Google Analytics jest źle skonfigurowanych. Efektem może być błędne optymalizowanie działań marketingowych, a co za tym idzie strata budżetu. Nikogo nie trzeba przekonywać, że w biznesie czas to pieniądz. Współpracując z licznymi klientami dostrzegliśmy potrzebę stworzenia produktu, dającego możliwość wyeliminowania istniejących. O Fix Analytics, najczęściej popełnianych błędach i ich konsekwencjach oraz korzyściach, płynących z kontroli ustawień w GA mówi Ewa Kańczuk, Manager Działu Analityki w Agencji Semahead.
Błędy w ustawieniach konta Google Analytics to nie wyjątek, ale praktycznie reguła. Szacujemy, że dotyczy aż 70 % użytkowników. Skąd wiemy, że ten problem obejmuje tak wielu użytkowników?
Ewa Kańczuk: Wyniki badania są efektem naszej wieloletniej pracy. Dostrzegamy to realizując audyty, ale także wprowadzając działania naprawcze. Rośnie jednak grono osób, które mają świadomość wagi tego problemu.
Żeby jednak wprowadzić działania naprawcze, konieczne jest przeprowadzenie audytu. Czym tak naprawdę jest wspomniany audyt?
Ewa Kańczuk: W skrócie mówiąc FiX Analytics jest zbiorem rekomendacji odnośnie obecnych ustawień konta w tym narzędziu. Jeżeli wykryte zostaną nieprawidłowości, wówczas zawiera on także zalecenia co do zmian, jakie należy wprowadzić, aby nasze dane były poprawnie zbierane. Oczywiście niekiedy wynikiem audytu może być potwierdzenie prawidłowych ustawień, co także jest niezbędne do dalszych działań marketingowych. Jego efektem jest także opis wszystkich najważniejszych funkcjonalności Google Analytics oraz możliwości ich wykorzystania.
Jakie elementy sprawdzane są podczas audytu?
Ewa Kańczuk: Sprawdzanych jest kilka obszarów, takich jak umiejscowienie kodów śledzących Google Analytics lub Google Tag Manager, konfiguracja ustawienia usługi i widoku czy działanie funkcjonalności, odpowiedzialnych za zbieranie danych. Jest to proces złożony, realizowany na wiele sposobów.
Przykładem może być sprawdzenie udziału ruchu bezpośredniego we wszystkich kanałach pozyskiwania na stronie. W przypadku, gdy udział tego ruchu, w odniesieniu do innych źródeł, jest stosunkowo duży, np. wynosi 40%, może to oznaczać błędy w kodzie strony lub konfiguracji narzędzia. Co ważne, nie polegamy tylko na maszynowym sprawdzeniu ustawień, czyli nie zamykamy się w określeniu, że mamy przykładowe 40% ruchu bezpośredniego i to automatycznie oznacza błędne ustawienia konta. Każdą sytuację analizujemy pod kątem eksperckim, odnosimy chociażby do rodzaju biznesu. Pozostając w tym przykładzie: są takie branże, w których duży udział ruchu bezpośredniego jest całkowicie normalnym zjawiskiem. Zazwyczaj dotyczy to marek, popularnie reklamowanych formułą ATL, ot choćby w takich mediach, jak telewizja, radio czy prasa. Dlatego też dla nas bardzo istotne jest szerokie spojrzenie na cały kontekst danej sytuacji.
Wiemy, czym jest audyt Google Analytics, wiemy jak przebiega. Jakie jednak korzyści płyną z jego zrealizowania i właściwie dlaczego powinniśmy się na niego zdecydować?
Ewa Kańczuk: Odpowiedź na pytanie z jakich powodów powinniśmy się zdecydować na przeprowadzenie audytu Google Analytics w głównej mierze zależy od rodzaju biznesu, jaki prowadzimy oraz na jakim etapie rozwoju jest nasza firma. Najczęściej zgłaszają się do nas osoby, które nie mają wystarczającej wiedzy do przeprowadzenia weryfikacji GA. Są też tacy klienci, którzy wiedzą, iż niepoprawnie gromadzą dane, ale nie wiedzą jak naprawić tę sytuację, albo tacy, którzy gromadzą dane, jednak w ogóle ich nie używają. Dla nich także mamy przygotowane rozwiązania. Generalnie korzystając z Google Analytics musimy mieć bezapelacyjne zaufanie do danych, które gromadzimy. To właśnie na ich podstawie jesteśmy w stanie podejmować dobre decyzje biznesowe, przez co w rezultacie oszczędzamy pieniądze. Nie od dziś wiadomo, że złe decyzje bardzo często kosztują nas utratę środków finansowych.
Chyba wiele osób nie zdaje sobie z tego sprawy. Aż tak poważne mogą być konsekwencje złego prowadzenia Google Analytics?
Ewa Kańczuk: Tak, bo jeżeli nie sprawdzamy pozyskiwanych danych, ich jakości, a jedynie umieszczamy kod śledzący na stronie i ślepo ufamy temu, co widzimy w raportach, to możemy ponieść tego duże konsekwencje. Im wcześniej organizacja uświadomi sobie, że to narzędzie wymaga skomplikowanego zakresu konfiguracji ręcznej, tym lepiej. Nie jest tak, że wklejając kod na stronę i zaczynamy wszystko właściwie mierzyć. Niestety, większość opcji, które wskazują na skuteczność biznesu, musimy ustawić ręcznie.
Jesteś ekspertką z zakresu Google Analytics. Według Twojej opinii jakie są najczęściej powielane błędy?
Ewa Kańczuk: Oczywiście tutaj także wiele zależy od rodzaju prowadzonego biznesu. Dla przykładu weźmy sklepy internetowe. Wśród tej branży dominuje brak wykluczania witryn, służących do realizacji opłat. Powoduje to, że transakcje przypisywane są do tych właśnie witryn, a nie do prawdziwego źródła wejścia. Jest to konsekwencja tego, że użytkownik w celu dokonania opłaty musi opuścić ścieżkę serwisu, właśnie do witryny zewnętrznej, np. banku. Jeżeli chodzi o inne branże: najczęściej pojawia się błąd, związany ze współczynnikiem odrzuceń. Jego niska wartość – na poziomie 0-3% – mogą oznaczać na przykład podwójnie zainstalowanego Analyticsa. Wynikiem takiej sytuacji jest podwójna rejestracja odsłon, co skutkuje rzekomym brakiem odrzuceń w serwisie. Oczywiście jest to nieprawda. Klienci bardzo często są nieświadomi takiej sytuacji. Musimy wiedzieć, że automatyczne wtyczki konfiguracji Google Analytics często same ustawiają nam jakieś zdarzenia, wysyłane z odsłoną strony. W konsekwencji otrzymujemy wspomniany niski współczynnik odrzuceń. Abstrahując od tego, że większość użytkowników nie ma poprawnie skonfigurowanej struktury konta. To właśnie to są najczęściej powielane błędy.
W Agencji Semahead odpowiedzialna jesteś między innymi za realizację Fix Analytics. Dlaczego warto skorzystać z takiej usługi i co klient otrzymuje w zamian?
Ewa Kańczuk: W Semahead mamy do zaoferowania szereg usług, wśród których jedną z najnowszych jest Fix Analytics. Dzięki naszemu doświadczeniu oraz automatyzacji części procesów stworzyliśmy ofertę, w której od wykupienia usługi do otrzymania gotowego raportu mija maksymalnie 48 godzin. Oferujemy dwa warianty współpracy. W pierwszym klient otrzymuje pełny dokument w formie tekstowo-graficznej, w którym zawarte są wylistowane ustawienia Google Analytics wraz z komentarzem odnośnie ich poprawności. Jeżeli okazuje się, że dana metryka mierzona jest niepoprawnie, wówczas przekazujemy rekomendację odnośnie zmian. Na tym etapie możemy zakończyć współpracę i wówczas developer czy właściciel witryny sam wprowadza nasze rekomendacje. W drugim scenariuszu kontynuujemy doradztwo, wdrażając działania naprawcze, konfigurując wszystkie elementy, wymagające poprawy i modyfikacji. Ostatnim etapem współpracy jest weryfikacja wprowadzonych działań. Z naszego doświadczenia wynika, że najczęściej klienci korzystają właśnie z tego drugiego wariantu, czyli audytu i wdrażania działań naprawczych.
Audyt Google Analytics nie powinien być usługą jednorazową. Powinien wspomagać nas w cyklicznej kontroli jakości gromadzonych danych. W zależności od ruchu na stronie realizować go na przykład co kilka dni, raz na tydzień, miesiąc. Weryfikujemy wówczas, czy nic w konfiguracji nie uległo zmianie. Wielokrotnie nie mamy bowiem świadomości, że w ustawionym poprawnie kilka tygodni wcześniej Google Analytics nastąpiły zmiany, które rozregulowały nasze konto. Korzystając z Fix Analytics przede wszystkim w bardzo krótkim czasie otrzymujemy gotowy raport, który możemy wdrażać w życie. Jak już wspomniałam niepoprawne gromadzenie danych prowadzi do utraty pieniędzy, chociażby poprzez błędne rozlokowanie środków na kampanie reklamowe, czy targetowane do złej grupy odbiorców. Tracimy także czas na analizy, które do niczego nie prowadzą.
Czas pandemii koronawirusa – i z pewnością okres bezpośrednio po niej – wymagają korzystania z precyzyjnych danych i szybkiego podejmowania decyzji. W tym celu świetnie sprawdzą się narzędzia analityczne, wykorzystywane w szerokim zakresie. Jak korzystać z rzetelnych danych w czasach zarazy?
Wbrew tytułowi zacznę przekornie od najpopularniejszego narzędzia analitycznego na świecie. Działając w czasach niepewności rynkowej, możemy przynajmniej opierać nasze decyzje na pewnych danych. Warto przeprowadzić audyt Google Analytics, żeby sprawdzić, czy dane nie odbiegają od tego, co znajduje się w CRMie albo czy połowa transakcji nie jest zawłaszczona przez bramki płatności, które wszak nie są źródłem pozyskania ruch, a jedynie etapem na ścieżce zakupowej.
Jeśli już mamy pewność, że dane zbierają się poprawnie, wyjdźmy poza standardowe raporty. Ciekawym, choć niedocenionym raportem są Ścieżki wielokanałowe (Konwersje > Ścieżki wielokanałowe). Każdy na pewno słyszał o lejku zakupowym i customer journey. Dlaczego więc opieramy swoje decyzje na danych dotyczących ostatniej interakcji użytkownika ze stroną, a nie bierzemy pod uwagę kanałów, które wystąpiły na początku lejka? Z raportu Ścieżek wielokanałowych dowiesz się, jakie źródła ruchu posiadają rolę wspomagającą na ścieżce zakupowej. Wyniki mogą Cię zaskoczyć. Więcej na ten temat dowiesz się z artykułu https://semahead.agency/analiza-sciezek-wielokanalowych/
Nie każdy ma smykałkę do zagłębiania się w setki raportów w poszukiwaniu wartościowego insightu. Osobom, które muszą podejmować szybkie decyzje i codziennie oczekują aktualnych danych o najważniejszych KPI, polecamy nasz dashboard antykryzysowy https://semahead.agency/raport-antykryzysowy/ Raport jest interaktywny, a dodatkowo codziennie wysyłany na skrzynkę mailową, żebyś już nigdy nie przegapił żadnych ważnych zmian w ruchu i konwersjach.
Dashboard w Google Data Studio ułatwia częste sprawdzanie najważniejszych metryk
Ściśle rzecz biorąc, nie jest to narzędzie analityczne, jednak często wykorzystywane przez analityków do implementacji najróżniejszych kodów – od Google Analytics, przez Hotjar czy Optimize, po tagi remarketingowe Google Ads lub Facebooka (I wiele innych!). Opanowanie GTM na podstawowym poziomie naprawdę się opłaca, bo oszczędzimy nie tylko na czasie, ale także na zasobach programistycznych.
To tylko niektóre z tagów analitycznych i marketingowych dostępnych w Google Tag Managerze.
Znane wielu narzędzie do przeprowadzania testów A/B może się przydać w czasach takie jak te do szybkiej implementacji zmian na stronie. Wystarczy skorzystać z opcji Personalizacja, aby dostosować stronę do potrzeb użytkowników. Jest to istotne zwłaszcza w szybko zmieniających się realiach, kiedy modyfikacja elementu na stronie powinna być niemal natychmiastowa.
Jakie elementy dodać? Warto podkreślić atuty sklepu, np. możliwość zwrotu towaru w ciągu 90 dni, szybka wysyłka towarów czy polski producent.
Personalizację znajdziesz w panelu tworzenia nowego doświadczenia
Więcej porad jak sobie radzić z marketingiem w dzisiejszych czasach znajdziesz w ebooku https://semahead.agency/marketing-w-contrze/
Porównywanie dwóch lub więcej średnich wartości to jedna z najczęstszych analiz wykonywanych przy pracy z danymi. Na przystępnym przykładzie dowiesz się, w jaki sposób wykorzystać statystykę, by upewnić się, że przewaga jednej marki nad drugą nie jest kwestią przypadku. Znajdziesz też kilka linków, dzięki którym możesz poszerzyć swoją wiedzę.
Może zadajesz sobie pytanie: „Po co mówić o testach statystycznych w przypadku porównywania dwóch średnich?”. Robisz to zapewne bardzo często. Gołym okiem widać, która średnia jest większa, a która mniejsza.
Użyjmy jednak następującego przykładu. Wyobraź sobie, że sprzedajesz sportowe buty. Dwie marki (A i B) przynoszą ci wyjątkowo dobry przychód i planujesz poszerzyć ich asortyment. Nie wiesz jednak, czy korzystniej będzie zainwestować w oba produkty po równo, czy może w jeden z nich nieco bardziej – a jeśli tak, to w który?
Google Analytics: Porównanie średniej ceny dla produktów dwóch kategorii z wykorzystaniem segmentacji.
W Google Analytics sprawdzasz, jak wyglądała sprzedaż obu marek dla ostatniego miesiąca. Marka B przyniosła średnio o 2,8%więcej przychodów – na każdy zakup. Może się to wydawać niewielką różnicą, ale przy utrzymywaniu się przez dłuższy czas takich wyników, oznacza to ponad 13 tys. zł przychodu więcej – na każde tysiąc zamówień.
Zatem marka B wydaje się bardziej atrakcyjną opcją. Pytanie jednak brzmi: „Na ile różnica między tymi średnimi jest istotna? Jaką możesz mieć pewność, że to nie kwestia przypadku?”. W tym celu pod uwagę musimy wziąć średnie ceny dla poszczególnych produktów z danej marki.
Na potrzeby tego artykułu wygenerowaliśmy po 40 takich cen. Na poniższych histogramach zobaczyć można, że za jednoznacznie różniącymi się średnimi cenami marek stoją już nie tak jednoznacznie różne rozkłady średnich cen produktów.
Rozkład średnich cen produktów marki A i B wraz ze średnią dla marki (linia pionowa).
W tej sytuacji wykorzystać możemy test t-Studenta (o którego piwnej genezie wspominaliśmy w artykule o 5 krokach statystycznej analizy danych w Google Analytics). Wymaga on jednak spełnienia kilku założeń, o których przeczytać możesz na przykład tutaj. W przypadku ich nie spełnienia wykonać należy odpowiedni test nieparametryczny – w tym przypadku test U Manna-Whitney’a.
Test t pozwala na porównywanie średnich dla dwóch grup (niezależnych, tj. takich, których elementy są względem siebie niezależne) i obliczenie istotności statystycznej różnicy między nimi, z uwzględnieniem każdej pojedynczej obserwacji (w naszym przypadku: wyników poszczególnych produktów). Pozwala to na znacznie głębsze i pewniejsze porównanie wyników dwóch interesujących cię grup niż proste zestawienie ze sobą ich średnich wyników.
Wynikiem testu jest wartość p, która w dużym uproszczeniu informuje o tym, czy porównywane grupy istotnie się od siebie różnią. Wniosek o istotności tej różnicy możemy wyciągnąć, gdy wartość p będzie mniejsza niż 0,05, czyli powszechnie przyjmowany poziom istotności. W omawianym przypadku wartość p w teście t-Studenta wyniosła 0,046. Niewiele poniżej progu, ale wystarczająco by dać nam statystyczną pewność przewagi marki B nad marką A.
Porównywać średnie możemy także np. przy porównywania różnych wariantów kolorowych produktów. W takim przypadku skorzystać możesz z testu t dla prób zależnych, to jest takich, których poszczególne obserwacje (tutaj: produkty) można połączyć w jednoznaczne pary (np. dwa produkty różniące się wyłącznie wersją kolorystyczną). Podobnie jak w przypadku testu dla prób niezależnych, gdy nie spełnia założeń testu t, należy skorzystać z wersji nieparametrycznej: Testu Wilcoxon’a.
Często jednak możesz chcieć porównać więcej niż tylko dwie grupy produktów, użytkowników itp. W takim przypadku również masz do dyspozycji odpowiedni test – analizę wariancji (ANOVA). Można ją wykorzystać zarówno w próbach niezależnych jak i zależnych.
Więcej o teście t, a także jego nieparametrycznych odpowiednikach, które należy stosować przy niespełnieniu jego założeń znajdziesz m.in. tutaj. Z kolei kalkulatory pozwalające obliczyć wynik testu znajdziesz np. na Social Science Statistics lub w Excel’u. Wystarczy podać wartości porównywanych grup, a kalkulator obliczy dla nas wartość p!
Poniżej znaleźć można średnie ceny, które zostały wykorzystane w powyższym przykładzie. Jeśli temat cię zainteresował i przeczytałeś już, jakie założenia muszą spełnić dane, zachęcamy do eksperymentowania z nimi! Drobna podpowiedź: jednym z testów na normalność rozkładu jest test Kołmogorowa-Smirnowa.
Marka A |
Marka B |
428.06 430.17 447.22 449.84 452.05 452.58 464.05 465.36 471.98 472.30 472.90 473.28 473.59 473.83 475.03 477.14 478.69 478.81 479.44 479.87 483.66 483.69 490.03 490.80 490.81 490.90 493.24 493.81 497.06 501.15 505.10 511.64 512.27 512.65 527.09 530.43 533.09 538.87 540.20 545.91 |
447.44 450.53 456.31 466.02 469.43 471.75 473.56 473.68 475.90 479.31 479.54 481.24 481.30 483.87 484.81 489.49 491.69 494.17 494.27 494.84 495.12 497.54 503.84 505.28 505.74 505.97 506.16 509.39 509.67 511.86 512.81 512.83 517.31 518.00 525.11 527.83 533.15 536.91 538.41 570.46 |
Ponieważ we właściwych analizach bierze się pod uwagę często znaczną liczbę zmiennych i wykonuje różnorodne testy i inne operacje na danych, w omawianych przykładach wykorzystano konieczne uproszczenia.
W Semahead bardzo dobrze rozumiemy potrzebę realizowania testów porównawczych i z chęcią Ci w tym pomożemy. Zgłoś się do nas!
Jak będzie wyglądać praca z danymi w 2020 roku? Czy można zagrać w Pac-Mana w Google Data Studio? Czy koronawirus zagraża również digitalowi? O wszystkim tym (i nie tylko) przeczytasz w najnowszym wydaniu Analityka Express.
W ciągu ostatniego miesiąca na Twitterze Google Analytics pojawiło się wiele tweetów na temat nowych wizualizacji tworzonych przez społeczność. Wśród nich znaleźć można chmurę słów, wykres radar czy dendrogram, ocenę w skali gwiazdkowej, miernik, animowane wykresy słupkowe, a nawet mapy cieplne kliknięć. Chociaż wizualizacje społeczności zostały wprowadzone już pod koniec roku 2018, wciąż trwają testy beta tej funkcji Google Data Studio.
Przycisk Wizualizacji i komponentów utworzonych przez społeczność.
Niestandardowe wizualizacje przygotować można z pomocą JavaScript oraz CSS. Jeżeli więc te języki nie są ci obce, możesz samodzielnie przygotować niemal dowolną wizualizację. W przeciwnym razie pozostaje nam czekać, aż nowe wizualizacje trafią do wewnętrznych zasobów GDS.
Z niecierpliwością wyglądamy kolejnych rozwiązań społeczności Google Data Studio, która jest nie tylko bardzo żywa, ale i kreatywna. Okazuje się bowiem, że w GDS można oglądać wizualizację 3D delfina… a nawet zagrać w PacMana!
Tableau opublikowało obszerny raport trendów w danych na 2020 rok. Zgodnie z nim, w obecnym roku ogromne znaczenie będzie miało rozwijanie umiejętności rozumienia danych – na każdym szczeblu organizacji. Obok wydatków na technologie i systemy, budżetu dot. danych, na szkolenia i rozwój kompetencji przeznaczane będzie nawet 40%.
Biorąc pod uwagę, jak wiele danych ciągle gromadzimy, niezbędna stają się umiejętności nie tylko ich „czytania”, ale także właściwego ich porządkowania, zarządzania dostępem do nich i wizualizacji. Na osobne miejsce w raporcie zasłużył storytelling – nawet 87%marek i sprzedawców stawia na usługi agencji, które potrafią pokazać, że rozumieją biznes swojego klienta.
O zdolności do rozumienia i pracy z danymi mówi się już wprost jako o „piśmiennictwie” w danych. Cały fenomen z kolei nazywany jest kulturą danych – i z pewnością nie jest to określenie na wyrost, skoro istnieją już nie tylko stanowiska takie jak Data Analyst czy Data Scientist, ale profesje takie jak Data Engineer, Data Journalist, a nawet Data Evangelist. Pozostaje pytanie, czy ta kultura danych stanie się subkulturą wyspecjalizowanych organizacji, czy też cała nasza kultura ulegnie transformacji na kulturę data-driven.
Na koniec zostawiliśmy temat zalewający nas obecnie informacjami, z których niełatwo jest czasem odfiltrować szum i szkodliwe dezinformacje. Chodzi oczywiście o koronawirusa SARS-CoV-2 i chorobę COVID-19, którą wywołuje.
W swoich predykcjach i planach biznesowych warto uwzględnić ten czynnik. Choć na obecnym etapie trudno przewidzieć, jaki efekt na jakie gałęzie e-commerce i reszty ruchu w sieci może mieć obecna epidemia, warto monitorować doniesienia na ten temat. Przykładowo, można zapoznać się z wczorajszymartykułem nt. wpływu koronawirusa na marketing internetowy opublikowanym w Digital Doughnut. Wymieniane są w nim czynniki takie jak wpływ strachu, odwoływania wydarzeń społecznych i zmiany w codziennych wydatkach.
Jest to również dobry czas, by odświeżyć swoją wiedzę na temat dobrych praktyk wizualizacji i komunikacji danych. Dla przykładu Tableau opublikowało krótki wpis o tym, jak ważne są odpowiednie skale na wykresach. W sieci można również znaleźć kilka dobrze informujących i wyśmienicie przygotowanych dashboardów, np. na Information is Beautiful lub interaktywny raport Arcgis. Czytając doniesienia, warto również pamiętać o prawie nagłówków Betteridge’a.
A jak jeszcze analiza danych może przysłużyć się w obecnej sytuacji? Puls Biznesu informował wczoraj o tym, że wrocławski DataWalk pracuje nad rozwiązaniem, które korzystając m.in. z informacji z telefonów komórkowych, będzie mogło wykrywać potencjalnych zarażonych.
Pamiętajmy, że podobnie jak w analizie danych internetowych, tutaj również pokładanie zaufania w błędnych danych może nas wiele kosztować.
Szukasz wsparcia w analityce internetowej? Skontaktuj się z nami.
Czy wyobrażasz sobie pracę współczesnego marketera internetowego bez używania Google Analytics? Do pracy w tym narzędziu pewnie nie muszę Cię przekonywać. Warto jednak żebyś wiedział, jak efektywnie poruszać się w gąszczu ustawień i raportów, żeby nie wpaść w pułapkę błędnych decyzji biznesowych. Przeanalizujemy wspólnie kilka przypadków, które dadzą Ci wskazówki i zachęcą do pogłębiania wiedzy o znaczeniu danych zawartych w raportach.
Załóżmy, że chcesz sprawdzić, jak się ma wykonywanie przez użytkownika różnych akcji na stronie – mierzonych jako zdarzenia – do sprzedaży produktów. Jeżeli użyjesz do tego raportu niestandardowego, otrzymasz poniższe dane:
Raport niestandardowy (Google Demo Account)
Liczba produktów zero w trzeciej kolumnie nie oznacza, że nie było zakupów w sesjach, gdzie wykonywano zdarzenia. Takie zestawienie metryk i wymiarów jest teoretycznie niepoprane, dlatego że połączyliśmy wymiar z poziomu hitu (kategoria zdarzenia) z wymiarem z poziomu produktu – ilość sprzedanych produktów.
Spróbujmy w takim razie dowiedzieć się, w czym tkwi problem.
Każda metryka i wymiar w Google Analytics posiada przypisany zakres (scope), który odzwierciedla hierarchię danych. Poniżej lista wraz z przykładami.
1. Użytkownik: użytkownicy, kategoria urządzeń, dni od ostatniej sesji, nowi użytkownicy
2. Sesja: sesje, strony / sesja, źródło / medium, strona wejścia,
3. Hit: strona, kategoria zdarzenia, liczba zdarzeń, odsłony,
4. Produkt (e-commerce): ilość, przychody z produktu, współczynnik kupna do szczegółów, średnia cena.
Istnieje reguła, która mówi, że powinniśmy łączyć metryki oraz wymiary z tych samych zakresów. Jednak – jak to z regułami bywa – istnieją od nich wyjątki. Na przykład: możesz połączyć ze sobą wymiar z poziomu hitu, jakim jest strona z liczbą użytkowników (poziom użytkownika). W rezultacie otrzymasz liczbę użytkowników, którzy odwiedzili poszczególne strony, czyli dokładnie to czego się spodziewasz. Dzieje się tak, dlatego że hity zawierają informację, pozwalającą zidentyfikować użytkownika (client ID).
Raport niestandardowy (Google Demo Account)
Co natomiast się stanie, gdy w raporcie niestandardowym połączysz wymiar „strona” z metryką „sesje”?
Raport niestandardowy (Google Demo Account)
Wartości w tabeli będą odpowiadały liczbie sesji, które zaczęły się od określonego adresu URL a nie liczbie sesji, które odbyły się na podanej stronie. Tutaj wyjaśnieniem jest fakt, że hity nie zawierają informacji o ID sesji. Hity są grupowane w sesje dopiero po przeprocesowaniu danych na podstawie czasu, w którym zostały wysłane do GA (schemat poniżej). Natomiast do narzędzia dociera informacja, od jakiej strony rozpoczęła się sesja, stąd powyższa interpretacja danych.
Grupowanie hitów w sesje
Co ciekawe, odstępstwa od reguły łączenia tych samych zakresów można znaleźć już w standardowych raportach w Google Analytics. Przykładem może być raport zdarzeń przełączony na widok e-commerce.
Raport standardowy (Google Demo Account)
Widać tutaj liczbę sesji (zakres sesji) w których realizowane były dwie kategorie zdarzeń (zakres hitu).
Sprawdźmy, co jeszcze może się stać, jeżeli połączymy metryki i wymiary z różnych zakresów. Zerknij na poniższy raport. Jak myślisz, czy zastosowanie wymiary dodatkowego o nazwie „Czas trwania sesji” jest w tym przypadku uzasadnione?
Raport standardowy z dodatkowym wymiarem (Google Demo Account)
Dodaliśmy metrykę charakteryzującą sesję do wymiaru „Strona” z poziomo hitu. To zestawienie jest jednak niepoprawne, stąd zera w tabeli. Do mierzenia czasu przebywania na pojedynczej stronie służy „Średni czas spędzony na stronie”.
Jak widzisz łączenie metryk i wymiarów z różnych zakresów, może doprowadzić do braku danych w tabelach lub trudności w ich interpretacji. Co więc powinieneś zrobić, żeby mieć pewność co do poprawności analiz? Łącz metryki i wymiary z tych samych poziomów. Jeżeli natomiast chcesz utworzyć raport między zakresowy, pamiętaj o tym, żeby sprawdzać, czy Twoje tabele mają sens, na przykład: porównując je z raportami standardowymi dostępnymi w panelu. Jednocześnie, powinieneś zawsze zastanowić się nad tym, czy poprawnie interpretujesz liczby znajdujące się w zestawieniach.
Chcesz dowiedzieć się, czy Twój Google Analytics Cię nie oszukuje? Skontaktuj się z nami.
Linie pomocnicze w Google Data Studio, poradnik tworzenia lepszych raportów oraz dalsze losy Da Vinci Tools. Nie przeciągając – zapraszamy na lutowe wydanie „Analityka Express”.
W poprzednim Expressie pisaliśmy o tym, że Stephané Hamel, twórca Da Vinci Tools – popularnej wtyczki m.in. do Google Analytics – zapowiedział zakończenie wsparcia dla tego narzędzia. Teraz okazuje się, że przejmuje ją firma Supermetrics, znana z pluginów do Google Docs i Data Studio, umożliwiających zaciąganie danych z różnych źródeł. Da Vinci Tools ma być nadal rozwijana – tym razem przez programistów Supermetrics – oraz dostępna za darmo.
Więcej w artykule na stronie Supermetrics https://supermetrics.com/blog/supermetrics-to-acquire-da-vinci-tools
Czy wiesz, czego najbardziej brakowało nam w GDS podczas układania elementów raportu? Linii pomocniczych, które umożliwiają umieszczenie tabeli dokładnie na środku strony, a kolejnych elementów symetrycznie względem niej. Ta funkcjonalność wreszcie została wprowadzona, co na pewno ucieszy tych, którzy dbają o wygląd swoich raportów.
Kolejną ciekawą opcją jest możliwość dopasowania motywu kolorystycznego raportu do obrazu, np. do logo firmy. Po kliknięciu prawym klawiszem myszy na obraz (w trybie edycji), wybieramy opcję „Wyodrębnij z obrazu”. W efekcie dostajemy do wyboru kilka motywów pasujących do kolorystyki wybranego elementu.
Ułatwi to przygotowanie estetycznego raportu bez pomocy grafika.
To jeszcze nie koniec nowości. Do raportu możemy dodawać wizualizacje danych tworzone przez społeczność. Mogą one wynieść nasze raporty kolejny poziom, jednak jest pewien haczyk:
Jak wynika z komunikatu powyżej, wizualizacje nie mają bezpośredniego dostępu do danych, jednak mimo wszystko powinniśmy dodawać do raportów formaty graficzne tylko od zaufanych firm. Takich na przykład jak Supermetrics.
Więcej nowości GDS w artykule https://support.google.com/datastudio/answer/6311467?hl=en
Na blogu CXL ukazał się artykuł z radami dotyczącymi dashboardów w Data Studio. Dowiesz się z niego skąd pobierać szablony raportów i poznasz 5 sposobów na zbudowanie skutecznych raportów w GDS.
Więcej na stronie https://cxl.com/blog/how-to-use-google-data-studio/
Początek roku przyniósł jak zawsze kilka zmian w dziedzinie analityki internetowej. Chcecie wiedzieć, co ciekawego czeka nas w najbliższym czasie? Dowiecie się tego z artykułu poniżej.
Google już od pewnego czasu zapowiadało zwiększenie prywatności użytkowników w przeglądarce Chrome. W najnowszym poście na blogu Chromium pojawiła się informacja, że w ciągu 2 lat obsługa ciasteczek firm trzecich (third-party cookies) zostanie w Chromie wycofana.
Co to oznacza dla branży reklamowej? Uniemożliwienie śledzenia użytkowników za pomocą plików cookies na zewnętrznych stronach, a co za tym idzie – ogromne problemy dla firm bazujących na takim modelu działalności. Pierwsze zmiany i zaostrzenie wymogów korzystania z ciasteczek planowane są już w lutym. Naturalnie Google twierdzi, że wszystko to w trosce o użytkownika, jednak eksperci z branży mają wątpliwości.
Więcej na blogu Chromium: https://blog.chromium.org/2020/01/building-more-private-web-path-towards.html
oraz w artykule Wirtualne Media: https://www.wirtualnemedia.pl/artykul/brak-sledzenia-uzytkownikow-w-chrome-mocno-uderzy-w-segment-reklamy-google-stanie-sie-monopolista-ochrona-prywatnosci-w-chrome-usuwanie-plikow-cookies
Jeśli już przy ciasteczkach jesteśmy, na stronie Bounteous (dawnie LunaMetrics) ukazał się ciekawy artykuł o tym, w jaki sposób Google Analytics wykorzystuje cookiesy do zliczania użytkowników. Dobra wiadomość w kontekście poprzedniego newsa: GA korzysta z własnych ciasteczek witryny (first-party cookies), a zatem opisane wyżej zmiany w Chromie nie powinny go dotyczyć.
http://bounteous.com/insights/2019/12/23/how-google-analytics-uses-cookies-identify-users/
Niedawno na LinkedIn pojawił się post twórcy Da Vinci Tools, który napełnił smutkiem użytkowników Google Marketing Platform. Stephane Hamel ogłosił, że zawiesza prace nad tym popularnym narzędziem. Wtyczka zwiększała możliwości narzędzi Google, jednak chyba najwięcej przydatnych funkcji posiadała dla użytkowników Google Analytics (umożliwiała chociażby tworzenie map cieplnych w oparciu o dane w tabelach). Na otarcie łez mamy stwierdzenie Hamela, że być może udostępni kod niektórych elementów wtyczki, który mógłby być wtedy rozwijany dalej przez innych programistów. Trzymam kciuki!
Przedstawiamy porcję nowinek analitycznych. O czym warto wiedzieć, by być na bieżąco? O tym, że Adobe Analytics umożliwia analizę WeChat – chińskiej platformy społecznościowej a także o tym, co się działo na konferencji Analytics Summit 2019. Ponadto warto zwrócić uwagę na możliwość przenoszenia konwersji z Google Analytics do Google Ads oraz tworzenia spójnych wrażeń dla użytkownika dzięki Google Optimize.
Nie od dziś wiadomo, że praca z azjatyckim rynkiem jest trudna. Ma to związek z tym, że wiele dobrze nam znanych usług internetowych jest tam niedostępna. Chcąc prowadzić działania, na przykład na rynku Chińskim, musimy zapoznać się z zupełnie nowymi platformami i narzędziami.
Jednym z bardziej znanych mediów społecznościowych jest tam WeChat (30% ruchu mobilnego), pełniący rolę komunikatora, sklepu internetowego, źródła wiadomości i rozrywki. WeChat Mini-Programs to natomiast swego rodzaju „podaplikacje”, będące elementem środowiska WeChat i działające tylko w tej aplikacji. Między innymi dzięki nim, marki mogą docierać do klientów.
Adobe Analytics od niedawna umożliwia analizowanie zachowań użytkowników WeChat i WeChat Mini-Programs, dzięki uruchomieniu najnowszej wersji Adobe Experience Platform Mobile SDK. Adobe Analytics pozwala obserwować, czy klienci bardziej angażują się w obszarze naszej „podaplikacji”, czy na naszej stronie. Zobaczyć, które funkcje są częściej używane i dlaczego. Dowiemy się, z jakich form kontaktu nasi klienci korzystają najczęściej. Znajdziemy tam także informacje na temat segmentów, użytkowników, dzięki czemu będziemy mogli podjąć odpowiednie działania i zwiększyć zaangażowanie. Możliwa jest też analiza kohortowa.
Na stronie Hamburg News można znaleźć informację o konferencji Analytics Summit 2019, która odbyła się 6 listopada w Niemczech, w Hamburgu. Według podsumowania, na konferencji pojawiło się ponad 600 uczestników. Szacuje się, że prawdopodobnie była to dotychczas największa konferencja Google Analytics w Europie. Podczas konferencji można było wysłuchać 14 prelegentów, którzy zgodnie z mottem „Od użytkowników dla użytkowników”, zaprezentowali najnowsze casy study, analizy i prognozy na przyszłość, dotyczące Google Analytics.
W trakcis prelekcji zostały omówione, badania trendów z 2019 roku, firmy Trakken Web Services GmbH, które potwierdziły, że analiza danych staje się coraz ważniejszym fundamentem decyzji biznesowych i budżetowych. Aktualnym wyzwaniem jest bezbłędne zbieranie danych pod względem technicznym, odpowiednia jakość i dostępność danych oraz umiejętne łączenie wielu różnych źródeł.
Inny ciekawy aspekt poruszył w swojej prelekcji Silja Schilling, menedżer ds. Marketingu wydajności w firmie Coop. Zbadał, czy Google Marketing Platform zapewnia reklamodawcom wszystko czego potrzebują w praktyce. Okazało się, że nie, wdrożenie wszystkiego we własnym zakresie jest trudne i potrzeba zewnętrznego wsparcia.
Anjali Lalwani Raghavan, odpowiedzialny za strategię i marketing Google Analytics, zapowiedział nowości, takie jak zwiększenie wykorzystania i możliwości uczenia maszynowego, poprawa wydajności sprzedaży online, lepsza integracja aplikacji BigQuery i funkcji internetowych oraz solidniejsza analityka na różnych urządzeniach dzięki Google Signals.
Niedawno pojawiła się możliwość importowania konwersji z usług Aplikacje + internet w Google Analytics do Google Ads w celu prowadzenia pomiarów i ustalania stawek. Wcześniej było to możliwe jedynie w przypadku konwersji z FireBase.
Co jest potrzebne do importowania konwersji z usług Aplikacje + internet w Google Analytics do Google Ads? Na początek trzeba połączyć Google Ads z usługami Aplikacje + Internet w Google Analytics. Trzeba skonfigurować usługę Aplikacje + internet w Google Analytics, dodać strumień danych z sieci do usługi, mieć włączone zdarzenia e-commerce jako zdarzenia konwersji. Później już tylko kilka kroków dzieli nas od osiągnięcia celu: na koncie Google Ads, w narzędziach, w sekcji „Pomiar skuteczności” należy kliknąć „Konwersje” i potem przycisk plusa. Następnie z listy typów konwersji należy wybrać „Importuj”, kolejno wybrać przycisk „Usługa Aplikacje + internet w Google Analytics” i „Sieć” i kliknąć dalej. Kolejno wybieramy pola obok tych zdarzeń konwersji, które chcemy zaimportować i klikamy „Importuj i kontynuuj”. Na liście pojawią się wszystkie skonfigurowane konwersje, więc musimy wybrać tylko te, które chcemy uwzględnić w imporcie.
Na blogu Google Marketing Platform można znaleźć nowy wpis, o tym jak sprawić, by użytkownicy wracający na stronę, w ciągu 24 godzin, zawsze trafiali na tę samą wersję strony, niezależnie czy różnice wynikają z marketingowej personalizacji czy prowadzonych testów. Jak się okazuje, Google Optimize posiada teraz informację, czy użytkownik pojawia się kolejny raz na stronie i pozwala na przypisanie jednemu użytkownikowi określonego wyglądu witryny na całą dobę.
Zastanawialiście się czasem, ile lat ma Google Analytics? Otóż, w listopadzie, Google Analytics obchodzi swoje 14 urodziny! Na tym jednak listopadowe informacje się nie kończą.
W Google Data Studio pojawiła się bardzo wygodna możliwość dodawania grafik do raportów nie tylko z dysku, ale także za pomocą podania adresu URL obrazu hostowanego (czyli zapisanego na platformie z grafiką) lub ze strony internetowej.
Dodawanie grafiki jest bardzo proste, wystarczy kliknąć ikonkę “Obraz” i wybrać formę dodania pliku. Można je dodawać w najpopularniejszych formatach plików graficznych. Jeśli użyjemy zdjęcie, które w Google jest objęte prawami autorskimi, na górze raportu pojawi się nakładka, która nas o tym poinformuje. Można ją zdjąć poprzez odświeżenie strony niemniej, zawsze trzeba pamiętać o odpowiedzialności związanej z prawami autorskimi.
https://twitter.com/googleanalytics/status/1185256483342209024?s=20
https://support.google.com/datastudio/answer/6289367?linkId=75546358
Kolejna aktualizacja w Google Data Studio dotyczy warunkowego formatowania danych w różnych. Z pewnością pomoże wizualnie uporządkować informacje w niejednym raporcie.
Na czym dokładnie to polega? Dla wybranych danych, zarówno liczbowych, jaki i tekstowych, możemy wybrać kolor czcionki oraz tła, używając formatowania warunkowego. Wybieramy obsługiwany wykres, następnie klikamy “Styl” i dodajemy jeden lub więcej warunków, dla których określamy styl, w jakim mają się pokazywać dane spełniające warunek.
https://twitter.com/googleanalytics/status/1187416214932467715?s=20
https://support.google.com/datastudio/answer/9528890?linkId=75854238
Do Google Tag Managera dołączyła możliwość wbudowywania testów jednostkowych w niestandardowe szablony Menedżera Tagów. Zastosowanie takich testów umożliwia weryfikację funkcjonalności szablonów. Można utworzyć pakiet testów i bez konieczności wprowadzania tagu, sprawdzić zachowania szablonu jeszcze na etapie programowania.
Testy mogą pomóc wykryć różne błędy w kodzie, w funkcjach, pokazać przykładowe wartości wejściowe i wyjściowe itp. Wyniki testów będą się pojawiały w konsoli. Testy można uruchamiać wszystkie jednocześnie lub pojedynczo, niezależnie.
https://twitter.com/googleanalytics/status/1192199740630458369?s=20
https://developers.google.com/tag-manager/templates/tests?linkId=76594438
]]>
Zastanawialiście się czasem, ile lat ma Google Analytics? Otóż, w listopadzie, Google Analytics obchodzi swoje 14 urodziny! Na tym jednak listopadowe informacje się nie kończą.
W Google Data Studio pojawiła się bardzo wygodna możliwość dodawania grafik do raportów nie tylko z dysku, ale także za pomocą podania adresu URL obrazu hostowanego (czyli zapisanego na platformie z grafiką) lub ze strony internetowej.
Dodawanie grafiki jest bardzo proste, wystarczy kliknąć ikonkę “Obraz” i wybrać formę dodania pliku. Można je dodawać w najpopularniejszych formatach plików graficznych. Jeśli użyjemy zdjęcie, które w Google jest objęte prawami autorskimi, na górze raportu pojawi się nakładka, która nas o tym poinformuje. Można ją zdjąć poprzez odświeżenie strony niemniej, zawsze trzeba pamiętać o odpowiedzialności związanej z prawami autorskimi.
https://twitter.com/googleanalytics/status/1185256483342209024?s=20
https://support.google.com/datastudio/answer/6289367?linkId=75546358
Kolejna aktualizacja w Google Data Studio dotyczy warunkowego formatowania danych w różnych. Z pewnością pomoże wizualnie uporządkować informacje w niejednym raporcie.
Na czym dokładnie to polega? Dla wybranych danych, zarówno liczbowych, jaki i tekstowych, możemy wybrać kolor czcionki oraz tła, używając formatowania warunkowego. Wybieramy obsługiwany wykres, następnie klikamy “Styl” i dodajemy jeden lub więcej warunków, dla których określamy styl, w jakim mają się pokazywać dane spełniające warunek.
https://twitter.com/googleanalytics/status/1187416214932467715?s=20
https://support.google.com/datastudio/answer/9528890?linkId=75854238
Do Google Tag Managera dołączyła możliwość wbudowywania testów jednostkowych w niestandardowe szablony Menedżera Tagów. Zastosowanie takich testów umożliwia weryfikację funkcjonalności szablonów. Można utworzyć pakiet testów i bez konieczności wprowadzania tagu, sprawdzić zachowania szablonu jeszcze na etapie programowania.
Testy mogą pomóc wykryć różne błędy w kodzie, w funkcjach, pokazać przykładowe wartości wejściowe i wyjściowe itp. Wyniki testów będą się pojawiały w konsoli. Testy można uruchamiać wszystkie jednocześnie lub pojedynczo, niezależnie.
https://twitter.com/googleanalytics/status/1192199740630458369?s=20
https://developers.google.com/tag-manager/templates/tests?linkId=76594438
Nauka pozycjonowania nie jest procesem trudnym, jednak warto mieć świadomość tego, że ciągłym – dziedzina SEO nieustannie się rozwija. Cała wiedza potrzebna, aby rozpocząć naukę SEO, jest dostępna w Internecie i nie trzeba wydawać pieniędzy na publikacje.
Od czego zacząć? Należy wiedzieć, jak działa wyszukiwarka i czym jest samo pozycjonowanie – to podstawa bez której dalsza nauka będzie bardzo trudna, o ile nie niemożliwa. Miejscem, w którym zamieszczona jest najbardziej elementarna i aktualna wiedza, jest blog Google. Informacje tam przedstawione dają odpowiedź na pytanie o pozycjonowanie stron samemu od podstaw, a także umożliwiają dalszy rozwój.
Pierwsze kroki w świecie SEO dobrze jest skierować na strony i blogi, które wyjaśniają podstawowe zagadnienia. Po zapoznaniu się z elementarną wiedzą, należy ją utrwalać i testować w praktyce. Od czego zacząć? Od założenia własnej strony internetowej, którą będzie się optymalizowało samemu, krok po kroku. Istnieje wiele różnych tutoriali i filmów, dostępnych za darmo, które tłumaczą, jak to zrobić. Dobrze jest zacząć od jak najprostszego systemu CMS pozwalającego na optymalizację strony.
Jednym z najlepszych systemów do nauki, jak i do tworzenia bardziej zaawansowanych stron internetowych, jest WordPress. Daje on spore pole do nauki SEO poprzez udostępnianie bezpłatnych wtyczek i dodatków umożliwiających łatwą konfigurację strony. Podstawowa znajomość HTML i CSS jest plusem, jednak na samym początku nie jest to konieczność.
Do nauki pozycjonowania przydają się wtyczki i dodatki do przeglądarek. Na nich można w praktyce sprawdzić czy to, o czym się przeczytało lub obejrzało, faktycznie jest jasne i zrozumiałe. Przykładem wszechstronnego dodatku do przeglądarki jest Web Developer. To wtyczka dostępna w większości przeglądarek, która posiada wiele funkcji, między innymi wyświetlanie nagłówków stron, atrybutów ALT grafik czy wyłączania CSS na stronach.
Na podstawie zdobytej wiedzy i analizy serwisów za pomocą wtyczki można wyciągnąć wnioski o dobrych praktykach, a następnie wdrażać je na własnej witrynie.
Na początku drogi nie trzeba korzystać z płatnych narzędzi. Można skupić się na poznawaniu tych darmowych, które w zupełności powinny wystarczyć.
Google udostępnia idealne do nauki pozycjonowania narzędzia:
Narzędzia płatne bardzo często oferują możliwość skorzystania z okresu próbnego, więc jeżeli chce się je wypróbować nie trzeba kupować abonamentu.
Przykładami wtyczek pomocnych w procesie nauki SEO są:
Nauka pozycjonowania nie jest trudna, jednak długa. To obszar marketingu, który niezwykle szybko się rozwija i informacje, które były aktualne kilka lat temu, obecnie mogą być już przedawnione. Ważne jest więc, aby korzystać ze źródeł, które są na bieżąco aktualizowane, jak na przykład wymieniony wyżej blog Google, a także testować zdobytą wiedzę w praktyce.
Październiki przyniósł nam nie tylko piękną polską jesień, ale także nowe możliwości kierowania użytkowników na testy w Google Optimize, nadzieję na kolejne ciekawe szkolenie, bardziej kreatywne możliwości filtrowania w raportach Google Data Studio oraz refleksję na temat umieszczania tekstu zastępczego w formularzach.
W tym miesiącu zaczynamy od dwóch nowości w Google Optimize. Po pierwsze, w narzędziu pojawiła się nowa możliwość kierowania odbiorców na test: za pomocą parametrów UTM kampanii.
Wystarczy, że na całej stronie wdrożony jest tag GO, a użytkownicy, którzy przyjdą na stronę z tym parametrem utm zostaną skierowani do testu. Jeżeli po zakończeniu sesji użytkownik nie rozpocznie nowej w ciągu 24 godzin, jego kolejne sesje nie będą włączane do wyników testu. Więcej o nowym sposobie kierowania na eksperyment przeczytasz w Optimize Help Center.
Pod koniec września na kanale YT Google Analytics pojawiły się dwa nowe filmiki. Objaśniają one testy wielowymiarowe (multivariate) oraz testy przekierowujące (redirect). Filmiki pokazują także, jak krok po kroku testy te przygotować i przeprowadzić. Nowe materiały włączone są w playlistę Working with Optimize. To już drugi cykl takich filmików, po Getting Started with Optimize, pochodzących z lutego 2018. Czy w najbliższych miesiącach możemy oczekiwać, że Google Optimize dołączy do szkoleń w Analytics Academy, obok Analytics’a, Tag Manager’a oraz GDS? Mamy taką nadzieję.
Emoji sprawdzą się doskonale, nie tylko w usprawnianiu i urozmaicaniu komunikacji w mediach społecznościowych, ale również w zwiększeniu czytelności i funkcjonalności raportów. Na swoim blogu Mehdi Oudjida opisał w jaki sposób zamiast tekstu wykorzystać w tabelach i na wykresach emoji. Dzięki nim w intuicyjny sposób wskazać możemy m.in. na kategorię urządzenia lub kraj.
Ponadto od teraz w Google Data Studio, w tabelach przestawnych, będziemy mogli utworzyć filtry interakcyjne. Możliwość filtrowania danych pojedynczym kliknięciem znacznie uprości korzystanie z raportów GDS. Łącząc obie nowości możemy wykorzystać emoji, by za pomocą jednego kliknięcia w wybrany obrazek, jak za dotknięciem czarodziejskiej różdżki, przenieść się do interesujących nas informacji. Nie pozostaje nic innego, jak tylko przetestować!
Dotychczas popularny tekst zastępczy (eng. placeholder – widoczny w oknie formularza przed wprowadzeniem danych), okazuje się być niefunkcjonalny. W dobie braku skupienia nad jedną czynnością, ciągłego przeklikiwania między aplikacjami, użytkownik łatwo może zapomnieć o tym, jaką informację zaczął podawać kilka sekund wcześniej. Etykieta nad okienkiem do uzupełniania wydaje się być niezbędna.
To jednak nie jedyny problem związany z tekstem zastępczym. Jest więcej mechanizmów psychologicznych i fizycznych, które sprawiają, że ta forma „ułatwienia”, może utrudnić pracę z formularzem i zniechęcić użytkownika do kończenia działania. Więcej o tym przeczytasz w artykule na stronie Nielsen Norman Group Warto przemyśleć ten aspekt.
Mierzysz się ze spadkami? Obserwujesz skuteczność swojej kampanii? A może akurat trwa u Ciebie spokojny czas, w którym nic szczególnego nie powinno się wydarzyć? Niezależnie od bieżącej sytuacji warto uważnie śledzić, czy najważniejsze metryki nie wykazują żadnych aberracji. Ponieważ ludzka uwaga i spostrzegawczość bywają zawodne, warto powierzyć to zadanie swojemu Analytics’owi. Alerty świetnie spełnią tę funkcję. Jak jednak poprawnie je skonfigurować? Wszystkiego dowiesz się z artykułu, który dla Ciebie przygotowaliśmy.
Dzięki alertom Google Analytics wyśle nam powiadomienie za każdym razem, gdy spełnione zostaną określone przez nas warunki. Pierwszym krokiem, który musisz wykonać, jest wejście w panel administracji GA. Przycisk „Administracja” można znaleźć w dolnym lewym rogu, pod raportami.
Gdy już otworzysz panel administracyjny, w kolumnie odpowiadającej widokowi danych, w sekcji „Osobiste Narzędzia” i „Zasoby” należy wejść w „Alerty Niestandardowe”.
W otwartym panelu możemy przeglądać, edytować i usuwać wcześniej utworzone alerty. Aby utworzyć nowy należy kliknąć w znajdujący się na górze przycisk „+Nowy Alert”.
Po kliknięciu w przycisk panel zostanie zastąpiony przez formularz alertu. Wypełnić możemy go następującymi danymi:
W pierwszej kolejności należy wprowadzić „Nazwę alertu”, która pomoże szybko zorientować się w tym, do czego on służy. Następnie przy „Zastosuj dla” znajdziesz nazwę widoku, dla którego właśnie ustawiasz alert, a także możliwość zastosowania go do większej liczby widoków. W kolejnym kroku możesz zdecydować jaki okres ma zostać użyty przy sprawdzaniu warunków, które ustalisz zaraz po podjęciu decyzji czy alert ma być wysyłany na Twój e-mail, a także czy powiadomienie ma zostać wysłane także innym osobom.
Na tym etapie przychodzi czas na to, abyś wybrał „Warunki alertu”, które muszą być spełnione, aby ten został wysłany. W polu „Dotyczy” możesz wybrać, czy warunek ma obejmować cały ruch, czy tylko jego części. Do wyboru masz znane z filtrowania „Warunki”, takie jak ścisłe dopasowanie, zawieranie, rozpoczynanie się od lub wykorzystanie wyrażeń regularnych.
Poniżej w polu „Ostrzegaj mnie” możesz sformułować regułę wysyłania alertu poprzez wybór interesującej Cię metryki, a także warunku i wartości. Przykładowo możesz ustawić alert, gdy transakcje spadną o ponad 20%, albo gdy współczynnik odrzuceń wzrośnie o ponad 15%.
Jeśli zdecydujesz się na warunek dotyczący spadku lub wzrostu – będziesz musiał wybrać także „W porównaniu z” jakim okresem wybrana przez Ciebie metryka ma być porównywana. Dostępne opcje zależą od tego, jaki okres wybrałeś.
Pomocne może okazać się ustawianie alertu zarówno pod nietypowy spadek jak i wzrost ważnych dla Ciebie wartości. Dzięki temu szybko odkryjesz także błędnie zbierające się dane. Pamiętaj, że metryki, warunki i wartości które wybierasz powinny zależeć od specyfiki Twojego ruchu. Jeżeli liczba sesji Twoich użytkowników często znacznie się waha, ustawienie alertu na tę akurat metrykę może skutkować znaczną ilością spamu na Twojej skrzynce. W takim przypadku znów będziesz skazany na wytężanie swojej uwagi i spostrzegawczości ponad ludzkie możliwości.
Co ciekawego wydarzyło się w ostatnich dniach w świecie analityki internetowej? Z najnowszych nowinek dowiecie się między innymi o tym, jak analizować dane ze stron mobilnych oraz poznacie nowe tagi w Google Tag Managerze. Wszystkie poznacie poniżej.
Niemal w każdym miesiącu informujemy o nowych funkcjonalnościach dodawanych w GDS. Trzeba przyznać, że narzędzie rozwija się w szybkim tempie. Aktualizacja w tym miesiącu dotyczy między innymi tabel przestawnych, które zyskały dodatkowe usprawnienia, takie jak możliwość ukrywania i odkrywania rzędów, czy dodawania większej liczby rzędów z danymi. Pojawił się również nowy typ danych – “Data godzina minuta”, który pozwala analizować dane z dokładnością do minuty. Więcej nowości znajdziecie pod linkiem.
Na blogu Google Marketing Platform ukazał się ciekawy artykuł o tym, jak podejść do porównania efektywności strony w wersji desktopowej i mobilnej. Autorka zaleca analizowanie wyników w oparciu o względny współczynnik konwersji dla urządzeń mobilnych, który powstaje po podzieleniu współczynnika konwersji dla smartfonów przez współczynnik konwersji dla komputerów.
Względny współczynnik konwersji dla urządzeń mobilnych. Źródło: www.blog.google.com
Zaletą względnego współczynnika konwersji jest to, że pozwala on na analizę wpływu samej strony i jest praktycznie niezależny od czynników zewnętrznych, takich jak udział kanałów marketingowych w media miksie czy sezonowość. Cały artykuł znajdziesz tutaj.
W poprzednim miesiącu pisaliśmy o nowym rodzaju usługi Google Analytics, która łączy dane ze stron internetowych i aplikacji. W konsekwencji tych zmian pojawiły się nowe wbudowane tagi w GTM – Google Analytics: App + Web Configuration oraz App + Web Event. Tagi są nadal w wersji beta, jednak pozwalają w łatwy sposób rozpocząć przygodę z połączonymi danymi. Cała zabawa opiera się na razie na zdarzeniach – w usłudze App + Web nie jest wspierany moduł ecommerce. Więcej na temat konfiguracji tagów znajdziecie w artykule pomocy.
Dostawca znanego narzędzia, służącego m.in. do tworzenia map cieplnych, udostępnił darmową aplikację dla użytkowników Google Analytics. Hołdując zasadzie, że obraz znaczy więcej niż tysiąc słów, po połączeniu z naszym kontem Google, narzędzie tworzy wizualizację kliknięć na stronie za pomocą mapy cieplnej. Podobną funkcję pełniła wtyczka Page Analytics do Google Chrome, obecnie jednak nie jest już wspierana. Trzeba poza tym przyznać, że wersja Crazy Egg jest wizualnie atrakcyjniejsza. Więcej o wtyczce przeczytasz na blogu Crazy Egg.
Co ciekawego wydarzyło się w ostatnich dniach w świecie analityki internetowej? Z najnowszych nowinek dowiecie się między innymi o tym, jak analizować dane ze stron mobilnych oraz poznacie nowe tagi w Google Tag Managerze. Wszystkie poznacie poniżej.
Niemal w każdym miesiącu informujemy o nowych funkcjonalnościach dodawanych w GDS. Trzeba przyznać, że narzędzie rozwija się w szybkim tempie. Aktualizacja w tym miesiącu dotyczy między innymi tabel przestawnych, które zyskały dodatkowe usprawnienia, takie jak możliwość ukrywania i odkrywania rzędów, czy dodawania większej liczby rzędów z danymi. Pojawił się również nowy typ danych – “Data godzina minuta”, który pozwala analizować dane z dokładnością do minuty. Więcej nowości znajdziecie pod linkiem.
Na blogu Google Marketing Platform ukazał się ciekawy artykuł o tym, jak podejść do porównania efektywności strony w wersji desktopowej i mobilnej. Autorka zaleca analizowanie wyników w oparciu o względny współczynnik konwersji dla urządzeń mobilnych, który powstaje po podzieleniu współczynnika konwersji dla smartfonów przez współczynnik konwersji dla komputerów.
[caption id="attachment_22233" align="aligncenter" width="1000"]Zaletą względnego współczynnika konwersji jest to, że pozwala on na analizę wpływu samej strony i jest praktycznie niezależny od czynników zewnętrznych, takich jak udział kanałów marketingowych w media miksie czy sezonowość. Cały artykuł znajdziesz tutaj.
W poprzednim miesiącu pisaliśmy o nowym rodzaju usługi Google Analytics, która łączy dane ze stron internetowych i aplikacji. W konsekwencji tych zmian pojawiły się nowe wbudowane tagi w GTM – Google Analytics: App + Web Configuration oraz App + Web Event. Tagi są nadal w wersji beta, jednak pozwalają w łatwy sposób rozpocząć przygodę z połączonymi danymi. Cała zabawa opiera się na razie na zdarzeniach – w usłudze App + Web nie jest wspierany moduł ecommerce. Więcej na temat konfiguracji tagów znajdziecie w artykule pomocy.
Dostawca znanego narzędzia, służącego m.in. do tworzenia map cieplnych, udostępnił darmową aplikację dla użytkowników Google Analytics. Hołdując zasadzie, że obraz znaczy więcej niż tysiąc słów, po połączeniu z naszym kontem Google, narzędzie tworzy wizualizację kliknięć na stronie za pomocą mapy cieplnej. Podobną funkcję pełniła wtyczka Page Analytics do Google Chrome, obecnie jednak nie jest już wspierana. Trzeba poza tym przyznać, że wersja Crazy Egg jest wizualnie atrakcyjniejsza. Więcej o wtyczce przeczytasz na blogu Crazy Egg.
]]>
Trudno wyobrazić sobie marketera, który nie korzysta z Google Analytics i Excela. Czasami w celu ułatwienia sobie pracy potrzebujemy wyeksportować dane z GA i otworzyć je w innym programie. Niesie to ze sobą wiele korzyści. Jak zrobić to poprawnie? Wszystkiego dowiesz się z tego artykułu.
Jeżeli wszedłeś na ten artykuł to jest spora szansa, że masz już swoje powody, aby eksportować dane. W takim przypadku możesz pominąć tę sekcję. Jeżeli jednak jeszcze nigdy nie eksportowałeś danych z Google Analytics to warto, abyś dowiedział się, jakie korzyści z tego płyną.
W GA mamy dostęp do raportów standardowych i niestandardowych, w których dane możemy filtrować, segmentować, zestawiać ze sobą i oglądać na wykresach. Te informacje dostępne są tylko w ramach możliwości i szaty graficznej Google Analytics. Rzecz jasna możesz przekroczyć te ograniczenia, korzystając na przykład z Google Data Studio, gdzie możliwości prezentacji danych są większe. W tym przypadku jednak znowu jesteś ograniczony przez to jedno narzędzie.
Możesz także zrobić kolejny krok (przekroczyć kolejne limity) eksportując dane i używając ich w dowolnym narzędziu, w dowolny sposób. Przykładowo możesz przygotować z nich przekonywujący raport lub przeprowadzić na nich badania statystyczne. Jeżeli nie masz w tym doświadczenia i chciałbyś od czegoś zacząć, to pisaliśmy o tym w artykule „Poznaj 5 kroków statystycznej analizy danych w Google Analytics”.
Eksportowanie danych wprost z Google Analytics jest bajecznie proste. Wystarczy w wybranym raporcie kliknąć Eksportuj > Excel (xlsx).
Pamiętaj jednak o tym, żeby wybrać wszystkie interesujące cię wiersze, ponieważ GA wyeksportuje tylko te widoczne w tabeli w danej chwili. Jeżeli chcesz wyeksportować wszystkie dane, wystarczy że wybierzesz przedział powyżej liczby wierszy albo po prostu największy dostępny przedział, czyli 5 tysięcy. Jeśli jednak twoje dane mają ponad 5000 wierszy, będziesz musiał wyeksportować je strona po stronie.
Jeżeli chcesz wyeksportować dane spoza raportów standardowych – po prostu przygotuj odpowiedni raport niestandardowy, łącząc wymiary i metryki na których ci zależy. Warto pamiętać również o odpowiednim sortowaniu danych – to oszczędzi nam sortowania już wyeksportowanych danych. W niektórych raportach standardowych nie ma możliwości eksportowania danych do formatu Excela (xlsx). W takiej sytuacji możesz jednak wykorzystać możliwość eksportu do formatu CSV.
To wszystko, jak możesz sobie wyobrazić, może zająć bardzo dużo czasu. Szczególnie gdy potrzebujesz wyeksportować dane ze względu na wiele wymiarów, albo przygotowujesz takie raporty cyklicznie.
Aby uniknąć konieczności przeklikiwania się przez kolejne strony kolejnych raportów możesz skorzystać z odpowiedniej wtyczki do Excela lub Arkuszy Google. Tą możliwość omówimy na przykładzie wtyczki Analytics Edge.
Po zainstalowaniu wtyczki i zalogowaniu się na nasze konto wystarczy wybrać interesujące nas wymiary, metryki, segmenty, widoki i raport jest generowany. Jeżeli ta możliwość zainteresowała Cię – możesz obejrzeć tutorial, w którym pokazano, jak wygląda korzystanie z Analytic Edge.
Z Analytics Edge można korzystać w ramach darmowej usługi zawierającej konektor Google Analytics. Istnieje również możliwość skorzystania z dodatkowych konektorów, pozwalających nam zaciągać dane także z m.in. Google Ads, Google Search Console lub Facebook i łączyć je w arkuszu Excel.
Jeżeli jednak jesteś gotów poświęcić przyjemny dla oka interface w zamian za jeszcze większe możliwości – to rozwiązanie dla ciebie. R to język stworzony z myślą o data science, dlatego świetnie nadaje się nie tylko do eksportu, ale także do przeprowadzania najróżniejszych operacji na twoich danych. Na tym etapie ogranicza nas już chyba tylko wyobraźnia – i nasza sprawność w programowaniu.
Potrzebna jest podstawowa znajomość języka R i jeden z pakietów, który zapewni ci możliwość importu danych z Google Analytics przez API. My w Semahead korzystamy m.in. z pakietu googleAnalyticsR. Klika linijek kodu wystarczy, aby wyciągnąć niepróbkowane dane z wybranego zakresu dat i przeprowadzić na nich proste operacje matematyczne. Większa znajomość R otworzy przed tobą również możliwość tworzenia wyjątkowych wizualizacji i przeprowadzania badań statystycznych.
Z kolei bardziej zaawansowana znajomość R otworzy przed tobą szerokie możliwości automatyzacji pracy, takie jak na przykład nasz Szybki Audyt Google Analytics.