Generic selectors
Tylko dokładne dopasowanie
Szukaj w tytule
Szukaj w treści
Filtruj po kategoriach
Analityka internetowa
BLOG.re:view
Content marketing
Marketing automation
Marketing internetowy
PPC
SEO
Social media
Z życia Semahead

Skontaktuj się z nami

Widget

  • Szczegółowe informacje dotyczące przetwarzania danych osobowych znajdziesz tutaj.

Zakup domeny internetowej – jak się do tego zabrać?

Domena jest wizytówką zarówno strony internetowej, jak i jej właściciela. Buduje pierwsze wrażenie, ale też ma realny wpływ na wyniki SEO. Rynek adresów internetowych jest rozbudowany i konkurencyjny, więc warto wiedzieć, jak sprawdzić domenę i na co zwracać uwagę przed kupnem.

Z tego artykułu dowiesz się między innymi:

• jak kupić domenę,

• na co zwrócić uwagę podczas kupna domen nowych i używanych,

• gdzie kupić domenę,

• czym są giełdy domen,

• jak sprawdzić parametry i historię domeny.

SEO dla e-commerce

Kupno domeny to transakcja zawierana zazwyczaj na dłuższy okres. Zakupiony adres przeważnie, o ile nie został nabyty jedynie w celu późniejszej odsprzedaży z zyskiem, zostaje w rękach tego samego właściciela przez kilka lat. Z tego powodu, przed podjęciem decyzji o zakupie, warto wykonać dobry research i potraktować całą operację jako istotną inwestycję, mając na uwadze całościowy rozwój naszego biznesu.

Pierwszym kryterium przy rozróżnieniu domen, jakiego dokonamy, jest ich pochodzenie. Na tej podstawie możemy podzielić domeny na pochodzące z rynku pierwotnego (domeny nowe) i wtórnego (domeny używane).  

 

Jak domena wpływa na SEO?

Wbrew pozorom domeny mają duże znaczenie dla osiągania wysokich pozycji w rankingach wyszukiwarek internetowych. Wpływa ona na pozycje m.in. dzięki swojemu autorytetowi, ruchowi, historii oraz profilowi linków. Pozytywnie na rankowanie wpływa też wiek domeny – im adres jest starszy, tym bardziej wartościowy, oczywiście pod warunkiem, że ma za sobą dobrą historię.   

 

Domeny nowe – gdzie je kupić?

Bezpiecznym i wygodnym rozwiązaniem jest kupno nowej domeny internetowej. Takie adresy cechują się brakiem jakiejkolwiek historii, więc są swoistą niezapisaną kartą. Rejestracją nowych domen zajmują się uprawnione podmioty. W Polsce są to instytucje, które dołączyły do Programu Partnerskiego NASK Krajowego Rejestru Domen. Znalezienie wielu ofert do porównania nie stanowi problemu – firmy zajmujące się rejestracją domen bez trudu można znaleźć w Internecie. Można też skorzystać z porównywarek cen, aby wybrać najtańszą opcję.

Popularnym narzędziem tego typu jest strona https://www.domcomp.com/. Pamiętajmy, że cena nie powinna jednak być jedynym kryterium oceny danej oferty! Często można spotkać się z ofertami rejestracji domen za niewielkie pieniądze, a nawet za darmo. Takie rozwiązanie brzmi świetnie, zwłaszcza gdy w pakiecie jest zawarty hosting, ale tak korzystne ceny są obwarowane pewnymi warunkami.

Zanim dokonamy zakupu, sprawdźmy, co obejmuje oferta i na jakie dodatkowe koszty możemy być narażeni. Warto sprawdzić koszty przedłużenia domeny po wygaśnięciu abonamentu. W ten sposób unikniemy zaskoczenia, gdy po roku od zawarcia transakcji otrzymamy rachunek na kwotę wyższą, niż się spodziewaliśmy. Dowiedzmy się też, w jakim zakresie będziemy mogli liczyć na support techniczny ze strony sprzedawcy, a jeżeli na nową domenę chcemy przenieść istniejącą stronę, to koniecznie zasięgnijmy informacji o możliwości zlecenia migracji serwisu na nowy adres.

Sam proces zakupu nie jest skomplikowany. U większości usługodawców wystarczy wybrać nazwę domeny i postępować zgodnie z instrukcjami. Wszystkie pytania i wątpliwości można kierować bezpośrednio do działu obsługi klienta, który powinien pokierować nas przez wszystkie fazy zakupu. Dla kogo dobrym rozwiązaniem będzie zakup nowej domeny? Trudno jednoznacznie odpowiedzieć na to pytanie. Dużo zależy przede wszystkim od celów, jakie chcemy osiągnąć i budżetu, jakim dysponujemy.

Dlatego zakup domeny rekomenduje się skonsultować ze specjalistą SEO, który pomoże wybrać najbardziej optymalne dla firmy rozwiązanie. Na kupno domeny bezpośrednio od rejestratora powinny zdecydować się osoby mniej zaawansowane. Zakup używanej domeny wiąże się z zadaniami, które należy wykonać po przejęciu adresu. Jest to między innymi przeprowadzenie audytu profilu linków, które prowadzą do danej domeny i wdrożenie działań naprawczych. Samodzielne uporanie się z tym może być trudne dla kogoś, kto nie ma odpowiedniej wiedzy, dlatego ważne jest wsparcie kogoś doświadczonego w tym zakresie.  

Content Marketing

 

Czym są giełdy domen?

Odpowiedź na to pytanie jest bardzo prosta. Giełdy domen to strony, na których można sprzedawać i kupować używane domeny. Są to świetne miejsca do wyłapywania „perełek”, czyli domen o wysokich ratingach. Niektóre giełdy prowadzą licytacje domen, co pozwala kupić tanio adresy, które nas interesują, lub wywindować cenę tych, którymi zainteresowanych jest więcej kupujących. Największa giełda, Aftermarket.pl, ma w swojej ofercie aż 275 000 domen. Giełdy domen są chętnie odwiedzane przez ludzi, którzy chcą przenieść swoje serwisy na domenę o lepiej dopasowanej nazwie lub tworzą strony, które chcą uwiarygodnić. W działaniach SEO mogą one być wykorzystywane do kupowania adresów dla nowopowstałych zapleczy, które odpowiednio przygotowane i wzmocnione wartościową domeną, staną się dobrym miejscem do działań link buildingowych.  

 

Domeny z rynku wtórnego – na co uważać?

Z kupnem używanej domeny jest jak z wyborem używanego samochodu: chcemy kupić jak najlepszy, w jak najlepszej cenie, z najbogatszym wyposażeniem. Różnica jest taka, że samochód z wiekiem zasadniczo traci wartość, a domena jej nabiera. Oprócz tego, jeżeli występuje ciągłość w użytkowaniu domeny, wraz z nią nabywamy potencjalne sesje generowane przez stałych użytkowników. Jeżeli poprzedni właściciel zbudował lojalność wobec swojej strony, to przy odpowiednim zarządzaniu nową stroną mamy dużą szansę na utrzymanie dotychczasowego ruchu na stronie, a następnie zwiększenie go o nowych użytkowników. Używany adres trzeba dobrze sprawdzić, żeby zamiast korzyści nie przyniósł nam problemu. Ten proces może wydać się skomplikowany, dlatego warto skorzystać z dostępnych w Internecie narzędzi, które ułatwią prześwietlenie zarejestrowanej domeny internetowej. Co możemy sprawdzić za ich pomocą?   

 

1. Podstawowe informacje o domenie – WHOIS

WHOIS to protokół TCP, który zwraca odpowiedzi na zapytania o domeny zarejestrowane w bazach DNS. Mówiąc prościej, są to narzędzia, które umożliwiają uzyskanie podstawowych informacji o szukanej domenie, takiej jak dane (nazwa, dane teleadresowe) jej abonenta, rejestratora, daty rejestracji i ostatniej aktualizacji, adresy DNS, na które kieruje itd. Nie wszystkie informacje są dostępne, w zależności od bozszerzeń (dla domen europejskich dane osób fizycznych nie są udostępniane, dla globalnych dane zarówno osób fizycznych jak i podmiotów gospodarczych mogą być ukryte). Dane na temat domen z rozszerzeniem .pl można uzyskać w Bazie WHOIS Krajowego Rejestru Domen. Jest prosta w obsłudze i intuicyjna: Baza WHOIS Baza WHOIS

Jeżeli jednak interesuje nas domena o innych rozszerzeniach, jak np. .eu, to potrzebna będzie nam bardziej rozbudowana baza WHOIS. Najprościej będzie znaleźć odpowiednią z nich w dowolnej wyszukiwarce internetowej.  

 

2. Wizualizacje historycznych wersji serwisu – Wayback Machine

Narzędzie udostępnione na stronie webarchive.org jest szczególnie przydatne, gdy chcemy dokładnie poznać historię interesującej nas domeny. Roboty należące do tego archiwum na bieżąco od wielu lat przeglądają strony i zapisują ich kody źródłowe, co pozwala na późniejsze wyrenderowanie ich i sprawdzenie, jak wyglądał serwis internetowy kilka miesięcy lub lat wstecz.

Możemy więc w kilka minut sprawdzić, jakie treści były udostępniane na serwerze, do którego prowadziła dana domena i jak ten serwis się zmieniał. WebArchive, oprócz źródła cennych informacji, jest też narzędziem do sprawdzenia, czy treści w przeszłości umieszczane na domenie nie są w jakiś sposób szkodliwe (zagrożone prawem, nieprzyjemne, kontrowersyjne). Oprócz tego WayBack Machine może być używany jako wehikuł czasu do podróży do początków komercyjnego Internetu. Pamiętasz, jak wyglądała strona komunikatora Gadu-Gadu niemal 20 lat temu.

WebArchive  

 

3. Profil linków zwrotnych – Ahrefs/Majestic

O wpływie linków w działaniach SEO nie trzeba nikogo przekonywać. Kupując używaną domenę, dostajemy też zestaw backlinków do niej prowadzących. Z tych dobrych można się cieszyć i próbować je utrzymać, ale bardzo możliwe, że kupiona domena będzie obarczona szkodliwymi odnośnikami ze stron spamerskich i katalogów niskiej jakości. Dlatego jednym z pierwszych działań po zakupie takiej domeny powinno być przeprowadzenie rzetelnej analizy profilu linków i zrzeknięcia się tych nieodpowiednich w narzędziu dla webmasterów Google.

W tym celu przyda nam się Majestic lub Ahrefs – ja na potrzeby tego wpisu skorzystam z tego drugiego. Jest to pomocne narzędzie polecane przez specjalistów SEO w wielu krajach. Dostęp do niego nie jest darmowy, ale można skorzystać z 7-dnowego bezpłatnego okresu próbnego. Oczywiście, można też skorzystać z mniej funkcjonalnych, bezpłatnych narzędzi, np. Backlink Checker. 

 

Ahrefs

Aby uzyskać informacje o linkach prowadzących do danej domeny, należy wpisać ją w pasku pod menu głównym i przejść do panelu Profil linków. Odpowiednio przygotowaną listę możemy wyeksportować do pliku w celu dalszej analizy. Ahrefs  

 

4. Status indeksacji podstron w domenie

Używana domena prawdopodobnie była też indeksowana przez Google. Bezpośrednio w wyszukiwarce, używając operatora site:, można sprawdzić, jak dużo podstron wyświetla się w wynikach wyszukiwania. Jeżeli strona od dawna nie była prowadzona i odwiedzana przez użytkowników, prawdopodobnie natkniemy się na mniejszą liczbę adresów. Status indeksacji podstron w domenie  

 

5. Aktualna i historyczna widoczność domeny

Z punktu widzenia SEO niezwykle ważna jest widoczność domeny na frazy kluczowe. Na jej podstawie można oszacować ruch organiczny, który będziemy w stanie wygenerować jako nowi właściciele adresu. Do sprawdzenia widoczności domeny można użyć rozmaitych narzędzi, między innymi wspomnianego wcześniej Ahrefsa. Rekomendowaną aplikacją jest również Senuto.

W jej głównym panelu, Analiza widoczności, można uzyskać informacje na temat liczby słów kluczowych, na jakie domena wyświetla się w TOP 3, TOP 10 i TOP 50 wyników wyszukiwania Google. Oprócz tego Senuto zwraca informacje o zmianach pozycji, frazach kluczowych, sezonowości witryny, konkurencji itd. Możliwości jest dużo, a informacje możemy dowolnie dobierać w zależności od tego, co nas interesuje i jak precyzyjne estymacje chcemy przeprowadzić. Senuto  

 

Podsumowanie

Zakupu domeny możemy dokonać u rejestratorów i resellerów. Zarówno nowe, jak i używane adresy mają swoje zalety, ale też niosą pewne ryzyko. Istnieje szereg narzędzi do sprawdzania atrybutów domen, takich jak historia, linki zwrotne i status indeksacji. Odpowiedni wybór domeny jest istotny nie tylko z punktu widzenia SEO, ale też wizerunku firmy i konsekwencji finansowych.

Częste zmiany domen są niebezpieczne, ponieważ narażają użytkowników na zdezorientowanie, a migracje serwisu są często bardzo wymagającym procesem, który trzeba przeprowadzić ostrożnie i profesjonalnie, aby nie zanotować spadków widoczności. Z tego powodu zakup domeny powinien być dobrze przemyślany i skonsultowany ze specjalistą SEO, a o nabytym adresie warto myśleć jako o czymś, co zostanie z nami na lata.

Jeżeli potrzebujesz profesjonalnego wsparcia – nie czekaj. Zgłoś się do nas!

Kontakt

Poznaj 10 narzędzi linuxowych, które ułatwią pracę specjaliście SEO

Praca w SEO często polega na wykonywaniu zadań powtarzalnych, mało kreatywnych, zazwyczaj monotonnych. Crawlowanie, pobieranie danych z narzędzi, następnie ich obróbka… a na końcu wyciąganie wniosków i tworzenie rozwiązań. A co, gdyby w „łatwy i prosty sposób” niejako pozbyć się tej nużącej części? Automatyzacja zadań na Windowsie nie należy do najprzyjemniejszych, a z blokadą CMD (przynajmniej w korporacjach) czy AHK często jest mocno utrudniona – z WSL na Windows 10 jest to jednak możliwe.
Z tego artykułu dowiesz się między innymi:

 

Czym jest WSL?

WSL czyli Windows Subsystem for Linux, to zintegrowane środowisko Linuxa wewnątrz Windowsa (obecnie od 27 maja 2020 istnieje w wersji WSL 2, która posiada własne jądro Linux, co oznacza, że jest to w pełni funkcjonalna wersja tego systemu). WSL umożliwia korzystanie z systemu Linux poprzez konsolę, jednocześnie posługując się Windowsem.

 

 

Jak więc Linux może pomóc Specjaliście SEO?

Możliwości jest wiele. Poniższa lista zawiera moje propozycje wraz z przykładem zastosowania.
1. [Automatyzacja] Curl/HTTPie – terminalowe narzędzia do transferowania danych także z API.
Przykładowe zastosowanie: Potrzeba ściągnąć dane z Google Trends, Senuto a może innego narzędzia? Prosty skrypt oparty na ich bazie znacznie przyspieszy proces ściągania danych, opierając się na zmiennych pobranych z uprzednio przygotowanej listy.
2. [Automatyzacja] Cron – narzędzie do harmonogramowania zadań.
Przykładowe zastosowanie: Świetnie idzie w parze ze skryptami do transferowania czy przetwarzania danych. Jeśli zachodzi cykliczna potrzeba ściągania danych. Ustawiasz i zapominasz, a codziennie o wskazanej godzinie dane będą czekały na analizę.
3. [Automatyzacja] awk/sed – interpretowany język programowania służący do przetwarzania tekstów.
Przykładowe zastosowanie: Przetwarzanie logów serwera w celu przygotowania tylko wierszy zawierających user-agent googlebot.
4. [Automatyzacja] Jq – narzędzie specyficznie zaprojektowane do przetwarzania plików JSON.
Przykładowe zastosowanie: Przetworzenie uprzednio ściągniętych danych przez curl z narzędzi.
5. [Automatyzacja] Screaming Frog – crawler.
Przykładowe zastosowanie: Automatyczne crawle w wersji headless wraz z exportem wskazanych danych, a następnie przetwarzanie ich z wykorzystaniem uprzednio przedstawionych cron + awk/sed. Czy jest coś lepszego niż świeże dane do analizy o godzinie 7:00 bez kiwnięcia palcem?

6. [Automatyzacja] Skrypty shellowe np. Bash – skrypty umożliwią stworzenie bardziej złożonych zadań niż pojedyncze przetworzenie danych.
Przykład zastosowania: Umożliwi zebranie wszystkich komend z poprzednich narzędzi w jeden skrypt, dzięki czemu spokojnie będzie można poczytać newsy do kawy.
7. [Automatyzacja] API GSC/GA dla Pythona – chodzi tylko o znajomość API + podstawy Pythona 😉
Przykładowe zastosowanie: Ściąganie danych przez API, czy też korzystanie z IndexingAPI (AnalyticsEdge blokuje edycję Excela).
8. [Produktywność] Taskwarrior + TimeWarrior – rozbudowana terminalowa lista to-do (posiada także serwer do synchronizacji).
Przykładowe zastosowanie: Prowadzenie projektów dla poszczególnych klientów wraz z logowaniem czasu pracy.
9. [Rozrywka] Tizonia – terminalowy odtwarzacz muzyki między innymi ze spotify, youtube, tunein czy soundcloud. (Wymaga dodatkowej konfiguracji dźwięku)
Przykładowe zastosowanie: Po cóż dręczyć się reklamami oraz mulącymi stronami skoro cała baza jest dostępna pod jedną komendą.
10. [Rozrywka] Newsboat  – czytnik RSS/Atom bezpośrednio w terminalu. Posiada szerokie możliwości importu danych z istniejących feedów oraz posiada ogromne możliwości ich przeszukiwania w porównaniu do innych narzędzie typu SaaS.
Przykładowe zastosowanie: Odpowiednio przefiltrowane newsy do porannej kawy.
Bonus na Windows: GridMove – program do zarządzania oknami Windowsa. Umożliwia utworzenie wymarzonego podziału ekranu na wielu monitorach.

 

 

kontakt

Dlaczego Twoje SEO nie działa? 8 najczęstszych błędów

 

Będąc właścicielem strony internetowej, prędzej czy później zaczynasz się zastanawiać nad tym, jak efektywnie poprawić jej widoczność w wyszukiwarce Google. Jeśli chodzi o efektywność działań SEO, wiele zależy od ich profesjonalnej realizacji. Bez fachowej wiedzy działania te nie tylko nie przyniosą efektów, ale mogą wręcz zaszkodzić. Poniżej omawiamy najbardziej prawdopodobne przyczyny, dlaczego Twoje SEO nie działa?

1. Oczekiwanie natychmiastowych efektów

Działania SEO wymagają czasu. Po niespełna 3-6 miesiącach, od rozpoczęcia pracy z agencją, albo samodzielnych prób optymalizacji serwisu, nie należy spodziewać się oszałamiających wyników. Na efekty trzeba odpowiednio długo poczekać; od kilku miesięcy, niekiedy nawet do roku. SEO jest inwestycją długoterminową; to, ile czasu będziemy czekać na efekty, zależy od wielu czynników. Dlatego w pierwszych miesiącach działań możesz mylnie stwierdzić, że Twoje SEO nie działa.

2. Rozpoczęcie działań SEO tuż przed początkiem sezonu

Podobnie, jak w poprzednim punkcie, także i tutaj ważną rolę odgrywa czas. Rozpoczynając działania SEO tuż przed początkiem sezonu sprzedażowego, nie powinniśmy być zdziwieni, że nie przynoszą one oczekiwanych efektów. Sami bowiem nie daliśmy sobie odpowiednio dużo czasu. Aby SEO mogło zadziałać w sezonie sprzedażowym (w przypadku, gdy prowadzimy działalność sezonową), przygotowanie działań związanych z pozycjonowaniem należy zacząć kilka miesięcy wcześniej.

3. Brak wprowadzenia zmian w serwisie

„SEO samo się nie zrobi” – to zdanie często powtarzane i prawdziwe. Kiedy posiadamy umowę na działania SEO (z agencją lub z freelancerem), musimy pamiętać, że my także będziemy zaangażowani we współpracę. Kiedy dostaniemy audyt SEO, wytyczne czy wszelkie rekomendacje od specjalisty, powinniśmy je wdrożyć możliwie jak najszybciej. Im szybciej wdrożymy wytyczne, tym szybciej zauważymy efekty. W przypadku, gdy nie wprowadzamy zalecanych zmian, nasz serwis może nie notować oczekiwanych wzrostów widoczności w wynikach wyszukiwania. Tym samym nie możemy liczyć na wzrost ruchu oraz konwersji.

W takim przypadku serwis może odnotować spadki. Pamiętajmy, że konkurencja nie śpi, ciągle udoskonala swoje strony i czeka tylko, aby móc nas wyprzedzić w wynikach wyszukiwania. Żeby osiągnąć oczekiwane i zadowalające efekty, należy wprowadzać wszystkie zmiany zalecane przez specjalistę.

4. Brak wersji mobilnej strony

Nawet, jeżeli posiadamy świetnie zoptymalizowaną stronę, możemy nie osiągnąć zadowalających wyników, jeśli nie dysponujemy jej wersją mobilną. Obecnie w wielu krajach, w tym Polsce, liczba smartfonów przewyższa liczbę komputerów. Dlatego posiadanie witryny dostosowanej do urządzeń mobilnych jest tak ważne dla obecności w Internecie.

Seo nie działa dlaczego

Źródło: http://ranking.gemius.com/pl/ranking/platforms/

Dodatkowo Google w marcu 2018 wprowadził Mobile-first-index. Co za tym idzie, strony dostosowane do wersji mobilnej mają znaczącą przewagę nad pozostałymi oraz będą się wyświetlać wyżej w wynikach wyszukiwania. Dlatego, aby SEO działo, należy zadbać o wersje strony dostosowanej do różnych urządzeń. Inaczej nasze działania mogą nie przełożyć się na konkretny efekt.

5. Brak wiedzy, narzędzi lub czasu

Czasami SEO nie działa, ponieważ osoba zajmująca się optymalizacją serwisu nie posiada wystarczającej wiedzy, narzędzi lub czasu. Odpowiednia wiedza jest konieczna, aby działania SEO mogły przynieść oczekiwany efekt. Na SEO ma wpływ bardzo dużo czynników, które cały czas się zmieniają. Jeśli nie czujemy się pewnie w tym obszarze, zdecydowanie lepiej zlecić te działania specjaliście.

6. Niski budżet

Szukając oszczędności w firmie, lepiej nie szukać ich w działaniach SEO. Za tanim pozycjonowaniem idą marne efekty lub ich całkowity brak. Bywa tak, że zbyt niskie kwoty, które są na granicy utrzymania specjalisty, powodują braki w budżecie (np. na zakup wartościowych linków czy zlecenie napisania unikatowych tekstów na stronę). Braki te mogą znacząco wpłynąć na efekt działań SEO.

Przy wyborze oferty na pozycjonowanie, gdy kierujemy się wyłącznie jak najniższą ceną, nasz serwis może trafić w ręce mało doświadczonego specjalisty, z ograniczonym dostępem do profesjonalnych narzędzi. Wówczas również nie możemy liczyć na profesjonalny audyt strony. Dokładna analiza serwisu stanowi podstawę działań SEO. Oszczędzanie na niej może przynieść efekt odwrotny od oczekiwanego.

7. Pozycjonowanie się na niewłaściwe lub zbyt ogólne frazy

SEO również może „nie działać”, jeśli niewłaściwie dobierzemy frazy, na które chcemy się pozycjonować w wynikach wyszukiwania. Błędnymi frazami będą słowa kluczowe niezwiązane z ofertą strony internetowej. Jeżeli dobierzemy frazy niepowiązane z oferowanymi przez firmę usługami czy produktami, to ciężko będzie uzyskać jakikolwiek pozytywny efekt. Co prawda ruch na stronie może się zwiększyć, lecz automatycznie wzrośnie współczynnik odrzuceń. Będzie to ruch bezwartościowy.

Zbyt ogólne frazy to również nie najlepszy pomysł. Ze względu na zbyt wysoką konkurencyjność bardzo trudno bowiem efektywnie się na nie wypozycjonować. Pozycjonowanie takich fraz jest trudne i wiąże się z dużym (a niekoniecznie potrzebnym) nakładem finansowym. Dlatego należy dobrze przeanalizować pozycjonowanie się na frazy ogólne. Wszystko zależy od budżetu, rodzaju biznesu oraz czasu przeznaczonego na działania SEO.

Dodatkowo zdarza się, że właściciele stron internetowych często próbują sami proponować pozycjonowane frazy. Niejednokrotnie są to frazy z prawie zerowym potencjałem wyszukiwania (to znaczy, że nikt ich nie wyszukuje). Frazy te szybko uzyskują pozycje TOP 3, jednak są one bezwartościowe, gdyż uzyskanie wysokich pozycji nie przekłada się na ruch w serwisie. Dlatego, żeby SEO działało, dobór odpowiednich fraz kluczowych powinien być bardzo dobrze przemyślany. Warto w tym celu skorzystać z odpowiednich narzędzi. Klika z nich odpisałem w artykule: 7 narzędzi do doboru fraz kluczowych.

8. Brak ciągłości w działaniach SEO

Na końcu warto dodać, że ciągłość w działaniach SEO ma ogromne znaczenie. Niektórzy mylnie twierdzą, że wystarczy raz wdrożyć optymalizację i dodać kilka linków, aby cieszyć się dużymi efektami. SEO to proces ciągły, wymagający systematyczności oraz analizy efektów. Dodatkowo aktywność konkurentów zmusza nas do ciągłej pracy nad serwisem, nawet w momencie osiągnięcia satysfakcjonujących pozycji w wynikach wyszukiwania.

Posumowanie

Skuteczne działania SEO nie są łatwe. Google stworzył ponad 200 czynników rankingowych, na podstawie których ocenia, czy konkretna strona jest mniej lub bardziej wartościowa. Proces optymalizacji musi być długotrwały i ciągły, aby przyniósł odpowiedni efekt. Czasami Twoje SEO faktycznie może nie działać. Dlatego najlepiej opiekę nad stroną powierzyć profesjonaliście, posiadającemu odpowiednią wiedzę i narzędzia. Wtedy mamy pewność, że nasz budżet inwestowany jest w najlepszy możliwy sposób.

Od czego zacząć naukę o SEO?

 

W dobie marketingu internetowego, SEO jest absolutną podstawą każdego biznesu. Dlatego zapotrzebowanie na specjalistyczną wiedzę w tej dziedzinie jest bardzo duże, a w przyszłości wraz z corocznym wzrostem rynku e-commerce będzie jeszcze większe. W dłuższej perspektywie na każdej witrynie, która chce na siebie zarabiać, muszą być realizowane działania SEO  – zarówno on-site, jak i off-site. Dlatego, jeśli prowadzisz bloga, zaczynasz przygodę z działalnością w sferze e-commerce i potrzebujesz w jak najszybszym czasie nabyć podstawową wiedzę w zakresie SEO – to dobrze trafiłeś. Jeśli natomiast z SEO wiążesz bezpośrednio swoją karierę zawodową i chciałbyś zostać specjalistą w tej branży, ale nie wiesz, od czego zacząć, to trafiłeś jeszcze lepiej.

Blogi i książki

Na wstępie chciałbym zaznaczyć, że SEO ciężko jest się uczyć bez przynajmniej średniozaawansowanej znajomości angielskiego. Moim zdaniem większość wartościowych blogów, książek czy vlogów jest właśnie anglojęzycznych. Nie jest to jednak reguła i dlatego zwrócę także uwagę na godne uwagi materiały w rodzimym języku.

Na początek odsyłam do artykułu – fundamentu SEO – http://secureglass.net/200-czynnikow-rankingowych-google-. Dzięki niemu dowiesz się, na co zwracają uwagę roboty Google przemierzające sieć w poszukiwaniu wartościowych domen. To da Ci ogólne rozeznanie na temat tego, czym pozycjonowanie właściwie jest. Tylko nie przeraź się, jeśli nie będziesz rozumiał niektórych zagadnień. Na wszystko przyjdzie swój czas. Ważne, że będziesz wiedział, czego nie wiesz – a to podstawa rozwoju 😉 Więcej informacji dotyczących części z zagadnień znajdziesz w supporcie Google https://support.google.com/webmasters/answer/7451184?hl=pl.

Jeżeli chodzi o książki, szczególną uwagę zwróciłbym na „SEO, czyli sztuka optymalizacji witryn dla wyszukiwarek” autorstwa liderów SEO – Erica Enge, Stephana Spencera i Jessie  Stricchioli. To 864 strony kompletnej wiedzy o optymalizacji wyszukiwania w sieci. Pełna lista książek wartych przeczytania znajduje się na blogu jednego z podstawowych narzędzi w pracy SEO-wca – służącego do analizy profilu linków Majestic https://blog.majestic.com/pl/analizy-przypadkowbadania/jakie-ksiazki-powinien-przeczytac-kazdy-specjalista-seo/.

Polecam zaprzyjaźnić się z całym blogiem, ponieważ zawiera on ponad 200 artykułów opisujących to bardzo ważne narzędzie, jednocześnie przekazujących nieocenioną praktyczną wiedzę o SEO. Podobnie sytuacja się ma z anglojęzycznym poradnikiem Ahrefsa, które jest bezpośrednią konkurencją Majestica – https://ahrefs.com/blog/.  Moim zdaniem korzystanie z tego typu blogów na początek jest najlepsze, ponieważ informacje zawarte tam nie wykraczają poza podstawy SEO i nie powodują zniechęcenia związanego z nierozumieniem treści. Dodatkowo wiedza jest wzmacniana poprzez prezentowanie jej na przykładach narzędzi, które chcąc nie chcąc każdy specjalista SEO musi znać. W przypadku tradycyjnych blogów pisanych przez entuzjastów pozycjonowania problemem może okazać się różny poziom zaawansowania poszczególnych artykułów.

Vlogi

W tym miejscu zwróciłbym także uwagę na kanały Youtube AhrefsaMajestica: a także innego kluczowego narzędzia każdego SEO-wca – służącego do analizy widoczności witryny – Senuto. Na filmikach w bardzo przystępny sposób pokazane są funkcjonalności, dzięki którym w szybki sposób załapiesz, na co należy zwracać szczególną uwagę w przypadku działań SEO.

Jeżeli chodzi o pozostałe najważniejsze narzędzia internetowe niezbędne do pracy przy pozycjonowaniu – pierwsze służące do analizy statystyk serwisu Google Analytics i drugie, do sprawdzenia statusu indeksowania witryny przez wyszukiwarkę Google – Google Search Console – warto odwiedzić kanał Projekt Marketing. Znajdziesz tam wiele wideo przybliżających te technologie, a także wiele innych bardzo przydatnych informacji.

Pozostając przy Youtube, należy zwrócić także uwagę na vloga potentata na rynku SaaS, firmy Moz. Wypowiadają się tam największe światowe autorytety w branży SEO z charyzmatycznym Randem Fishkinem na czele. Ich klipy –  słynne Whiteboard Fridays – to chleb powszedni każdego obiecującego specjalisty SEO. Być może na początku problemy poruszane tam będą dla Ciebie nieco zbyt skomplikowane, ale z czasem stanie się to znacznie bardziej jasne. Warto być jednak na bieżąco z kanałem, ponieważ twórcy skupiają się na najświeższych aktualnościach związanych z branżą SEO. Podobnie sytuacja się ma z kanałem Google Webmasters. Na filmach z serii „Office-hours hangout” zawsze można dowiedzieć się czegoś nowego o działaniu największej wyszukiwarki bezpośrednio od pracowników Google.

Skoro o trendach mowa, nie mógłbym pominąć http://www.planeta-seo.pl/. Witryna ta prezentuje polskie blogi na temat pozycjonowania i optymalizacji stron internetowych w wyszukiwarkach Google, Bing. Proponuję śledzić także ich profil na Facebooku https://www.facebook.com/planetaseo/. Dzięki temu nie ominą Cię najważniejsze wiadomości dotyczące wciąż zmieniających się algorytmów Google. W tym kontekście warto też przyjrzeć się naszemu blogowi, na którym znajduje się wiele wartościowych artykułów. Na początku zwróciłbym szczególną uwagę na dwa z nich:

https://semahead.agency/blog/jak-pozycjonowac-strone-w-google.html

https://semahead.agency/blog/nie-tylko-optymalizacja-strony-po-co-nam-audyt-seo.html

Dzięki nim dowiesz się, na co zwracać szczególną uwagę przy optymalizacji witryny i jakie są najważniejsze czynniki rankingowe Google.

Na koniec wspomnę jeszcze o bardzo ciekawej platformie e-learningowej https://www.udemy.com/. Znajdziesz tam całe mnóstwo różnorodnych kursów zwykle w bardzo atrakcyjnych cenach. Wiele spośród nich można zdobyć za darmo. Jest to bardzo wartościowe uzupełnienie czy usystematyzowanie posiadanej wiedzy.

 Podsumowanie

Uczyć się SEO można na wiele różnych sposobów. Podane przeze mnie przykłady to tak naprawdę tylko wierzchołek góry lodowej. Prawdziwe umiejętności pozycjonerskie przychodzą wraz z miesiącami praktyki i pracy przy klientach. Na początek jednak wiedza zawarta we wspomnianych materiałach da Ci bardzo solidne podstawy, dzięki którym spokojnie będziesz mógł znaleźć pracę/staż w agencji SEO czy też sprawić, że Twoja domena z blogiem lub sklepem będzie widoczna w wynikach wyszukiwania.

Modele współpracy z agencją SEO – na co zwracać uwagę przed podpisaniem umowy?

 

Wybór odpowiedniego sposobu  rozliczenia za działania SEO jest jednym z kluczowych elementów startu współpracy na linii klient – agencja. Głównych modeli rozliczeń jest kilka, o czym pisaliśmy już wcześniej na naszym blogu w artykułach: Jak rozliczać się z agencją SEO: część 1część 2.


W dzisiejszym wpisie postaram się trochę odświeżyć ten temat, doprecyzować modele rozliczeń oraz napisać o elementach, na które należy zwracać uwagę przed podpisaniem wiążącej umowy.

 

Rozliczenie na podstawie opłaty za pozycje wybranych fraz kluczowych

Jeszcze kilka lat temu był to najpopularniejszy z modeli rozliczeń za działania SEO. Dziś ze względu na coraz to bardziej restrykcyjne składowe algorytmu Google oraz rosnące znaczenie analityki internetowej w działaniach performance marketingowych, odchodzi powoli w niepamięć.

Wadami tego modelu są :

Model oczywiście w dalszym ciągu funkcjonuje, jednak najczęściej stosowany jest w przypadku firm, którym zależy głównie na wizerunku (wysoka pozycja danej frazy kluczowej powiązanej z biznesem) lub też funkcjonuje w połączeniu z innymi, w rozliczeniach hybrydowych.

 

Rozliczenie Success Fee – za wzrost ruchu lub przychodów

Jeden z najpopularniejszych obecnie modeli rozliczeń, szczególnie popularny we współpracy agencji SEO  z e-commerce. Model opiera się na zasadach win-win, gdzie wraz ze wzrostem biznesu klienta, mierzonego przez pryzmat ruchu lub przychodów, rośnie wynagrodzenie agencji SEO (success fee). Model ten jest indywidualnie dostosowany do konkretnego serwisu internetowego  i może przybierać różne postacie (hybrydowe).

Przykłady rozliczeń w modelu Success Fee:

 

Brand vs non brand

Ten punkt w szczególności jest newralgiczny dla dużych, popularnych brandów oraz serwisów, które oprócz działań digitalowych korzystają z tradycyjnych metod marketingu, a w szczególności reklam w  TV, radiu czy reklam outdoorowych. Dwa elementy, na które należy zwrócić uwagę to:

Zapytania brandowe, to te, które zawierają nazwę marki/brandu.
Przykład frazy brandowej: „agencja SEO Semahead

W działaniach SEO mamy ograniczone możliwości zwiększania ruchu brandowego. Możemy na niego działać pośrednio poprzez zwiększanie ilości ruchu/użytkowników w serwisie, czy zwiększanie widoczności fraz kluczowych (generycznych – nie brandowych) – dzięki czemu większa ilość osób ma szanse poznać naszą stronę i zapoznać się z marką.
Jednak ruch brandowy jest stricte powiązany z popularnością danego brandu (rozpoznawalnością marki), który możemy zwiększać poprzez dodatkowe aktywności marketingowe i PR: online (np. w social mediach) oraz offline (np. wystąpienia na eventach branżowych).

W przypadkach mocno rozpoznawalnych marek, agencje jeszcze na poziomie tworzenia oferty posiłkują się danymi z Google Search Console czy zewnętrznych narzędzi (np. Senuto, SimilarWeb) i sprawdzają jak duży wpływ na ruch mają zapytania brandowe oraz na jakie strony kierują.

Kalendarz działań marketingowych klienta, to kolejna rzecz na którą powinny zwracać uwagę agencję SEO. Nie fair byłoby pobieranie Success Fee przez agencję za wzrost ruchu, który został wygenerowany dzięki trwającym w danym miesiącu kampaniom telewizyjnym czy mocną promocją brandu w kampaniach outdorowych.

Oczywiście większość wygenerowanego ruchu z powyższych kampanii trafi bezpośrednio do „directa” (wejść bezpośrednich), jednak warto zwrócić uwagę na te punkty i przeanalizować je przez pryzmat konkretnego przypadku (brandu). Tak aby rozliczać się jedynie za wygenerowane wzrosty, które były spowodowane pracą agencji SEO.

 

Wybór i doprecyzowanie odpowiedniego progu rozliczeń

Kolejnym elementem, na który warto zwrócić uwagę, to wybór odpowiedniego progu rozliczeń. Oczywiście jest tu również wiele znaków zapytania, na które należy odpowiedzieć, jeszcze na etapie tworzenia oferty, między innymi:

Odpowiedzi na te pytania pomogą doprecyzować nam odpowiedni próg rozliczeń, może być to m.in.:

 

Rozliczenie Flat Fee – stały abonament (ryczałt)

Ostatnim dziś opisywanym przeze mnie modelem rozliczenia jest tzw. ryczałt. W tym modelu sprawa jest prosta: klient ustala wspólnie z agencją SEO stawkę miesięczną, którą będzie płacił za usługi SEO. Oczywiście w tym modelu niezwykle ważne jest obustronne zaufanie oraz dokładne opisanie szczegółów współpracy. Przed podpisaniem umowy warto zwrócić uwagę na kilka kwestii, i takich jak:

Każdy z wyżej wymienionych modeli niesie ze sobą zarówno wady jak i zalety. Zarówno klient, jak i agencje SEO powinny dopracować jak największą liczbę szczegółów, jeszcze przed ofertowaniem, tak aby  późniejsza współpraca była klarowna i nie niosła ze sobą żadnych niedomówień.

Google Lighthouse – recenzja narzędzia

Od 2010 roku szybkość ładowania strony, jest jednym z czynników rankingowych w wyszukiwarce Google. Od lipca 2018 będzie miała również wpływ na wygląd wyników w wyszukiwaniu mobilnym. Jak przygotować się na tę aktualizację? Kiedy możemy powiedzieć, że strona jest szybka?

Na rynku dostępnych jest wiele narzędzi, za pomocą których możemy zmierzyć prędkość naszych stron. Dziś przyjrzymy się bliżej narzędziu, które podchodzi inaczej do całego tematu, prezentując nie tylko cyfry i wskaźniki, ale próbując przedstawić nam „realne odczucia” użytkowników. Narzędziem tym jest Google Lighthouse.

 

Czy to w ogóle ma sens?

Nie wiemy jak mocny wpływ na pozycję witryn ma szybkość ładowania strony. Część osób może nie być przekonana, że jest on na tyle duży, że warto poświęcać czas na optymalizację witryny pod tym kątem. Ale nie możemy zapominać, o jeszcze jednym elemencie, który pozostaje w zależności z szybkością serwisu. Mowa oczywiście o współczynniku konwersji. Szybka dostępność  i użyteczność strony może w znacznym stopniu przyczynić się do zmniejszenia liczby odrzuceń, czy liczby porzucanych koszyków. Argumenty te przemawiają za tym, że jednak warto pochylić się nad tym tematem.

 

Czym jest Google Lighthouse?

Lighthouse to narzędzie open source stworzone przez firmę Google. Początkowo miało służyć do audytowania progresywnych aplikacji internetowych (PWA – Progressive Web Applications), w obecnej formie końcowy raport zawiera informację na temat błędów dotyczących szeroko pojętej wydajności i jakości stron oraz aplikacji internetowych. Oprócz listy niedociągnięć, otrzymujemy również użyteczne wskazówki jak je poprawić i dlaczego jest to istotne.

 

Jak uruchomić Lighthouse?

Dostęp do narzędzia możemy uzyskać na kilka sposobów:

chrome lighthouse

narzędzie dla developerów

 

Elementy audytu

Po uruchomieniu audytu, Lighthouse przeprowadza serię testów na naszej stronie. Symulacja przeprowadzona jest w taki sposób, jakby na nasza witryna była odwiedzana przez urządzenie korzystające z połączenia 3G i dodatkowo procesor tego urządzenia był obciążony (możemy dezaktywować te ustawienia, jeśli korzystamy z programu z poziomu konsoli).

Końcowy raport zawiera ocenę pięciu obszarów:

 

rapoert lighthouse

 

I. Progressive Web App: Raport zwierający aspekty ważne dla aplikacji PWA. W tej kategorii możemy otrzymać od 0 do 100pkt. Audyt opiera się na liście „Baseline PWA Checklist” (https://developers.google.com/web/progressive-web-apps/checklist#baseline). Wszystkie elementy są tej samej wagi, która przekłada się na końcową punktację.

 

II. Performance: Raport zawiera informację na temat wydajności strony/aplikacji i możliwości jej poprawy. Wynik może znajdować się w trzech zakresach:

Każdorazowe przeprowadzenie testu może dać różne wyniki. Może to być spowodowane ładowaniem różnych reklam, skryptów, warunkami sieciowymi, czy aplikacjami zainstalowanymi na naszym komputerze takimi jak antywirusy. Aby pozbyć się fluktuacji należy wyłączyć programy mogące zakłócić cały proces lub skorzystać z usługi hostowanej, np. przy pomocy strony https://webpagetest.org/

 

III. Accessibility: Lista elementów, które mogą poprawić dostępność naszej aplikacji. Końcowy wynik tego audytu jest średnią ważoną wszystkich poszczególnych czynników. Lista elementów, wraz z ich wagą, dostępna jest pod adresem: https://docs.google.com/spreadsheets/d/1dXH-bXX3gxqqpD1f7rp6ImSOhobsT1gn_GQ2fGZp8UU/edit?ts=59fb61d2#gid=0 Należy zwrócić uwagę na to, że w przeciwieństwie do audytu Performance, nie dostajemy pkt za częściowe spełnienie warunków. Jeżeli na naszej stronie znajdzie się przykładowo jeden obrazek bez atrybutu alt, to mimo tego, że wszystkie inne grafiki posiadają ten atrybut, to za element „image-alt” otrzymamy 0 pkt.

 

IV. Best Practises: Audyt listujący elementy będące dobrymi praktykami, które pozwalają na uniknięcie poważniejszych błędów z wydajnością. Ocena również w skali od 0 do 100.

 

V. SEO: Audyt sprawdzający krótką checklistę podstawowych elementów w optymalizacji SEO. Ww przyszłości ma zostać rozbudowany i udostępniony w stabilnej wersji narzędzi dla programistów https://productforums.google.com/forum/#!topic/webmaster-pl/raWjrgVhpYE;context-place=forum/webmaster-pl.

 

Wynik audytu

Jako że naszą uwagę do „Latarni morskiej” od Google przykuła głównie kwestia chęci lepszej optymalizacji szybkości witryn na urządzeniach mobilnych, to skupimy się w tej części wpisu na raporcie Performance.

wynik audytu

Podczas mierzenia wydajności Lighthouse wyróżnia następujące metryki:

Jak widać powyżej, Google próbuje odzwierciedlić za pomocą metryk doświadczenia użytkowników w kontakcie ze stroną czy aplikacją. Analizując cały raport, wniosek jest jeden, najistotniejszym elementem jest jak najszybsze renderowanie najważniejszej treści strony i umożliwienie użytkownikom szybkiej interakcji. Dużą wagę ma optymalizacja krytycznej ścieżki renderowania (https://developers.google.com/web/fundamentals/performance/critical-rendering-path/)

Poniżej wyników poszczególnych metryk mamy kolejne zakładki, pierwszą z nich jest: „Opportunities” – przegląd wszystkich rzeczy, które możemy zrobić, aby przyspieszyć działanie witryny. Duży nacisk kładziony jest na odroczenie wykonywania nieistotnych skryptów JS, CSS, czy ładowania obrazów. Ważnym elementem jest też zapewnienie odpowiednich rozmiarów grafik dla różnych urządzeń.

Następna sekcja to „Diagnostics”. Zawiera w sobie między innymi element o nazwie „Critical Request Chains” – pokazuje on jakie zasoby wczytywane są w pierwszej kolejności, aby pokazać pierwszy render strony. Żeby usprawnić ładowanie strony należy rozważyć: zmniejszenie długości łańcucha całej ścieżki, zmniejszenie rozmiaru zasobów i opóźnić ładowanie nieistotnych elementów.

 możliwości lighthouse

Po rozwinięciu poszczególnych sekcji mamy dokładny podgląd na to, których elementów na stronie dotyczy dana kwestia. Dodatkowo przy każdym z nich jest odnośnik do wpisów w poradniku Google dla developerów, który opisuje szerzej dany problem i przedstawia sposób jego poprawy.

Ostatnia zakładka „Passed Audits” listuje segmenty, które wdrożone są poprawnie.

 

Google Lighthouse vs. pozostałe narzędzia

Niewątpliwie jednym z najbardziej popularnych obecnie narzędzi używanych do analizy prędkości strony jest PageSpeed Insights, który dostarcza ogólnego przeglądu wskaźników wydajności strony. Jednak mimo otrzymania końcowej oceny w 100 stopniowej skali oraz listy elementów do poprawy, narzędzie to nie daje nam żadnego wyobrażenia o faktycznej prędkości ładowania witryny. Ponadto, zalecenia sugerowane przez program często są bardzo trudne do wdrożenia, a czasami nawet niemożliwe. Osiągnięcie 100 punktów często jest po prostu sztuką dla sztuki i nie przekłada się bezpośrednio na poprawę szybkości.

Lighthouse w tym wypadku ma dużo bardziej praktyczne podejście, skierowane na potrzeby użytkownika. Sprawdza jak szybko może zajść interakcja ze stroną i jak oraz w jakim czasie po otrzymaniu danych wejściowych strona jest w stanie odpowiedzieć. Test przebiega w nieprzypadkowych warunkach, nie zawsze jesteśmy w zasięgu super szybkiego LTE, a nasze urządzenia często obciążone są przez inne aplikacje. Lighthouse skutecznie emuluje warunki, które doświadczamy w prawdziwym świecie. Dzięki temu otrzymujemy wskazówki nawet dla stron, które w świetle innych aplikacji były oceniane jako szybkie.

Jeśli w codziennej pracy używasz też innych narzędzi, takich jak GTmetrix, czy WebPageTest, to Lighthouse znakomicie uzupełni ten zestaw.

 

Podsumowanie

Czy Lighthouse będzie wyznaczał nowy standard dla narzędzi służących do pomiarów wydajności stron? Chyba za wcześnie, aby wysuwać takie wnioski. Natomiast na pewno jest świetnym uzupełnieniem dla wszystkich obecnych na rynku aplikacji tego typu.

Rozbudowanie PageSpeed Insights o realne dane użytkowników Chrome, czy ogłoszenie daty aktualizacji dotyczącej szybkości stron dla algorytmu w wyszukiwarce mobilnej – to wyraźne sygnały, mówiące o tym, że Google kładzie coraz większy nacisk na doświadczenia użytkowników oraz wydajność stron na urządzeniach mobilnych.

Jeśli jeszcze zastanawiasz się czy warto skorzystać z zaleceń zawartych w audytach Lighthouse i spróbować wyśrubować możliwie jak najwyższy wynik, to jedno jest pewne – nawet jeśli optymalizacja zgodna z Lighthouse nie pomoże w osiąganiu lepszych pozycji, to z pewnością im nie zaszkodzi. Poprawa komfortu użytkowników mobilnych może bowiem przynieść tylko profity.

Jakie są wasze opinie na temat Lighthouse? Jak prezentuje się na tle konkurencyjnych rozwiązań? Podzielcie się swoją opinią w komentarzu.

Audyt SEO – najczęściej wykrywane błędy na stronie

 

Audyt SEO to dokument przygotowywany przez specjalistę SEO, który ma na celu wykazać błędy na stronie uniemożliwiające skuteczne pozycjonowanie. Audyt zawiera również wskazówki, dotyczące naprawy tych problemów. Istnieje kilka błędów, które pojawiają się najczęściej i większość z nich dotyczy 90% stron, którym realizuje się audyt SEO.

 

1. Optymalizacja meta tagów i tagu title

Nieuporządkowane meta tagi oraz tag title to bardzo często spotykany problem. Z punktu widzenia SEO są one bardzo istotne. Zwykle, poza stroną główną, pozostałe meta tagi są zaniedbane.

Częstym problemem jest zbyt krótki tag title, czyli w tym przypadku nie wykorzystanie jego potencjału oraz zbyt długi tag title, przekraczający 70 znaków. Spotkaliśmy się nawet z przypadkami, gdzie tag title miał około 1000 znaków, czyli był ponad 14 razy dłuższy niż prawidłowy. Długość meta description powinna mieć około 140 znaków.

Przykład generowania Tagu Title dla sklepu internetowego:

Strona Główna: Meta title dla strony głównej najczęściej ustalany jest indywidualnie

Strony Kategorii: [Nazwa kategorii] – Opinie, Ceny – [Nazwa sklepu internetowego]

Strony podkategorii: [Nazwa kategorii głównej] – [Nazwa podkategorii] – [Nazwa sklepu internetowego]

Strony produktowe: [Nazwa produktu] – [Nazwa kategorii] – [Nazwa sklepu internetowego]

Strony statyczne: [Nazwa strony statycznej] – [Nazwa sklepu internetowego]

Przykład generowania Meta description dla sklepu internetowego:

Strona Główna: ustalany indywidualnie

Strony Kategorii: pierwsze 140 znaków z opisu kategorii

Strony podkategorii: pierwsze 140 znaków z opisu podkategorii

Strony produktowe: pierwsze 140 znaków z opisu produktu

Strony statyczne: pierwsze 140 znaków z treści stron statycznych

Oprócz schematów buduje się również tagi title i meta description ręcznie dla konkretnych stron, do których przypisane są wybrane słowa kluczowe. Schematy przedstawione wyżej są jedynie przykładami, które w razie potrzeb można modyfikować.

 

2. Przekierowania strony głównej

Przekierowania są kolejnym poważnym problemem. Jeśli nie są wdrożone poprawnie, powodują duplikację całego serwisu.

Strona powinna być dostępna tylko pod jednym (głównym) adresem URL. Jednak niżej przedstawiona sytuacja zdarza się bardzo często:

Na screenie widać, że strona dostępna jest pod 4 różnymi adresami.

W przypadku wersji z https należy sprawdzić przekierowania tych adresów. W grę wchodzi także kontrola adresów z index.php oraz index.html.

Strona może być dostępna tylko pod jednym adresem z www lub bez www, w zależności od tego co wybierzemy. Wybranie strony z adresem rozpoczynającym się od www lub bez www nie ma żadnego wpływu na SEO. Jeśli jednak Google zaindeksował już którąś z tych wersji, warto ustawić właśnie ją, jako domyślną.

 

3. Przyjazne adresy URL

Brak przyjaznych adresów URL to kolejny problem, który wymaga naprawy na wielu stronach internetowych.

Często spotykamy się z adresami typu:

https://przyklad.pl/spodnie/@#$jeansy_Szare346{9f75b044ad8c8fba75c61671f3556dd67129e6440c4de06dd5c4a2623be9263c}^&dla_kobiet=edo245

Taki adres należy zamienić na przyjazny, tzn.:

https://przyklad.pl/jeansy-szare-dla-kobiet

 

4. Brak pliku sitemap.xml

Plik sitemap.xml jest plikiem zawierającym listę wszystkich podstron serwisu. Informuje on wyszukiwarkę o sposobie uporządkowania treści w witrynie oraz pomaga w jej indeksowaniu.

Jeśli korzystamy z popularnych CMS-ów to generowanie tego pliku nie będzie problematyczne. Na pewno znajdziemy wtyczki, które same generują plik, a co więcej automatycznie go aktualizują po dodaniu nowych podstron w serwisie.

W przypadku WordPressa mamy tą funkcję dostarczoną wraz z wtyczką Yoast SEO.

Więcej o Yoast SEO znajdziesz w artykule:

Konfiguracja wtyczki Yoast SEO dla WordPressa

 

5. Linkowanie wychodzące

Niektóre serwisy posiadają mnóstwo linków wychodzących. Standardowe linki oddają moc innym domenom. Jeśli więc koniecznie chcemy linkować do innych stron, musimy pamiętać o zastosowaniu atrybutu rel=”nofollow”.

Przykład kodu dla linków wychodzących:

<a href=”http://przyklad.pl” rel=”nofollow”>http://przyklad.pl</a>

Dzięki temu nie będziemy oddawać mocy naszej domeny.

 

6. Brak optymalizacji grafik

Grafiki powinny być odpowiednio zoptymalizowane w serwisie. Należy zwrócić uwagę na nazwy grafik, separatory, polskie litery oraz znaki specjalne.

Niezbędne jest uzupełnienie title i alt grafik.

Jeśli grafiki w twoim serwisie posiadają nazwy typu:

IMG_00342.jpg czy sukienka2@{9f75b044ad8c8fba75c61671f3556dd67129e6440c4de06dd5c4a2623be9263c}czerwonadd18.jpg

To warto zmienić nazwę na:

sukienka-czerwona.jpg

Poprzez takie zabiegi wskażemy wyszukiwarce co przedstawia dana grafika/zdjęcie. Jeśli grafiki będą odpowiednio zoptymalizowane możemy uzyskać dodatkowy ruch na stronie z wyszukiwarki grafiki.

Grafiki mają wpływ na szybkość ładowania strony internetowej. Nie można więc zapominać o bezstratnej kompresji grafik. Dzięki niej waga pliku zmniejszy się, a jakość zdjęcia nie ulegnie widocznemu dla oka pogorszeniu.

W WordPressie możemy skorzystać z wtyczki Smush Image Compression and Optimization, która pozwoli zmniejszyć wagę wszystkich obrazków w bibliotece.

 

5 sposobów na zwiększenie ruchu organicznego

 

Każdy właściciel serwisu internetowego chce, aby liczba użytkowników  na jego stronie była z miesiąca na miesiąc coraz większa. Jednym ze sposobów na zwiększenie liczby odwiedzin, jest zadbanie o wzrost ruchu z bezpłatnych wyników wyszukiwania, które wyświetlają wyszukiwarki. Jak zwiększyć ruch z organica?

1. Audyt SEO

 

Audyt SEO – nazwa powtarzana praktycznie wszędzie. Popularność tego hasła, może nam jednak uświadomić, jak istotne jest jego wykonanie oraz wprowadzenie poprawek na stronę. Wszystkie elementy audytu SEO wpływają na wzrost widoczności strony w wyszukiwarce. Osoby, które zdecydowały się na realizację audytu SEO mogą liczyć na znaczny wzrost ruchu z wyników organicznych.

Więcej o audycie SEO znajdziemy w artykule: Nie tylko optymalizacja strony – po co nam audyt SEO?

Dla potwierdzenia przedstawiamy wykres widoczności z Senuto, jednej ze stron, która zdecydowała się na realizację i kolejno wprowadzenie audytu SEO.

2. Publikacja treści

 

Publikacja wartościowej treści to świetny sposób na zwiększenie ruchu organicznego. Jeśli będziemy poruszać ciekawe tematy możemy liczyć na udostępnianie ich przez użytkowników w mediach społecznościowych.

Regularne dodawanie treści zwiększa site strony, a także daje miejsce na dodatkową optymalizację pod nowe słowa kluczowe. Istnieje dużo możliwości w tym temacie:

Dzięki regularnemu dodawaniu treści będziemy w stanie polepszyć linkowanie wewnętrzne oraz zdobyć jakościowy ruch w domenie, bowiem użytkownik będzie spędzał na naszej stronie więcej czasu. Uatrakcyjnimy również widok wyników wyszukiwania ponieważ do artykułów możemy dodać dane strukturalne.

Oto przykład jak może wyglądać wynik wyszukiwania:

Jeszcze jedną ogromną zaletą prowadzenia bloga jest to, że artykuły są dużo częściej naturalnie linkowane przez użytkowników. Pozwala to na zróżnicowanie profilu linków oraz zdobywanie linków wysokiej jakości.

Dodając artykuły co 2-3 dni widoczność na frazy kluczowe w top10 będzie się regularnie zwiększała. Kolejny przykład wykresu widoczności z Senuto po rozpoczęciu regularnego dodawania artykułów na małej firmowej stronie – artykuły pojawiały się średnio co 3 dni.

Przygotowując tematykę oraz same artykuły pamiętajmy o korzystaniu z narzędzia jakim jest Google Keyword Planner, które umożliwi nam dobrać najbardziej korzystne frazy z potencjałem.

3. Filtrowanie

 

Filtrowanie produktów popularne jest głównie w sklepach internetowych czy dużych stronach firmowych np. przy wybieraniu ofert pracy.

Filtrowanie pomoże użytkownikowi wybrać produkty w przedziałach, które konkretnie go interesują. Bardzo rozbudowane filtrowanie ma portal allegro, który do każdej kategorii pozwala dobrać masę przeróżnych filtrów.

Jak jednak ma nam to pomóc w zwiększeniu ruchu organicznego? Jeśli struktura serwisu jest zbudowana poprawnie i nie dojdzie do duplikacji treści to śmiało możemy indeksować filtrowanie zwiększając przez to site strony nawet o kilka tysięcy. Wraz z tym znacznie poprawi się widoczność naszej strony w wynikach wyszukiwania.

Więcej o filtrowaniu możemy przeczytać w artykule: Filtrowanie produktów w e-commerce – najlepsze praktyki

 

4. Czyszczenie profilu linków

 

Złej jakości linki to zmora wielu stron internetowych. Często prowadzą one do strony na skutek słabej jakości działań blokując efekty. Przez to wiele fraz jest poza top100 i poza top10. Regularne czyszczenie profilu linków to podstawa. Istnieje sporo narzędzi, które pomogą nam przy analizowaniu profilu linków. Najpopularniejszymi są MajesticAhrefs.

Przykład efektów przeprowadzanego czyszczenia profilu linków:

Na czerwono zaznaczono dzień, w którym plik disavow z słabej jakości linkami został wysłany. Są to tylko niektóre przykłady. Fraz, które zanotowały wzrosty po czyszczeniu profilu linków jest znacznie więcej.

5. Tagi

 

Aby zwiększyć ruch organiczny musimy postarać się, żeby nasza strona miała większy site. Podczas dodawania artykułów wykorzystajmy tagi. Oczywiście nie warto tutaj przesadzać. W zależności od tematyki artykułu dodajmy 3-5 tagów.

Pamiętajmy, że tagować możemy artykuły oraz przykładowo produkty w sklepie. Jest to więc uniwersalne rozwiązanie pozwalające na zwiększenie podstron w serwisie.

Wymienione elementy nie wyczerpują szerokiego tematu jakim jest SEO i zwiększenie ruchu organicznego. Są jednak absolutną podstawą i warto przyjrzeć się im bliżej , aby zwiększyć widoczność swojej strony w Internecie.

Screaming Frog, czyli żaba niezbędna w pracy każdego SEOwca

 

Podczas prostej analizy strony internetowej czy tworzenia złożonego audytu SEO, narzędziem, bez którego nie wyobrażam sobie pracy, jest Screaming Frog SEO Spider Tool. Ten zaawansowany crawler internetowy pozwala na dokładne zbadanie struktury strony internetowej oraz sprawdzenie wszystkich kluczowych elementów (onsite SEO) na niej występujących. Zobacz, jak wykorzystać jego możliwości!

Instalacja programu

Screaming Frog to niewielka aplikacja internetowa, którą należy  zainstalować lokalnie na komputerze. Narzędzie dostępne jest dla systemów Windows, Mac OS i Ubuntu

w dwóch wersjach – darmowej i płatnej. Wersja darmowa posiada większość podstawowych narzędzi, potrzebnych do analizy strony internetowej. Niestety, ograniczona jest ona limitem analizowanych adresów URL – do 500 adresów podczas jednego sprawdzania. Po dokładniejsze informacje o różnicach w wersji darmowej i płatnej programu odsyłam bezpośrednio na stronę producenta.

Crawler pozwala w szybki i dokładny sposób sprawdzić stronę internetową pod kątem większości parametrów technicznych, potrzebnych do analizy tzn. onsite SEO. Screaming Frog jest szczególnie przydatny przy dużych serwisach, gdzie ręczne sprawdzanie strony internetowej zajęłoby ogromną ilość czasu, a w niektórych wypadkach byłoby wręcz niemożliwe. Zebrane dane można przeglądać, filtrować i analizować bezpośrednio w programie lub wyeksportować najważniejsze dane do programu Excel, dzięki czemu analiza danych staje się jeszcze prostsza.

Rozpoczęcie pracy ze Screaming Frogiem

Działanie programu możemy rozpocząć po wpisaniu dowolnego adresu URL (Mode -> Spider) lub podaniu wszystkich interesujących nas adresów URL do sprawdzenia (Mode -> List), które robot ma przeskanować.

mode spider

Podstawowe funkcje programu

Bazowa funkcja programu to zbieranie podstawowych informacji nt. strony, takich jak np.:

W bardzo szybki sposób otrzymujemy informację na temat zduplikowanych, brakujących czy nie pasujących do wytycznych Google parametrów:

 page titles i H1
Dane możemy analizować w dokładniejszy sposób po wejściu na docelowy adres URL, np. na adres, którego tytuł przekracza 571 pixeli. Poprzez zakładkę SERP Snippet możemy zobaczyć, jak meta tagi wyświetlają się w wyszukiwarce, a także na bieżąco modyfikować tytuł, tak, aby jak najlepiej prezentował się w wyszukiwarce Google.

title i description

niedzialajace-strony

Narzędzie w  prosty sposób pozwala na znalezienie wszystkich niedziałających stron w obrębie serwisu. Dodatkowo, klikając na dany adres, możemy sprawdzić, z jakich miejsc pochodziły linki do stron, zwracających kod 404.

Media
niedzialajace-strony-2

url adresów URL z polskimi znakami
– adresów z podkreśleniami lub z wielkimi literami
– adresów URL z parametrami
– adresów URL, które przekraczają 115 znaków

– imagesprzekraczających 100kb
– z brakującym lub przekraczającym 100 znaków atrybutem „alt”

ga
Screaming Frog
pozwala w prosty sposób sprawdzić poprawność zaimplementowania tagów Google Search Console oraz Google Analytics na wszystkich podstronach serwisu.

Kolumnami w programie można dowolnie rotować i ustawiać je w odpowiedniej dla siebie kolejności. Wszystkie dane można również w szybki sposób wyeksportować do Excela.

Dodatkowe przydatne funkcjonalności programu Screaming Frog SEO Spider Tool

Narzędzie umożliwia sprawdzenie czasu wczytywania się poszczególnych stron. Po wejściu w zakładkę Internal -> HTML w jednej z ostatnich kolumn danych, znajdziemy „Response Time”.

Dane możemy posortować na podstawie czasu wczytywania stron oraz porównać je z raportem z Google Analytics nt. współczynnika odrzuceń. Bardzo prawdopodobne jest, iż strony, które się dużo wolniej ładują, będą posiadać wyższy współczynnik odrzuceń od stron, które ładują się szybciej. W szczególności dotyczy to przeglądania serwisu na urządzeniach mobilnych.

czas-wczytywania-stron

Każdy adres URL możemy zbadać na podstawie prowadzących do niego linków wewnętrznych oraz ich anchor tekstów. Możemy dokonać tego, klikając interesujący nas adres URL. W dolnej części programu wybieramy kartę „Inlinks” i otrzymujemy informację:

– z jakich stron prowadzą linki
– jakie anchor teksty kierują na stronę, w przypadku grafik – atrybuty „alt”
– czy linki są dofollow czy nofollow

linki wewnętrzne

viev tree

Screaming Frog pozwala na bardzo szybkie stworzenie sitemapy XML oraz sitemapy graficznej.

sitemap

Dodatkowa konfiguracja pozwala na ustalenie częstotliwości odwiedzania strony przez robota, na podstawie miejsca w strukturze serwisu danej podstrony.

sitemap-konfiguracja

Po zapisaniu mapy witryny możemy ją otworzyć w programie Excel. Tutaj należy sprawdzić czy mapa zawiera tylko jedną kanoniczną wersję każdego adresu URL, oraz czy adresy nie zawierają parametrów, które powodują duplikację treści. Dodatkowo dla najważniejszych adresów URL ręcznie możemy zmieniać częstotliwość zmian, priorytet i inne wartości. Po skończeniu pracy należy plik z mapą zapisać jako plik XML.

Podsumowanie

Screaming Frog SEO crawler daje ogromne możliwości analizy najważniejszych aspektów technicznych stron internetowych. W powyższym artykule wymieniłem tylko najważniejsze z mojej perspektywy funkcjonalności programu, w rzeczywistości jest ich dużo więcej. Mnogość zastosowań oraz relatywnie niska cena (99 funtów rocznie) sprawiają, że narzędzie cieszy się bardzo dużym zainteresowaniem wśród SEOwców. Ja osobiście nie wyobrażam sobie wykonania audytu SEO bez użycia tego narzędzia.

Audyt prawdę Ci powie. Pobierz darmowy szablon audytu content marketingowego!

Nie istnieje coś takiego jak szybki audyt treści do stworzenia strategii content marketingowej. Przymiotniki, takie jak „szybki” czy „skrótowy”, w odniesieniu do audytu treści, są właściwie synonimem słowa „zły” i w związku z tym – „zbędny”. Szczerze wierzę, że audyt, który Ci dziś prezentujemy, powinien przeprowadzić każdy, kto poważnie myśli o  tworzeniu treści w Internecie. Korzyści są ogromne.

Digital Marketing Assistance
 

To nie jest tekst o audycie SEO

Na początku odróżnijmy wyraźnie audyt SEO strony internetowej od audytu treści pod budowę, czy optymalizację, strategii content marketingowej. Przeprowadzając ten pierwszy, chodzi nam o uzyskanie odpowiedzi na pytanie, czy strona internetowa jest zoptymalizowana pod kątem wyszukiwarek.

Specjalistę SEO interesuje, między innymi:

Skupmy się na audycie content marketingowym, który odpowiada na serię zupełnie innych pytań.

Antykryzysowy raport GDS
 

To czym jest audyt content marketingowy?

Audyt treści ma być przede wszystkim narzędziem dla twórców strategii komunikacji w Internecie. Służy tym, którzy chcą wiedzieć, jakie taktyki content marketingowe się sprawdzają oraz z jakich lepiej zrezygnować. Dlatego właśnie, tworząc szablon audytu, kierowaliśmy się szeroką listą palących pytań, na które – jako projektanci strategii komunikacji – MUSIMY ZNAĆ ODPOWIEDŹ.

 

Jedno pytanie – tysiąc różnych odpowiedzi

Content-marketingowi wyjadacze (znajdziecie ich chociażby na blogach The Moz, Content Marketing Institute czy Hubspot) snują przeróżne teorie, na temat tego, co sprawdza się w strategiach treści. Przekopując się przez masę artykułów, trafimy częstokroć na sprzeczne tezy, na przykład:

graf1

graf2

Komu wierzyć? Któremu autorytetowi zaufać? Okazuje się, że żadnemu. Najmądrzejszą taktyką jest sprawdzenie, co działa na Twoją grupę docelową. Zupełnie inne formy komunikacji działają przecież na odbiorców bloga o marketingu internetowym, a inne na  czytelników serwisu kulinarnego, sportowego etc.

Uwaga, pokuszę się o banalną tautologię – trzeba włożyć trochę energii i odkryć prawdy, które są prawdziwe wyłącznie w odniesieniu do Twojej grupy docelowej.

Semahead CSS
 

Interesują Cię odpowiedzi na te pytania? Audyt treści Semahead Ci je zdradzi!

Po pierwsze, otwórz plik, który możesz ściągnąć na tej stronie (formularz pod artykułem). W wypełnieniu wszystkich pól pomoże Ci bogata legenda.

Używając zaawansowanych funkcji filtrowania, możesz zestawiać ze sobą przeróżne dane i wyciągać na ich podstawie unikalne wnioski. Dowolnie zestawiaj dane z sekcji „Informacje podstawowe” oraz „Webwriting” z danymi, z działów „Wyniki” i „Udostępnianie”. Uwierz mi, czeka Cię kilka olśnień.

Podajemy niepełną listę pytań, na które uzyskasz odpowiedź po przeprowadzeniu audytu treści na szablonie Semahead.

Czy jakaś kategoria tematyczna jest na Twojej stronie zaniedbana? Jaka cieszy się największą popularnością?

Odpowiedź na to pytanie jest oczywista, ale warto przekonać się o tym samodzielnie. Sami byliśmy niesamowicie poruszeni wynikami naszego  audytu. Okazuje się, że stosowanie się do ogólnie pojętych zasad webwritingu, dbanie o wysoką jakość treści i równoczesne używanie wielu form contentu (tekst, grafika, wideo etc. jednocześnie) decyduje o wysokich wynikach treści.

Wystarczy spojrzeć na porównanie wyników treści z webwritingowego TOP10 i WORST10, zestawionych dodatkowo ze średnią wyliczoną na wszystkich artykułach:

wyniki top i worst 10 webwriting

wyniki top i worst 10 webwriting2

Takie wyniki są wystarczającym argumentem, dlaczego warto inwestować w wartościowy i bogaty content.

Infografiki, wideo, wykresy, tabele, a może proste memy lub grafiki z cytatem?

Fix Analytics
 

UWAGA: czeka Cię sporo pracy. Ale warto!

Przeprowadzenie audytu treści na szablonie, przygotowanym przez drużynę Semahead, przyniesie Ci wiedzę, z której możesz czerpać przez długie miesiące, czy w niektórych przypadkach – przez lata. Ważne, aby przeprowadzać audyt content marketingowy systematycznie i sprawdzać, czy ustalona strategia treści jest skuteczna. Jeśli nie jest – audyt podpowie, jak ją zmodyfikować.

Bardzo mi przykro – tu nie ma drogi na skróty. Audyt treści to pracochłonna zabawa, ale jej wyniki – unikalne i nie do przecenienia. Nasz szablon dostępny jest tutaj.

Jeśli nie masz czasu na przeprowadzenie profesjonalnego audytu – z chęcią zrobimy to za Ciebie. 

[sema_block id=”26180″]

Jak pozycjonować stronę w Google?

Od czasów kiedy Google uruchomiło wyszukiwarkę, metody pozycjonowania zmieniały się a wraz z nimi algorytm wyszukiwarki. Od kilku lat można jednak zauważyć, że pewne fundamentalne elementy wpływające na ranking strony nie zmieniły się. O czym należy pamiętać aby długofalowo oraz bezpiecznie budować widoczność naszej marki w Internecie?

Pozycjonowanie i optymalizacja to kilkuetapowy proces, który należy wykonać aby uzyskać zamierzone efekty. Na pozycjonowanie składają się czynniki zewnętrzne oraz wewnętrzne. Najbardziej stabilne są czynniki wewnętrzne, ponieważ właściciel strony www ma nad nimi największą kontrolę. Pozycjonując stronę należy więc w pierwszej kolejności zadbać o witrynę i jej właściwa budowę. SEO tj. optymalizacja pod kątem wyszukiwarek pozwala przygotować stronę w taki sposób aby była ona jak najbardziej przyjazna dla wyszukiwarki oraz użytkowników, którzy szukając oczekują najbardziej trafnego wyniku. Aby umożliwić użytkownikom odnalezienie naszej strony w wynikach wyszukiwania należy pamiętać o wcześniejszej analizie słów kluczowych aby wiedzieć w jaki sposób użytkownicy posługują się wyszukiwarką i czego najczęściej wyszukują.

Analiza słów kluczowych

Narzędzie stworzone w głównej mierze dla reklamodawców Google AdWords. Za pomocą Keyword Planner’a można określić średnią miesięczną ilość wyszukiwań dla wybranej frazy oraz konkurencyjność Na podstawie wpisanej frazy narzędzie wyświetla listę propozycji innych fraz dzięki, którym możliwe jest dotarcie do użytkownika poprzez inne zapytania w wyszukiwarce.

Jak-pozycjonowac-strone-w-Google-1

Narzędzie analityczne, które na wykresie pokazuje popularność wybranej frazy kluczowej. Narzędzie umożliwia porównanie do 5 słów kluczowych. Google Trends pokazuje również inne propozycje najpopularniejszych słów kluczowych oraz umożliwia zawężenie wyników do wybranego regionu oraz czasu. Dzięki takiej formie prezentacji danych łatwo sprawdzimy trendy sezonowe oraz lokalizację użytkowników wpisujących daną frazę.

Jak-pozycjonowac-strone-w-Google-2

Audyt SEO strony internetowej – na co zwrócić uwagę?

Głównym celem audytu jest sprawdzenie czy wybrana strona jest zoptymalizowana pod kątem wyszukiwarek. W trakcie audytu sprawdzane są parametry, które brane są pod uwagę przy ustalaniu rankingu stron w wynikach wyszukiwania tzw. SERP. Audyt SEO jest jednym z najważniejszych elementów skutecznej strategii widoczności strony w Internecie.

Jak pozycjonować stronę w wyszukiwarce Google?

Do najważniejszych meta tagów zaliczyć można <meta name=”robots” content=”index,follow”>, <title> (z technicznego punktu widzenia nie jest to meta tag, ale pełni podobną rolę do pozostałych meta danych), <meta name=”Description” content=””>. Meta tagi to jeden z najbardziej istotnych parametrów wpływających na pozycję strony w wynikach wyszukiwania. Zadaniem meta tagów „description”(opis) oraz tagu „title”(tytuł) jest przekazanie, krótkiej informacji co dana podstrona zawiera. Meta tagi umieszcza się w nagłówku strony – w sekcji <head>. Zaleca się aby <title> był krótki – zawierał maksymalnie 65-70 znaków, oraz informacyjny. W tagu <title> warto zawrzeć najważniejsze słowa kluczowe opisujące daną podstronę. Częstą praktyką jest także umieszczanie nazwy marki lub firmy. Meta tag „description” to krótki opis (maksymalnie 140 znaków) zawartości danej podstrony. W przypadku meta description można umieścić inne podobne frazy oraz wezwanie do akcji  (call to action) – zachętę, która spowoduje, że użytkownik kliknie w naszą stronę. Przykładem takiego działania są zwroty typu: „sprawdź”, „zobacz szczegóły” czy „kliknij”.

Podstrony powinny mieć łatwe do zapamiętania adresy URL tak aby umożliwić użytkownikom udostępnianie linków. Przyjazne adresy URL to także łatwiejsza nawigacja w serwisie. Dzięki nim użytkownik może dowiedzieć się na jakiej podstronie się znajduje. Roboty wyszukiwarek również analizują adresy URL, dlatego warto zawrzeć w nich odpowiednie słowa kluczowe, nazwę kategorii, podkategorii lub podstrony.

W dobie nowych technologii częstym problemem w witrynach jest brak optymalizacji kodu oraz struktury. Należy zminimalizować ilość zewnętrznych zasobów w postaci np. skryptów Javascript i używać tylko tych niezbędnych. Dobrą praktyką jest umieszczanie skryptów  przed zamknięciem tagu </body> aby skrócić czas renderowania – wczytywania strony. Kolejnym istotnym elementem jest struktura oraz wykorzystanie znaczników. Znaczniki takie jak H1,H2,H3, strong, ul, li ułatwiają odpowiednią segregację treści oraz nadanie wybranym jej fragmentom właściwego priorytetu. Warto oznaczyć w kodzie najważniejsze elementy strony takie jak nagłówki, sekcje, działy poprzez znaczniki H1,H2,H3. Przy wykorzystaniu punktacji na stronie, warto zastosować znaczniki „ul” czy „li” aby wylistować  np. zakres usług czy ofertę.

Content is a King – fundament, który w dużej mierze wpływa na pozycjonowanie strony www, bez którego pozycjonowanie może być niemożliwe. Unikalna treść, która zawiera frazy kluczowe oraz taka, która odpowiada na potrzeby użytkowników wpływa na pozycjonowanie strony pod wybrane słowa. Robot wyszukiwarki analizuje treści i na tej podstawie określa tematykę strony.

Mapa strony w postaci pliku sitemap.xml (plik zawierający listę wszystkich adresów URL serwisu) ułatwia indeksację podstron. Wygenerowana mapa strony może zostać zgłoszona w narzędziu Google Webmaster Tools co spowoduje, że robot wyszukiwarki Google odwiedzi adresy tam zawarte. Plik robots.txt to plik za pomocą którego można regulować dostęp do wybranych podstron, katalogów uniemożliwiając ich indeksację. Wykorzystanie takiego pliku często pomocne jest w przypadku gdy nie chcemy aby robot wyszukiwarki zaindeksował np. panel administracyjny naszej strony www.

Zadbanie o powyższe elementy naszej strony www umożliwia pozycjonowanie witryny. Optymalizacja SEO pozwala wyeliminować podstawowe błędy, wybrać najbardziej adekwatne frazy kluczowe oraz przygotować stronę www do długofalowej promocji w wyszukiwarkach internetowych.

Zapisz się do newslettera!

  • Dążymy do tego, aby świadczyć usługi na najwyższym poziomie. Z tego powodu w naszym serwisie korzystamy z plików cookies. Pliki cookies możesz kontrolować za pomocą ustawień swojej przeglądarki internetowej. Dalsze korzystanie z naszego serwisu, bez zmiany ustawień przeglądarki internetowej oznacza, iż akceptujesz stosowanie plików cookies. Więcej informacji znajdziesz w naszej polityce prywatności.
  • Zamknij