Generic selectors
Tylko dokładne dopasowanie
Szukaj w tytule
Szukaj w treści
Filtruj po kategoriach
Analityka internetowa
BLOG.re:view
Content marketing
Marketing automation
Marketing internetowy
PPC
SEO
Social media
Z życia Semahead

Skontaktuj się z nami

Widget

  • Szczegółowe informacje dotyczące przetwarzania danych osobowych znajdziesz tutaj.

Zrób to sam, czyli jak samodzielnie pozycjonować stronę?

Dostępność narzędzi i źródeł wiedzy na temat SEO sprawia, że wiele działań jesteśmy w stanie przeprowadzić we własnym zakresie. Na co zwrócić uwagę, kiedy decydujemy się na samodzielną optymalizację witryny i które działania w szczególności wdrożyć?

Z tego artykułu dowiesz się między innymi: 

 

Kiedy warto prowadzić działania SEO we własnym zakresie?

To, czy warto podjąć się prowadzenia SEO we własnym zakresie, zależy od kilku czynników. Przede wszystkim należy wziąć pod uwagę skalę naszego biznesu. Jeśli strona ma już zbudowaną historię i przynosi realne zyski, nieodpowiednimi działaniami możemy przynieść więcej strat niż korzyści.

W takim przypadku dobrym pomysłem jest utworzenie dodatkowego serwisu w celach testowych, gdzie będziemy mogli sprawdzić skuteczność naszych rozwiązań i dopiero wtedy stosować je na właściwej stronie. Jednak jeśli nie mamy pewności co do efektów naszych działań, bezpieczniej skonsultować je ze specjalistą SEO.

W przypadku gdy rozpoczynamy pracę nad nową stroną lub też zajmujemy się niewielką witryną, która nie wypracowała jeszcze widoczności i ruchu, nic nie stoi na przeszkodzie, aby samodzielnie podjąć się działań optymalizacyjnych.

Jakie elementy możemy samodzielnie zoptymalizować?

W przypadku niewielkiej strony możemy zadbać o optymalizację elementów takich jak:

Zmiany dotyczące tych elementów są możliwe do wprowadzenia z poziomu panelu większości systemów CMS i ich wdrożenie nie powinno przysporzyć problemów. Wiedzę na temat ich optymalizacji możemy czerpać z licznych blogów branżowych, e-booków, kursów czy też oficjalnych wytycznych Google. Możemy też skorzystać z darmowych wtyczek czy „audytów SEO online” i zapoznać się z aktualną sytuacją strony. Ważne, aby stale monitorować wyniki testowanych rozwiązań, dzięki czemu sami możemy weryfikować, co jest skuteczne w przypadku naszej witryny.

 

Wybór fraz kluczowych i wstępna analiza strony

Pierwszym krokiem przy pracy nad naszym serwisem powinien być dobór fraz kluczowych, na które chcemy być widoczni w wyszukiwarce. W tym celu warto najpierw przeprowadzić analizę konkurencji i sprawdzić, na jakie frazy wyświetlają się rywalizujące z naszą stroną witryny, co pomoże w wytypowaniu najważniejszych także z naszego punktu widzenia słów. Do wybrania odpowiednich fraz możemy skorzystać z dedykowanych narzędzi takich jak Planer słów kluczowych Google czy Ubbersuggest. Propozycje słów kluczowych otrzymujemy też już na poziomie samej wyszukiwarki, która przy wpisywaniu zapytania podpowiada frazy wyszukiwane przez internautów.

Zaplanowanie architektury informacji

Zanim przejdziemy do uzupełnienia witryny o dobrane wcześniej frazy, musimy dopasować je do odpowiednich stron w serwisie. Jeśli umieścimy je w zbyt wielu miejscach, doprowadzimy do zjawiska kanibalizacji treści, czyli sytuacji, w której kilka stron zoptymalizowanych pod te same słowa kluczowe rywalizuje ze sobą o widoczność w wyszukiwarce. Aby temu zapobiec, należy zadbać o czytelną, zarówno dla użytkowników, jak i wyszukiwarki, strukturę serwisu. Przemyślana architektura informacji znacznie ułatwi osiągnięcie założonych efektów, dlatego jej zaplanowanie powinno stać się punktem wyjściowym dla dalszych prac nad serwisem.

Semahead CSS

Samodzielny audyt SEO

Drugim krokiem jest krótki audyt SEO, który pozwoli zweryfikować nam, w jakim stopniu strona jest zoptymalizowana pod interesujące nas słowa kluczowe. Nawet bez zaawansowanej wiedzy na temat optymalizacji, jesteśmy w stanie sprawdzić poprawność wdrożenia wielu elementów na stronie. Z pomocą przychodzą różne darmowe narzędzia i wtyczki, dzięki którym możemy przyjrzeć się ewentualnym błędom.

Przykładem są rozszerzenia takie jak SEOquake i Web Developer przydatne przy analizie onsite witryny. Narzędzie Screaming Frog, którego bezpłatna wersja umożliwia sprawdzenie 500 adresów URL, dostarczy nam istotnych informacji na temat struktury serwisu. Nie można też zapomnieć o dodaniu strony do Google Search Console i Google Analytics, aby na bieżąco śledzić stan indeksowania, monitorować ruch i wykrywać pojawiające się problemy.

Pozyskiwanie linków we własnym zakresie

Jak zdobywać linki, prowadząc samodzielne działania SEO? Przede wszystkim warto obserwować, a także udzielać się w roli eksperta na blogach, forach oraz w branżowych social mediach. W ten sposób zwiększymy rozpoznawalność brandu, a tam, gdzie to możliwe, do merytorycznego i wyczerpującego komentarza dodamy również odnośnik do naszej witryny.

 

Jakie działania powierzyć specjalistom SEO?

Płatne działania link buildngowe, jeśli nie mamy w nich doświadczenia, lepiej zlecić freelancerowi lub agencji. Bez odpowiedniej wiedzy i narzędzi trudno zweryfikować, czy zainwestowane pieniądze przyniosą adekwatny rezultat.

Konsultacji ze specjalistą wymagają też elementy związane z technicznym SEO. Jeśli chcemy uniknąć poważnych błędów na stronie, których konsekwencje mogą być odczuwalne przez długi czas, działania takie optymalizacja przekierowań czy zarządzanie dostępem dla robotów warto powierzyć specjaliście SEO.

Optymalizacja szybkości strony

Jeśli współpracujemy z deweloperem, we własnym zakresie możemy również wykonać optymalizację szybkości strony. Samo zmniejszenie rozmiaru grafik pozwoli nam na znaczne przyspieszenie działania witryny. Do tego możemy dodać optymalizację pod kątem UX, która przełoży się na lepszy odbiór naszej strony przez użytkowników i poprawę współczynnika konwersji.

Podsumowanie

Wiele z istotnych zmian, które przekładają się na wyniki w postaci widoczności i ruchu, możemy wprowadzić we własnym zakresie. Testowanie różnych rozwiązań i stałe monitorowanie wyników naszych działań pomoże nam w weryfikacji, które z nich się sprawdzają i przynoszą najlepsze efekty.

Kiedy chcemy optymalizować serwis, który ma już zbudowaną historię i przynosi realne zyski, bezpieczniej jest utworzyć stronę testową, gdzie będziemy sprawdzać rezultaty naszych działań, lub też skonsultować się ze specjalistą SEO. W ten sposób nie narazimy strony na trudne do odbudowania spadki.

 

Kontakt

 

10 najlepszych źródeł wiedzy o SEO

Zmiany i aktualizacje to codzienność w pracy każdego SEOwca. Ostatnio pisaliśmy od czego zacząć naukę SEO, teraz podpowiadamy, skąd czerpać informacje, kiedy podstawy są już dla Ciebie oczywiste i poszukujesz sprawdzonych źródeł wiedzy, aby zawsze być na bieżąco z nowościami z branży.

Istnieją witryny, do których lubią odwoływać się eksperci i które warto subskrybować lub odwiedzać. Poniżej znajduje się top najlepszych stron poświęconych SEO wraz z wyjaśnieniem, jaką unikalną wiedzę zawierają i dlaczego to właśnie te adresy warto śledzić.

 

1. Google Webmaster Central Blog

 

Najlepsza baza wiedzy o Google, czyli samo Google – na swoim blogu dzieli się wiadomościami dotyczącymi crawlowania, indeksowania i rankingu. Jest to również miejsce powiadamiania o tym, co wkrótce zamierza wprowadzić lub zaktualizować, tak jak na przykład miało to miejsce przy ogłoszeniu początku mobile-first indexing czy wprowadzeniu nowej wersji Search Console. Z bloga można dowiedzieć się również o nowościach wdrażanych na stronie SERP.

Google Webmaster Central Blog to podstawowe źródło informacji o zmianach w wyszukiwarce. Minusem jest jednak fakt, że na stronie nie znajdzie się wszystko, co SEOwcy chcieliby wiedzieć – na przykład na temat zmiany algorytmu czy też początku obowiązywania nowego czynnika rankingowego. W takich przypadkach odpowiedzi trzeba doszukiwać się między wierszami lub też konieczne jest posiłkowanie się innymi blogami.

Dlaczego warto śledzić?

Niezastąpione źródło wiedzy o zmianach w wyszukiwarce, do którego odwołują się pozostałe strony poświęcone SEO.

 

2.Optymalizacja witryn pod kątem wyszukiwarek (SEO) – podręcznik dla początkujących

 

Zgromadzone pod jednym adresem podstawowe informacje na temat optymalizacji strony. Po raz pierwszy opublikowany w 2008 roku podręcznik został w ubiegłym roku gruntownie odświeżony i wzbogacony o sekcje dotyczące danych strukturalnych i stron mobilnych. Mimo że poradnik nie zawiera przełomowych informacji, warto się z nim zapoznać, aby dowiedzieć się, co Google rozumie pod pojęciem dobrych praktyk SEO.

Dlaczego warto przeczytać?

Starter SEO to zasadnicza wiedza na temat tworzenia i optymalizacji witryn dobrze współpracujących z wyszukiwarką.

 

3. Search Engine Land

 

Search Engine Land to jedna z najpopularniejszych witryn poświęconych tematyce SEO i encyklopedia wiedzy o wyszukiwarce. Często jako pierwsza podaje informacje o zmianach w Google, więc każdy, kto chce być zorientowany w branżowych nowościach, powinien obowiązkowo śledzić tę stronę. Ułatwić to może zapisanie się do newslettera, dzięki czemu najważniejsze wiadomości dnia znajdziemy w swojej skrzynce pocztowej.

Serwis został stworzony w 2007 roku przez Danny’ego Sullivana, wieloletniego dziennikarza SEO, kiedy porzucił on prowadzony od 1997 roku portal Search Engine Watch, określany wtedy jako najbardziej wiarygodne źródło wiedzy o wyszukiwaniu. Sullivan był współzałożycielem The Third Door Media – spółki publikującej Search Engine Land i inne blogi poświęcone tematyce digital marketingu, jak również organizującej popularną serię konferencji SMX. W 2017 roku Sullivan opuścił zespół i, wywołując niemałe zaskoczenie w świecie SEO, wstąpił w szeregi Google po to, by jak sam twierdzi, poprawić komunikację między jego pracownikami a użytkownikami wyszukiwarki.

Tymczasem Search Engine Land to nadal źródło codziennych informacji dotyczących wyszukiwania. Oprócz postów autorstwa redakcji na stronie znajdziemy wypowiedzi ekspertów, którzy dzielą się swoimi wskazówkami i strategiami. Serwis gromadzi tak wiele materiałów dotyczących poszczególnych tematów, że można znaleźć w nim odpowiedź na większość pytań związanych z SEO i PPC.

Dlaczego warto śledzić?

Search Engine Land najszybciej informuje o zmianach w Google i pozwala trzymać rękę na pulsie.

 

4. Search Engine Roundtable

 

Search Engine Roundtable to serwis czerpiący informacje z najciekawszych wątków i dyskusji, które odbywają się na forach związanych z marketingiem w wyszukiwarkach. Pierwsze i główne źródło wiedzy, kiedy na naszą stronę wpływa aktualizacja algorytmu lub też inna zmiana wprowadzona przez Google.

Strona została założona w 2004 roku przez Barry’ego Schwartza jako jego osobisty blog dotyczący SEO. Do dziś publikuje on wpisy odnoszące się do nowości, wydarzeń i dyskusji w branży.

Search Engine Roundtable zbiera najciekawsze tematy poruszane na forach branży SEM i ułatwia w ten sposób pracę marketerów. Podsumowanie najważniejszych wiadomości dnia można znaleźć w sekcji Daily Search Forum Recap. Warto również przeglądać komentarze pojawiające się pod wpisami, które często przeradzają się w burzliwe, ale i merytoryczne dyskusje.

Dlaczego warto śledzić?

Korzystanie z Search Engine Roundtable to oszczędność czasu – nie trzeba przeszukiwać wątków na forach marketingu internetowego, aby być na bieżąco ze zmianami w branży.

 

5. The Moz Blog

 

The Moz blog to źródło porad i wskazówek dotyczących SEO, social mediów i contentu. Uważany za jedną z pierwszych stron, którą powinny śledzić osoby zapoznające się z optymalizacją pod kątem wyszukiwarek.

Strona wystartowała w 2004 jako blog poświęcony przede wszystkim zagadnieniom SEO. Następnie Moz zajął się również tworzeniem oprogramowania. W międzyczasie The Moz blog stał się bazą unikalnych, dopracowanych i przedstawionych w przejrzysty sposób treści.

Na blogu pojawia się od czterech do pięciu artykułów tygodniowo. Największą popularnością cieszy się cykl „Whiteboard Friday”, o którym wspominaliśmy przy okazji najlepszych źródeł do nauki SEO. Tematy poruszane w klipach podsumowane są również w obszernych i szczegółowych wpisach na blogu.

Dlaczego warto śledzić?

Blog Moza to źródło zarówno dla początkujących w branży SEO, jaki i dla tych, którzy poszukują wskazówek, trików i porad, które pomogą im w optymalizacji strony.

 

6. The Ahrefs blog

 

O Ahrefsie pisaliśmy jako o dobrym źródle wiedzy dla uczących się SEO – na blogu popularnego narzędzia można znaleźć mnóstwo wskazówek, tutoriali, nie brakuje też wypowiedzi ekspertów z branży. Oprócz tego warto zauważyć, że Ahrefs dysponuje sporą i aktualną bazą linków zwrotnych, zamieszczane na stronie case studies oparte są na realnych danych. Publikowane raporty poruszają interesujące dla rozwijających swoje serwisy tematy, jak na przykład pozyskiwanie ruchu na podstawie linków zwrotnych konkurencji.

Blog Ahrefs nie jest aktualizowany zbyt często (średnio jeden nowy wpis na tydzień), ale w zamian oferuje analityczne i bogate w dane artykuły. Zarówno narzędzie, jak i blog, mają stanowić pomoc w zwiększaniu widoczności witryny, artykuły skoncentrowane są więc wokół tematów takich jak link building, dobór słów kluczowych, content marketing i techniczne SEO. Oprócz tego z bloga można dowiedzieć się, w jaki sposób korzystać z funkcjonalności narzędzia.

Dlaczego warto śledzić?

Blog Ahrefs to źródło o SEO wiedzy poparte bogatą bazą danych i przydatne wskazówki, które ułatwiają korzystanie z samego narzędzia.

 

7. Majestic

 

Blog Majestica, kolejnego obok Ahrefsa narzędzia do analizy profilu linków, to dobre źródło zarówno dla zdobywających wiedzę o SEO, jaki i dla tych, których interesują informacje o aktualizacjach narzędzia, co wiąże się często z nowymi szansami na rozwój własnej strony. Wpisy skoncentrowane są wokół link buildingu i możliwości, jakie oferuje w tym zakresie Majestic. Nie brakuje artykułów podpowiadających, jak za pomocą narzędzia poprawić wyniki SEO.

Dlaczego warto śledzić?

Blog Majestica to źródło wiedzy na temat samego programu i jego wykorzystania w celu pozyskiwania linków dla witryny.

 

8. Deep crawl

 

Wartościowym źródłem wiedzy o SEO jest blog prowadzony na stronie crawlera Deep Crawl. Artykuły na stronie dotyczą przede wszystkim technicznego SEO, w tym tematów takich jak budowa adresów URL, indeksowanie strony czy przekierowania. Dodatkowo blog wybiera najważniejsze i najciekawsze informacje z Google Webmaster hangouts, o których wspominaliśmy w poprzednim artykule, dzięki czemu żadna nowa wiadomość płynąca od pracowników Google nie zostaje pominięta.

Dlaczego warto śledzić?

Blog Deep Crawl to cenne źródło wiedzy na temat optymalizacji technicznej witryny, a także zestawienie najważniejszych informacji prosto od Google.

 

9. SEMrush blog

 

Następny blog towarzyszący oprogramowaniu SEO. W związku z tym, że firma oferuje również narzędzia do audytu stron, jest świadoma różnych aspektów marketingu w wyszukiwarkach i na blogu dzieli się kompleksową wiedzą z zakresu SEO, PPC i content marketingu. Wszystko to przedstawione jest z wysoką dbałością o odsłonę graficzną – artykuły uzupełnione są o materiały ilustrujące dany temat, nie brakuje również przydatnych ikonografik i filmów wideo.

Dlaczego warto śledzić?

SEMrush to wszechstronne źródło wiedzy na temat marketingu w wyszukiwarkach i dobre miejsce dla uczących się SEO.

 

10. SEO by the Sea

 

Tematyka Seo by the Sea skupiona jest wokół patentów i raportów tworzonych przez Google, stąd też strona jest przydatnym źródłem informacji dla tych, którzy chcą monitorować informacje pochodzące bezpośrednio od wyszukiwarki. Ideą bloga jest wydobycie istotnej wiedzy na temat mechanizmów wyszukiwania, która zawiera się w składanych przez Google wnioskach o patenty. Na stronie zamieszczane są streszczenia wypełnionych językiem prawniczym dokumentów wraz z autorskimi komentarzami i wnioskami, które mogą rzucić nowe światło na optymalizację stron pod kątem wyszukiwarki.

Dlaczego warto śledzić?

Seo by the Sea to rozłożone na części pierwsze googlowskie patenty, które dają wgląd w mechanizmy stojące za działaniem wyszukiwarki.

 

Podsumowanie

Wymienione adresy to tylko niewielka część dostępnych w sieci informacji o SEO. Wiadomości docierają do zainteresowanych za pośrednictwem forów, blogów, mediów społecznościowych, gdzie nowinkami dzielą się sami użytkownicy. W ich dyskusjach linki do podanych stron pojawiają się bardzo często, co świadczy o tym, że są wiarygodnymi i sprawdzonymi źródłami. Warto je odwiedzać dla zdobycia różnego wiedzy związanej z wyszukiwaniem.

Optymalizacja grafik – jak zwiększyć widoczność zdjęć w wyszukiwarce

 

W związku z dużą popularnością wcześniejszego artykułu, a w zasadzie krótkiego wstępu na temat optymalizacji grafik pod SEO, postanowiliśmy go nieco rozbudować. Przez wiele osób powyższe zagadnienie jest bowiem traktowane po macoszemu, ale w erze urządzeń mobilnych nie możemy zapominać o odpowiedniej optymalizacji obrazów. Jednym z negatywnych skutków braku dbałości o pliki graficzne w witrynie, z którym każdy z nas się spotyka, jest wolne ładowanie się stron, szczególnie wtedy, gdy nie mamy dostępu do Internetu LTE lub Wi-Fi.

 

Skąd pobierać grafiki?

Na samym początku warto rozważyć źródła, z których będziemy pobierać grafiki. Nie jedna osoba, a nawet firma, poniosła konsekwencje prawne związane z wykorzystywaniem zdjęć bez zgody ich autora. Źródła grafik możemy podzielić na dwa segmenty: płatne oraz darmowe.

Płatne źródła grafik

Głównymi zaletami płatnych zdjęć jest ich jakość, wysoka rozdzielczość, a także pełne prawa do użytkowania. Największym graczem w tej branży jest Adobe Stock. Cena pojedynczego zdjęcia potrafi osiągać kwoty nawet kilkuset euro:

Znacznie taniej jest skorzystać z abonamentu miesięcznego na tego typu stronach. Poniżej przykład abonamentu w Adobe Stock:

adobe stock abonament

Przy najwyższym abonamencie za 159 euro/miesiąc, cena pojedynczego zdjęcia to zaledwie 0,21 euro, czyli niecałą złotówkę. Należy także zwrócić uwagę, że abonament dotyczy zdjęć standardowych.

W przypadku zdjęć premium cena będzie wyższa. Pozostałe strony, na których można zakupić zdjęcia, to m.in.:

Bezpłatne źródła grafik

Jeśli jednak nie chcemy wydawać znacznej ilości pieniędzy na grafiki, w Internecie możemy znaleźć wiele stron, które oferują je całkowicie za darmo. Zwykle „kosztem” darmowych grafik jest ich niższa jakość, chociaż w wielu przypadkach nie jest to regułą. Jedynym z najpopularniejszych serwisów oferujących darmowe grafiki jest Pixabay.com. Do dyspozycji mamy ponad 1,3 miliona zdjęć oraz filmów – całkowicie za darmo.

Pixabay.com

Zdjęcia oferowane przez Pixabay, możemy pobierać w bardzo dużych rozdzielczościach i wykorzystywać je do użytku komercyjnego – zgodnie z licencją CC0 Creative Commons. Kolejnym popularnym serwisem z darmową grafiką jest Freepik.com. Dodatkowo oferuje ogromną bazę darmowych wektorów, plików PSD oraz ikon.

Freepik 

Google grafika

Google także oferuje możliwość pobierania zdjęć całkowicie za darmo, niestety jest ograniczenie do celów niekomercyjnych. Aby wyszukać takie zdjęcia wpisujemy w Google grafika interesującą nas frazę, a następnie wchodzimy w filtr: Narzędzia > Prawa do użytkowania > Oznacz do ponownego wykorzystania w celach niekomercyjnych z modyfikacją.Freepik

 

Optymalizacja rozmiaru i wagi grafiki

Jeśli już posiadamy swój zbiór grafik, pozyskany ze źródeł płatnych lub darmowych, czeka nas bardzo istotna kwestia związana ze zmniejszeniem ich wagi. Zdjęcia pobrane z Internetu potrafią zajmować nawet kilka MB, co wydłuży znacznie wczytywanie naszej strony lub jej elementów. Szczególnie dotkliwe jest to dla użytkowników korzystających z urządzeń mobilnych. Na szczęście stworzono wiele programów, pomagających w optymalizacji rozmiaru oraz wagi zdjęć. Warto także pamiętać, że zdjęcia które dodajemy na naszą stronę, powinny być w takim rozmiarze jaki będziemy wykorzystywać. Bardzo dobrym przykładem jest sytuacja, gdy chcemy wykorzystać miniaturkę zdjęcia na stronie ale wysyłamy grafikę o rozmiarze np. 2000x3000px.

Tinyjpg.com

Tinyjpg

Tinyjpg jest to program działający jako SaaS. Oferuje masową optymalizację do 20 zdjęć jednocześnie i maksymalnie 5MB. Jeśli nasza baza zdjęć liczona jest w dziesiątkach tysięcy i cały czas rośnie, warto rozważyć wykorzystanie API.

Według cennika, optymalizacja 500 pierwszych zdjęć co miesiąc jest darmowa. Możemy ustawić także własną ilość zdjęć i automatycznie system przeliczy nam miesięczny koszt takich działań.

Jpegmini.com

Jpegmini.com

Kolejny program, tym razem działający wyłącznie po pobraniu. Oferuje wersję Trial, którą możemy zainstalować u siebie na komputerze. Wystarczy podać swój adres mailowy.

Darmowa wersja pozwala skompresować 200 zdjęć. Aby znieść limit należy wykupić licencję w cenie 450zł. Jak możemy zauważyć na przykładzie skompresowanego zdjęcia, udało się zredukować jego wagę o 26%.

Jeśli nasza strona internetowa postawiona jest na popularnych CMSach np. WordPress, Prestashop, Magento, etc. warto rozważyć zakup wtyczek, które automatycznie będą kompresowały za nas zdjęcia.

Pozostałymi programami, które warto wykorzystać do kompresji grafik, są:

 

W przypadku gdy jesteśmy zainteresowani tylko fragmentem danej ilustracji, warto skorzystać z kadrowania zdjęć w programach graficznych takich jak np. Photoshop, Gimp lub poprzez przeglądarkę, przy pomocy np. http://www.edytujfotke.pl/

 

Nazwa grafiki

Grafiki pobrane z różnych stron internetowych lub serwisów, często nazywane są losowym ciągiem znaków, np.: ffg333218028_1920.jpg. Pamiętajmy, że nazwa pliku jest jednym z elementów, który jest przekazywany wyszukiwarkom, żeby wskazać co zawiera dany obraz. Dodatkowo z nazwy pliku, tworzony jest adres URL, widoczny dla użytkowników oraz robotów Google.

 Adres URL powinien być przyjazny dla wyszukiwarek oraz spełniać następujące założenia:

Powyższe założenia powinny być stosowane w czasie zmiany nazwy obrazu, przed ich wgraniem na stronę.

Przykładowa grafika z serwisu Pixabay.com. Jaka powinna być poprawna nazwa grafiki?

Proponowana przyjazna nazwa grafiki: Aston-martin-vanquish-2014.jpg

 

Rozszerzenie grafiki

Najczęściej spotykanymi rozszerzeniami grafik, które dodajemy do naszych stron internetowych są JPEG, PNG oraz GIF. Omówienie wszystkich dostępnych rozszerzeń to temat na osobny artykuł. Warto jednak pamiętać o kilku aspektach:

Plików GIF nie stosujemy, w przypadku dużych grafik, ponieważ czas ich wczytywania znacznie się wydłuży. Znacznie lepszą alternatywą będzie skorzystanie z plików JPEG lub PNG.

W przypadku większych serwisów polecane jest rozszerzenie JPEG, ponieważ zapewnia najwyższą jakość w stosunku do rozmiaru zdjęcia.

 

Atrybut ALT oraz TITLE

Każdy plik graficzny w serwisie powinien zawierać uzupełnione atrybuty „alt” oraz „title” opisujące to, co dany obraz przedstawia. Pomoże nam to w zagęszczeniu słów kluczowych na danej podstronie oraz może generować ruch z wyszukiwarki grafik.

Na początek, omówimy sobie atrybut ALT, czyli tekst alternatywny dla zdjęć. Na obecną chwilę Google nie ma wdrożonych mechanizmów (w wyszukiwarce), które potrafiłby analizować co znajduje się na danej grafice. Dlatego też atrybut ALT podpowiada robotom wyszukiwarki, co znajduje się na zdjęciu.

Warto dodać, że atrybut ALT wyświetla się także na stronie, kiedy zdjęcie się nie załaduje lub gdy dana osoba korzysta z czytnika stron (np. osoby niewidome). Natomiast atrybut „title” jest bardziej przydatny dla użytkownika, który najeżdżając kursorem myszki na daną grafikę, otrzymuje często szczegółowe informacje. W wielu przypadkach treść atrybutu title będzie taka sama jak treść atrybutu alt, jednak rekomenduję, aby różniły się choć w małym stopniu.

Popularne systemy CMS np. WordPress, podczas wysyłania grafiki do panelu,  automatycznie uzupełniają atrybuty Alt oraz Title. Nie jest to oczywiście najlepsze rozwiązanie, natomiast nie pozostawia pustych atrybutów.

Przykłady atrybutów Alt oraz Title na podstawie poniższej grafiki:

Tworząc w ten sposób nazwy atrybutów mamy pewność, że są unikalne oraz wartościowe dla użytkownika oraz wyszukiwarki. Jeśli natomiast posiadamy e-commerce z setkami lub tysiącami produktów, warto rozważyć schemat generowania atrybutów Alt oraz Title.

Przykładowy schemat atrybutów Alt oraz Title dla produktów w sklepie sportowym:

Stworzyliśmy unikalny atrybut Title dodając frazę „w sklepie sklep.com”, możemy także dopisać „w sklepie sportowym sklep.com”.

Uwaga!

 

Sitemapa graficzna

Jeśli zoptymalizujemy już nasze grafiki, warto zastanowić się nad stworzeniem mapy obrazów, która pozwoli nam na poprawną indeksację grafik serwisu, a także przyśpieszy ten proces.

Zaleca się stworzyć sitemapę graficzną opierając się o następujący schemat:

Więcej informacji związanych z tworzeniem mapy graficznej znajdziemy na oficjalnej stronie suportu Google: https://support.google.com/webmasters/answer/178636

 

Dane strukturalne dla grafik

Dane strukturalne wykorzystuje się przede wszystkim, aby uatrakcyjnić wyniki wyszukiwania oraz zachęcić poszczególnych użytkowników do kliknięcia w naszą stronę internetową. Zyskujemy dzięki temu wyższy współczynnik CTR (współczynnik klikalności), a także ruch w witrynie. Wdrożenie danych strukturalnych nie wpływa bezpośrednio na pozycję witryny, natomiast dzięki większemu współczynnikowi CTR, większej ilości sesji oraz dłuższemu czasowi przebywania użytkownika na stronie, Google traktuje ruch jako bardziej wartościowy, co już może wpłynąć na pozycję witryny. Oczywiście nie dla każdego zdjęcia możemy dodać dane strukturalne, jednak jeśli mamy stronę z przepisami, artykułami, produktami oraz wydarzeniami warto je wdrożyć. Warto także dodać logo do danych strukturalnych http://schema.org/Organization

Czym są dane strukturalne i dlaczego są ważne? Sprawdź nasz artykuł: https://semahead.agency/blog/dane-strukturalne-dlaczego-sa-wazne-odpicuj-swoja-strone-w-google.html

Przykład wyniku wyszukiwania na zapytanie: Ciasto na pizzę

Dzięki wdrożonym danym strukturalnym (http://schema.org/Recipe) już na poziomie wyników wyszukiwania możemy zobaczyć zdjęcie danego przepisu, co zachęca użytkowników do kliknięcia.

Możemy także podejrzeć jak wyglądają dane strukturalne dla tej podstrony w testerze od Google: https://search.google.com/structured-data/testing-tool/u/0/

Atrybut image odpowiada za miniaturkę zdjęcia, widoczną w wynikach wyszukiwania.

To już wszystko w tym artykule. Zachęcam Was do skorzystania z wszystkich omawianych aspektów, aby jak najlepiej zoptymalizować nasze pliki graficzne, co w przyszłości może przełożyć się na większą ilość sesji oraz przychodów.

Jeśli znacie i polecacie jakieś narzędzia przydatne w optymalizacji i kompresji grafik, zachęcam do podzielenia się nimi w komentarzach.

9 sprawdzonych sposobów na poprawę szybkości ładowania strony

Według badań średni czas ładowania strony mobilnej w Polsce wynosi aż 9,2 sekund. Tymczasem Google rekomenduje, by otwarcie strony trwało nie dłużej niż 3 sekundy. Jak poprawić szybkość strony i zmniejszyć współczynnik odrzuceń?

Na pewno wielu z was przeglądając strony internetowe natknęło się na witrynę, która ładowała się zbyt długo, co spowodowało wasze zdenerwowanie i w końcowym efekcie zamknięcie karty przeglądarki. W dzisiejszych czasach tworzone są piękne strony, które niestety zawierają coraz więcej rozwiązań, funkcjonalności oraz grafik. Zwiększają one wagę witryny, a co za tym idzie, też czas jej ładowania. W przypadku ładowania się witryny WWW każda sekunda ma znaczenie, ponieważ każda dodatkowa sekunda zmniejsza zadowolenie użytkowników o 16%, liczbę odsłon o 11% i powoduje spadek konwersji o 7% (wg danych z WPEngine). Może się również zdarzyć, że użytkownik już nigdy nie

powróci na nasza stronę. Wg ostatnich doniesień również Google będzie przywiązywało coraz większa uwagę do szybkości ładowania strony, o czym opisaliśmy we wpisie Nadchodzi aktualizacja Speed Update.

ładowanie www

Specjalnie dla was przybywamy z 9 sposobami na skuteczne przyspieszenie strony, które pozwolą zmniejszyć zdenerwowanie użytkowników i uratować współczynnik konwersji.

 

1. Serwer z dobrymi parametrami

Nawet najlepiej zoptymalizowana strona internetowa może mieć wydłużony czas ładowania. Jednym z powodów mogą być słabe parametry serwera, na którym znajduje się strona, co znacznie wydłuża czas jego odpowiedzi. Google zaleca, by czas odpowiedzi serwera nie był dłuższy niż 0,2 sekundy. Dzisiejszy rynek firm oferujących hosting stron jest bardzo duży, więc jeśli jesteśmy na etapie zmiany lub wyboru hostingu, to warto porównać oferty różnych dostawców i unikać tych najtańszych. Ze względu na wielkość tego rynku usług, można z łatwością znaleźć naprawdę konkurencyjne oferty w dobrych cenach.

 

 

2. Optymalizacja plików graficznych

Grafiki bez wątpienia są jednym z najczęstszych elementów, powodujących dużą wagę strony i długi czas jej ładowania. Wiele osób tworzących własne strony zapomina o tym ważnym aspekcie. Do błędów optymalizacyjnych grafik zaliczamy brak ich kompresji lub osadzenie zdjęcia w zbyt dużym rozmiarze, pomimo wyświetlania go na stronie w mniejszym.

W celu optymalizacji grafik można skorzystać z takich narzędzi jak:

https://kraken.io/

https://tinypng.com/

Jeśli chodzi o osadzanie grafik we właściwym rozmiarze, to miejmy na uwadze jedną kwestię: jeśli obrazek wyświetla się rozmiarze 250×250 to powinien zostać dodany na stronę w takim rozmiarze, a nie większym. Z pomocą tutaj przyjdą nam proste edytory grafik, które mają możliwość skalowania i przycinania obrazów.

Jeśli na stronie występuje duża ilość elementów graficznych, to zaraz po ich optymalizacji zobaczymy widoczne efekty w postaci większej wydajności strony.

 

3. Łączenie i minifikacja CSS oraz JS

Łączenie wszystkich plików CSS i JS w jeden pozwala zmniejszyć ilość zapytań do serwera, co minimalizuje czas ładowania strony. Dzieje się tak dlatego, że szybciej pobrany zostanie 1 większy plik niż 20 mniejszych. Każdy plik jest bowiem pobierany po kolei, więc przeglądarka aby ściągnąć kolejne pliki, musi poczekać, aż zakończy pobieranie aktualnych. Kolejnym etapem po połączeniu plików CSS i JS jest ich minifikacja, czyli usunięcie zbędnych znaków, linii oraz spacji, bez zmiany funkcjonalności kodu. Taki zabieg jest w stanie zmniejszyć nasze pliki od kilkudziesięciu do kilkuset kilobajtów, w zależności od rozmiaru pliku.

Do minifikacji plików możemy wykorzystać narzędzie:

https://www.minifier.org/

 

4. Przeniesienie niepotrzebnych skryptów

Wszystkie skrypty JS, które nie wpływają na poprawne ładowanie się witryny, powinny zostać przeniesione na dół strony przed zamknięciem znacznika </body> (oczywiście wyłącznie w wypadku, jeśli nie wpływa to negatywnie na działanie strony). Taka zmiana pozwoli na szybsze załadowanie się treści właściwej, ponieważ skrypty nie będą pobierane na początku ładowania się WWW, co też pozytywnie wpłynie na odbiór witryny przez użytkownika.

 

5. CSS Sprites

Nowoczesne strony mają to do siebie, że zawierają wiele małych elementów graficznych (w postaci ikonek, strzałek itd.), które nadają stronie lepszego i nowocześniejszego wyglądu. Ich występowanie może jednak powodować wydłużenie ładowania się strony i zwiększenie ilości zapytań do serwera, ze względu na pobieranie każdej małej grafiki po kolei. Rozwiązaniem tego problemu jest CSS Sprites, który jest techniką pozwalającą na połączenie małych grafik w jeden plik, i wykorzystanie ich na stronie w taki sam sposób za pomocą styli CSS.

 

6. Pamięć podręczna przeglądarki

Bardzo dobrym sposobem na poprawę wydajności strony jest skonfigurowanie przetrzymywania danych w pamięci podręcznej. Dzięki temu rozwiązaniu przeglądarka będzie przechowywała na dysku użytkownika zasoby WWW. Można to wykonać za pomocą wtyczki (np. w WordPressie) lub dodanie kilku linijek kodu w pliku .htaccess. Dla osoby, która odwiedzi naszą stronę drugi i kolejny raz, zasoby strony nie będą pobierane z serwera. Zostaną one wczytane z pamięci podręcznej, dzięki czemu strona załaduje się o wiele szybciej.

Jeśli serwer posiada zainstalowany moduł mod_expires, to możemy użyć w naszym pliku .htaccess następującego kodu:

<IfModule mod_expires.c>
ExpiresActive On
ExpiresByType image/jpg „access plus 1 year”
ExpiresByType image/jpeg „access plus 1 year”
ExpiresByType image/gif „access plus 1 year”
ExpiresByType image/png „access plus 1 year”
ExpiresByType text/css „access plus 1 month”
ExpiresByType application/pdf „access plus 1 month”
ExpiresByType text/x-javascript „access plus 1 month”
ExpiresByType image/x-icon „access plus 1 year”
ExpiresDefault „access plus 2 days”
</IfModule>

 

7. Kompresja gzip

Gzip jest niczym innym, jak metodą bezstratnej kompresji po stronie serwera, która pozwala na zredukowanie wagi plików nawet do 70%. Dzięki temu dane zostaną szybciej przesłane. Ich dekompresja nastąpi dopiero na poziomie przeglądarki. Należy jednak pamiętać, że kompresja powoduje dodatkowe obciążenie serwera, co warto wziąć pod uwagę w przypadku dużych serwisów.

Aby włączyć kompresję gzip na serwerze należy dodać do pliku .htaccess następujące kody: (działa tylko z serwerami Apache)

<IfModule mod_deflate.c>
AddOutputFilterByType DEFLATE text/html
AddOutputFilterByType DEFLATE text/plain
AddOutputFilterByType DEFLATE text/xml
AddOutputFilterByType DEFLATE text/css
AddOutputFilterByType DEFLATE application/xml
AddOutputFilterByType DEFLATE application/xhtml+xml
AddOutputFilterByType DEFLATE text/javascript
AddOutputFilterByType DEFLATE application/javascript
AddOutputFilterByType DEFLATE application/x-javascript
</IfModule>

 

8. Ograniczenie liczby zapytań do serwera

Często można spotkać się z tym, że strona ładuje niepotrzebne elementy, które nie zostają wykorzystane na stronie. Dotyczy to na przykład dodatkowych czcionek lub skryptów. Warto przejrzeć kod strony w celu znalezienia niepotrzebnych elementów, powodujących dłuższe ładowanie się strony i zwiększenie ilości zapytań do serwera. Zrezygnujmy również z tych funkcjonalności strony, które prawdopodobnie nie są istotne dla użytkownika, a powodują zmniejszenie wydajności serwisu, np. widgety pogodowe, zegarek, kalendarz.

 

9. Unikanie wielokrotnych przekierowań

Wielokrotne przekierowania, które występują po wejściu na stronę, pochłaniają dodatkowe zasoby i wydłużają czas jej ładowania. Optymalizacja przekierowań do jednego gwarantuje nam mniejsze zużycie zasobów i szybsze ładowanie strony.

Przykład wielokrotnego przekierowania:

poprawa szybkości ładowania strony

 

 

Jakich narzędzi warto używać do optymalizacji czasu ładowania strony?

Podczas optymalizacji strony warto skorzystać z narzędzi, które zmierzą wydajność naszej witryny. My rekomendujemy narzędzia takie jak:

PageSpeed Insights jest oficjalnym narzędziem od Google, które pozwala przeanalizować podstawowe parametry wydajności strony. Narzędzie analizuje np. wielkość zdjęć i ich osadzenie, wagę plików HTML, wykorzystanie pamięci podręcznej, czy czas odpowiedzi serwera. Wadą narzędzia jest dosyć mały stopień rozbudowania i przydatność tylko w początkowym etapie optymalizacji stron. Dla bardziej zaawansowanej optymalizacji wydajności warto skorzystać z bardziej rozbudowanego narzędzia.

GTmetrix jest zaawansowanym narzędziem do analizy stron internetowych. Pozwala na dokładne sprawdzenie całego serwisu m.in. pod kątem: czasu ładowania strony, wagi, ilości zapytań do serwera, ładowania poszczególnych zasobów strony i wielu innych. Niestety, niektóre funkcje wymagają zalogowania się.

Pingdom jest mniej zaawansowanym narzędziem w stosunku do GTmetrix, ale może być dobrym uzupełnieniem przy optymalizacji wydajności. Narzędzie pozwala między innymi na sprawdzenie czasu ładowania strony, wagi, ilości zapytań do serwera, czy również podgląd ładowanych zasobów strony z ich czasem.

Lighthouse to stosunkowo nowe rozwiązanie stworzone przez Google. Narzędzie działa w formie wtyczki do przeglądarki i pozwala na podstawową analizę serwisu. Lighthouse jest bardziej zaawansowany od PageSpeed Insights i pozwala sprawdzić serwis pod kątem wydajności, użyteczności, dobrych praktyk SEO oraz zgodności z Progressive Web Apps. Więcej o Lighthouse możecie przeczytać w naszym artykule.

 

Podsumowanie

Jeśli wszystkie powyższe punkty zostały zawarte w optymalizacji waszej strony to macie pewność, że jej wydajność jest na wysokim poziomie. Należy pamiętać, że optymalizacja wydajności strony jest jednym z istotniejszych elementów, które wpływają na pozytywne postrzeganie witryny przez Google oraz użytkowników. Warto na bieżąco kontrolować wydajność stron i w razie konieczności poddać ją optymalizacji, a na pewno będzie to miało pozytywne rezultaty we wzroście współczynnika konwersji.

Zapisz się do newslettera!