I fru... Twoja wiadomość już leci na nasze skrzynki!
Zajrzyj na swoją pocztę, aby poznać szczegóły oferty ;)
Tymczasem, sprawdź nowości na naszym blogu semahead.agency/blog/
Zespół Semahead by WeNet
W idealnej sytuacji po wpisaniu danego słowa kluczowego w wyszukiwarkę kierowani jesteśmy na stronę, która dokładnie powiązana jest z treścią naszego zapytania. Aby było to możliwe konieczne jest zastosowanie algorytmów, które cały czas analizują poszczególne strony internetowe, oceniając ich treści i jakość. Jakie są najważniejsze algorytmy od potentata z Doliny Krzemowej i jak pracują w służbie jeszcze lepszego wyszukiwania treści? Wszystkiego dowiesz się poniżej.
Algorytm to „skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu”. Inaczej mówiąc jest to zbiór reguł i kroków, dzięki którym możliwe jest przeanalizowanie informacji przez wyszukiwarkę na stronach, aby potem ocenić ich zawartość i wyświetlić optymalny wynik. Powstały po to, aby wyświetlać użytkownikom bardziej optymalne wyniki wyszukiwania. Google przeczesuje Internet, skanuje strony, indeksuje je (gromadzi dane na temat treści stron) i w końcu wyświetla je użytkownikowi w odpowiedzi na wpisywane przez niego słowa kluczowe.
W 1998 roku Sergey Brian i Larry Page założyli firmę Google, której głównym produktem była właśnie wyszukiwarka internetowa, a nazwa firmy i wyszukiwarki to błędnie zapisane słowo „googol”, które oznacza liczbę 10100 (jedynka i sto zer w zapisie dziesiętnym). Jednym z algorytmów wyszukiwarki Google był PageRank, który został oparty na kanwie pracy dyplomowej Briana i Page`a z 1996 roku, kiedy byli jeszcze studentami Uniwersytetu Stanford. Algorytm odpowiadał za ocenę linków prowadzących do domeny, co w konsekwencji doprowadziło do zmian wyników wyszukiwania, aby mogłyby trafniej odpowiadać na zapytania użytkowników.
Nazwa algorytmu nie pochodzi od słowa page – strona, ale właśnie od nazwiska jednego z twórców – Larre`go Page`a. Ogólnym założeniem PageRank była koncepcja, że każdy link do strony jest czymś na kształt głosu na nią. Jednak nie wszystkie głosy są sobie równe. Linki dla algorytmu mają większą lub mniejszą wartość. Wartość strony oceniana jest na podstawie ilości innych witryn odsyłających do tej strony i wartości ich samych. Część wartości przekazywana jest ze strony na stronę poprzez link. Jeśli strona jest często odwiedzana i inne strony się do niej odwołują, oznacza to, że jest wartościowa i popularna. Oceny strony przybierały wartości od 0 do 10, ale same szczegóły działania algorytmu nigdy nie zostały przez Google zdradzone.
Oczywiście z czasem, gdy wyszukiwarka zyskała na popularności, coraz więcej osób chciało uzyskiwać lepsze pozycje, aniżeli konkurencja. Stosowano różne metody, aby sztucznie zwiększać wartość PageRank. Przez pewien czas dodatkowym elementem, wpływającym na powiązanie strony z frazą, był tag meta keywords. Zaprzestano brania go pod uwagę z powodu nieuczciwych praktyk – wykorzystywano popularne frazy, które umieszczano na stronach jako frazy kluczowe, pomimo braku powiązania tematycznego z zawartością strony. Naturalną konsekwencją powstania wyszukiwarki był dalszy rozwój, ulepszenia i kolejne algorytmy przynoszące zmiany wyników wyszukiwania.
Panda to algorytm, wprowadzony w lutym 2011. Drugie wydanie wyszło w kwietniu tego samego roku. Od tej pory było wiele aktualizacji algorytmu. Podstawowym zadaniem Pandy było analizowanie jakości treści. Chodziło o ograniczenie w wynikach wyszukiwania takich stron, które zawierały słabą, nieprzydatną zawartość – bezwartościowe, nikomu niepotrzebne, skopiowane treści. Wyżej w rankingu miały znajdować się treści odpowiadające na potrzeby użytkowników, oryginalne i unikalne.
Jak karze Panda?
Algorytm surowo oceniał serwisy i surowo karał. Najczęściej kary dotyczyły całych stron, a nie tylko podstron. Dotykało to zwłaszcza tzw. „farm treści”, a więc stron, skupiających wiele contentu skopiowanego z innych stron.
Jakie strony były przez Pandę ukarane?
Page Layout został wdrożony na początku 2012, a jego zadaniem jest ocena układu strony. Dla Google ważna jest treść strony, ale również to jak i w którym miejscu na stronie znajdują się jej elementy. Zadaniem algorytmu było obniżenie wartości stron, które nad linią załamania zawierają nadmierną ilość nieużytecznych elementów, jak na przykład reklamy czy bannery, które przeszkadzają użytkownikowi. Algorytm bierze również pod uwagę:
Page Layout doczekał się trzech aktualizacji, aktualnie prowadzone są prace nad koleją, związaną z samoczynnym blokowaniem nadmiaru reklam w wyszukiwarce Chrome.
24 kwietnia 2012 Google uruchomiła algorytm o nazwie Pingwin. Odnosił się do karania stron z linkami niskiej jakości, obniżając ich pozycję w rankingu wyszukiwania. Jakość linków zależy od domeny i otoczenia na stronie, z której pochodzi. Pod uwagę brane są takie rzeczy, jak naturalne nasycenie frazą kluczową, odpowiednia tematyczność linków w stosunku do treści. Oceniając profil linków strony algorytm zwraca uwagę na takie czynniki jak:
Przyrost linków w czasie
Przed wdrożeniem algorytmu można było masowo i automatycznie dodać stronę do dziesiątek czy setek katalogów – przynosiło to efekt w postaci podniesienia pozycji strony. Zbyt duża liczba linków, dodana w krótkim czasie, jest podejrzanym zachowaniem.
Jakość linków
Pożądanym profilem linków to taki, w którym zdecydowana większość linków pochodzi z wartościowych i godnych zaufania stron.
Dywersyfikacji linków
Ważne jest zróżnicowanie źródeł i typów linków. Schematyczne działania mogą być kojarzone działaniami spamerskimi. Warto dodawać odnośniki z różnych źródeł, jak wysokiej jakości zaufane katalogi, fora, komentarze, inne serwisy, stopki, media społecznościowe. Warto zadbać o różnorodne typy linków – anchory, linki neutralne (sam url), graficzne. Ogólnie rzecz ujmując im większe zróżnicowanie, tym lepiej.
Jak karze Pingwin?
Karą za naruszenia w kwestii linkowania jest obniżenie pozycji strony. Może to dotyczyć niektórych słów kluczowych, ale również wszystkich. Filtry mogą być nałożone na podstrony lub całą domenę. Proces odzyskiwania pozycji może być bardzo żmudny. Wszystko zależy od wcześniej wspomnianej skali, jakiej dotyczyły filtry. Działaniami jakie należy podjąć jest usunięcie szkodliwych linków oraz zgłoszenie linków w narzędziu Disavow Tool. Algorytm na przestrzeni lat doczekał się wielu poprawek, a od września 2016 działa w czasie rzeczywistym.
Wprowadzony został 10 sierpnia 2012 roku, a jego zadaniem było usunięcie stron, zawierających materiały chronione prawami autorskimi, zgodnie z ustawą Digital Millennium Copyright Act. Karą objęte zostały również strony, umożliwiające pobieranie nielegalnej muzyki, filmów czy programów, a także strony zawierające odnośniki do nich lub pośredniczące w tym.
Aktualizacja wdrożona została 27 września 2012 roku i miała wpływ na strony, zawierające w nazwie domeny frazy kluczowe. Dawniej dzięki temu można było uzyskać przewagę konkurencyjną, ale zdarzały się sytuacje wykorzystywania tego w nieodpowiedni sposób. Celem wprowadzenia tej zmiany było zmniejszenie ilości wyników wyszukiwania stron, posiadających domeny typu exact-match. Obecnie Google nie bierze nazwy domeny pod uwagę.
Payday Loan wprowadzono 11 czerwca 2013. Algorytm dotyczył stron z kontrowersyjnych branż, narażonych szczególnie na działania spamerskie, takie jak jak kasyna, pożyczki, branża erotyczna/pornograficzna. Wdrożenie Payday Loan skutkowało obniżeniem wartości zaspamowanych stron.
Koliber jest algorytmem z 2013. 20 sierpnia poinformowano o wprowadzeniu go już miesiąc wcześniej. Nazwa Koliber ma symbolizować precyzję i szybkość działania algorytmu, a jego celem jest sprawne zwracanie odpowiednio dopasowanych wyników wyszukiwania użytkownikom. Wiąże się z nim technologia, która wcześniej wykorzystywana była w wyszukiwaniu głosowym. Podczas mówienia z reguły używamy całych zdań, a nie pojedynczych słów kluczowych. Aby zwracane były trafne odpowiedzi, wyszukiwarka musi rozumieć nasze zapytanie, a więc musi znać jego kontekst. Metoda używana wcześniej w wyszukiwaniu głosowym została zastosowana w wyszukiwarce tekstowej. Od momentu wprowadzenia Kolibra:
Wyszukiwanie semantyczne kładzie, więc nacisk na relacje między zapytaniami i elementami danych, indeksuje je, dzięki czemu coraz lepiej rozumie ich znaczenie.
Wprowadzenie Kolibra spowodowało:
Gołąb został wprowadzony w lipcu 2014 roku. Jego wprowadzenie miało na celu poprawić dopasowanie wyników lokalnych, aby były bardziej spójne. Integracja organicznych wyników z rankingiem map podniosła widoczność firm z rynku lokalnego. Od tego czasu zdecydowanie większe znaczenie w procesie pozycjonowania lokalnego ma:
– uzupełnienie kompletnych danych kontaktowych
– wprowadzenie danych strukturalnych do danych kontaktowych firmy
– utworzenie wizytówki firmy w Google Moja Firma
– tworzenie dobrze uzupełnionych, firmowych wizytówek w sprawdzonych katalogach firm
21 kwietnia 2015 roku Google wprowadziło aktualizację, która miała na celu promowanie stron dostosowanych do urządzeń mobilnych. Spodziewano się radykalnej rewolucji w wynikach wyszukiwania, jednak w praktyce nie były to gwałtowne zmiany. Strony z mobilną wersją miały nieco wyższe miejsca w rankingu, aniżeli strony bez tej wersji.
RankBrain, oparty na uczeniu maszynowym, uznawany jest za część algorytmu Koliber. 26 października 2015 roku Google potwierdziło, że został wdrożony kilka miesięcy wcześniej i jest trzecim najważniejszym czynnikiem rankingowym. RankBrain stale analizuje frazy, szukając między nimi powiązań, aby w ten sposób ciągle się uczyć. Dostrzega powiązania nawet w bardziej skomplikowanych zapytaniach, a w przypadku zupełnie nowych dokonuje prognoz.
Aktualizacja pojawiła się w okolicach sierpnia 2018 roku. Jak wskazuje nazwa dotyczyła szczególnie branży medycznej, ale dotknęła również działalności finansowej, czyli stron zajmujących się szczególnie ważnymi tematami – mogącymi wpłynąć na zdrowie, bezpieczeństwo i finanse użytkowników (Google nazwa takie strony „Your Money or Your Life (YMYL) Pages”). I właśnie z tego powodu Google przyjęło surowe standardy oceny stron, dotyczących tych dziedzin. Trzy podstawowe wymogi dla witryn:
Nie są to oczywiście wszystkie algorytmy i ich aktualizacje. Każdego roku Google zmienia je nawet kilkaset razy, bardzo często nie informując o tym na bieżąco. Wówczas wiadomości pojawiają się w sieci dopiero wówczas, kiedy widać już jakieś zmiany w wynikach wyszukiwania. Rodzi to problem, ponieważ w zasadzie nie możemy się do takiej zmiany przygotować. Warto więc po prostu postępować zgodnie z oficjalnymi zaleceniami Google, który nieustannie ulepsza swoje algorytmy.
Chcesz zacząć współpracę z nami? Wypełnij formularz!
Wypełnienie zajmie Ci kilka chwil a nam pozwoli
lepiej przygotować się do rozmowy z Tobą.