Pingwin, Panda, Koliber i ręczne interwencje Google

Wprowadzone w październiku 2013 roku w Polsce zmiany algorytmu Pingwin – czy też jak się wydaje nie tylko tego algorytmu – bardzo wpłynęły na profilowanie i kolejność serwisów internetowych. Mimo zapowiedzi przedstawicieli Google, że zaktualizowano ok. 1% zapytań kierowanych do wyszukiwarki, to obserwując komentarze na specjalistycznych forach SEO i serwisach, jak również badając wyniki wyszukiwania przed i po wprowadzeniu zmian widać, że miały one znacznie większy wpływ niż wynika to z samych oficjalnych komunikatów.

Poza tym, niestety, w praktyce nie zawsze były one zgodne z zapowiedziami giganta. Choć oficjalnie mówi się o eliminacji z czołowych wyników wyszukiwania serwisów internetowych o tzw. nisko ocenianym profilowaniu linków przychodzących, to jednak zmiany widoczne w wielu wynikach wyszukiwania wcale tego nie potwierdzają. Interwencje ręczne Google, jakie w dalszym ciągu mają miejsce, również nie mają jednoznacznych przyczyn. Oczywiście oficjalne komunikaty zapewniają o wartościowaniu przychodzących linków. Liczy się jakość strony, z której wychodzi link, a nie sama ilość linków, aktywna komunikacja witryny z serwisami społecznościowymi i social mediami. Przenosi się już nie tylko siła strony linkującej, ale również przechodzą nałożone filtry Google i ostrzeżenia oraz niska jakość domeny. Ważne też jest zróżnicowanie anchorów. Zbyt duża koncentracja anchorów w linkach prowadzących do danej strony na niewielu wybranych frazach daje efekt nienaturalności. Budzi to podejrzenia o próby sztucznego windowania pozycji danej strony WWW, a więc stosowania niedozwolonych praktyk pozycjonowania stron internetowych. Czyli stosowanie nienaturalnych linków przychodzących. Ważne są połączenia z tematycznymi witrynami, wysoka jakość technologiczna strony, spełnianie standardów i zaleceń Google Webmaster, W3C, optymalizacja kodu strony, używanie przyjaznych linków, eliminacja linków prowadzących donikąd (tzw. linków pustych lub broken links).

I co z tego konkretnie wynika dla Webmastera? Niestety w praktyce nic nie wynika.

Pytanie – jak to się dzieje, gdy z czołowych wyników wyszukiwania na wskutek działania połączonych sił algorytmów: najnowszego Pingwina 2.1 i zmodyfikowanej we wrześniu, bez fajerwerków prasowych i komunikatów, w zaciszu pracowni informatycznych - Pandy, znika 80% portali internetowych ? Wiele z nich to naprawdę ciekawe i wartościowe strony WWW, napisane poprawnie technologicznie, zgodnie z wytycznymi Google. Dodatkowo pamiętajmy, że nie przebrzmiały jeszcze echa letnich, ręcznych interwencji na serwisach Gogle, realizowanych nie zawsze wg jasnych, czytelnych reguł i zasad. Algorytmicznymi i ręcznymi interwencjami objęte były strony internetowe, co do których istniało podejrzenie o niedozwolone manipulacje na linkach. Jak jednak wynika z naszych obserwacji oraz z komentarzy i komunikatów na forach dotyczyło to portali, które miały bardzo dobrze określone zaplecza linków prowadzących z uznanych blogów. Żeby było ciekawiej, na skutek ręcznych i algorytmicznych działań z wyników Google poznikały witryny internetowe, które były pozycjonowane kilka lub kilkanaście miesięcy wcześniej lub nie były pozycjonowane w ogóle. Administratorzy takowych serwisów otrzymywali fascynujące w swojej treści, będące przejawem wielkiej troski i dbałości o zgodność z zasadami etyki, komunikaty o wykryciu „przestępstw”, „nielegalnych” działań i „niedozwolonych” linków, z zapowiedziami surowych kar i konsekwencji. Można było jedynie usiąść i zadumać się głęboko nad sobą, nad swoją nijakością w tym wielkim świecie Internetu i swoim grzesznym morale. A komunikaty o nienaturalnych linkach przychodzących jak są tak są. Tylko skąd tu działania nielegalne i linki niedozwolone, jeżeli często żadne działania SEO nie były prowadzone ? A linków to w ogóle żadnych nie było ? Gdzie te nienaturalne linki są zatem ? Skąd przychodzą, czegóż chcą ? Tego w owych komunikatach już nie wyjaśniono. A serwisy były naprawdę dobrej jakości, ciekawie zbudowane, z unikalną treścią. Niektóre nawet świetnie skomunikowane z social mediami. Tutaj sprawę zostawiono trosce Webmasterów, specjalistów pozycjonowania stron internetowych, czy też fachowców od marketingu internetowego. Niech sami posypią głowę popiołem i się tłumaczą, że oni przecież nic złego i tylko legalnie, i w zgodzie, i jak najlepiej. Obecnie od października 2013, aby nie bawić się w tłumaczenie i zbędne wyjaśnienia, mamy novum kolejne. Sięgnięto po filtry algorytmicznie wykluczające z wyników wyszukiwania strony podejrzane o tzw. wątpliwą jakość. Ponieważ nie ma tu już komunikatów wprost, nikt nie może nawet dowiedzieć się, że został uznany za posiadacza wątpliwej jakości, jaką jest jego strona w ocenie algorytmów Google. Po prostu nie ma go w wynikach i już. Twoja strona WWW może być też wątpliwej jakości z tytułu tego, że uznana inna wątpliwa jakość na Twoją stronę wskazuje. Znaczy jak wskazuje konkretnie? Prosto, czyli linkiem. Czyli jak złoczyńca na Ciebie spojrzy, TY też jesteś złoczyńcą.

I wszystko w zamierzeniu jest bardzo dobre i chwalebne. Niestety w praktyce wygląda to, przynajmniej dla rynku polskiego, dosyć nieciekawie. Żeby wyjaśnić. Nieciekawie nie wygląda dla firm zajmujących się marketingiem internetowym, czy też pozycjonowaniem stron internetowych w Google. Wygląda nieciekawie dla użytkowników wyszukiwarki, szukających konkretnych i co oczywiste wartościowych treści w Internecie. Cała ta rewolucja w Google, połączenie działań ręcznych i algorytmicznych spowodowała, że na czele stawki w wynikach wyszukiwania zaczęły pojawiać się serwisy, które żadną miarą nie spełniają kryteriów publikowanych w zaleceniach Google. Są to czasem strony zrealizowane całkowicie we Flash-u, które są oficjalnie starannie omijane przez roboty Google, są strony bez treści, z minimalną wręcz treścią lub z treścią powieloną z innych źródeł. W czołowych wynikach wyszukiwania zaczęły pojawiać portale nie związane z tematyką zapytania. Np. w wynikach na frazę „noclegi” z podaną nazwą miast, pojawiać się zaczęły zakłady usługowe szewskie i inne, i na odwrót. Zamęt w wynikach w październiku 2013, był całkowitym zaprzeczeniem idei jaką głoszą przedstawiciele Gogle. Nawet tych podstawowych. Poznikały z czołowych pozycji strony o wysokim Page Rank. Dobrze niech znikają. Ale można wtedy zadać pytanie - to po co komu ten Page Rank, na którym budowano podstawy wyszukiwarki Gogle ? Po co komu historia domeny, unikalne tematyczne treści ? Czym wyjaśnić pojawianie się na pierwszej stronie wyników, na pięć czy sześć bardzo konkurencyjnych i obleganych fraz, stron WWW zbudowanych z zaprzeczeniem wszystkich wskazówek dla Webmasterów. Szukając np. trafiamy na pierwszych pozycjach na witryny WWW przedstawiające się przeglądarkom jako strona internetowa posiadająca treści w języku angielskim. Tyle, że 100% treści tej strony jest w języku polskim. Mamy w czołówce wyników zapytań zapomniane strony zapleczowe z kluczową frazą powtórzoną w treści 50 razy. Niczego podejrzanego tam oczywiście nowe algorytmy nie wykryły. Mamy wreszcie na pierwszych miejscach wyszukiwarki również strony zbudowane na archaicznych narzędziach sprzed 10 lat. Podatne na ataki robotów hackerskich. Mające doklejone już po atakach linki wychodzące, prowadzące do stron prezentujących artykuły uznane za niepromowane w wyszukiwarce Google takie jak: dopalacze, artykuły erotyczne, zawierające treści pornograficzne. Niskiej jakości technologicznej, ani wychodzących linków, ani niedozwolonej treści na takiej stronie – również nowe algorytmy nie wykryły.

Tutaj uwaga do tych, którzy mogą odebrać ten artykuł jako użalanie się nad wprowadzanymi wraz nowymi algorytmami zmianami, bardzo radykalnymi z punktu widzenia pozycjonowania stron WWW i tym samym utrudnieniami w pracach SEO. Nie o to tutaj chodzi. Sama idea eliminacji spamu, działań sztucznie promujących treści i strony niskiej wartości jest jak najbardziej słuszna. Chodzi jednak o niekonsekwencję i nieprzestrzeganie zasad, które samemu się wprowadza. Wręcz zaprzeczanie idei, na której budowało się wiele lat pozycję wyszukiwarki. Czym wytłumaczyć fakt eliminacji strony zawierającej dużą ilość oryginalnego contentu (unikalne oryginalne treści) i promowanie w wynikach strony zawierającej dwa, trzy zdania, które na dodatek powtarzają się w sieci na wręcz dziesiątkach innych stron? Czym wytłumaczyć eliminację z wyników wyszukiwania serwisów doszlifowanych pod względem technologicznym, zbudowanych zgodnie z zaleceniami Google dla Webmasterów, W3C, na nowoczesnych narzędziach (najnowsze wersje), a promowanie w zamian stron zbudowanych na prymitywnych, historycznie zapomnianych narzędziach ?

Cóż – trudno dociec, czemu to ma służyć. Niezależnie od eliminacji spamu, co jest zjawiskiem pożądanym, w wynikach pojawiają się cuda, nijak nie pasujące do zasad głoszonych przez Google. Wysyłane są masowo komunikaty o spamie, którego nie było. A może w tym wszystkim jest metoda i cel? Może ktoś zmęczony ciągłą rotacją wyników, zdecyduje się na płatną reklamę w Google. Może wykupi pierwszą i kolejną kampanię reklamową. Kupmy, zatem AdWords, będziemy mieli spokój z wynikami. I już. Cóż - również w marketingu internetowym obowiązuje zasada – w każdym postępowaniu jest metoda. I na pewno bardziej lub mniej ukryty cel. I na koniec artykułu pozytyw. Aby nie było narzekania. I może aby potwierdzić też, że komunikat o ręcznej interwencji i komunikaty o nienaturalnych linkach przychodzących, to poważna rzecz ale nie tragedia. Jest metoda. Postępować profesjonalnie.

Jeżeli dostaniesz informację o ręcznej interwencji lub podejrzewasz, że masz nałożony filtr Google. Skontaktuj się z nami. Na pewno Ci pomożemy. W tym wypadku mamy praktycznie 100% skuteczności.