SE i czaszka na tle dymu.

Black Hat vs White Hat SEO

Jak się nie dać konkurencji.

Co zrobić, kiedy jest się poza indeksem?

Wyrzucenie strony z indeksu wyszukiwarki może dla firmy skończyć się tragicznie. Wyobraźmy sobie, że jesteśmy właścicielem sklepu funkcjonującego tylko w sieci, którego nie da się znaleźć bez dokładnej znajomości adresu strony. Na taki luksus mogą pozwolić sobie tylko handlowi giganci. Jednak dla większości przedsiębiorców jest to prosta droga do zamknięcia biznesu. Na szczęście można temu zaradzić, ponieważ istnieje możliwość odbudowania „indeksowej” reputacji. I to niezależnie od tego, czy jej utrata jest wynikiem własnych działań czy też wynikiem nieuczciwej konkurencji. Warto zacząć od sprawdzenia w Google Search Console, czy na witrynę została nałożona kara. Jeśli tak, to konieczne jest zapoznanie się z jej powodem i podjęcie kroków do wyeliminowania problemu.

Gdy stwierdzimy, że treść została naruszona, musimy przywrócić właściwą strukturę, a następnie zgłosić prośbę o ponowne przeindeksowanie. Nieodpowiednie linki zewnętrzne również można zweryfikować w Search Console albo w takich aplikacjach, jak Screaming Frog SEO Spider, Majestic, lub Ahrefs. Po przygotowaniu listy wszystkich linków, których pochodzenie jest co najmniej wątpliwe, a których nie da się usunąć samodzielnie, można się ich zrzec w Narzędziach dla Webmasterów Google lub jego odpowiednikach w innych wyszukiwarkach. Tak, jak to zrobiliśmy w naszym przypadku. Żeby uniknąć takich sytuacji, warto na bieżąco monitorować bezpieczeństwo i strukturę strony, a także profil linków, które do niej kierują. Taka profilaktyka jest czasochłonna, jednak bez wątpienia trwa krócej, niż oczekiwanie na ponowne pojawienie się w indeksie wyszukiwarek.

White Hat SEO, czyli co znajdziemy w wytycznych wyszukiwarek

Przygotowanie witryny w sposób zgodny ze wskazówkami autorów największych wyszukiwarek, nie jest rzeczą trudną. Punktem wyjścia powinna pozostać zgodność tego, co widzi użytkownik z treściami przekazywanymi robotom. Istotne jest również, których adresów z naszej witryny, nie chcemy przedstawiać algorytmom. Dotyczy to adresów, które nie stanowią dla użytkowników wartości. Przykładem są URL-e tworzone w wyniku wyszukiwania na stronie, które powstają w oparciu o szczegółowe preferencje danej osoby. Jeśli drugi użytkownik natknie się na taki wynik w wyszukiwarce, może wyjść ze strony, nie przeglądając innych artykułów.

Z punktu widzenia robotów i użytkowników, ważne jest również odpowiednie wskazanie, czego dotyczy dana strona serwisu. W tym celu warto posługiwać się tagami HTML – meta title i meta description umieszczonymi w sekcji head, które prezentują się na liście wyników wyszukiwania. Pamiętajmy też o wykorzystywaniu danych strukturalnych, o których pisaliśmy wcześniej.

Dobre praktyki

Bardzo ważny jest również sposób prezentowania treści na stronie. Powinny być one unikatowe i czytelne. Do tego służą odpowiednie nagłówki, a także formatowanie podpowiadające, które fragmenty strony są najważniejsze. Pomiędzy różnymi treściami w danej witrynie bardzo często występują związki. Wobec tego, nie powinniśmy powielać tych samych akapitów. Wyszukiwarki zdecydowanie preferują oryginalne artykuły i informacje. Powinniśmy także wykorzystywać linkowanie wewnętrzne. Jeśli jest odpowiednio przemyślane, pozwoli użytkownikom i robotom przejrzeć wszystko, co jest związane z danym zagadnieniem.

Błąd 404 zatrzymujący użytkownika w serwisie

Strony błędów o kodzie 404 również powinny zostać zoptymalizowane. Ich wyświetlanie bardzo często wiąże się z pozostawaniem w indeksie adresów, które zostały usunięte przez twórcę strony. Internauci, którzy na taką stronę trafią, nie powinni zostać odesłani z kwitkiem. Strona błędu powinna proponować im przejście do mapy witryny, wskazywać najnowsze treści, albo po prostu przekierować na stronę główną. Można też zaproponować skorzystanie z wewnętrznej wyszukiwarki.

Usystematyzowana struktura

Wiedza o tym, jaka jest struktura strony, jest potrzebna nie tylko robotom, ale także użytkownikom. Dlatego warto ją przygotować z rozmysłem. Dzięki temu zapanujemy nad udostępnionymi przez nas treściami i zdołamy wskazać, które – z naszego punktu widzenia – są najbardziej istotne. Wyszukiwarki znajdą informacje na ten temat nie tylko w wyniku przemieszczania się po kolejnych linkach, ale również za sprawą mapy XML, która zawiera indeks wszystkich podstron. Za to użytkownicy docenią ułatwioną nawigację. Może być nią osobna mapa dla ludzi przygotowana w kodzie HTML, ale także menu nawigacyjne umieszczone na każdej stronie serwisu, które umożliwi szybkie dotarcie do strony nadrzędnej.

Przyjazne linki

Webmasterzy mają wpływ również na kształt adresów URL wewnątrz serwisu i z tej mocy powinni korzystać możliwie najczęściej. Adres potrafi dostarczać wiadomości dwojakiego rodzaju. Pierwszy dotyczy tego, co jest na stronie, na której aktualnie znajduje się użytkownik. Drugi odpowiada za prezentowanie hierarchiczności całego serwisu. W ten sposób użytkownik, który na pasku wyszukiwarki widzi: nazwa-domeny/kategoria/podkategoria/tytuł-artykułu, będzie wiedział (zakładając, że użytkownicy w ogóle jeszcze patrzą na adresy), częścią jakiego zbioru jest zasób, który w danej chwili przegląda. Oczywiście, schemat linków powinien być uzależniony od charakteru witryny. Strony składające się z kilku podstron mogą mieć bardziej prostą strukturę linków.

Strony mobile-friendly

Obecnie, bardzo dużo uwagi poświęca się mobilnym wersjom i temu, w jaki sposób prezentują się na małych ekranach. Trudno się dziwić temu trendowi – użytkownicy telefonów komórkowych stają się coraz większą grupą odbiorców treści. Dlatego przystosowanie witryn do możliwości urządzeń mobilnych, a także sieci 3G, pozwoli uzyskać lepsze oceny jakości serwisu.

Bezpieczeństwo użytkownika

Certyfikaty bezpieczeństwa to kolejna rzecz, o którą należy zadbać. Warto o tym pamiętać nawet wówczas, gdy nie pobieramy od użytkowników wrażliwych danych. Przede wszystkim dlatego, że monit o niezabezpieczonej witrynie potrafi skutecznie odstraszyć nawet najbardziej zainteresowane osoby.

Powyższy wykaz to tylko część z działań, które można podejmować na swojej stronie bez szwanku dla zaufania, którym darzą ją roboty wyszukiwarek i – przede wszystkim – użytkownicy. Internauci lubią dzielić się wartościowymi treściami, które znajdą w sieci. Co w naturalny sposób pomoże zwiększyć widoczność w wyszukiwarkach, a tym samym popularność witryny.

Działania on-site – czy treść jest królem?

Treści, które znajdujemy w serwisie, dzisiaj bez wątpienia są jednym z ważniejszych czynników decydujących o jego jakości. Dlatego tytuł eseju Billa Gatesa z 1996 roku pt. “Content is king” (dosłownie: „treść jest królem”), stał się myślą przewodnią osób zawodowo zajmujących się optymalizowaniem witryn. Celem jest tworzenie unikatowych, a także obszernych artykułów, przydatnych dla użytkowników. Ich wdzięczność ma się wyrażać zarówno poprzez skorzystanie z usług serwisu, którego właściciele dzielą się swoją wiedzą, a także przez rozpowszechnianie treści za pomocą linków.

Jednak nawet najlepsza treść nie zagwarantuje nikomu pierwszej pozycji na liście wyników Google’a, Binga, czy też Yandexa, jeśli roboty wyszukiwarek, czyli oprogramowanie pobierające i indeksujące strony, nie będą o niej wiedziały. Nawet doskonałe artykuły i opracowania nie pomogą zyskać popularności w sieci, jeśli będziemy korzystać z niewłaściwych technologii. Być może nie najlepszym pomysłem jest osadzanie ich w plikach .pdf. Dużo lepszym pomysłem jest umieszczenie ich pomiędzy tagami HTML.

Przy tej okazji warto przyjrzeć się samemu kodowi źródłowemu strony. Jego struktura powinna być czytelna nie tylko jeśli chodzi o efekt końcowy, wyświetlany na ekranach komputerów i urządzeń przenośnych. Kod jest kluczową informacją dla robotów wyszukiwarek. Jeśli będzie zawierał błędy, treści na stronie internetowej, w “oczach” robotów mogą stać się niejasne. Dlatego warto, po wszelkich aktualizacjach kodu i wprowadzeniu nowych rozwiązań, wykorzystywać funkcję “Pobierz jako Google” w narzędziu Search Console. Da nam to odpowiedź na pytanie, jak roboty najpopularniejszej dziś wyszukiwarki widzą naszą stronę.

Dobrze napisany kod, nie zawierający istotnych błędów, sprawia, że użytkownicy chętniej korzystają z danej strony. Od wyglądu, rozmieszczenia poszczególnych elementów i intuicyjności zależy, ile czasu dana osoba poświęci serwisowi. Okres ten jest bardzo ważną składową oceny jakości witryny. Im dłużej stronie uda się zatrzymać przeglądających, tym lepsze oceny staną się jej udziałem. Ten parametr można mierzyć różnymi narzędziami, z których obecnie najpopularniejszym jest Google Analytics

Off-site SEO – link ważniejszy od cytatu

Działania off-site dotyczą wszystkiego, co nie dzieje się na stronie, ale jest z nią bezpośrednio związane. Są to m.in. posty w serwisach społecznościowych, wzmianki w artykułach, wpisach blogowych, komentarzach, a także w serwisach agregujących dane o organizacjach. est bardzo ważne, aby nie był to jedynie skopiowany fragment tekstu, ale także towarzyszący mu link do artykułu na stronie.

Wizualizacja działania algorytmu PageRank. Działanie algorytmu nigdy nie zostało publicznie szczegółowo opisane. (źr. Wikipedia)

Żeby docenić znaczenie łączy pomiędzy witrynami, warto cofnąć się na chwilę do końcówki ubiegłego wieku. Właśnie wtedy założyciele Google, Larry Page i Sergey Brin, opracowali algorytm PageRank pozwalający na dokonywanie ocen witryny. Choć jego szczegółów nigdy nie poznaliśmy, wiemy, że głównym założeniem było traktowanie linków prowadzących do witryny jako głosów oddanych na nią. Głosy te nie były w żadnym wypadku równoważne, bo żadna witryna nie mogła przekazać więcej mocy, niż sama posiadała. Algorytm PageRank był wielokrotnie modyfikowany i jego pierwotna forma nie jest już wykorzystywana z uwagi na bardzo duże możliwości manipulacji. Nie znaczy to, że linki zupełnie straciły swoją moc. Jednak ocena ilościowa została uzupełniona co najmniej o treści linków, powiązania tematyczne stron linkujących i docelowych, a także jakość tych, na których znajdują się odsyłacze.

Umieszczanie linków we własnym i w innych serwisach, to często jedyny sposób na to, aby dana treść mogła dotrzeć do większego grona odbiorców. Dlatego zachęcamy, aby w pierwszej kolejności skupić się na tworzeniu wartościowych treści na stronie zbudowanej w oparciu o najnowsze standardy. To najprostszy i najtańszy sposób na promocję w sieci. Użytkownicy w końcu sami zaczną dzielić się linkami do artykułów, które uznają za ciekawe i pomocne. Także roboty wyszukiwarek docenią włożony wysiłek w stworzenie unikalnych treści. Z tego powodu odradzamy próby oszukiwania algorytmów Google. Takie działania zemszczą się prędzej czy później, a odbudowanie pozycji w rankingu stron jest czasochłonne i wymaga włożenia dużego wysiłku. | CHIP

Chcesz być na bieżąco z CHIP? Obserwuj nas w Google News