Black Hat vs White Hat SEO

Wysoki wynik w wyszukiwarce przekłada się zazwyczaj na wynik finansowy konkretnego serwisu. Trudno się zatem dziwić, że niektórzy starają się obejść system. Część właścicieli witryn stosuje nieuczciwe zagrania, windując noty swojej strony kosztem konkurencji. Prawdopodobnie, efekty jednego z takich działań zauważyliśmy również w przypadku strony CHIP-a. Podczas rutynowego przeglądania wyników narzędzia Google dla webmasterów (Google Search Console), zaobserwowaliśmy dziwną aktywność. Wśród linków kierujących do naszej strony, znajdowały się również takie, które pochodziły z serwisów będących niczym innym, jak wątpliwej jakości zbiorem odnośników. Klasyczne agregatory treści typu mydło i powidło. Okazuje się jednak, że ich obecność w takim zbiorze może mieć negatywny wpływ na to, czy nasze artykuły pojawią się w wynikach wyszukiwania. Aby poradzić sobie z problemem, zrzekliśmy się złych linków, które psuły nam pozycje w wyszukiwarce Google. Czym jest owo tajemnicze zrzekanie piszemy w dalszej części artykułu.
SE i czaszka na tle dymu.
SE i czaszka na tle dymu.

Informacja o zaktualizowaniu plików ze złymi linkami (graf. CHIP)

Cała ta sytuacja sprawiła, że przyjrzeliśmy się bliżej tematowi tzw. black hat SEO. Z dalszej części artykułu dowiecie się, jak działa nieetyczne pozycjonowanie.

Czym jest SEO?

Zacznijmy jednak od tego, czym jest SEO. Search Engine Optimization, to wszystkie działania, które powodują, że konkretna strona pojawi się jak najwyżej w wynikach wyszukiwarek internetowych. SEO można podzielić na SEO on-site i off-site. Optymalizacja on-site polega na działaniu bezpośrednio w serwisie. Off-site to wsparcie serwisu z zewnątrz. W ramach działań on-site znajdziemy nie tylko techniczne aspekty przygotowania strony internetowej, której kod powinien być zgodny ze standardami organizacji World Wide Web Consortium, ale również wygląd strony i treści, które się na niej znajdują.

Działania wspierające serwis internetowy, które są podejmowane w innych miejscach, są konsekwencją zaangażowania użytkowników danej strony. Jego przejawem, pomocnym w pozycjonowaniu witryny, są linki pozostawiane w innych zakamarkach sieci, czy też udostępnienia w mediach społecznościowych.

SEO: White lub Black Hat

Te działania, które są zgodne z wytycznymi twórców wyszukiwarek internetowych, to tzw. White Hat SEO. Jak się jednak okazuje, starania specjalistów SEO mogą mieć swoją mroczną stronę. Black Hat SEO to kusząca – bo niepozbawiona skuteczności – alternatywa dla White Hat SEO. Skąd w nazwie “hat”? Otóż w amerykańskich westernach każdy dobry kowboj miał biały kapelusz. Ci źli nosili czarne. Ten filmowy podział na dobre i złe kapelusze przyjął się również w internecie, gdzie pozytywne działania pozycjonerskie określa się tradycyjnie jako White Hat SEO, natomiast o osobach łamiących zasady mówimy, że stosują Black Hat SEO. O białych i czarnych kapeluszach mówimy także w kontekście hakerów.

Tom Mix na początku ubiegłego wieku zagrał w prawie 300 filmach, w których występował w charakterystycznym, białym kapeluszu (fot. Mascot Pictures)

Black Hat SEO

Działania Black Hat mają niewiele wspólnego z tym, co znajdziemy w wytycznych Google. Niemniej, wciąż budzą spore zainteresowanie. Wszystko za sprawą ich skuteczności, której rezultatem może być znalezienie się na upragnionej, pierwszej stronie wyników wyszukiwania. Jednak zazwyczaj jest to efekt krótkotrwały. A skutek bywa opłakany, ponieważ konsekwencją jest usunięcie witryny z indeksów wyszukiwarek. Oznacza to, że użytkownicy korzystający z sieci, nie natkną się na daną witrynę w wynikach wyszukiwania, choćby jej treści najbardziej odpowiadały temu, czego poszukują. Taką karę każdy właściciel strony odczuje bardzo mocno, ponieważ obecnie głównym źródłem informacji są wyszukiwarki. A mimo to praktyki Black Hat SEO cieszą się powodzeniem. Czasami są wynikiem zwykłej ignorancji osoby zajmującej się pozycjonowaniem. Bywa jednak też tak, że Black Hat SEO stosowane jest z premedytacją. Szczególnie wówczas, gdy celem jest pozbycie się konkurencyjnych witryn.

Złoczyńcy w westernach przedstawiani są zazwyczaj w czarnych kapeluszach (fot. Mascot Pictures)

Black Hat on-site

Podobnie, jak zwykłe praktyki pozycjonerskie, również te „czarne” można podzielić na działania prowadzone na stronie (on-site), jak i poza nią (off-site). Przyjrzyjmy się tym, które nieuczciwi pozycjonerzy wykonują we własnej witrynie.

Cloaking

Jedną z głównych zasad, którymi kieruje się White Hat SEO jest prezentowanie tej samej treści użytkownikom i robotom wyszukiwarek. Cloaking jest przeciwieństwem takiego działania. Chodzi w nim o to, by roboty wyszukiwarek zaindeksowały jak najwięcej treści związanej z tematyką strony. Podobna ilość tekstu mogłaby odstraszyć użytkownika. Jest to możliwe za sprawą różnicowania przedstawianej treści, zależnie od adresu IP lub innych cech komunikacji. Wykrycie robota, uruchamia spreparowaną wersję strony. Owszem, zdarzają się sytuacje, w których cloaking jest rzeczą pozytywną. Dzieje się tak na przykład wtedy, kiedy na stronie zastosowane zostały technologie (takie jak Angular.js czy Flash) utrudniające indeksowanie treści. Jednak i wtedy tego narzędzia nie należy nadużywać.

Internauta i robot powinni widzieć to samo.
Keyword stuffing i ukryte treści

Znacie ten dowcip? Przychodzi pozycjoner do baru, pubu, zajazdu, lokalu, restauracji, knajpy, wyszynku, tawerny… Mniej więcej na tym polega keyword stuffing. Jest to masowe umieszczanie konkretnych słów i ich synonimów w tagach meta dokumentu HTML lub w części body. Często w sposób niewidoczny dla ludzi. Na przykład poprzez wstawianie treści w kolorze identycznym z kolorem tła witryny. Słowa kluczowe są bardzo ważnym elementem pozycjonowania. Jednak ich nienaturalne nagromadzenie może przynieść skutki odwrotne od oczekiwanych. Co prawda na krótką metę takie działanie może się opłacić, ale po pewnym czasie taka strona może nawet zostać usunięta z wyników wyszukiwania. Keyword stuffing to główny powód, dla którego algorytmy wyszukiwarek nie używają tagów meta jako kluczowych elementów oceny tematyki witryny.

Dobór odpowiednich słów kluczowych to jeden z pierwszych elementów strategii pozycjonowania. Słowa te powinny być tematycznie powiązane z serwisem. Trzeba też uwzględnić to, co użytkownicy wpisują w wyszukiwarce. Nikt nie określił dokładnie optymalnej liczby wystąpień danego słowa kluczowego na stronie. Należy po prostu przyjąć, że tekst powinien brzmieć naturalnie.

Spam danymi strukturalnymi

Dane strukturalne (czasem “uporządkowane”) są dodawane do podstron, aby dostarczyć bardziej szczegółowych bądź łatwiejszych do automatycznego przetworzenia informacji o tym, co się na nich znajduje. Pozwala to uatrakcyjnić wyniki wyszukiwania poprzez wyświetlanie w nich na przykład ocen innych czytelników (najczęściej przyjmują one postać gwiazdek). W przypadku sklepów internetowych mogą to być też ceny i stany magazynowe. Jest wiele znaczników określających dane uporządkowane i niezależnie od charakteru witryny można dobrać tagi, które pozwolą ją wzbogacić. Jednak przesycenie zawartości tagów słowami kluczowymi może mieć negatywny skutek w postaci obniżenia pozycji strony. Może tak się zdarzyć również wtedy, gdy wyszukiwarki wykryją wykorzystywanie znaczników tylko po to, aby zmieścić w nich jeszcze więcej treści. Dlatego warto przejrzeć dokumentację i upewnić się, które znaczniki kodu są nam niezbędne, a których lepiej nie używać.

Poprawnie użyte dane uporządkowane mogą poprawić pozycję w Google (graf. CHIP)
Duplikowanie treści

Wartość strony wyraża się przede wszystkim w jej unikalności. I nie chodzi tylko o to, by nie kopiować cudzych artykułów i opisów znajdujących się na innych stronach bez podawania źródeł, co już samo w sobie jest naganne, ale również o to, by nie powielać tego, co stworzyło się samemu. Unikalna treść to taka, która znajduje się tylko na jednej stronie. Dlatego tworzenie kalek domen na subdomenach lub osobnych, wykupionych tylko w tym celu stronach, wcale nie spowoduje wzmocnienia witryny. Niektórzy jednak próbują pójść na skróty i jeden artykuł publikują w kilku, nieznacznie różniących się wersjach. Takie działanie może również zostać uznane przez algorytmy za duplikowanie. Roboty nie dają się nabrać na takie sztuczki.

Black Hat SEO off-site

Nieetyczne działania pozycjonerskie można uskuteczniać również poza serwisem. Zarówno po to, by dążyć do, nawet chwilowego, poprawienia pozycji własnej strony, jak również po to, (a nawet głównie po to), by zepchnąć konkurencję  w wyszukiwarkową otchłań.

Doorway pages

Wyobraźcie sobie, że wyszukujecie informacje na przykład o najnowszych procesorach. W wynikach na wysokim miejscu pojawia się witryna na ten temat. Jednak po wejściu na nią strona się przeładowuje i trafiacie na przykład na stronę z pornografią. Tak działają tzw. doorway pages. Sekcja head takiej witryny zawiera tag meta refresh skutkujący natychmiastowym przekierowaniem do witryny docelowej. Z uwagi na łatwość zdiagnozowania tej manipulacji, roboty wyszukiwarek nie indeksują witryn zawierających wspomniany znacznik. Jednak warto pamiętać, że pomiędzy kolejnymi odwiedzinami robotów często mija sporo czasu, więc wciąż możliwe jest spotkanie się z takim przekierowaniem podczas przeglądania sieci.

Tak wygląda przykładowy początek kodu strony doorway page (graf. CHIP)
Wątpliwe pozyskiwanie linków

Naturalne zdobywanie linków wynikające z działań użytkowników dla wielu właścicieli witryn jest wciąż bardzo trudne do osiągnięcia. W związku z tym wiele osób samemu umieszcza je w sieci. O ile gwałtowny przyrost linków w dobie virali nie dziwi, o tyle ich znaczna liczba pochodząca ze źródeł uznawanych za spamerskie, jest działaniem skazującym witrynę na niebyt. Osoby zajmujące się Black Hat SEO powinny dbać o zachowanie pozorów naturalności. Za nienaturalne uważane są również linki pochodzące z wielu domen pozostających bez związku z witryną, do której kierują. A jednak na eBay’u, czy rodzimym Allegro wciąż można znaleźć oferty sprzedaży linków. Skoro jest podaż, to zapewne jest też popyt. Wynika on zapewne z przekonania kupujących o istotności linków i brakiem wiedzy co do tego, z jakich źródeł nie powinny pochodzić. Sprzedających o brak takiej wiedzy nie podejrzewamy. Raczej o wyrachowanie.

Mniej więcej złotówka za link. Pytanie, czy takie działanie ma sens.

Naturalny profil linków dotyczy również tego, w jaki sposób prezentuje się ich treść. Jeśli do domeny prowadzą tylko starannie przygotowane linki wyświetlające każdorazowo jeden i ten sam tekst będący słowem kluczowym (tzw. linki exact-match), można przypuszczać, że roboty wyszukiwarek zaczną uznawać to za celowe działanie. Niebezpieczne jest również korzystanie ze sponsorowanych gościnnych wpisów w innych serwisach. Szczególnie w takich, których działalność polega po prostu na umieszczaniu cudzych artykułów.

Zrzut jednej z wielu ofert zamieszczenia artykułów sponsorowanych (graf. CHIP)
Negatywne SEO

Black Hat SEO bywa wykorzystywane do pozbycia się konkurencji, co być może miało miejsce i w naszym przypadku. Jak widać nie trzeba w tym celu hakować strony i dopisywać kodu. Kupowanie linków exact-match w zagranicznych serwisach, korzystanie z rodzimych systemów wymiany linków, czy też uporczywe spamowanie kierujące do konkurencyjnych stron, może skutecznie popsuć pozycję konkurencji w wyszukiwarce. Wśród działań związanych z linkami, można wyróżnić również te, które przedstawiają słowa kluczowe związane z działalnością nielegalną w danym kraju.

Sposobem na podnoszenie swojej pozycji kosztem konkurencji mogą być również ataki DDoS. Długotrwale niedziałające serwery mogą bardzo szybko obniżyć pozycję w wynikach wyszukiwania, a ostatecznie doprowadzić do usunięcia witryny z indeksu. Formą czarnego SEO jest także zgłaszanie witryn konkurencji jako niestosownej, prowadzącej działalność nielegalną lub – po prostu – spamerską.

Spadek widoczności witryny w wynikach wyszukiwania po wielu dniach problemu z serwerem (graf. CHIP)
Złośliwe zachowanie

Ekstremalnym przykładem Black Hat SEO są również włamania na strony internetowe w celu zainfekowania wirusem. Zarażona witryna jest usuwana z indeksu, by wirus nie rozchodził się po sieci. Z tego samego powodu hakerzy częściej do infekowania komputerów wykorzystują wiadomości e-mail i linki pozostawione w innych serwisach, niż ruch organiczny z Google’a czy Binga.

Przykład komunikatu o znalezieniu złośliwego oprogramowania z Google Search Console (graf. CHIP)

Na następnej stronie radzimy, co zrobić, gdy strona padła ofiarą Black Hat SEO.


Co zrobić, kiedy jest się poza indeksem?

Wyrzucenie strony z indeksu wyszukiwarki może dla firmy skończyć się tragicznie. Wyobraźmy sobie, że jesteśmy właścicielem sklepu funkcjonującego tylko w sieci, którego nie da się znaleźć bez dokładnej znajomości adresu strony. Na taki luksus mogą pozwolić sobie tylko handlowi giganci. Jednak dla większości przedsiębiorców jest to prosta droga do zamknięcia biznesu. Na szczęście można temu zaradzić, ponieważ istnieje możliwość odbudowania „indeksowej” reputacji. I to niezależnie od tego, czy jej utrata jest wynikiem własnych działań czy też wynikiem nieuczciwej konkurencji. Warto zacząć od sprawdzenia w Google Search Console, czy na witrynę została nałożona kara. Jeśli tak, to konieczne jest zapoznanie się z jej powodem i podjęcie kroków do wyeliminowania problemu.

Gdy stwierdzimy, że treść została naruszona, musimy przywrócić właściwą strukturę, a następnie zgłosić prośbę o ponowne przeindeksowanie. Nieodpowiednie linki zewnętrzne również można zweryfikować w Search Console albo w takich aplikacjach, jak Screaming Frog SEO Spider, Majestic, lub Ahrefs. Po przygotowaniu listy wszystkich linków, których pochodzenie jest co najmniej wątpliwe, a których nie da się usunąć samodzielnie, można się ich zrzec w Narzędziach dla Webmasterów Google lub jego odpowiednikach w innych wyszukiwarkach. Tak, jak to zrobiliśmy w naszym przypadku. Żeby uniknąć takich sytuacji, warto na bieżąco monitorować bezpieczeństwo i strukturę strony, a także profil linków, które do niej kierują. Taka profilaktyka jest czasochłonna, jednak bez wątpienia trwa krócej, niż oczekiwanie na ponowne pojawienie się w indeksie wyszukiwarek.

White Hat SEO, czyli co znajdziemy w wytycznych wyszukiwarek

Przygotowanie witryny w sposób zgodny ze wskazówkami autorów największych wyszukiwarek, nie jest rzeczą trudną. Punktem wyjścia powinna pozostać zgodność tego, co widzi użytkownik z treściami przekazywanymi robotom. Istotne jest również, których adresów z naszej witryny, nie chcemy przedstawiać algorytmom. Dotyczy to adresów, które nie stanowią dla użytkowników wartości. Przykładem są URL-e tworzone w wyniku wyszukiwania na stronie, które powstają w oparciu o szczegółowe preferencje danej osoby. Jeśli drugi użytkownik natknie się na taki wynik w wyszukiwarce, może wyjść ze strony, nie przeglądając innych artykułów.

Z punktu widzenia robotów i użytkowników, ważne jest również odpowiednie wskazanie, czego dotyczy dana strona serwisu. W tym celu warto posługiwać się tagami HTML – meta title i meta description umieszczonymi w sekcji head, które prezentują się na liście wyników wyszukiwania. Pamiętajmy też o wykorzystywaniu danych strukturalnych, o których pisaliśmy wcześniej.

Dobre praktyki

Bardzo ważny jest również sposób prezentowania treści na stronie. Powinny być one unikatowe i czytelne. Do tego służą odpowiednie nagłówki, a także formatowanie podpowiadające, które fragmenty strony są najważniejsze. Pomiędzy różnymi treściami w danej witrynie bardzo często występują związki. Wobec tego, nie powinniśmy powielać tych samych akapitów. Wyszukiwarki zdecydowanie preferują oryginalne artykuły i informacje. Powinniśmy także wykorzystywać linkowanie wewnętrzne. Jeśli jest odpowiednio przemyślane, pozwoli użytkownikom i robotom przejrzeć wszystko, co jest związane z danym zagadnieniem.

Błąd 404 zatrzymujący użytkownika w serwisie

Strony błędów o kodzie 404 również powinny zostać zoptymalizowane. Ich wyświetlanie bardzo często wiąże się z pozostawaniem w indeksie adresów, które zostały usunięte przez twórcę strony. Internauci, którzy na taką stronę trafią, nie powinni zostać odesłani z kwitkiem. Strona błędu powinna proponować im przejście do mapy witryny, wskazywać najnowsze treści, albo po prostu przekierować na stronę główną. Można też zaproponować skorzystanie z wewnętrznej wyszukiwarki.

Usystematyzowana struktura

Wiedza o tym, jaka jest struktura strony, jest potrzebna nie tylko robotom, ale także użytkownikom. Dlatego warto ją przygotować z rozmysłem. Dzięki temu zapanujemy nad udostępnionymi przez nas treściami i zdołamy wskazać, które – z naszego punktu widzenia – są najbardziej istotne. Wyszukiwarki znajdą informacje na ten temat nie tylko w wyniku przemieszczania się po kolejnych linkach, ale również za sprawą mapy XML, która zawiera indeks wszystkich podstron. Za to użytkownicy docenią ułatwioną nawigację. Może być nią osobna mapa dla ludzi przygotowana w kodzie HTML, ale także menu nawigacyjne umieszczone na każdej stronie serwisu, które umożliwi szybkie dotarcie do strony nadrzędnej.

Przyjazne linki

Webmasterzy mają wpływ również na kształt adresów URL wewnątrz serwisu i z tej mocy powinni korzystać możliwie najczęściej. Adres potrafi dostarczać wiadomości dwojakiego rodzaju. Pierwszy dotyczy tego, co jest na stronie, na której aktualnie znajduje się użytkownik. Drugi odpowiada za prezentowanie hierarchiczności całego serwisu. W ten sposób użytkownik, który na pasku wyszukiwarki widzi: nazwa-domeny/kategoria/podkategoria/tytuł-artykułu, będzie wiedział (zakładając, że użytkownicy w ogóle jeszcze patrzą na adresy), częścią jakiego zbioru jest zasób, który w danej chwili przegląda. Oczywiście, schemat linków powinien być uzależniony od charakteru witryny. Strony składające się z kilku podstron mogą mieć bardziej prostą strukturę linków.

Strony mobile-friendly

Obecnie, bardzo dużo uwagi poświęca się mobilnym wersjom i temu, w jaki sposób prezentują się na małych ekranach. Trudno się dziwić temu trendowi – użytkownicy telefonów komórkowych stają się coraz większą grupą odbiorców treści. Dlatego przystosowanie witryn do możliwości urządzeń mobilnych, a także sieci 3G, pozwoli uzyskać lepsze oceny jakości serwisu.

Bezpieczeństwo użytkownika

Certyfikaty bezpieczeństwa to kolejna rzecz, o którą należy zadbać. Warto o tym pamiętać nawet wówczas, gdy nie pobieramy od użytkowników wrażliwych danych. Przede wszystkim dlatego, że monit o niezabezpieczonej witrynie potrafi skutecznie odstraszyć nawet najbardziej zainteresowane osoby.

Powyższy wykaz to tylko część z działań, które można podejmować na swojej stronie bez szwanku dla zaufania, którym darzą ją roboty wyszukiwarek i – przede wszystkim – użytkownicy. Internauci lubią dzielić się wartościowymi treściami, które znajdą w sieci. Co w naturalny sposób pomoże zwiększyć widoczność w wyszukiwarkach, a tym samym popularność witryny.

Działania on-site – czy treść jest królem?

Treści, które znajdujemy w serwisie, dzisiaj bez wątpienia są jednym z ważniejszych czynników decydujących o jego jakości. Dlatego tytuł eseju Billa Gatesa z 1996 roku pt. “Content is king” (dosłownie: “treść jest królem”), stał się myślą przewodnią osób zawodowo zajmujących się optymalizowaniem witryn. Celem jest tworzenie unikatowych, a także obszernych artykułów, przydatnych dla użytkowników. Ich wdzięczność ma się wyrażać zarówno poprzez skorzystanie z usług serwisu, którego właściciele dzielą się swoją wiedzą, a także przez rozpowszechnianie treści za pomocą linków.

Jednak nawet najlepsza treść nie zagwarantuje nikomu pierwszej pozycji na liście wyników Google’a, Binga, czy też Yandexa, jeśli roboty wyszukiwarek, czyli oprogramowanie pobierające i indeksujące strony, nie będą o niej wiedziały. Nawet doskonałe artykuły i opracowania nie pomogą zyskać popularności w sieci, jeśli będziemy korzystać z niewłaściwych technologii. Być może nie najlepszym pomysłem jest osadzanie ich w plikach .pdf. Dużo lepszym pomysłem jest umieszczenie ich pomiędzy tagami HTML.

Przy tej okazji warto przyjrzeć się samemu kodowi źródłowemu strony. Jego struktura powinna być czytelna nie tylko jeśli chodzi o efekt końcowy, wyświetlany na ekranach komputerów i urządzeń przenośnych. Kod jest kluczową informacją dla robotów wyszukiwarek. Jeśli będzie zawierał błędy, treści na stronie internetowej, w “oczach” robotów mogą stać się niejasne. Dlatego warto, po wszelkich aktualizacjach kodu i wprowadzeniu nowych rozwiązań, wykorzystywać funkcję “Pobierz jako Google” w narzędziu Search Console. Da nam to odpowiedź na pytanie, jak roboty najpopularniejszej dziś wyszukiwarki widzą naszą stronę.

Dobrze napisany kod, nie zawierający istotnych błędów, sprawia, że użytkownicy chętniej korzystają z danej strony. Od wyglądu, rozmieszczenia poszczególnych elementów i intuicyjności zależy, ile czasu dana osoba poświęci serwisowi. Okres ten jest bardzo ważną składową oceny jakości witryny. Im dłużej stronie uda się zatrzymać przeglądających, tym lepsze oceny staną się jej udziałem. Ten parametr można mierzyć różnymi narzędziami, z których obecnie najpopularniejszym jest Google Analytics

Off-site SEO – link ważniejszy od cytatu

Działania off-site dotyczą wszystkiego, co nie dzieje się na stronie, ale jest z nią bezpośrednio związane. Są to m.in. posty w serwisach społecznościowych, wzmianki w artykułach, wpisach blogowych, komentarzach, a także w serwisach agregujących dane o organizacjach. est bardzo ważne, aby nie był to jedynie skopiowany fragment tekstu, ale także towarzyszący mu link do artykułu na stronie.

Wizualizacja działania algorytmu PageRank. Działanie algorytmu nigdy nie zostało publicznie szczegółowo opisane. (źr. Wikipedia)

Żeby docenić znaczenie łączy pomiędzy witrynami, warto cofnąć się na chwilę do końcówki ubiegłego wieku. Właśnie wtedy założyciele Google, Larry Page i Sergey Brin, opracowali algorytm PageRank pozwalający na dokonywanie ocen witryny. Choć jego szczegółów nigdy nie poznaliśmy, wiemy, że głównym założeniem było traktowanie linków prowadzących do witryny jako głosów oddanych na nią. Głosy te nie były w żadnym wypadku równoważne, bo żadna witryna nie mogła przekazać więcej mocy, niż sama posiadała. Algorytm PageRank był wielokrotnie modyfikowany i jego pierwotna forma nie jest już wykorzystywana z uwagi na bardzo duże możliwości manipulacji. Nie znaczy to, że linki zupełnie straciły swoją moc. Jednak ocena ilościowa została uzupełniona co najmniej o treści linków, powiązania tematyczne stron linkujących i docelowych, a także jakość tych, na których znajdują się odsyłacze.

Umieszczanie linków we własnym i w innych serwisach, to często jedyny sposób na to, aby dana treść mogła dotrzeć do większego grona odbiorców. Dlatego zachęcamy, aby w pierwszej kolejności skupić się na tworzeniu wartościowych treści na stronie zbudowanej w oparciu o najnowsze standardy. To najprostszy i najtańszy sposób na promocję w sieci. Użytkownicy w końcu sami zaczną dzielić się linkami do artykułów, które uznają za ciekawe i pomocne. Także roboty wyszukiwarek docenią włożony wysiłek w stworzenie unikalnych treści. Z tego powodu odradzamy próby oszukiwania algorytmów Google. Takie działania zemszczą się prędzej czy później, a odbudowanie pozycji w rankingu stron jest czasochłonne i wymaga włożenia dużego wysiłku. | CHIP