Tag Archive for: swl

Samodzielna budowa zaplecza narażona jest bardzo często na zagrożenia, które przy błędnych zagrożeniach mogą spowodować wykluczenie z indeksacji całej dotychczasowej pracy poświęconej na wspieranie strony docelowej.

1     Nieumiejętne korzystanie z SWL

  •  wyświetlanie linków z systemu na stronie, która jest pozycjonowana – do takich zadań właśnie tworzy się zaplecze
  • Dopisanie do SWL na stronach będących w domenie lub subdomenie strony docelowej – istnieje duże prawdopodobieństwo, iż napotkane przez spidera linki systemowe zostaną skorelowane z linkami trafiającymi do strony docelowej. Takie działanie zostanie uznane za niedozwolone i obie strony zostaną usunięte z SERP.
  • Używanie młodych domen do budowy zaplecza, które nie mają jeszcze historii – takie strony są bacznie obserwowane przez indexery, a prawdopodobieństwo padnięcia w filtr jest wysokie.
  • Korzystanie z rotacyjnych systemów – częsta zmienność linków na stronie – w szybki sposób eliminuje stronę z SERP
  • Korzystanie z tych samych odnośników oraz tytułów
  • Duża ilość szybko dodawanych linków

2     Masowa promocja strony docelowej

Korzystanie z oprogramowania masowo dodającego stronę docelową do wielu katalogów, stron, bezużytecznych presli z pewnością spowoduje nałożenie filtra lub całkowite wykluczenie z SERP linkowanej strony. Ta sytuacja tyczy się także płatnych stron i katalogów – wyszukiwarki nie interesuje fakt, iż link do strony docelowej został umieszony za opłatą. Nagły wzrost linków w krótkim czasie  do jednej strony powoduje zdecydowane negatywne działanie indexera.

W tej strategii należy także zaliczyć wszelkiego rodzaju:

  • kampanie mailingowe, w których albo brak odnośnika, albo jest on nieklikany
  • pozostałe kampanie reklamowe, które całkowicie nie trafiają do właściwej grupy docelowej, albo przekaz tych kampanii jest na tyle mało wyróżniający się, że użytkownicy nie zauważają materiałów w niej użytych.

3     Spamowanie forów i blogów

Fora nie są zbyt dobrym miejscem do tworzenia zaplecza. Z pewnością nie jako miejsce do podwyższenia pozycji w SERP. Linki zamieszczane na formach są traktowane po macoszemu przez indexery. Podobnie jak wyżej – masowe dodawanie postów, które analizują wypowiedź główną i dodają rzekomą odpowiedź stworzoną przez automat, zawierającą link do strony docelowej. Osoby dokonujące tego typu działań mają ułatwione działanie. Istnieje 5 głównych skryptów[1] wraz z ich modyfikacjami, na których są oparte fora, więc stworzenie mechanizmu automatycznego dodawania stron jest bardzo proste, a dzięki temu nadużycie może być przeprowadzone na dużej ilości forów. Podobne nadużycie dotyczy dodania linku do strony docelowej w sygnaturze postu w forach. Wynik działania powodującego nagłe pojawienie się linku do strony docelowej przy każdym wpisie użytkownika jest nieco niezależnym mechanizmem od intencji dodającego link, toteż wyszukiwarki zwykły ignorować tego typu odnośniki – zwłaszcza jeśli pojawiają się w forach zmieniający dodawany tekst z konstrukcją http:// na linki. Dodawanie treści typu „ja też” lub „nie masz racji” wraz z podanymi obok linkami jest bardzo szybko usuwane przez administratorów forów, więc jest duża szansa, że nawet spider nie dotrze do tego wpisu. Ewidentnym przykładem błędnego budowania zaplecza linków na forach jest dodawanie tej samej, unikalnej treści na wielu różnych forach.

Najczęstszą metodą prób budowania zaplecza linków na blogach jest podpisywanie wypowiedzi w komentarzach słowem kluczowym. Skrypty blogów najczęściej tworzą linka z pola „imię i nazwisko” i „adres strony www”, więc podmienianie tych danych słowem kluczowym może, w zamyśle autorów takiego działania, przynieść efekty.

4     Wymiana linków z mało znaczącymi serwisami

Często zdarza się sytuacja, iż webmasterzy otrzymują propozycję bezkosztowej wymiany linków od innych webmasterów. Są to zazwyczaj propozycje tworzenia zaplecza w:

  •  słabo wypozycjonowanych w SERP serwisach
  •  serwisach o wysokim PageRanku, lecz objętych filtrem lub wykluczonych z SERP (najczęstszy sposób naciągania)
  •  serwisach o całkowicie innej tematyce

Webmasterzy stron, które zostały usunięte z SERP lub SA objęte filtrem w ten sposób starają się odbudować swoje zaufanie względem Indexera. Najczęściej tego typu propozycje są wysyłane przy użyciu zautomatyzowanych skryptów do dużej grupy osób.

Do tej grupy także należy zapisać serwisy, strony, katalogi, presle, które w zamian za link na odnośnik do ich strony oferują link w postaci nieprzenoszącej parametru PageRank (link w JavaScript, użycie znacznika rel=”nofollow”, czy też wstawienie linka w technologii Adobe Flash).

5     Duplikacja treści, kradzież treści

Treści na stronach internetowych chronione są prawem autorskim – zgodnie z art. 25 us. 1 pkt 1. lit. b ustawy o prawie autorskim i prawach pokrewnych. Do października 2009 kradzież treści była zjawiskiem bardzo powszechnym, a osoby dokonujące kradzieży były praktycznie nietykalne. Ten status rzeczy zmienił (oby skutecznie) to wyrok[2] z 12 października 2009 Sądu Okręgowego w Białymstoku, nakazujący wypłatę przez wydawcę serwisu moje prawo.pl prawie 104.000zł odszkodowania na rzecz INFOR Biznes za bezprawne kopiowanie materiałów wydawcy. Jest precedens, więc jest szansa, że użytkownicy popełniający błąd duplikowania treści ogólnodostępnych i wstawiania tam swoich linków oraz reklam przestaną popełniać ten proceder. Z doskonałego założenia wyszedł Piotr Waglowski pisząc w dziale FAQ[3] o wykorzystaniu treści z jego strony: „Wychodzę z założenia, że internet jest takim medium, w którym wystarczy raz opublikować treści. Będą one dostępne dla zainteresowanych na całym świecie. Jeśli uważasz, że w serwisie VaGla.pl Prawo i Internet znajduje się interesujący artykuł lub opracowanie – zamiast go kopiować (i prawdopodobnie naruszać w ten sposób prawo autorskie) – umieść do niego link na swojej stronie.”

Wiele osób dokonujących kradzieży treści korzysta z kanałów RSS mieszając je w ramach jednego tematu celem stworzenia zupełnie nowego artykułu. Dlatego ważne jest podczas dodawania nowych artykułów aby były one zauważone przez boty wyszukiwarek oraz zaindeksowane. Dopiero w po paru godzinach warto uzupełnić kanały RSS i poinformować sieć o nowych artykułach.

6     Sandbox, Trustbox, filtry i odzyskanie dawnej reputacji strony docelowej

Domeny, które naruszyły Wskazówki dla webmasterów są filtrowane w SERP. Algorytm Google, jak i algorytmy stosowane prez inne wyszukiwarki: Bing, Yahoo, MSN oceniają wartość analizowanej strony uwzględniając jej wiek, historię i linki kierujące do niej. Związane jest to bezpośrednio z poziomem zaufania do witryny docelowej. Każde podejrzenie naruszenia zasad (zwłaszcza dla młodych wiekiem domen) powoduje filtrowanie strony – czyli przesunięcie strony o kilkadziesiąt pozycji w dół w SERP, aż do czasu wyjaśnienia podejrzenia. Jeśli było ono słuszne – strona całkowicie zostaje usunięta z SERP, natomiast w przypadku błędnego podejrzenia – strona zazwyczaj wraca na swoją dawną pozycję. Trzeba zaznaczyć, iż filtr dotyka całe domeny lub subdomeny, zaindeksowane przez indexer po roku 2003[4]. Nałożony filtr nie dotyczy zaawansowanych sposobów wyszukiwania – np. przy użyciu allinanchor, allintitle. Na szczęście można w pewnym stopniu przewidzieć wcześniej takie działanie Algorytmu Google poprzez śledzenie informacji w narzędziu Google Webmaster Tools i jeszcze przed nałożeniem filtra na domenę – usunąć wszystkie problemy powodujące niezgodność ze Wskazówkami dla Webmasterów. Analiza strony przez indexer potrafi trwać wiele tygodni, więc w przypadku spóźnienia się z usunięciem sugestii narzędzi Google Webmaster Tools trzeba liczyć albo na wejścia bezpośrednie na stronę albo też na inne systemy linkujące. Jednak będąc świadomym , iż Google odpowiada za 6% całego ruchu w sieci[5] – takie podejście jest krótkowzroczne.

Dla użytkowników, których strona trafiła do filtra Google – m.in. poprzez używanie SWL zostało wydane przez Google dyplomatyczne wyjaśnienie, mówiące o sposobie powrotu do SERP:

Nieustannie ulepszamy metody wykrywania systemów wymiany linków, które wykraczają poza nasze Porady dla Webmasterów i jest bardzo prawdopodobne, że korzystanie z nich nie opłaci się w dłuższej perspektywie. Webmasterzy, którzy brali udział w SWL-ach i którzy sądzą, że wpłynęło to negatywnie na widoczność ich stron w indeksie Google, mogą po usunięciu wszystkich SWL-ów wystąpić o ponowne rozpatrzenie witryny. Wystarczy w kilku słowach wyjaśnić sytuację. Zapewniam, że zgłoszenia te są traktowane bardzo poważnie. Ci, którzy się spotkają z linkowaniem, które ich zdaniem wychodzi poza wytyczne Google, mogą skorzystać z formularza do zgłaszania płatnych linków w konsoli narzędzi dla webmasterów. Podobnie do podań o ponowne rozpatrzenie, także te zgłoszenia są traktowane bardzo poważnie i przeglądane manualnie.
Aktualizacja: można by pomyśleć, że skoro SWLe przekazujące PageRank wychodzą poza zasady Google, to wykupując na przykład rotacyjne linki i zgłaszając raport spamu można zaszkodzić konkurencji. Ponieważ jednak bierzemy większą ilość sygnałów pod uwagę, takie działanie na niekorzyść innych webmasterów jest skuteczne wyłącznie w teorii.[6]


Aby szybciej zdobyć zaufanie wyszukiwarek dla zaplecza linków, które linkują do strony docelowej uruchamia się zaplecze równolegle na nowej i na starej domenie, która szybka zdobędzie zaufanie wyszukiwarki. Po pewnym czasie kiedy obie domeny zyskają wysoki poziom zaufania ustawiane jest przekierowanie 301 domeny starej na nową. Strony wartościowe, użyteczne, dobrze zaprojektowane, oferujące jakąś korzyść lub wartość dodaną użytkownikom, a także zdobycie linków ze stron tematycznie powiązanych, a notowanych wysoko przez wyszukiwarki w SERP, powodują szybkie zyskanie „sympatii” indexera wyszukiwarki



[1] miniBB, PunBB, MyBB, SMF (Simple Machines Forum) oraz phpBB3

[2] Michał Fura – Za kradzież treści w internecie należy się odszkodowanie- http://wolnemedia.net/?p=17913; 07.11.2009r

[3] http://prawo.vagla.pl/vagla_faq; 06.11.2009r

[4] Mariusz Gąsiewski – Sandbox, Trustbox i filtry- http://www.ittechnology.us/sandbox-trustbox-i-filtry/; 07.11.2009r

[5]Artur Małek – Google odpowiedzialne za 6% ruchu w sieci- http://www.idg.pl/news/351538/Google.odpowiedzialne.za.6.ruchu.w.sieci.html; 06.11.2009r

[6] http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html; 07.11.2009r

czy Kaspar kupuje SWL?

Kupowanie linków jest łatwą metodą zdobycia i rozszerzenia zaplecza. Linki kupowane kierują ruch zazwyczaj do stron, w których istnieją bezpośrednie odwołania do strony, dla której docelowo buduje się zaplecze.

Poszerzając nieco wypowiedź Jeffa Pela dotyczącą typów metod budowy zaplecza[1], można wyznaczyć wiele rodzajów linków, oraz kilkanaście sposobów i metod dzięki którym osoby tworzą zaplecze linków:

  • Linki pochodzące z wymiany – autorzy dwóch różnych stron, wymieniają linki do swoich stron na własnych witrynach.
  • Linki ręcznie dodane do innych stron bez konieczności umieszczenia linku na stronie docelowej do strony (m.in. DMOZ, YAHOO, ONET, WP i inne – w tym płatne i bezpłatne). Z powodu nadużyć i masowego tworzenia katalogów przez osoby dokonujące nadużyć – wartość katalogu strony znacznie zmalała.
  • Linki dodane do systemu wymiany linków (SWL)
czy Kaspar kupuje SWL?

Krótka, acz wymowna wypowiedź pracownika Google nt działań w sprawie SWL

Kupowanie linków jest bardzo ryzykowną strategią, która w krótkim okresie czasu może przynieść wysokie profity, niemniej jednak jest to niedozwolona przez wyszukiwarki strategia, a cały nakład pracy może być szybko zmarnowany. Stanowisko Google wobec tego typu systemów jest jasne[2]:

korzystanie z SWLów może spowodować utratę reputacji strony. Co gorsze, takie linki mogą prowadzić do zniechęcenia użytkownika, ponieważ są one często generowane automatycznie i nie są powiązane z treścią stron. (…)sprzedawanie i kupowanie linków przekazujących PageRank w celu manipulowania pozycji stron w SERPach przerodziło się w prawdziwą branżę w niektórych krajach.(…) Google nie ma nic przeciwko handlowi lub wymianie linków w celu zwiększania ruchu, o ile te linki nie przekazują PageRank. Każdy webmaster może linkować, gdzie chce[3], ale (…) Jeżeli znajdziemy na stronie linki do witryn, które traktujemy jako spam lub które postrzegamy jako nisko wartościowe, może to one negatywnie wpłynąć na reputację witryny.

Jeśli SWL nie przenosi parametru PageRank (można zrobić to w sposób pokazany w prezentacji Matta Cuttsa[4]) taki SWL nie powinien obawiać się konsekwencji ze strony wyszukiwarki Google.

Bez względu na podziały SWL ze względu na model działania:

  • Statyczne (stałe linki, wybór miejsca prezentacji linka, kontrola przyrostu)
  • Dynamiczne – brak możliwości ingerencji w miejsce prezentacji, selekcji, dynamiczność linków i relatywnie duży ich przyrost

Systemy tego typu w dzisiejszych czasach tracą na znaczeniu w długodystansowej strategii budowy zaplecza. Pomimo tego, że te stateczne SWLe tworzone są niejako naturalnie i podlegają pełnej kontroli przez umieszczającego link w systemie oraz wydawcę, to jednak nie wnoszą waloru użyteczności ani jakiejkolwiek wartości dodanej dla użytkownika. Taki system w rękach osoby nieświadomej może przynieść więcej szkód niż pożytku, więc warto raczej zadbać o inne strategie budowy zaplecza.

W praktyce wielu użytkowników SWL ryzykuje i tak kupując punkty, który można wymienić na umieszczenie pożądanych linków na stronach uczestniczących w SWL

Wśród strategii kupowania linków należy wymienić te, które de facto nie należą do tego grona, choć w ich pozyskanie związane jest z wydaniem pieniędzy przez wydawcę strony docelowej. Jest to tzw. pasywne pozyskanie linków – m.in.:

  1. Płatności dla użytkowników lub firmie zewnętrznej za promowanie podstron strony docelowej poprzez dodanie linka w serwisach społecznościowych
  2. Płatności firmom public relations i agencjom interaktywnym by te dodawały link do strony docelowej w różnych serwisach
  3. Sponsoring firm odpowiedzialnych za budowanie zaplecza linków w zamian za włączenie Strony Docelowej do systemu wraz z zasileniem określonej ilości punktów do wykorzystania w promocji,
  4. Sponsoring wydarzeń, konferencji, dotowanie organizacji dobroczynnych i charytatywnych – na stronach WWW i w materiałach promocyjnych standardowo pojawiają się odwołania do marki i strony WWW wydawcy.



[1] Jeff Pela – Link Building MEthods Types of Links – http://www.evancarmichael.com/SEO/1226/Link-Building-Methods–Types-of-Links.html; 03.11.2009r

[2] http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html; 03.11.2009r

[3] Matt Cutts na konferencji 06.2007 http://de.youtube.com/watch?v=_r2vp4x-JtU ; 03.11.2009r

[4] http://www.mattcutts.com/files/paid-links-presentation.ppt; 07.11.2009r

[5] http://kaspar.blip.pl/archive/4/2009; 03.11.2009r