Az első és legfontosabb dolog, hogy a blackhat seo ott kezdődik, amikor valamit csak a jobb Google helyezés reményében teszel, tekintet nélkül a látogatóid igényeire (vagy sokszor a józan észre). Ilyen trükköket soha, semmilyen okból ne használj. Az alábbi blog bejegyzés azért született, hogy megosszak veled egy kevésbé ismert blackhat trükköt, és így felismerd az ilyen oldalakat. Azért jó, ha felismered a blackhat oldalakat, mert így elkerülheted, hogy a megbízott SEOsod ilyesmit csináljon, vagy linkelj ilyenekre.

Blackhat trükk, amit sose használj!

Azt ugye tudjuk, hogy vannak olyan oldalak, amik kimondottan a keresőmotoroknak írt szövegeket tartalmaznak. Ezeket körülbelül annyira élvezetes olvasni, mint egy átlagos adótörvényt. Hiába is érnél el jó helyezést velük, a látogatók valószínűleg sikítva menekülnének. (Kimondva az AJAX cream szóban afféle groteszk szójátékként hallatszik a scream, vagyis sikítás szó.) Ugyanakkor a látogatóknak írt szövegeinkről úgy érezhetjük, hogy nem mindig a legjobbak a keresőknek. Nyilván köthetnénk valamiféle kompromisszumot, de a blackhat történetével egy idős a vágy, hogy más szöveget mutassunk a crawlernek, mint a felhasználóknak.

Szakállas trükk, hogy a Google-nek szánt szövegeinket a háttérrel (majdnem) egyszínűvé tegyük, esetleg más CSS trükkel tüntessük el, mint apró betűméret, display:none, text-indent: -999px; z-index és társai. Nos a CSS trükkökben az a közös, hogy az utóbbi tíz évben nemigen működtek, meg aztán nagyon egyszerű megtalálni őket (view source, sőt néha CTRL+A is elég), továbbá a crawler így mindkét szöveget látni fogja, a neki szántat is, meg a látogatóknak szánt szöveget is.

Nyilván próbálkoztak a blackhatesek azzal is, hogy felismerjék a crawlert valahogy és neki más tartalmat generáljanak szerver oldalról, de ezt a Google nagyon könnyen orvosolta, az ilyen oldalak nagyon gyorsan kikerültek az indexből.

Aztán jött a megoldás, ami egy ideig még működött is valamennyire. Ez az AJAX cream. A lényege, hogy a Googlenek szánt szöveg található az oldalon, de JavaScripttel lecseréljük nekünk tetsző szövegre. jQuery-t vagy más frameworkot is szoktak használni a blackhat-esek. Például jQueryben ez már pár sorban megoldható:

<img src="/valamikep.png" border="0" alt="kulcsszavam" /></p>
<p id="szoveg">Valami Googlenek írt blackhat szöveg, ami teljesen blackhat. Itt megemlíteném, hogy ez blackhat, de tényleg black hat, a szó leg<strong>blackhat</strong>ebb értelmében.</p>

$('#kulcsszavam').load(function() { $('#szoveg').html("Ez nem egy blackhat oldal, mi sosem használnánk fekete kalapos technikákat. Nekünk a látogató a fontos!"); });

Persze ez nem lesz elég. Valamilyen AJAX megoldás kell, hiszen a lényeg, hogy a szöveg pedig jobbára egy adatbázisból származik, szerver oldalról. Persze, mióta a Google az AJAX-et egyre jobban tudja indexelni, a fekete kalaposoknak is tökéletesíteni kellett a cseleket. Az AJAX creamnek nagyon sok változata látott napvilágot, attól kezdve, hogy a szöveg mindenféle kódolással, módosítással, vagy csak bizonyos speciális esetekben kerül kicserélésre addig, hogy újabban látni lehet Node.js vagy EventMachine alapú megoldásokat is, amiket valószínűleg még a Google crawler se tud leleplezni. Persze ez hamarosan változni fog, mint eddig minden ilyen esetben. Az egyszerűség kedvéért tételezzük fel, hogy létezik olyan Node.js persistent connections megoldás, amivel a Google számára egy szöveget tudunk mutatni, a felhasználók számára egy másikat. Akkor ez lenne a Blackhat SEO jövője?

Miért nem működik?

Még ha létezne is tökéletes AJAX cream algoritmus, azzal se érnél semmit. Ennek pedig az a legfontosabb oka, hogy már jó ideje nem a kulcsszó sűrűséget és távolságot, nem a kulcsszavak elhelyezkedését, stb. tekinti mérvadónak a Google a relevancia szempontjából.

A szemantikai mezőkre épülő relevancia meghatározásban ezeknek az elavult fogalmaknak semmi jelentősége nincs. Egész egyszerűen a Google nem azt várja el egy szövegtől, hogy ugyanaz a szó sokszor szerepeljen benne. Gondold el, hogyha te írnál egy szöveget a tigrisről, mondjuk egy újságba, valószínűleg nem szerepelne minden száz szó között hatszor a tigris szó. Pedig kétségtelenül releváns lenne. Egy természetes szöveget ugyanis inkább az jellemez, hogy olyan szavak vannak benne többségében, amik a témához kapcsolódnak többé-kevésbé. Továbbá nem csak ezek szerepelnek, hiszen akkor nagyon száraz lenne a szöveg. Itt most nem mennék bele a szemantikai mezők elméletébe, noha az a szöveg szemiotikai nagyon érdekes és hasznos kutatási területe. Az viszont kétségtelen, hogy a Google rég túllépett azon a szinten, ahol úgy lehetne befolyásolni, hogy spiderfood szövegeket írsz neki. Ez magad is tapasztalhattad, hogy a találati listák tetején újabban szinte elenyésző kulcsszó sűrűségű dokumentumok szerepelnek az adott kulcsszó esetében.

Mivel a fentiekben láttuk, hogy a lehető legrelevánsabbak a Google számára a természetes szövegek, éppen ez teszi értelmetlenné az AJAX Cream és bármilyen „szövegcserélő” módszer használatát. Tehát a legjobb, amit tehetsz, hogy messze elkerülöd a blackhat SEO trükköket, és természetes, gördülékeny, jól megfogalmazott és főleg egyedi szövegeket írsz a weblapodra.