Pagerank Sculpting mit JS crypting einfach Links verstecken

Pagerank Sculpting mit nofollow ist Geschichte, dennoch gibt es noch andere Möglichkeiten den linkjuice gezielt zu steuern...

Verfasst von SEO Evangelist am 10.07.2009 um 11:47:00 Uhr
D

Das PageRank Sculpting mit nofollow keine gute Idee (mehr) ist, hatte ich ja in meinem vorherigen Artikel über den unstillbaren linkjuice Durst von nofollow bereits erläutert. Nun stellt sich natürlich gleich die nächste Frage: "Wie mache ich aktuell PageRank Sculpting ohne nofollow?"

Eine Möglichkeit ist derzeit sicher der Einsatz von iFrames, mal abgesehen davon das die Umsetzung nicht gerade besonders einfach ist und man damit rechnen kann (sollte) das Google sicher schon an einer Lösung des "iFrame-Problems" werkelt, würde ich nicht dazu raten.

Eine weitere Möglichkeit, die etwas "pflegeleichter" ist, stelle ich nachfolgend vor, es handelt sich dabei um das JS crypting (JS = JavaScript). Einziger Nachteil: Wenn JavaScript deaktiviert ist, funktionieren die "gecrypten" Links nicht mehr. Daher sollte man sich vorher gut überlegen, ob man das gesetzlich vorgeschriebene Impressum nicht lieber "normal" belässt um eine spätere, mögliche Abmahnung zu verhindern.

Wieso JS crypting? Normale JavaScript-Links taugen für das PageRank Sculpting nicht, da Google diese mittlerweile sehr gut verarbeiten kann und somit fast wie "normale" Links behandelt. Flash ist auch keine brauchbare Alternative, da Google auch Flash auslesen kann und in dem Bereich fast täglich Fortschritte macht. Die einzige Möglichkeit Google effektiv davon abzuhalten einem Link zu folgen und zu bewerten ist > Keinen Link anzubieten.

Ich sehe schon wieder einige Fragezeichen über ein paar Köpfe schwirren ... "Keinen Link aber für Besucher trotzdem einen Link?". Legen wir am besten gleich los...

Unser normaler Link:
<code lang="html4strict">
<a href="Datenschutz.html">Datenschutz</a>
</code>

Unser neuer Link (der keiner mehr ist):
<code lang="html4strict">
<span onclick="guideme('datenschutz*')" class="design01">Datenschutz</span>
</code>

Wie man unschwer erkennen kann, haben wir keinen Link mehr. Um diesen "Nicht-Link" für unsere Besucher so aussehen zu lassen wie einen Link, benutzen wir einfach CSS, daher ist bei dem span auch die class "design01" definiert. Damit kann z.B. folgendes definiert werden:

<code lang="css">
span.design01 { color:#0000FF; cursor:pointer; text-decoration:underline;}
span:hover.design01, span:active.design01{ color:#FF0000; }
</code>

Mit dieser CSS-Vorgabe sieht unser "Nicht-Link" nun aus wie ein Link und reagiert auch so (inkl. hover-Effekt). Somit ist es auch ziemlich simpel die "Nicht-Links" optisch an die normalen Links unserer Seite anzupassen, so das es für die Seitenbesucher nicht verwirrend ist. Als Beispiel einfach mal ganz oben auf dieser Seite den Menüpunkt "Kontakt" ansehen, dieser ist mit dieser Technik "gecrypt".

Wir haben jetzt einen Link der zwar aussieht wie einer aber keiner ist, doch zur Zeit stimmt das sogar, doch wir wollen natürlich für unsere Besucher einen funktionstüchtigen Link. Dafür benötigen wir noch unsere JavaScript-Funktion, die ja
bereits oben namentlich aufgetaucht ist: "guideme()". Diese sieht wie folgt aus:

<code lang="javascript">
function guideme(text){
text = text.replace(/\*/g, '.htm');
window.location = text;
}
</code>

Diese Funktion macht im Endeffekt nichts anderes als den '*' gegen '.htm' auszutauschen, also wird aus dem übergebenen 'datenschutz*' > 'datenschutz.htm'. In diesem Punkt kann jeder seine kreative Ader völlig ausleben und so ziemlich alle möglichen Zeichen verbauen, die durch die Funktion wieder entfernt oder ausgetauscht werden. Ich würde nur darauf achten ein bestimmtes Schema beizubehalten, um zuviel "Handarbeit" zu vermeiden und das Ganze möglichst automatisiert zu halten.

Diese Function müssen wir nun natürlich noch irgendwie einbinden, damit sie ihre Arbeit verrichten kann. Dazu verpacken wir sie in eine externe Datei mit der Bezeichnung "function.js" (oder wie auch immer man sie benennen möchte). Diese Datei stellen wir in ein Verzeichnis (z.B. "/funktionen") das wir für die Suchmaschinen sperren, z.B. über die robots.txt

<code lang="robots">
User-agent: *
Disallow: /funktionen/
</code>

Abschliessend müssen wir auf diese Datei referenzieren, damit unsere Funktion auch "funktioniert". Dazu ergänzen wir im Head-Bereich unserer Webseite die folgende Zeile:

<code lang="html4strict">
<script type="text/javascript" language="JavaScript" src="funktionen/function.js"></script>
</code>

Das wars. Nun können wir jede beliebige Seite vor den Suchmaschinen verstecken, in dem wir immer:

<code lang="html4strict">
<span onclick="guideme('html-seite*')" class="design01">Linktext</span>
</code>

anstatt des normalen Links benutzen.

Mit dieser Vorgehensweise können wir nun den Fluss des linkjuice exakt steuern, da wir die Möglichkeit haben bestimmte Seiten vor den Suchmaschinen komplett zu verbergen, da auch keinerlei Link mehr zu ihnen führt. Für unsere Besucher hingegen sind auch diese Seiten normal erreichbar (sofern nicht JavaScript deaktiviert wurde).

Viel Spass beim "PageRank meißeln".
Datenschutz


Kategorie: Links



Bisherige Kommentare zu dieser Nachricht:
Name:
Chris
geschrieben:
10.07.2009 um 13:02:56 Uhr
Kommentar:
Ich weiß nicht... Hast du das auch probiert? Ich als Google würde bei einem onClick-Event eines Tags schon vorsichtig werden zumal in der aufgerufenen Funktion auch noch window.location verwendet wird. Ich würde eher im Nachhinein alle Tags mit einer bestimmten Klasse (z.B. design01) im Nachhinein mit einem onClick Event belegen, so dass im Quelltext davon erst einmal nichts zu lesen ist.

Name:
Christian Klinger
geschrieben:
10.07.2009 um 15:39:38 Uhr
Kommentar:
Hallo, Links via JS vor Suchmaschinen verstecken - hab schon öfter davon gehört bzw. gelesen. Allerdings hab ich ein wenig Zweifel daran, dass die Suchmaschinen soetwas gern sehen. Wie oben schon erwähnt, entwickeln auch diese ihre Algorithmen immer weiter. Für mich würde dann also die Frage bestehen, ob solche Techniken dann nicht gegen die Richtlinien für Webmaster verstoßen. Oder was haltet ihr davon? Matt Cutts hat in seinem Blog auch darauf hingewiesen, dass man den Fluß des Linkjuice am besten einfach fließen lässt. Abgesehen mal von dem Problem der Barrierefreiheit ;)

Name:
Tom
geschrieben:
10.07.2009 um 19:43:40 Uhr
Kommentar:
Im Endeffekt ist das Mosaic Cloaking. Du zeigst den Beschern der Website teilweise andere Inhalte als der Suchmaschine. Deswegen gehe ich davon aus, dass solche Verfahrensweisen letztendlich aufgedeckt werden und dann zu einer Abstrafung führen können. So wie das beim normalen Cloaking eben auch der Fall ist.

Name:
Dan
geschrieben:
11.07.2009 um 10:26:53 Uhr
Kommentar:
Als Cloaking würde ich das jetzt nicht bezeichnen, denn beim Cloaking gehts ja darum den Suchmaschinen einen keyword-rich-Text zu präsentieren, den die Besucher nicht zu sehen bekommen, um letztendlich den Suchmaschinen vorzugaukeln die Seite ist hochrelevant um im Endeffekt das ranking zu manipulieren. Was wir hier machen ist lediglich unrelevante Seiten für die Sumas auszublenden.

Name:
Alex
geschrieben:
12.07.2009 um 09:29:54 Uhr
Kommentar:
Ich finde diese Methode gar nicht mal so schlecht. Kann man das auch für externe Links verwenden? Ich versuche hier die ganze Zeit mit Replace den Wert *w*keyword*tld* in den Domainnamen http://www.domain.de umzuwandeln aber bekomme es nicht hin. Kannst du mir da mal weiterhelfen??

Name:
Dan
geschrieben:
12.07.2009 um 14:23:26 Uhr
Kommentar:
Hey Alex ... vergiss dabei nicht verschiedene Platzhalter zum replacen zu benutzen. Wenn du also http://www.domain.de als ergebnis willst, dann nimm einfach $domain* und replace $ gegen http://www. ( text = text.replace("/$/g", "http://"); ) und * gegen .de ( text = text.replace("/*/g", ".de"); ) dann fluppts ;-)

Name:
gast
geschrieben:
14.07.2009 um 12:59:13 Uhr
Kommentar:
Ich kenne noch eine gute Methode zur PageRank-Beeinflussung: Viel und GUTEN Content liefern, auf den andere Websites gern verlinken - aber ach ja, das wäre ja zu einfach und die SEOs mit ihren obskuren Verrenkungen und Tricks dann arbeitslos...

Name:
michael
geschrieben:
14.07.2009 um 23:34:32 Uhr
Kommentar:
@ vorposter: so pauschal kann man das nicht sagen. du sprichst hier von einem optimalfall, aber so funktioniert das internet in der regel nicht mehr.

Name:
Abmahner
geschrieben:
15.07.2009 um 14:20:25 Uhr
Kommentar:
Ich möchte nur darauf aufmerksam machen das ein Impressum auch ohne JS erreichbar sein muss... Ansonsten riskiert ihr eine Abmahnung von fleißigen Leuten...

Name:
SEOux Indianer
geschrieben:
15.07.2009 um 15:48:56 Uhr
Kommentar:
Mal was ganz Anderes.. hier ist kein Feld für meine HOMEPAGE.. wozu dann noch das übertrieben große captcha?

Name:
Dan
geschrieben:
15.07.2009 um 16:35:41 Uhr
Kommentar:
@rothaut: Einerseits um diese ganzen automatischen Bots zu ärgern und andereseits wird son houmpäitsch feld auch noch kommen. Hab im moment nur noch keine zeit dazu ;-) @Abmahner: Daher auch mein Hinweis ziemlich am Anfang des Artikels :-)

Name:
Abro
geschrieben:
17.07.2009 um 02:26:52 Uhr
Kommentar:
naja ganz ok die idee, aber machts euch doch nicht so umständlich. ich denke es ist nicht schwer für google dieses als link zu identifizieren wenn die herren wollen. einfach mal die wave toolbar für firefox angucken, events sind nichts anstrengendes ;o) es wäre recht logisch, dass im spider mittlerweile ein ziemlich vollwertiger js-parser eingebaut ist. das einzige was nicht erkannt werden sollte, sind timeout-gesteuerte dom-manipulations. man hat ja keine zeit. richtig stören tut mich hier aber nur die webstandards und barrierefreiheitssache... nix für ungut ^-^

Name:
datenkind
geschrieben:
17.07.2009 um 12:08:06 Uhr
Kommentar:
Gibt’s dazu Usability-Tests? Also JavaScript-Links ohne jedwede Fallback-Lösung, das hat so richtig Style der Mittneunziger. Also einfach nur ganz schlechten. Ehrlich, würde mir das einer andrehen wollen, flöge er hochkant aus dem Büro. Aber mit der tumben Kundschaft kann man so einen Quatsch ja betreiben …

Name:
Dan
geschrieben:
17.07.2009 um 15:21:10 Uhr
Kommentar:
Es geht beim PageRank Sculpting ausschliesslich darum unwichtige Seiten für die Suchmaschinen unsichtbar zu machen, z.B. AGB, Kategorien, Tags ... alles was keine direkte Relevanz darstellt oder Mehrwert besitzt. Die inhaltlich wichtigen Seiten bleiben selbstverständlich völlig normal. Doch in diesem Artikel ging es ausschliesslich um die Möglichkeit solche Seiten zu verstecken und nicht um den Sinn oder Unsinn von PageRank Sculpting.

Name:
Olli
geschrieben:
17.07.2009 um 17:32:38 Uhr
Kommentar:
Also ich erwarte auch, dass der Google-Parser das mittlerweile hinbekommt - das Disallow dürfte sich nur auf den Punkt beziehen, dass der Bot Dokumente daraus nicht in den Index aufnimmt, nicht, dass er nicht mal da reinschaut, wenn er es für sinnvoll hält. Cloaking ist es nicht, da der Bot den gleichen Code bekommt, wie der normale User. Was eher zu funktionieren scheint, sind entsprechend aufwendig verschlüsselte Javascript-Links. Aber auch hier ist es natürlich nur eine Frage der Zeit, wann Google dort auch genug Schmerz empfindet um ein weiteres Sub-Set an Javascript-Funktionalität in den Bots zu aktivieren.

Name:
Dan
geschrieben:
17.07.2009 um 19:41:11 Uhr
Kommentar:
Zur Zeit ist es so (unabhängig von einer eventuellen disallow-Beachtung), dass Google keine externe JavaScripts verarbeiten kann. Was in der Zukunft sein wird, ist eine andere Geschichte. Nofollow hat ja auch noch vor ein paar Jahren funktioniert (so wie es sollte) ;)

Name:
SEOrgie
geschrieben:
14.08.2009 um 18:41:54 Uhr
Kommentar:
Wirklich interessant mit JS, aber es ist wohl wirklich nicht akzeptabel User mit ausgeschaltetem JS im Regen stehen zu lassen oder? Dennoch ein guter Ansatz. Für die Drawbacks gibts ja bestimmt auch noch eine Idee. Meiner Meinung nach werden solche Lösungen kurzfristig sehr interessant. JS wird sicherlich irgendwann auch von Google interpretiert. Egal ob ausserhalb oder nicht. Allerdings ist das SEO-Geschäft ja ohnehin so schnelllebig, dass man sich mit so etwas meiner Meinung nach auseinander setzen muss oder kann bis Google hier wieder reagiert. Vor ein paar Tagen bin ich über blynxs gestolpert, das ist auch so etwas ähnliches. Das ist allerdings eine hosted Lösung und somit nicht einsehbar. Muss aber wohl auch JS sein.

Name:
Nancy
geschrieben:
01.10.2011 um 08:48:03 Uhr
Kommentar:
Thanks for the share! Nancy.R



Kommentar zur Nachricht
Schreiben Sie uns Ihren Kommentar zu dieser Nachricht, wir freuen uns über Ihr Feedback.
Name:
E-Mail-Adresse:
Kommentar:
Captcha:
Hinweis:
Um gegen Spam vorzubeugen bitte die obigen zwei Wörter (Captcha) in das Lösungsfeld darunter eingeben, getrennt von einem Leerzeichen.
 
NEWSLETTER

BOOKMARK
RSS FEEDS

KW 34 - Donnerstag, 25. August 2016