Checkliste für Backlinks

Nicht jeder Backlink ist gleich, einmal abgesehen von der Wertigkeit, gibt es noch einige versteckte Fallen, die einen Link nutzlos machen.

B

Backlinks sind der wichtigste Bestandteil der OffSO (Off Site Optimization) und ein sehr wichtiges Kriterium beim ranking (Platzierung) einer Website in den Suchergebnissen (SERPS).

Jedoch ist nicht jeder Backlink gleich. Es gibt wertvolle und starke Backlinks und natürlich auch weniger brauchbare bis hin zu völlig nutzlosen Links. Mit der Einführung des Attributs "nofollow" (Gemeinsam von Google, Yahoo und MSN als Standard vereinbart zur Bekämpfung von Spam) werden Links erstmalig auch komplett "kastriert" und sind für di­e Suchmaschinenoptimierung völlig wertlos, da keinerlei linkjuice (zusammenfassender Begriff für PageRank, TrustRank, Authorität, etc.) weitergegeben wird.

"nofollow" ist eine Anweisung an die Suchmaschinen, einen vorhandenen Link nicht zu verfolgen (no follow übersetzt: "nicht folgen") und somit die Zielseite nicht zu berücksichtigen. Zusätzlich dazu gibt es noch einige andere Stolpersteine, die es zu berücksichtigen gilt, um zu ermitteln ob ein Backlink für die OffSO nützlich ist oder nicht.

Es gibt verschiedene Methoden um einen Link zu entwerten, die häufigsten werden in der nachfolgenden Übersicht / Checkliste aufgeführt und erläutert.


"nofollow"
Das Attribut kann in verschiedenen Variationen auftauchen. Um erkennen zu können ob ein Backlink entwertet wurde, muss man einen Blick in den Quelltext der entsprechenden Seite werfen. Dazu einfach mit der rechten Maustaste irgendwo auf die Internetseite klicken und in dem erscheinenden Dialogfenster den Punkt "Quelltext" oder auch "Seitenquelltext" aufrufen (je nach verwendetem Browser).

Wenn nun ein Link direkt entwertet wurde sieht man das an dem folgenden tag:
rel="nofollow"

rel ist das Kürzel von relation (englisch für "Beziehung") damit teilt der Seitenbetreiber den Suchmaschinen mit, das er keinerlei Beziehungen zu der verlinkten Website (in unserem Beispiel "example.com") hat und der Link nicht verfolgt werden soll.

Ist dieses tag direkt mit dem Link verknüpft wird nur dieser eine Link nicht gewertet, sollten noch andere Links auf der Seite vorhanden sein ohne diesem tag, werden diese wiederum normal gewertet.

Eine weitere Möglichkeit des "nofollow" ist der Einsatz im META Bereich (Kopfbereich) einer Seite. Wenn auf einer Seite ein Meta-Tag gesetzt wurde:

bedeutet das für die Suchmaschinen, dass KEIN Link der GESAMTEN (Einzel)Seite verfolgt und berücksichtigt werden soll. Durch diesen globalen tag werden alle Links der Seite entwertet und die Einzelauszeichnung der jeweiligen Links ist nicht mehr notwendig.

Disallow (robots.txt)
Neben dem "nofollow"-tag kann man Suchmaschinenbots (Scripte der Suchmaschinen, die das Internet durchsuchen und erfassen) auch den Zugang zu bestimmten Seiten untersagen was auf den gleichen Effekt hinausläuft, das die Links auf den ausgesperrten Seiten nicht verfolgt und gewertet werden. Die Datei "robots.txt" ist eine Möglichkeit für globale Anweisungen (die gesamte Website betreffend) an Suchmaschinenbots.

Diese Datei (sofern vorhanden) ist immer im Hauptverzeichnis einer Internetpräsenz zu finden, d.h. http://www.example.com/robots.txt. Man brauch im Endeffekt nur die Adresse einer Website + dem Zusatz /robots.txt aufrufen und wenn eine entsprechende Datei vorliegt wird diese im Klartext im Browser angezeigt, da es sich um eine simple Textdatei (.txt) handelt. Zu beachten hierbei ist noch, dass Subdomains eine eigene robots.txt haben können z.B. http://sub.example.com/robots.txt.

Wenn man nun die Möglichkeit hat auf einer Website einen Backlink zu bekommen und diese Seite z.B. im Verzeichnis /test/ liegt, gleichzeitig in der robots.txt folgender Eintrag zu finden ist:

User-agent: *
Disallow: /test/

wird der Backlink nicht verfolgt oder gewertet. Da dieser Eintrag den Suchmaschinen praktisch "verbietet" sämtliche Seiten im Verzeichnis /test/ zu besuchen oder indexieren. Kniffelig wird es auch, wenn eine Website mit einem "redirect" arbeitet, wobei die Zielseite wiederum in einem "gesperrten" Verzeichnis liegt, daher lohnt sich ein Blick in die robots.txt immer.

redirect.php (oder auch jump.php, etc...)
Ein wenig komplizierter wird die Beurteilung von Links, wenn auf einer Seite mit Weiterleitungen via Scripts gearbeitet wird. Dabei geht dann kein Link direkt an eine Seite heraus sondern erst über den Umweg einer Weiterleitung. Prinzipiell ist so ein Vorgehen kein Indiz dafür das ein Backlink automatisch nicht gewertet wird. Es kommt immer darauf an, wie diese Umleitung konzipiert ist. In vielen Fällen wird mit einem meta refresh gearbeitet, d.h. die Datei "redirect.php" (kann viele unterschiedliche Namen haben) produziert dynamisch eine neue Internetseite die im Kopfbereich (META Bereich) eine Anweisung enthält, die dafür sorgt, dass die Zielseite automatisch aufgerufen wird, diese Zeitspanne kann dabei so eingestellt werden, dass der normale Besucher die Umleitungsseite gar nicht erst zu Gesicht bekommt und direkt auf der Zielseite landet.

Ob so ein Link nun verfolgt und bewertet wird hängt von verschiedenen Faktoren ab. Zum einen kann die Weiterleitungsseite in einem Verzeichnis liegen, die über die robots.txt gesperrt wurde (siehe oben). Des Weiteren kann auch der Meta-Tag "nofollow" im Kopfbereich der Umleitungsseite platziert werden. Man sollte auch auf die Weiterleitungsart achten. Im besten Falle handelt es sich dabei um einen 301 redirect (301 = Code für eine permanente Umleitung), bei 302 sollte man schon aufpassen, da dieser Code für eine temporäre Umleitung steht, was bedeutet, die Weiterleitung ist nur zeitlich beschränkt, was wiederum für ein Hijacking der Zielseite mißbraucht werden kann.

JavaScript (und sonstige PlugIn) Links
Wenn auf einer Internetseite JavaScript eingesetzt wird für die Verlinkung, kann man dieses ebenfalls an Hand des Quelltextes der Seite erkennen. Eine entsprechende Codezeile sieht in etwa so aus:


Sofern nicht noch ein noscript-Bereich definiert wurde, in dem ein normaler Link zu finden ist, sind diese Art von Backlinks für die Suchmaschinenoptimierung völlig nutzlos. Das Gleiche gilt auch für sämtliche anderen Formen von Links, die nur in Verbindung mit einem installierten PlugIn funktionieren.


Das hat einen einfach Hintergrund: Suchmaschinenbots "sehen" Seiten in einer reinen Textform, sie basieren auf Textbrowsern (z.B. "Lynx") und haben keinerlei installierte PlugIns oder Script- Funktionalitäten. JavaScript wird z.B. erst zur Laufzeit (beim Besuch der Seite) im Browser des Besuchers aktiv und dort verarbeitet, wenn man JavaScript deaktiviert, gehen sämtliche Funktionalitäten dieser Scriptsprache verloren, da Suchmaschinenbots praktisch immer JavaScript deaktiviert haben, sind solche generierten Links nicht sichtbar und können nicht verfolgt werden.

iFrame Verlinkung
In einigen Fällen gibt es Websites, die mit verschiedenen iFrames konzipiert wurden. Wenn z.B. das Hauptmenü (inkl. aller vorhandenen Links) in einem Extra Frame liegt, ausserhalb des Hauptframes, sind die alle entsprechenden Links für die Suchmaschinenbots nicht "greifbar", da sie keinen Zugriff auf die anderen Frames besitzen. Ein Blick in den Quelltext der Seite (Hauptseite oder auch Mainframe) verschafft Klarheit. Wenn dort nur die Definitionen (in den meisten Fällen) der anderen Frames (die "dazu geladen" werden) zu finden ist, kann man die vorhandenen Links meistens gleich "abschreiben".

Die wichtigsten und häufigsten Punkte haben wir jetzt erläutert, hierbei muss man natürlich noch beachten, dass es teilweise diverse Kombinationen der einzelnen Punkte gibt. Doch ein ganz wichtiger Faktor bei der Wertigkeit von Links ist auch der Mensch selbst. Wer z.B. einen Linktausch mit einem anderen Seitenbetreiber vereinbart hat, sollte schon ab und zu (je nach Wichtigkeit des Links) nachschauen ob der Partner sich noch an die Vereinbarung hält, da manch einer nach einer gewissen Zeit, die vorher "sauberen" Links einfach via z.B. "nofollow" wieder entwertet, was sicherlich nicht die "feine englische Art" ist.

Ein weitere Punkt, den es zu beachten gilt, ist die verlinkende Seite selbst. Ein theoretisch vollwertiger Link bringt natürlich herzlich wenig, wenn die verlinkende Seite überhaupt nicht in dem Index der Suchmaschinen vertreten ist. Dafür kann es mehrere Gründe geben... Eine Seite ist noch zu neu um schon indexiert worden zu sein (in dem Falle ist es meist nur eine Frage der Zeit), die Seite hat technische Probleme die eine Indexierung erschwert oder unmöglich macht oder aber die Seite wurde von den Suchmaschinen gebannt (d.h. aus dem Index entfernt), dieser Fall tritt ein wenn die Seite z.B. gegen die Richtlinien verstoßen hat. Zusätzlich sollte man auch noch auf die Anzahl der ausgehenden Links einer Seite achten, je mehr Links vorhanden sind, desto weniger Wert ist jeder einzelne, doch mehr zum Thema "Wert eines Links" zu einem späteren Zeitpunkt.

Wenn man alle Punkte beachtet sollte einem sauberen & wertigen Backlink nicht mehr viel im Wege stehen.

Datenschutz

Kategorie: Links

NEWSLETTER

BOOKMARK
RSS FEEDS

KW 39 - Dienstag, 27. September 2016