Website Test für Jedermann

Wer eine eigene Website besitzt möchte diese natürlich auch einem breiten Publikum präsentieren, doch was ist wenn niemand kommt, weil die Internetseiten nicht gefunden werden?

B

Bei diesem Quickcheck gehts überwiegend um das Thema Website-Technik und Suchmaschinenoptimierung. Dinge wie Optik (Gestaltung & Design) oder auch Inhalte (Ansprache der Seitenbesucher) werden dabei nicht weiter berücksichtigt, da diese Dinge ein völlig eig­enständiges Themengebiet darstellen, auf das wir an dieser Stelle nicht weiter eingehen werden.


Wie "sieht" Google meine Seite zur Zeit?

Diese Frage lässt sich einfach mit dem "site"-Operator beantworten. Dazu einfach bei Google in das Suchfeld eingeben: site:http://www.example.com (www.example.com natürlich durch die eigene Internetadresse ersetzen).

Nun bekommen wir eine Auflistung aller Seiten unserer Internetpräsenz, die Google kennt und im Index vorhanden sind. Sollte dieser Befehl fruchtlos verlaufen, d.h. es wird nichts angezeigt, so ist die Seite zu neu, so das diese noch gar nicht von Google erfasst und im Index ist, es fehlen grundsätzlich Backlinks (wenn die Seite nicht mehr so neu ist, doch dazu gleich mehr) oder im schlimmsten Falle ist sie sogar verbannt (wenn sie vorher schon einmal im Index war).

Darstellung und Erläuterung eines Suchergebnisses und der einzelnen Bestandteile
image by: Die einzelnen Bestandteile eines Suchergebnisses.

Wenn bei allen unseren Seiten nun die gleichen Titel (Überschriften) und Beschreibungstexte angezeigt werden, wissen wir das defentiv bei den meta- und title-tags nachgearbeitet werden muss. Sollten die Beschreibungstexte aus zufälligen Textpassagen der jeweiligen Seite bestehen, sollte der meta-tag "description" definiert werden um mehr Kontrolle über die angezeigenten Beschreibungen zu bekommen.

Hilfe Google "sieht" mich einfach nicht!

Unsere Seite erscheint beim "site"-Befehl überhaupt nicht, was nun? Das wir bisher mit unserer Seite soviel "Unfug" gemacht haben, was zum Verbannen aus dem Index geführt hat, lassen wir an dieser Stelle erst einmal aussen vor und schauen mal nach welche anderen Probleme vorhanden sein könnten.

Wir selbst haben Google verboten unsere Seite aufzunehmen:

Dieser Fall tritt ein wenn z.B. auf jeder Seite der meta-tag "robots = noindex" gesetzt wurde. Ebenso wenn wir z.B. nur auf der Startseite einen (oder mehrere) Backlink(s) haben und nur dort "noindex" und "nofollow" gesetzt ist, dann werden auch die anderen Seiten nicht weiter beachtet, auch wenn diese keine "noindex"-Anweisung mehr beinhalten.

Wir haben eine "robots.txt"-Datei die es allen Suchmaschinen verbietet unsere Seiten aufzunehmen. Unsere Internetpräsenz liegt z.B. im Verzeichnis /meineSeite/, wenn nun in der robots.txt etwas in dieser Art steht:

User-agent:*
Disallow: /meineSeite/

... verbieten wir praktisch die Indexierung unserer gesamten Website.

Keine oder nur "nofollow" Backlinks:

Einer der letzten und häufigsten Probleme ist einfach das Fehlen von Backlinks. Um zu prüfen ob und wieviele Backlinks unsere Internetpräsenz hat, benutzen wir einfach den

Siteexplorer von Yahoo.

Nachdem wir unsere Internetadresse im obigen Feld eingegeben und "Explore URL" gedrückt haben, sieht man normalerweise die Anzahl der Seiten, die bei Yahoo bekannt & indexiert sind und einen Button "Inlinks", wenn man da drauf klickt erhält man die Anzahl der vorhandenen Backlinks auf unsere Seite. Sollte hierbei nichts erscheinen ausser "no Results" so wissen wir das unsere Seite dringend Backlinks benötigt.


Sauberer Quelltext und weitere "On Site Probleme":

Um ganz schnell mal zu sehen ob der Quelltext unserer Website soweit okay ist oder ob es da schon größere Probleme gibt, können wir einfach den Validatordienst des World-Wide-Web-Consortiums benutzen. Die beiden Wichtigsten hierbei sind der

HTML Validator Service sowie der
CSS Validator Service (sofern mit CSS gearbeitet wurde)

Bei den Diensten brauch man nur seine Internetadresse eingeben und den Button "Check" drücken. Wenn auf der Seite Fehler sind, werden diese aufgeführt und erläutert. Dann sollte man sich mit den entsprechenden Problemen etwas näher auseinandersetzen, da grobe Fehler auch zu Problemen bei der Indexierung durch die Suchmaschinen führen können (z.B. ungültige oder fehlerhafte Links).

Selbstverständlich kann eine Seite vollständig "valide" sein und trotzdem nicht Suchmaschinenfreundlich. Das ist der Fall, wenn z.B. für die interne Verlinkung / Linkstruktur JavaScripts verwendet wurden, diese können zwar sauber programmiert, also "valide" sein, jedoch können Suchmaschinen mit JavaScript nichts anfangen.

Daher sollte man bei der Verlinkung/Linkstruktur folgende Dinge beachten:

- Keine JavaScript oder Flash-Links
- Keine reinen "Bildlinks"
- Verzicht auf Session-Ids in Links

Am besten verwendet man die klassischen HTML-Textlinks, mit CSS kann man diese auch sehr schön und interaktiv gestalten (inkl. "Mouse-Over-Effekte", "Bildhintergrund", etc...).

Der schnelle Blick in den eigenen Quelltext:

Häufig findet man so einige Probleme schon wenn man sich den Quelltext seiner Seite einmal anschaut. Dazu die eigene Internetseite aufrufen und mit der rechten Maustaste in die Seite reinklicken, es öffnet sich ein Dialogfeld bei dem man (je nach verwendetem Browser) den Punkt "Quelltext anzeigen" auswählt.

Wenn z.B. im Kopfbereich des Quelltextes (Bereich zwischen den tags und ) so ein "Kram" vorhanden ist wie "keywords" mit jeder Menge einzelner Schlagwörter, so sollte man das umgehend ändern. Der meta-tag "keywords" wird von den Suchmaschinen eh nicht mehr für das ranking beachtet, jedoch kann es Minuspunkte geben, wenn man versucht diesen Bereich mit etlichen keywords zuzupflastern, das fällt unter keywordstuffing und ist alles andere als gerne gesehen.

Am besten man verzichtet komplett darauf. Genauso schlimm ist es, wenn der "description"-tag für so ein keywordstuffing mißbraucht wird. In den description-Bereich gehört lediglich 1-2 kurze Sätze, die den tatsächlichen Inhalt der jeweiligen Seite beschreiben.

duplicate content und saubere Umleitungen:

Grundsätzlich sollte eine einzelne Internetseite auch nur unter einer Adresse erreichbar sein. Alles andere kann zu Problemen und/ oder "Minuspunkten" führen. Bei einigen "Webbaukästen" oder einfachen CMSen werden diese duplicate content Geschichten automatisch produziert. Einer der häufigsten Probleme ist die Startseite, sehr oft ist diese unter verschiedenen Adressen zu erreichen, z.B.:

http://www.example.com
http://example.com
http://www.example.com/index.php
http://example.com/index.php

http://www.example.com/index.html
http://example.com/index.html

http://www.example.com/home
http://example.com/home
etc...

Hierbei sollte man dafür sorgen das die Startseite nur unter einer Adresse erreichbar ist und alle anderen Variationen mit einem sauberen 301-redirect auf diese eine Adresse umgeleitet werden. Duplicate content ist auch das Hauptproblem, wenn man für seine interne Verlinkung Session-Ids verwendet. Sinn und Zweck dieser Ids ist es jeden einzelnen Seitenbesucher genau verfolgen zu können, bedeutet aber auch, dass jeder neue Besucher automatisch neue Adressen/Links zu unseren Seiten "produziert", so das im Endeffekt unsere einzelnen Unterseiten hunderte oder tausende Adressvariationen besitzen unter denen sie erreichbar sind. Also: Session IDs haben nichts in den Links zu suchen, für das "tracking" gibts noch andere Möglichkeiten.

Datenschutz

Kategorie: Google SEO

NEWSLETTER

BOOKMARK
RSS FEEDS
Logo des SEO CMS
©copyright 2009 by seo-evangelist.de - all rights reserved.
Navigation: SEOÜber mich

KW 42 - Samstag, 21. Oktober 2017