Dienstag, Oktober 31, 2006

Suchmaschinenoptimierugn fängt beim Server/Domainkauf an

Wie pingelig der Algorythmus von Google ist, wird uns diese Sache jetzt zeigen. Seit dem Frühling dieses Jahres hat Google mit der lokalen Opimisation angefangen und nun sind Faktoren die bis dahin keine oder eine kleine Rolle spielten, ungeheuer wichtig geworden. Natürlich wurde die Lokaisierung viel detalierter in D vorgenommen als zum Beispiel im Kongo.


Muss es eine .de Domain sein


Um es kurz zu fassen, ohne eine .de Domain im Wettbewerb um eine Topposition eines deutschen Schlüsselwortes hat man geringe Chancen. Deshalb immer darauf achten, wenn eine Domain auf Deutsch ist, dass sie auch auf .de lotziert ist. Ausnahmen in dieser Sache sind ganz wenige.

Lokalität des (Hosting) Servers

An Hand von Beispielen in der Praxis hat man auch festgestellt dass die Lokalität des Servers auch eine Rolle spielt. Deshalb sind Seiten gehostet auf einem deutschen Server einen Tick im Vorteil. Natürlich muss die Seite eine eigene IP Adresse haben, denn dies macht bei dem Googlebot den Eindruck man hätte den Server allein für sich.

Schnelligkeit und Upzeit des Servers


Bei wichtigeren Projekten ist die Upzeit des Servers sowieso eine Qualität auf welche man achtet. Das nur eine einmalige Downzeit bei Besuch des Googlebots katastrofall enden kann, sprechen ein paar Beispiele aus der Praxis für sich. Aber man muss schon ein Unglücksrabe sein um so was tu erleben.

Was aber oft vorkommt ist die Überlastung des Servers was zu längeren Reaktionszeiten führt und den Bot abstösst. Das passiert besonders Seiten die eine >1000 Annzahl von Seiten haben.

Fazit

In dieser Sache kann man nicht vorsichtig genug sein, denn qualität und hohe Preise die sich lohnen, lernt man erst schätzen wenn einem ein Unheil wiederfährt.

Wenn jemand aber eine alte Domain hat und die jetzt optimieren will, dann kann er sie behalten und mit einem 301 redirekt noch eine .de Domain dazukaufen. Das kann man z.B. bei enom.com druchführen.

Suchmaschinenoptimierung vs. Design

Realisierung der Onpage Faktoren hätte keinen Sinn wenn das Layout nicht optimiert wäre, da der Suchmaschinenbot gar nicht oder erschwert an den Inhalt kommen würde. Daher ist es wichtig sehr penibel beim Layoutdesign zu sein.

Natürlich wünscht sich jeder Webdesigner ohne bestimmte technische Richtlinien gestalten zu dürfen, aber das Leben ist nun mal hart. Wegen den erschwerten Bedingungen kann ein richtig guter Webdesigner gerade unter diesen Vorgaben auch zeigen wie gut er ist. ;)

Was wären nun die Vorgaben? Um das beste Ergebnis zu erzielen wäre es am besten der Mensch könnte wie ein Suchmaschinenbot denken. Da dieser Roboter Gott sei Dank nicht so kompliziert in dieser Hinsicht ist, werden wir kurz dieses denken eschreiben.

Wie denkt ein Suchmaschinenbot (Spider)?

Ein Spider komm über einen Link oder seltener direkt auf ihre Webseite und lädt gerade diese besuchte Seite hoch. Z.B. haben sie einen Link auf www.seitemeinesfreundes.de und sie linkt den Spider zu www.ihreseite.de/download.xhtml . Dann würde der Spider die Seite download.xhtml aufnehmen.

Wie macht er das? Der Spider will nur Sourcecode sehen. Daher liest er alles von links oben nach rechts unten, also Linie nach Linie. Auf einer optimierten Seite sollte er erst die W3C Standards lesen, dann die HEAD Metatags und CSS Links und danach den Body Bereich. Wie viel er Wert auf W3C und die HEAD Tags gibt können sie in einer den nächsten Posts lesen. Was uns aber hier interessiert ist der BODY Teil.

Im Body Teil gewinnen die erst gelesenen Elemente an Bedeutung. Also wenn der Spider erst

Hi, mein Name ist Peter und dies ist meine Homepage

liest dann wird er den Wörtern „Name“, „Peter“ und „Homepage“ seine Aufmerksamkeit schenken. Daher ist es wichtig aufzupassen was der Spider als erstes lesen wird. Im Regelfall sind Bilder die Ausnahme und können vorkommen und werden höchstwahrscheinlich übersprungen.

Heisst das es am wichtigsten ist dass die ausgesuchten Wörter am Anfang auftreten sollten? Nein, nicht ausschliesslich, aber ein Plus ist es.

Suchmaschinenoptimiertes Layout

Was noch zu beobachten ist, ist die Positionierung des Navigationsmenüs. Erstens noch einmal die Erinnerung dass das Menü in CSS geschrieben sein sollte und nicht etwa mit JavaScript. Das Menü sollte im Code nach dem Textteil kommen und nicht mit

  • Tags gemacht werden. Wie erreicht man dies?

    Jetzt ist gerade das Gestalten mit den DIV Tags aktuell, aber noch immer die sicherere Variante ist das Tabellenlayout. Dies kann man mittels DIV Tags auch erreichen.

    Die Musterlösung dieses Problems ist die Erstellung solch eines Tabellenlayouts:

    Suchmaschinenoptimiertes-tabellenlayout

    So ein Layout und die gekennzeichnete leere Zelle bewirken das der Inhalt, welcher in der zweiten Spalte vorkommt, als erster im Code vorkommt.

    Submenü, ALT Tags und Usability

    Neben dem normalen Menü sollte man auf inhaltsreichen Seiten auch über noch zwei Menüs sich Gedanken machen. Und zwar das obere und das untere Menü. Es ist soweit bekannt dass das obere Menü mehr Gewicht hat als das untere, aber ein guter Hinweis sind für den Spider dass die gelinkten Seiten wichtiger sind. Deshalb sollten die drei Menüs inhaltlich nicht gleich sein, sondern mit dem oberen sollte ein Menü gemacht werden welches Links mit Schlüsselwörtern versehrt ist. Und das untere kann alternativ angewandt werden wie z.B. zur Themenaufteilung.

    Im Layout vorkommende Bilder sollten mit ALT Tags ausgestatten sein welche ihre Schlüsselwörter für diese Seite beinhalten. Eine optimale Situation ist solche in welcher ein Bild mit dem ALT Tag z.B. „Webdesign“ genau in der nähe des Textteiles aufhält wo auch Webdesign als Wort vorkommt und vielleicht noch gewichtet ist. So eine Optimierung bringt Bilder leicht in Google Images rein.

    Wenn sie jetzt nur die Suchmaschinenoptimierungsfaktoren verwenden und die konventionellen Layoutregeln nicht benutzen, kann es natürlich sein dass ihre Webseite nicht gerade schön aussieht, deshalb noch einmal der Hinweis auf Usability zu achten. D.h. ihre Sätze kurz zu machen und den Inhalt vereinfachen so dass sie die User nicht verlieren. Deshalb sollte man vielleicht auf weiterhin auf den 800x600 Format seine Layouts basieren und wenn möglich auch nur zwei Spalten zu benutzen.

    Dies ist auch wichtig für den nächsten Faktor den wir erwähnen wollen. Natürlich sollte ihre Webseite mit den im HEAD abgerufenen W3C übereinstimmen und wenn möglich ohne Fehler im Code aufgebaut sein. Und für die Spider ist es auch wichtig ass der Webseiteninhalt grösser (mehr Zeichen hat) ist als der XHTML Code. Dies ist zwar kein grosser Suchmaschinenfaktor, aber immerhin einer. Neben den Suchmaschinenprofit, werden diese Richtlinien auch ihre Seite wahrscheinlich auch inhaltlich optimieren.

  •