Mittwoch, November 01, 2006

SEO vs. Usability

Es gibt Projekte bei welchen schwer unterschieden werden kann ob sie Suchmaschinenoptimierungsorientiert sein sollen, oder ob die Usability wichtiger ist. Meisten sind das Community Seiten oder Online Shops für ein breiteres Publikum.

Wenn wir Seiten ansehen die globalen Einfluss haben oder eine alternative Idee, dann können wir feststellen das die SEO Durchführung nicht viel bringen würde, weil eher Mundpropaganda und Direktmarketing das Hauptmittel des Marketings dieser Seiten ist.

Als Beispiel nehmen wir mal youtube, myspace, mobile.de, ebay, amazon oder auch map24.de, knuddels.de uvm. Wenn der Geschäftsbereich zu global ist, dann ist die Durchführung von SEO sowieso sehr schwer, weil SEO für 20 oder mehr Schlüsselwörter effizient durchzuführen ist fast unmöglich. So ist es auch mit alternativen Projekten. Wie würden sie denn youtube per google suchen wenn youtube nur comedy filme anbieten würde? "comedy video clips", "comedy video community" ???

Es ist einfach sehr schwer dahinter zu kommen wie die User sowas suchen würden, ohne eine grössere Befragung.

Vom User Standpunkt

Wenn wir uns einmal so eine Community Seite angucken, dann sehen wir immer den Versuch die Seite einfacher wie möglich zu erstellen und so den User weniger zu verwirren. Weil der User mag nicht was er nicht versteht. Deshalb ist es nötig alle möglichen Standards einzubinden. Wenn wir ein Video Portal bilden, sollte es auch sehr YouTube ähnlich sein, nur mit einer anderen Identität.

SEF /= SEO

Suchmaschinenoptimiert(SEO) und Suchmaschinenfreundlich(SEF) sind zwei ganz verschiedene Begriffe. Wenn eine seite SEO ist dann ist sie genau zugeschnitten für ein Schlüsselwort und muss auch SEF sein, wenn sie aber nur SEF ist dann ermöglicht sie nur ein einwandfreies einlesen der Seite seitens des Googlebots, aber sie ist nicht zugeschnitten für einen spezifischen Begriff.

Jede Seite sollte SEF sein und dies ist genug Arbeit bei grossen Portalen. SEO muss von Projekt zu Projekt unterschieden werden. Wenn Projekte an der Grenze liegen dann ist ein Brainstorming das beste was man machen kann im lowcost Bereich. Eine Umfrage wäre das beste.

Dienstag, Oktober 31, 2006

Suchmaschinenoptimierugn fängt beim Server/Domainkauf an

Wie pingelig der Algorythmus von Google ist, wird uns diese Sache jetzt zeigen. Seit dem Frühling dieses Jahres hat Google mit der lokalen Opimisation angefangen und nun sind Faktoren die bis dahin keine oder eine kleine Rolle spielten, ungeheuer wichtig geworden. Natürlich wurde die Lokaisierung viel detalierter in D vorgenommen als zum Beispiel im Kongo.


Muss es eine .de Domain sein


Um es kurz zu fassen, ohne eine .de Domain im Wettbewerb um eine Topposition eines deutschen Schlüsselwortes hat man geringe Chancen. Deshalb immer darauf achten, wenn eine Domain auf Deutsch ist, dass sie auch auf .de lotziert ist. Ausnahmen in dieser Sache sind ganz wenige.

Lokalität des (Hosting) Servers

An Hand von Beispielen in der Praxis hat man auch festgestellt dass die Lokalität des Servers auch eine Rolle spielt. Deshalb sind Seiten gehostet auf einem deutschen Server einen Tick im Vorteil. Natürlich muss die Seite eine eigene IP Adresse haben, denn dies macht bei dem Googlebot den Eindruck man hätte den Server allein für sich.

Schnelligkeit und Upzeit des Servers


Bei wichtigeren Projekten ist die Upzeit des Servers sowieso eine Qualität auf welche man achtet. Das nur eine einmalige Downzeit bei Besuch des Googlebots katastrofall enden kann, sprechen ein paar Beispiele aus der Praxis für sich. Aber man muss schon ein Unglücksrabe sein um so was tu erleben.

Was aber oft vorkommt ist die Überlastung des Servers was zu längeren Reaktionszeiten führt und den Bot abstösst. Das passiert besonders Seiten die eine >1000 Annzahl von Seiten haben.

Fazit

In dieser Sache kann man nicht vorsichtig genug sein, denn qualität und hohe Preise die sich lohnen, lernt man erst schätzen wenn einem ein Unheil wiederfährt.

Wenn jemand aber eine alte Domain hat und die jetzt optimieren will, dann kann er sie behalten und mit einem 301 redirekt noch eine .de Domain dazukaufen. Das kann man z.B. bei enom.com druchführen.

Suchmaschinenoptimierung vs. Design

Realisierung der Onpage Faktoren hätte keinen Sinn wenn das Layout nicht optimiert wäre, da der Suchmaschinenbot gar nicht oder erschwert an den Inhalt kommen würde. Daher ist es wichtig sehr penibel beim Layoutdesign zu sein.

Natürlich wünscht sich jeder Webdesigner ohne bestimmte technische Richtlinien gestalten zu dürfen, aber das Leben ist nun mal hart. Wegen den erschwerten Bedingungen kann ein richtig guter Webdesigner gerade unter diesen Vorgaben auch zeigen wie gut er ist. ;)

Was wären nun die Vorgaben? Um das beste Ergebnis zu erzielen wäre es am besten der Mensch könnte wie ein Suchmaschinenbot denken. Da dieser Roboter Gott sei Dank nicht so kompliziert in dieser Hinsicht ist, werden wir kurz dieses denken eschreiben.

Wie denkt ein Suchmaschinenbot (Spider)?

Ein Spider komm über einen Link oder seltener direkt auf ihre Webseite und lädt gerade diese besuchte Seite hoch. Z.B. haben sie einen Link auf www.seitemeinesfreundes.de und sie linkt den Spider zu www.ihreseite.de/download.xhtml . Dann würde der Spider die Seite download.xhtml aufnehmen.

Wie macht er das? Der Spider will nur Sourcecode sehen. Daher liest er alles von links oben nach rechts unten, also Linie nach Linie. Auf einer optimierten Seite sollte er erst die W3C Standards lesen, dann die HEAD Metatags und CSS Links und danach den Body Bereich. Wie viel er Wert auf W3C und die HEAD Tags gibt können sie in einer den nächsten Posts lesen. Was uns aber hier interessiert ist der BODY Teil.

Im Body Teil gewinnen die erst gelesenen Elemente an Bedeutung. Also wenn der Spider erst

Hi, mein Name ist Peter und dies ist meine Homepage

liest dann wird er den Wörtern „Name“, „Peter“ und „Homepage“ seine Aufmerksamkeit schenken. Daher ist es wichtig aufzupassen was der Spider als erstes lesen wird. Im Regelfall sind Bilder die Ausnahme und können vorkommen und werden höchstwahrscheinlich übersprungen.

Heisst das es am wichtigsten ist dass die ausgesuchten Wörter am Anfang auftreten sollten? Nein, nicht ausschliesslich, aber ein Plus ist es.

Suchmaschinenoptimiertes Layout

Was noch zu beobachten ist, ist die Positionierung des Navigationsmenüs. Erstens noch einmal die Erinnerung dass das Menü in CSS geschrieben sein sollte und nicht etwa mit JavaScript. Das Menü sollte im Code nach dem Textteil kommen und nicht mit

  • Tags gemacht werden. Wie erreicht man dies?

    Jetzt ist gerade das Gestalten mit den DIV Tags aktuell, aber noch immer die sicherere Variante ist das Tabellenlayout. Dies kann man mittels DIV Tags auch erreichen.

    Die Musterlösung dieses Problems ist die Erstellung solch eines Tabellenlayouts:

    Suchmaschinenoptimiertes-tabellenlayout

    So ein Layout und die gekennzeichnete leere Zelle bewirken das der Inhalt, welcher in der zweiten Spalte vorkommt, als erster im Code vorkommt.

    Submenü, ALT Tags und Usability

    Neben dem normalen Menü sollte man auf inhaltsreichen Seiten auch über noch zwei Menüs sich Gedanken machen. Und zwar das obere und das untere Menü. Es ist soweit bekannt dass das obere Menü mehr Gewicht hat als das untere, aber ein guter Hinweis sind für den Spider dass die gelinkten Seiten wichtiger sind. Deshalb sollten die drei Menüs inhaltlich nicht gleich sein, sondern mit dem oberen sollte ein Menü gemacht werden welches Links mit Schlüsselwörtern versehrt ist. Und das untere kann alternativ angewandt werden wie z.B. zur Themenaufteilung.

    Im Layout vorkommende Bilder sollten mit ALT Tags ausgestatten sein welche ihre Schlüsselwörter für diese Seite beinhalten. Eine optimale Situation ist solche in welcher ein Bild mit dem ALT Tag z.B. „Webdesign“ genau in der nähe des Textteiles aufhält wo auch Webdesign als Wort vorkommt und vielleicht noch gewichtet ist. So eine Optimierung bringt Bilder leicht in Google Images rein.

    Wenn sie jetzt nur die Suchmaschinenoptimierungsfaktoren verwenden und die konventionellen Layoutregeln nicht benutzen, kann es natürlich sein dass ihre Webseite nicht gerade schön aussieht, deshalb noch einmal der Hinweis auf Usability zu achten. D.h. ihre Sätze kurz zu machen und den Inhalt vereinfachen so dass sie die User nicht verlieren. Deshalb sollte man vielleicht auf weiterhin auf den 800x600 Format seine Layouts basieren und wenn möglich auch nur zwei Spalten zu benutzen.

    Dies ist auch wichtig für den nächsten Faktor den wir erwähnen wollen. Natürlich sollte ihre Webseite mit den im HEAD abgerufenen W3C übereinstimmen und wenn möglich ohne Fehler im Code aufgebaut sein. Und für die Spider ist es auch wichtig ass der Webseiteninhalt grösser (mehr Zeichen hat) ist als der XHTML Code. Dies ist zwar kein grosser Suchmaschinenfaktor, aber immerhin einer. Neben den Suchmaschinenprofit, werden diese Richtlinien auch ihre Seite wahrscheinlich auch inhaltlich optimieren.

  •