Schlagwort-Archive: Suchmaschinenoptimierung

SEO – technisch perfekte Seiten liefern

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Für die Suchmaschinenoptimierung ist es wichtig, technisch einwandfreie Seiten auszuliefern. Dazu gehört auch, dass die Seiten schnell angeschaut werden können. Sind die Dateien etwa aufgeblasen oder für HTML eine Spur zu groß, so hat der Crawler guten Grund, die Auslesung abzubrechen.

Fehlerhafte Tags entstehen oft bei handgemachten Seiten: Fehlende Title, nicht geschlossene Tags bei Überschriften oder Absätzen, fehlende Meta Tags können von Browsern zwar korrekt dargestellt werden. Die Suchmaschinenoptimierung scheitert aber natürlich, denn wo kein Title oder eine identifizierbare Überschrift ist, da kann erst gar keine Bewertung vorgenommen werden. Die Seiten werden eher herabgestuft, weil hier offensichtlich jemand seine Hausaufgaben nicht gemacht hat.

Dabei muss man auch bedenken, dass der Crawler schließlich sehr viele Seiten in sehr Kurzer Zeit anschauen soll bzw. will. Er muss dabei z. B. auch HTML-Befehle und HTML-Kommentare ausfiltern.

Eine einzelne HTML-Seite sollte nicht größer als 200 Kilobyte sein. Besser sind 100 KB maximal. Anfällig hierfür sind vor allem ältere Seiten mit tabellenbasierten Designs, Seiten mit großem Anteil an Inline-CSS und ähnliche Sünden des Webdesign.

Bilder sollten für das Web optimiert sein mit einer Auflösung von 72 dpi und einer vernünftigen Kompression. Sie sollten nicht größer als 100 Kilobyte sein. Ist man der Ansicht, unbedingt größere Bilder in hoher Qualität anbieten zu müssen, so kann man Großansichten optional anbieten, indem man kleinere Versionen in der eigentlichen Website anbietet und erst beim Draufklicken mit dem Hinweis „Größeres Bild“ das entsprechende größere Bild anbietet.

Ein Problem sind dynamische Seiten, die erst beim Besuch aus der Datenbank generiert werden. Bei entsprechendem Traffic kann das lange dauern, wir wissen aber alle, das kaum einer – auch keiner von uns – die Geduld hat, hierauf zu warten.

Zudem verfügt nicht jeder potentielle Besucher über einen Breitbandanschluß. Mobile Geräte z. B. haben öft größere Schwankungen. Möchte man Besucher aus anderen Ländern haben, verstärkt sich das Problem zusätzlich. Jenseits der westlichen Welt gibt es auch in Internet-Cafes nur sehr langsame Anschlüsse.

Die Lösung dynamische Seiten ist ein Cache, der bei entsprechenden CMS-Systemen existiert. Für WordPress gibt es eine eingebaute Cache-Funktion sowie ein Plugin.

Für nichtdynamische Webseiten hat man eventuell die Möglichkeit, die HTTP-Kompression des Servers zu aktivieren. Hierfür muss man allerdings Zugriff auf die Serverkonfiguration haben. Einige Browser scheinen zudem nicht in der Lage zu sein, serverseitig komprimierte Dateien zu entpacken.

Viele kleine Dateien wie etwa GIF-Bildchen auszuliefern beansprucht den Server stärker als die Auslieferung einer einzelnen großen Datei. Hier ließe sich überlegen, ob man etwa mit CSS und browserseitig erzeugten Grafiken wie Listensymbolen besser fährt.

Last not least sollte man die Cache-Funktion für Proxies nicht deaktivieren. Es kann immer mal passieren, dass der Server aus irgendeinem Grund down ist. Deswegen ist es von Vorteil, wenn die Provider eine Version aus dem Cache anbieten können, zumal das oft flotter ist als die aktuelle Version jeweils abzufragen.

Wie man dynamische Seiten mit MySQL optimiert, erfährt man hier. SELFhtml hält ebenfalls einen Text bereit.

SEO IV – schwerer wirds immer – technische Aspekte

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Der Titel „SEO leicht gemacht“, den ich bisher verwendet habe, war irreführend. SEO ist zumindest zeitaufwendig und ein Prozess, der genau genommen nie ganz abgeschlossen ist.

Die technische Ebene ist dabei die wahrscheinlich komplexeste Ebene. Hier kommt man ohne HTML-Kenntnisse nicht weit.

Die Bots und Crawler der Suchmaschinen können zwar nicht denken, sie sind aber keine totalen Authisten. Deswegen kann man ihnen auch so leicht nichts vormachen.

Sie können zum Beispiel erkennen, ob eine Seite sauber geschrieben ist. Viele der älteren WYSIWYG-Editoren wie Frontpage 2000, aber auch NVU X.X produzieren schlechten Code. Das hat sich wohl gebessert, auch beim Dreamweaver, ein weiteres Manko des WYSIWYG wird sich wohl nie beheben lassen – die Produktion von redundantem und kompliziertem  Code.

Das mag auch daran liegen, dass Stylesheets auf dieser Ebene eher schwierig zu implementieren sind.

Clean the code

Mit sauberem und schlankem HTML-Code kann man das Herz jedes Bots gewinnen. Eine vom WYSIWYG produzierte Seite ist trotz Optimierung doppelt oder dreimal so groß wie eine Handgeschriebene. Der Grund ist ganz einfach: Obwohl z. B. alle Absätze gleich formatiert sind, schreibt der optische Editor in jeden Absatz Schriftart, Schriftyp, Schriftgröße und weitere Informationen rein. Er weiß nicht, dass wir alle Absätze gleich formatieren wollen, weil wir das nicht vroher festgelegt haben.
Ein weiterer Grund sind Layouttabellen, die aus vielerlei Gründen von Webdesignern nach wie vor verwendet werden. Der Vorteil von Tabellen liegt tatsächlich darin, dass sich Elemente recht genau platzieren lassen und dass die Seiten auch dann strukturiert sind, wenn man sie als HTML abspeichert und offline anguckt. Stylesheets werden normalerweise nicht abgespeichert, wodurch natürlich alles verloren geht, was darin festgelegt wurde.
Aber: Layouttabellen vervielfachen den Quellcode.

Pflegeleichter Quellcode

Korrigieren lässt sich das Ganze nur auf Quelltextebene, den Quelltext muss man aber lesen können. Das beste ist wohl, parallel auf beiden Ebenen zu arbeiten, wem phase5, Notepad++ oder HTML-Studio zu spartanisch erscheint.

Banalitäten wie korrekte Dokumentendeklaration, Meta-Description, keine toten Links, Sitemaps, keine Links in JavaScript-Code, Titel für Images, Validierung des Quelltextes und des Style Sheets sollten eigentlich nicht mehr erwähnt werden. Viele Webdesigner vertrauen allerdings eher auf ihre Design- als auf technische Fähigkeiten.

Das alles ist aus einem simplen Grund wichtig: der Bot kann durchaus erkenen, ob eine Seite valides HTML ist, ob Links tot sind oder ob man sich Mühe gegeben hat, sauberen Code zu erstellen. Für den Bot ist es irrelevant, er weiß dann nur, dass da ein Profi am Werk war und das sie Seite nutzerfreundlich ist.

Meta und mehr

Obwohl Meta-Tags heute an sich für die Suchmaschinenoptimierung nicht mehr die Bedeutung wie einst hatten, müssen auch sie gepflegt werden. Der Webdesigner muss sich bemühen, einen ordentlichen Eindruck auf den Bot zu machen. Google und andere beschweren sich durchaus, wenn doppelte Meta-Descriptions vorhanden sind oder wenn die Keywords nicht mit dem Inhalt des Body übereinstimmen.
Ebenso benötigt man auch dann eine robots.txt, wenn man dem Robot eigentlich nichts mitteilen will, wenn man ihm also erlauben will, alle Verzeichnisse zu durchsuchen.

Weiterführendes

SEO VI – Web 2.0 fürs Optimieren
SEO IV – die Strukturebene

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

Die Kunst der Suchmaschinenoptimierung erfordert Phantasie, Geduld, Gründlichkeit und viel viel Gefrickel. Wir fangen mit dem an, was man nicht tun sollte.

Zunächst zwei Warnungen:

– Man sollte nicht versuchen, eine Suchmaschine zu manipulieren. Das kommt früher oder später raus und kann schlimmstenfalls zum temporären oder kompletten Verschwinden aus dem Index führen. Google bietet extra einen Petzlink an. Wer dort einmal drin war, kann seine Domain direkt löschen lassen, sie ist verbrannt.

2. Man sollte nicht für eine bestimmte Suchmaschine optimieren. G ist zwar Marktfüher, meiner Ansicht nach werden sich aber früher oder später Spezialsuchmaschinen durchsetzen. Übrigens hat google vor allem in den Deutschland einen wahnsinnigen Marktanteil. In den USA sind Yahoo und Live sehr stark.

Für Suchmaschinenbots gibt es zwei Ebenen: Die Inhaltsebene und die Strukturebene.

Auf der Inhaltsebene ist es wichtig zu wissen, dass Suchmaschinen derzeit keine graphischen Elemente durchsuchen können, also keine Fotos, Flash-Elemente oder gar Audio/Video oder JavaScript.

Auf der Strukturebene – also dem HTML-Code – ist ebenfalls Text entscheidend. Hier muss der Text an der richtigen Stelle stehen, es gibt spezielle Attribute und Tags, die hier ausgewertet werden.

Die Überschriften <h1> – <h6>

Die Hervorhebungen <i> italic = kursiv, <b> – bold = fett, <u> – underline = unterstrichen (Achtung, hier besteht Verwechselungsgefahr mit Links), <blockquote> – Zitat, <ul> für Listen, <big>, <strong>, <p> für Absätze.

Weitere Artikel
Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO für alle II – die Inhaltsebene

Wie im ersten Teil erwähnt, gibt es eine Inhalts- und eine Strukturebene. Fangen wir bei der Inhaltsebene an.

Der Suchmaschinenbot erkennt derzeit nur Text. Deswegen müssen alle Multimediaelemente in unmittelbarer Nähe einen erklärenden und hilfreichen Text haben, sei es nun eine Überschrift, eine Bildunterschrift oder sonstwas. Dies ist im übrigen auch ein Grundsatz der Usability.

Entscheidend ist immer der Text. Sucht man zwei Begriffe im Kontext, ist die Nähe dieser Begriffe zueinander wichtig. Die Schlüsselwörter müssen öfter im Text vorkommen. ACHTUNG: Dem Grundssatz der Usability entsprechend sollte man immer an den Leser und nicht an eine Maschine denken. Wörter unsichtbar zu machen über Schriftfarbe oder CSS ist möglich, wird aber von den Bots nicht gewertet.

SEO Later – Tücken der Suchmaschinenoptimierung

Die Suchmaschinen sind heute immer unberechenbar. Ein eher unscheinbarer Beitrag von mir zu einem Beitrag von Craig Davidson im SZ-Magazin landet auf den ersten Plätzen im deutschsprachigen Raum. Der Beitrag, auf den ich verlinke, erscheint wesentlich tiefer, nicht einmal unter den ersten Zehn.

Woran das liegt? Vermutlich daran, dass das SZ-Magazin für Suchmaschinen nicht richtig zugänglich ist, während Blogs dank RSS manchmal innerhalb von Minuten und oft sehr weit oben in den Suchmaschinen auftauchen. Das mein kleines Blog eine höhere Autorität als das SZ-Magazin hätte, würde mich zwar freuen, wäre aber eher unwahrscheinlich. Entscheidendes Kriterium dürften aber die vergebenen Tags sein.