Archiv der Kategorie: Tutorial

Link – die Kunst der richtigen Verbindung

Auch Links wollen richtig gesetzt werden. Es ist zwar nett, am Ende eines elektroischen Textes alle Links zu erhalten, auf die im Text verwiesen wurde, aber dieses Verfahren stammt noch aud Zeiten des Papiers. Wir erinnern uns mit Schaudern an ellenlange Listen mit Fuß- und Endnoten und Anmerkungen, die zwar kleingedruckt aber dennoch um so umfangreicher sind.

Womit wir mitten im Thema sind: Eine Fußnote innerhalb eines elektronischen Textes muss prinzipiell anklickbar sein. Dabei öffnet sich entweder ein kleines neues Fenster, in dem der Text der Fußnote angezeigt wird oder das Dokument springt zur Fußnote. In letzterem Falle ist es unbedingt notwendig, eine Möglichkeit zu schaffen, damit der Leser genau dort hin zurück kommt, wo er herkam.

Häufiger tritt aber der Fall auf, dass man auf ein Dokument verweisen möchte: vielleicht als Beispiel, als Quellenverweis oder als weiter gehende Informationsquelle. In diesem Falle wird der Link direkt im Text gesetzt.

Möchte ich auf eine Pressemitteilung der Messe München verweisen, dann schreibe ich etwa: “Die Messe München sagt”, wobei der ganze Text ein Link ist, daraus schließt der Leser, dass hier auf die quelle der Aussage zurückverwiesen wird.

Dabei müssen Links deutlich erkennbar sein, etwa farblich oder unterstrichen. Dabei verwendet man am besten die klassischen Linkfarben des Web: blau für nicht-besuchte Links, lila für besuchte Seiten. Auf jeden Fall sollte man darauf verzichten, den User durch verschieden farbige Texte zu verwenden. Farben sollten immer eine bestimmte Bedeutung haben, die sich möglichst schnell erschließt.

Wenig hilfreich sind nackte Links, ob sie anklickbar sind oder nicht. Wenn sie “sprechend” sind, also im Linktext etwas aussagekräftiges drin steht, ist das schon besser, dennoch nicht unbedingt zielführend: http://www.oliveira-online.net/wordpress/wp-admin/post.php?action=edit&post=246

Betreibt man eine professionelle Site mit vielen externen und internen Links sollte man sich überlegen, ob man ein neues Fenster öffnen will oder ob der Link im gleichen Fenster geöffnet werden soll. Wird der Link im gleichen Fenster geöffnet, ist es aufwendiger, zum ursprünglichen Artikel zurückzukehren, sofern man das möchte. Öffnet man den Link in einem neuen Fenster, ärgert sich der User gegebenenfalls darüber. Folgende Regel halte ich für einen sinnvollen Kompromiß: Siteinterne Links werden im gleichen Fenster geöffnet, externe Links in neuem Fenster. Man kann auch im Title-Tag des Ankers hierauf hinweisen.

Wohin der Online-Journalismus steuert und wie man Links nicht verwendet, erfährt man in diesem Telepolis-Artikel.

Bitte folgen Sie nicht diesem Link! No follow me around

Das Attribut “no follow” kann an Links vergeben werden. Urspünglich stammt es aus der robots.txt. Die robots.txt wird von allen seriösen Suchmaschinen ausgewertet und gibt dem Webmaster die Möglichkeit, Inhalte auf seiner Website zu haben, die nicht von Suchmaschinen durchsucht werden.

No Follow bei Links sorgt hingegen für heftige Diskussionen. no-follow sorgt dafür, daß vergebene Links nicht in das Ranking einer Seite eingehen. Verweist auf z. B. mit dem Attribut no-follow auf einen Wikipedia-Artikel, steigt dessen Ranking nicht durch die Verlinkung.

No Follow wird offenbar von Wikipedia selbst eingesetzt, um Linkspam zu vermeiden. Ähnliches gilt für die gängige Web-2.0-Software, die Links aus Kommentaren, Gästebüchern und ähnlichen Einträgen derart bewertet. Schlimmer ist vielleicht noch Heise, der Verlag erlaubt in seinen Foren überhaupt nur heise-interne Links, gesetzte Links aus Heise heraus erscheinen als normaler Text und werden somit ebenfalls nicht gewertet.

Der no-follow ist deshalb sinnvoll, weil er dem Webmaster vieles an Spam erspart. Sinnvoller als solch ein brachiales System wäre eine Regelung, die eine Differenzierung erlaubt, etwa XFN (XHTML Friend Network). Die Mikroformate für soziale Netzwerke erlauben es, Beziehungen zwischen Menschen über Links deutlich zu machen. Diese Mikroformate haben sich bisher nicht flächendeckend durchgesetzt, sie werden vor allem in Blogrolls und anderen Web-2.0-Anwendungen verwendet.

Klappmenüs in der Navigation

Die Pulldown- oder Aufklappmenüs erfreuen sich bei Webdesignern großer Beliebtheit. Dabei gibt es grundsätzlich mehrere Möglichkeiten, sie zu realisieren. Geeignet sind dafür aber nur clientseitige Lösungen. Die Pulldowns reagieren schließlich stets auf Nutzereingaben, in erster Linie auf Mausbewegungen. Der Server weiß natürlich nicht, was der User mit seiner Maus tut, deswegen können Pulldowns nur clientseitig realisiert werden. Mögliche Techniken sind HTML, CSS, JavaScript, Flash oder Scalable Vector Graphics und Microsofts Silverlight.

Pulldowns sind zwar immer schick, aber so gut wie nie benutzerfreundlich. Möchte mein ein Pulldown nutzen, sollte man folgende Punkte beachten.

– Ein Pulldown ist keine Entschuldigung für eine schlechte, unlogische oder unverständlcihe Navigation.

– Ein Pulldown sollte niemals nie verschachtelt sein. Das heißt, wenn ich einen Punkt eines Pulldowns auswähle, soll kein neues Pulldown erscheinen, damit ich noch weitere Unterpunkte auswählen kann.

– Ein Pulldown sollte immer länger eingeblendet bleiben, als der Webdesigner das gerne hätte, die Schrift bzw. das Auswahlfeld sollte groß sein, MouseOver ist sinnvoll, Title nicht.

1. Ein Pulldown wird gerne als Entschuldigung genommen, viele Navigationspunkte unterzubringen. Pulldowns sind aber grundsätzlich weniger übersichtlich als ein statisches Menü.

2. Das liegt auch daran, dass ein Pulldown ein unheimliches Gefrickel mit der Maus erfordert. Maus hin, Maus her, während sich ein normales Menü auf dem PC auch per Tastatur steuern lässt, etwa mit den Cursor-Tasten, ist das bei Internetmenüs grundsätzlich nicht möglich.

3. Deswegen rutscht man oft über den Rand, was dazu führt, dass Einem das Menü wegrutscht. Oft ist das anklickbare Feld zudem zu klein, so dass man entweder rausrutscht oder einen falschen Punkt anklickt. MouseOver hilft einem dabei, das aktive Feld zu erkennen. Der Title für Links hingegen stört hier mehr, da er oft den Blick auf den eigentlichen Text verstellt.

ÄHnlich wie bei Frames kann es auch bei Pulldowns gut sein, dass die Suchmaschine sie nicht lesen kann, etwa weil der Bot die JavaScript-Dateien nicht ausliest oder nicht erkennt, dass es sich überhaupt um Links handelt.

Zumindest bei älteren Browsern wie dem IE 6 oder Firefox ist zudem die JavaScript-Engine nicht besonders flott. Ein aufwendiges Menü kann dazu führen, dass Prozessorleistung übermäßig beansprucht wird oder dass die Seite zeitverzögert geladen wird. Das passiert etwa bei zeit.de oder Spiegel Online. Bei diesen Seiten funktioniert oft das Menü zu Beginn nicht, dass man glauben könnte, sie hätten gar kein Pulldown.

Last not least erhöhen Pulldowns die Unübersichtlichkeit. Der User ist gezwungen, alle Menüs einmal auszuklappen, um zu erfahren, welche Unterpunkte sich dahinter verbergen. Ist der User nicht gerade krankhaft neugierig oder gezwungen, die Informationen zu bekommen, wird er im Zweifelsfall die Seite wieder verlassen, wenn das Menü nicht nutzerfreundlich ist.

SEO – technisch perfekte Seiten liefern

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Für die Suchmaschinenoptimierung ist es wichtig, technisch einwandfreie Seiten auszuliefern. Dazu gehört auch, dass die Seiten schnell angeschaut werden können. Sind die Dateien etwa aufgeblasen oder für HTML eine Spur zu groß, so hat der Crawler guten Grund, die Auslesung abzubrechen.

Fehlerhafte Tags entstehen oft bei handgemachten Seiten: Fehlende Title, nicht geschlossene Tags bei Überschriften oder Absätzen, fehlende Meta Tags können von Browsern zwar korrekt dargestellt werden. Die Suchmaschinenoptimierung scheitert aber natürlich, denn wo kein Title oder eine identifizierbare Überschrift ist, da kann erst gar keine Bewertung vorgenommen werden. Die Seiten werden eher herabgestuft, weil hier offensichtlich jemand seine Hausaufgaben nicht gemacht hat.

Dabei muss man auch bedenken, dass der Crawler schließlich sehr viele Seiten in sehr Kurzer Zeit anschauen soll bzw. will. Er muss dabei z. B. auch HTML-Befehle und HTML-Kommentare ausfiltern.

Eine einzelne HTML-Seite sollte nicht größer als 200 Kilobyte sein. Besser sind 100 KB maximal. Anfällig hierfür sind vor allem ältere Seiten mit tabellenbasierten Designs, Seiten mit großem Anteil an Inline-CSS und ähnliche Sünden des Webdesign.

Bilder sollten für das Web optimiert sein mit einer Auflösung von 72 dpi und einer vernünftigen Kompression. Sie sollten nicht größer als 100 Kilobyte sein. Ist man der Ansicht, unbedingt größere Bilder in hoher Qualität anbieten zu müssen, so kann man Großansichten optional anbieten, indem man kleinere Versionen in der eigentlichen Website anbietet und erst beim Draufklicken mit dem Hinweis “Größeres Bild” das entsprechende größere Bild anbietet.

Ein Problem sind dynamische Seiten, die erst beim Besuch aus der Datenbank generiert werden. Bei entsprechendem Traffic kann das lange dauern, wir wissen aber alle, das kaum einer – auch keiner von uns – die Geduld hat, hierauf zu warten.

Zudem verfügt nicht jeder potentielle Besucher über einen Breitbandanschluß. Mobile Geräte z. B. haben öft größere Schwankungen. Möchte man Besucher aus anderen Ländern haben, verstärkt sich das Problem zusätzlich. Jenseits der westlichen Welt gibt es auch in Internet-Cafes nur sehr langsame Anschlüsse.

Die Lösung dynamische Seiten ist ein Cache, der bei entsprechenden CMS-Systemen existiert. Für WordPress gibt es eine eingebaute Cache-Funktion sowie ein Plugin.

Für nichtdynamische Webseiten hat man eventuell die Möglichkeit, die HTTP-Kompression des Servers zu aktivieren. Hierfür muss man allerdings Zugriff auf die Serverkonfiguration haben. Einige Browser scheinen zudem nicht in der Lage zu sein, serverseitig komprimierte Dateien zu entpacken.

Viele kleine Dateien wie etwa GIF-Bildchen auszuliefern beansprucht den Server stärker als die Auslieferung einer einzelnen großen Datei. Hier ließe sich überlegen, ob man etwa mit CSS und browserseitig erzeugten Grafiken wie Listensymbolen besser fährt.

Last not least sollte man die Cache-Funktion für Proxies nicht deaktivieren. Es kann immer mal passieren, dass der Server aus irgendeinem Grund down ist. Deswegen ist es von Vorteil, wenn die Provider eine Version aus dem Cache anbieten können, zumal das oft flotter ist als die aktuelle Version jeweils abzufragen.

Wie man dynamische Seiten mit MySQL optimiert, erfährt man hier. SELFhtml hält ebenfalls einen Text bereit.

Website-Kenndaten ermitteln

Es gibt mittlerweile eine ganze Reihe von Online-Tools, mit denen man Kenndaten für eine Website ermitteln kann, ob sie einem gehört oder nicht.

Alexa etwa ermöglicht es, den Traffic auf einer Site zu ermitteln, mit anderen Seiten zu vergliechen und eine Art Rangfolge zu ermitteln. Alexa ermittelt diese Daten über eine Toolbar, die einige User installiert haben. In Deutschland tut dies kaum jemand, da der Nutzen unklar ist, deswegen sind die kenndaten für deutschsprachige Seiten unzuverlässig.

Wer nichts zu tun hat, kann einen “Lookup” bei Who is machen und ist überrascht, wie viele Daten öffentlich über Webseiten zugänglich sind. Interessant ist hier, dass hier Daten wie der Alexa Rank und Trend, eventuelle Verlinkungen bei Wikipedia und DMOZ angezeigt werden.

Wenn Google Daten vorliegen, kann man über GoogleTrends. Hier vergleichen wir einmal die deutschen Auftritte von amazon und ebay. Hier besteht auch die Möglichkeit, die Ergenisse lokal aufzuschlüsseln oder eine Reihe anderer Detailinformationen zu gewinnen.

Wer hingegen Webmaster ist und wissen möchte, welche Seiten auf die eigene Seite verlinken, ist mit den Webmastertools von Live gut gedient. Im Gegensatz zu Yahoo und Google zeigt Live relativ gut die sogenannten Backlinks an. Sie lassen sich auch als Excel-Datei herunterladen.

Suchmaschinenoptimierung über Sitemaps – Website in der Nußschale

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Manche Seiten werden schlechter indiziert als andere. Um zumindest sicher zu stellen, dass die gesamte Website inklusive aller Unterseiten erfasst wird, werden Sitemaps verwendet.

Zu unterscheiden sind die HTML-Sitemaps, die von normalen Nutzern verwendet werden können und einen Einblick in die Struktur eines Webauftritts geben. Sie zeigen in der Art von Organigrammen Hierarchien von Ober- und Unterseiten.

Daneben stehen maschinenlesbare XML-Sitemaps. Google bietet ein Tool an, das solche Maps generiert. Dieses Tool funktioniert aber nur, wenn man es per FTP auf den eigenen Server hochladen kann und der Server Python unterstützt. Bei normalen Hostingpaketen ist das kein Standard. Man kann seine Sitemap aber auch mit anderen Tools generieren und dann bei Google und neuerdings auch bei Yahoo und MSN Live Search anmelden. Man benötigt jeweils einen Account und muss authentifizieren, dass man Eigentümer der Site ist. Für WordPress gibts natürlich ein Plugin, das Sitemaps online erstellt.

Google hält sich nach eigenen Angaben an den geltenden Standard, weshalb es im übrigen unsinnig ist, von “Google Sitemaps” zu reden, sie kommen jedem Crawler zugute.

Man sollte natürlich darauf achten, keine Seiten in die Map aufzunehmen, die nicht indiziert werden sollen.

Mehr zu SEO:

Web 2.0 fürs Optimieren

Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO leicht gemacht III – Verlinkungen

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Verlinkungen machen das Leben leichter. Ein Webbastler, der keine externen Links verwendet, weil er glaubt, seine Nutzer dadurch zu verlieren, hat den Sinn des WWW nicht ganz verstanden.
Auch Linkpartnerschaften oder Linkfarmen machen heute wenig Sinn. Suchmaschinenen sind durchaus in der Lage, eine normale Seite von einer zu unterscheiden, die lediglich auf andere Seiten verrweist. Eine Linksammlung zu einem bestimmten Thema ist durchaus sinnvoll, da sie einen Mehrwert für den Nutzer hat. Linksammlungen werden gerne in die Favoriten aufgenommen und erhöhen damit die Wahrscheinlichkeit, dass ein Nutzer zurückkehrt.

Google PageRank

Der Google PageRank bewertet eine Seite auf der Basis von Verlinkungen. Je öfter eine Seite verlinkt ist, desto besser wird sie bewertet. Allerdings werden auch Links unterschiedlich gewertet: Bei einer Seite mit hohem PageRank werden ausgehende Links höher bewertet als externe Links von Seiten, auf die selbst keine Links verweisen.
Wikipedia hat somit eine höhere Autorität als etwa die Seite des lokalen Kanichenzüchtervereins.
Wer allerdings versucht, wild Links auf allen möglichen Seiten zu streuen, wird vermutlich enttäuscht. Wikipedia stattet offenbar alle externen Links mit dem Attribut no-follow aus. Das gibt dem Suchmaschinenbot die Anweisung, diesem Link nicht zu folgen und ihn damit auch nicht zu werten. Zudem wird Linkspam recht flott beseitigt.

Links verteilen

Auch Gästebücher werden nicht gewertet, da sie ebenfalls vollgespamt werden.
Wenn es inhaltlich Sinn macht, darf man dennoch seine Links verteilen. Etwa wenn jemand in einem Forum oder Yahoo ASK nach einer bestimmten Sache frage, die man auf der eigenen Seite bereits beantwortet hat.

Linkwertigkeit

Man kann zudem vermuten, dass nur “echte” Links gewertet werden. Das heisst, der Text http://www.oliveira-online.net/wordpress/wp-admin/post-new.php
würde nicht gewertet, weil die Suchmaschine nicht erkennen kann oder will, dass es sich um einen Link handelt. Der Link muss anklickbar sein, der Tag a sollte verwendet werden, dass sieht dann so aus: das ist also der Link. Ich empfehle zudem die Verwendung sinnvoller Linknamen, nicht ausgerechnet “Hier klicken”, eher sollte man dem Nutzer klar machen, was ihn erwartet, wenn er den Link anklickt. Linknamen, Alternativtext und Titel spielen ebenfalls eine Rolle, wenn die Suchmaschine den Wert des Links herauszufinden sucht. Wir erinnern usn:
– der Linkname ist das, was der Nutzer als erstes sieht und den er anklicken kann
– der Alternativtext ist in XHTML vorgeschrieben und enthält einer ausführlichere Beschreibung dessen, was sich hinter dem Link verbirgt
– der Titel wird angezeigt, wenn der User mit der Maus über den Link fährt.

Bookmarken erleichtern

Der Nutzerfreundlichkeit wegen sollte man Icons anbieten, die das Favorisieren oder soziale Bookmarken erlauben, etwa bei Mister Wong oder del.icio.us. Man kann natürlich selbst seine eigene Seite als Favoriten dort einstellen, es ist ganz natürlich eine Affinität zur eigenen Site zu haben. Wie viel das bei Suchmaschinen im Endeffekt bringt, lässt sich aber nicht so ohne weiteres sagen. Bietet man aber interessanten Inhalt an und die Möglichkeiten zum einfachen Bookmarken, erhöht man zumindest die Wahrscheinlichkeit, dass der Besucher wieder kommt.

Intern versus extern

Ein interner Link verweist auf siteinterne Informationen, ein externer Link führt von der Seite weg. Je stärker eine Seite intern verlinkt ist, desto höher ist ihre Bedeutung. Am stärksten verlinkt sein dürften die Seiten, die in der Navigation stehen: die Startseite, die Kontaktseite usw. Interne Links haben zudem den Vorteil, dass sie auf Seiten verweisen können, die von der Suchmaschine aus irgendeinem Grund nicht gefunden wurden. Zudem sollte man eine Sitemap haben, Google stellt hier für Webmaster entsprechende Tools zur Verfügung.

Sinn der SEO

Schließlich sollte man das eigentliche Ziel der SEO nicht aus den Augen verlieren. Es besteht keineswegs darin, den eigenen Traffic in ungekannte Höhen zu treiben, sondern relvante Personen auf den eigenen rlevanten Content aufmerksam zu machen. Wer hingegen Foren vollspamt oder versucht, Suchmaschinen zu manipulieren, macht sich nicht nur unbeliebt, sondern kann ganz schnell auf einer Blacklist landen,k was im schlimmsten Falle das Ende des eigenen Geschäftes bedeuten kann.

Verwandte Beiträge

SEO VI – Optimieren mit Web 2.0

SEO V – Textarbeit

SEO IV – die Technik

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

Wie sags ich Dir am besten?

Informationen strukturiert zu präsentieren erfordert viel Aufwand und Nachdenken. Der Erfolg spricht aber für sich. Wir alle kennen die Lehrer oder Professoren, die unstrukturiert von A nach D, von Y nach F oder von J zu K springen und bestenfalls zur Unterhaltung beitragen, aber nicht sehr lehrreich sind.

Texte sind am einfachsten zu strukturieren: Wir verwenden Aufzählungen oder Listen, wenn es mehrere Punkte gibt, die genannt werden sollen.

Um komplexe Sachverhalte darzustellen, werden je nach Anlass Diagramme, Tabellen oder ähnliche Grafiken verwendet.

Auch die stinknormale Syntax ist eine Strukturhilfe: Falsch gesetzte oder fehlende Kommata irritieren ebenso wie überflüssige Ausrufezeichen.

Von großer Bedeutung sind Absätze. Ein Absatz besteht durchschnittlich aus zwei bis drei Sätzen und einem Gedankengang. Ordentliche Absätze erwecken einen sauberen und strukturierten Gesamteindruck. Ich bin an anderer Stelle näher auf Aspekte des Design und des Gestaltens wissenschaftlicher Arbeiten eingegangen.

SEO VI – Web 2.0 fürs Optimieren

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Vielleicht sollte ich einmal mit dem Nummerieren aufhören;-) Wir haben in den letzten fünf Teilen die wesentlichen Elemente des Optimierens dargestellt, nun geht es darum, kreative Ideen selbst zu entwickeln.
Web 2.0 gehören zu den vielen alten Hüten des Net. In Deutschland ist es dennoch kaum angekommen aus Gründen, über die wir noch keine Erkenntnisse gewonnen haben.

Dabei lässt sich Web 2.0 hervorragend für die Optimierung der Website einsetzen. Wollen wir etwa Marketing für unsere Website betreiben, schreiben wir in sämtliche Prfoile, Kommentare und ähnliche Äußerungen im WWW unsere Webadresse rein – natürlich nur, wenn wir nicht anonym bleiben wollen.

On-Site-Marketing dürfte noch erfolgreicher sein: Man kann kontextabhängige Informationen anbieten in Form von Blogs oder als stinknormale Website.

Bindet man RSS ein, lassen sich Suchmaschinen binnen Minuten über neue Inhalte informieren und sie sind schnell aktualisiert.

Wenn sich anbietet, kann man auch Foren für Externe anbieten. ACHTUNG: Läßt man Fremde für sich schreiben, müssen die Kommentare und Ergüsse immer administriert werden.

Bekannt ist die Möglichkeit, die Seite zu bookmarken, die lustigen bunten Buttons finden sich ja schon überall.

Wer auf solche Art wertvollen Inhalt anbietet, sollte auch interne Links setzen, etwa aif verwandte Beiträge. Der Hintergrund ist, dass die Suchmaschinen so auf Seiten hingewiesen werden können, die sie aus irgendwelchen unerfindlichen Gründen bisher nicht indiziert haben.

Eine ganz simple Geschichte, die aber kaum verwendet wird, ist das Empfehlungsmarketing. Tell a Friend ist fast nur bei Zeitungen üblich. Doch wie oft findet man eine Seite, die man gerne weiterempfehlen würde? Man vergisst es aber wieder, weil eben keine Funktion dafür angeboten wird. Entsprechende PHP-Skripte lassen sich leicht finden.

Mehr zu SEO:
Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO IV – schwerer wirds immer – technische Aspekte

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Der Titel “SEO leicht gemacht”, den ich bisher verwendet habe, war irreführend. SEO ist zumindest zeitaufwendig und ein Prozess, der genau genommen nie ganz abgeschlossen ist.

Die technische Ebene ist dabei die wahrscheinlich komplexeste Ebene. Hier kommt man ohne HTML-Kenntnisse nicht weit.

Die Bots und Crawler der Suchmaschinen können zwar nicht denken, sie sind aber keine totalen Authisten. Deswegen kann man ihnen auch so leicht nichts vormachen.

Sie können zum Beispiel erkennen, ob eine Seite sauber geschrieben ist. Viele der älteren WYSIWYG-Editoren wie Frontpage 2000, aber auch NVU X.X produzieren schlechten Code. Das hat sich wohl gebessert, auch beim Dreamweaver, ein weiteres Manko des WYSIWYG wird sich wohl nie beheben lassen – die Produktion von redundantem und kompliziertem  Code.

Das mag auch daran liegen, dass Stylesheets auf dieser Ebene eher schwierig zu implementieren sind.

Clean the code

Mit sauberem und schlankem HTML-Code kann man das Herz jedes Bots gewinnen. Eine vom WYSIWYG produzierte Seite ist trotz Optimierung doppelt oder dreimal so groß wie eine Handgeschriebene. Der Grund ist ganz einfach: Obwohl z. B. alle Absätze gleich formatiert sind, schreibt der optische Editor in jeden Absatz Schriftart, Schriftyp, Schriftgröße und weitere Informationen rein. Er weiß nicht, dass wir alle Absätze gleich formatieren wollen, weil wir das nicht vroher festgelegt haben.
Ein weiterer Grund sind Layouttabellen, die aus vielerlei Gründen von Webdesignern nach wie vor verwendet werden. Der Vorteil von Tabellen liegt tatsächlich darin, dass sich Elemente recht genau platzieren lassen und dass die Seiten auch dann strukturiert sind, wenn man sie als HTML abspeichert und offline anguckt. Stylesheets werden normalerweise nicht abgespeichert, wodurch natürlich alles verloren geht, was darin festgelegt wurde.
Aber: Layouttabellen vervielfachen den Quellcode.

Pflegeleichter Quellcode

Korrigieren lässt sich das Ganze nur auf Quelltextebene, den Quelltext muss man aber lesen können. Das beste ist wohl, parallel auf beiden Ebenen zu arbeiten, wem phase5, Notepad++ oder HTML-Studio zu spartanisch erscheint.

Banalitäten wie korrekte Dokumentendeklaration, Meta-Description, keine toten Links, Sitemaps, keine Links in JavaScript-Code, Titel für Images, Validierung des Quelltextes und des Style Sheets sollten eigentlich nicht mehr erwähnt werden. Viele Webdesigner vertrauen allerdings eher auf ihre Design- als auf technische Fähigkeiten.

Das alles ist aus einem simplen Grund wichtig: der Bot kann durchaus erkenen, ob eine Seite valides HTML ist, ob Links tot sind oder ob man sich Mühe gegeben hat, sauberen Code zu erstellen. Für den Bot ist es irrelevant, er weiß dann nur, dass da ein Profi am Werk war und das sie Seite nutzerfreundlich ist.

Meta und mehr

Obwohl Meta-Tags heute an sich für die Suchmaschinenoptimierung nicht mehr die Bedeutung wie einst hatten, müssen auch sie gepflegt werden. Der Webdesigner muss sich bemühen, einen ordentlichen Eindruck auf den Bot zu machen. Google und andere beschweren sich durchaus, wenn doppelte Meta-Descriptions vorhanden sind oder wenn die Keywords nicht mit dem Inhalt des Body übereinstimmen.
Ebenso benötigt man auch dann eine robots.txt, wenn man dem Robot eigentlich nichts mitteilen will, wenn man ihm also erlauben will, alle Verzeichnisse zu durchsuchen.

Weiterführendes

SEO VI – Web 2.0 fürs Optimieren
SEO IV – die Strukturebene

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I