Archiv der Kategorie: Suchmaschinenoptimierung SEO

Klappmenüs in der Navigation

Die Pulldown- oder Aufklappmenüs erfreuen sich bei Webdesignern großer Beliebtheit. Dabei gibt es grundsätzlich mehrere Möglichkeiten, sie zu realisieren. Geeignet sind dafür aber nur clientseitige Lösungen. Die Pulldowns reagieren schließlich stets auf Nutzereingaben, in erster Linie auf Mausbewegungen. Der Server weiß natürlich nicht, was der User mit seiner Maus tut, deswegen können Pulldowns nur clientseitig realisiert werden. Mögliche Techniken sind HTML, CSS, JavaScript, Flash oder Scalable Vector Graphics und Microsofts Silverlight.

Pulldowns sind zwar immer schick, aber so gut wie nie benutzerfreundlich. Möchte mein ein Pulldown nutzen, sollte man folgende Punkte beachten.

– Ein Pulldown ist keine Entschuldigung für eine schlechte, unlogische oder unverständlcihe Navigation.

– Ein Pulldown sollte niemals nie verschachtelt sein. Das heißt, wenn ich einen Punkt eines Pulldowns auswähle, soll kein neues Pulldown erscheinen, damit ich noch weitere Unterpunkte auswählen kann.

– Ein Pulldown sollte immer länger eingeblendet bleiben, als der Webdesigner das gerne hätte, die Schrift bzw. das Auswahlfeld sollte groß sein, MouseOver ist sinnvoll, Title nicht.

1. Ein Pulldown wird gerne als Entschuldigung genommen, viele Navigationspunkte unterzubringen. Pulldowns sind aber grundsätzlich weniger übersichtlich als ein statisches Menü.

2. Das liegt auch daran, dass ein Pulldown ein unheimliches Gefrickel mit der Maus erfordert. Maus hin, Maus her, während sich ein normales Menü auf dem PC auch per Tastatur steuern lässt, etwa mit den Cursor-Tasten, ist das bei Internetmenüs grundsätzlich nicht möglich.

3. Deswegen rutscht man oft über den Rand, was dazu führt, dass Einem das Menü wegrutscht. Oft ist das anklickbare Feld zudem zu klein, so dass man entweder rausrutscht oder einen falschen Punkt anklickt. MouseOver hilft einem dabei, das aktive Feld zu erkennen. Der Title für Links hingegen stört hier mehr, da er oft den Blick auf den eigentlichen Text verstellt.

ÄHnlich wie bei Frames kann es auch bei Pulldowns gut sein, dass die Suchmaschine sie nicht lesen kann, etwa weil der Bot die JavaScript-Dateien nicht ausliest oder nicht erkennt, dass es sich überhaupt um Links handelt.

Zumindest bei älteren Browsern wie dem IE 6 oder Firefox ist zudem die JavaScript-Engine nicht besonders flott. Ein aufwendiges Menü kann dazu führen, dass Prozessorleistung übermäßig beansprucht wird oder dass die Seite zeitverzögert geladen wird. Das passiert etwa bei zeit.de oder Spiegel Online. Bei diesen Seiten funktioniert oft das Menü zu Beginn nicht, dass man glauben könnte, sie hätten gar kein Pulldown.

Last not least erhöhen Pulldowns die Unübersichtlichkeit. Der User ist gezwungen, alle Menüs einmal auszuklappen, um zu erfahren, welche Unterpunkte sich dahinter verbergen. Ist der User nicht gerade krankhaft neugierig oder gezwungen, die Informationen zu bekommen, wird er im Zweifelsfall die Seite wieder verlassen, wenn das Menü nicht nutzerfreundlich ist.

SEO – technisch perfekte Seiten liefern

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Für die Suchmaschinenoptimierung ist es wichtig, technisch einwandfreie Seiten auszuliefern. Dazu gehört auch, dass die Seiten schnell angeschaut werden können. Sind die Dateien etwa aufgeblasen oder für HTML eine Spur zu groß, so hat der Crawler guten Grund, die Auslesung abzubrechen.

Fehlerhafte Tags entstehen oft bei handgemachten Seiten: Fehlende Title, nicht geschlossene Tags bei Überschriften oder Absätzen, fehlende Meta Tags können von Browsern zwar korrekt dargestellt werden. Die Suchmaschinenoptimierung scheitert aber natürlich, denn wo kein Title oder eine identifizierbare Überschrift ist, da kann erst gar keine Bewertung vorgenommen werden. Die Seiten werden eher herabgestuft, weil hier offensichtlich jemand seine Hausaufgaben nicht gemacht hat.

Dabei muss man auch bedenken, dass der Crawler schließlich sehr viele Seiten in sehr Kurzer Zeit anschauen soll bzw. will. Er muss dabei z. B. auch HTML-Befehle und HTML-Kommentare ausfiltern.

Eine einzelne HTML-Seite sollte nicht größer als 200 Kilobyte sein. Besser sind 100 KB maximal. Anfällig hierfür sind vor allem ältere Seiten mit tabellenbasierten Designs, Seiten mit großem Anteil an Inline-CSS und ähnliche Sünden des Webdesign.

Bilder sollten für das Web optimiert sein mit einer Auflösung von 72 dpi und einer vernünftigen Kompression. Sie sollten nicht größer als 100 Kilobyte sein. Ist man der Ansicht, unbedingt größere Bilder in hoher Qualität anbieten zu müssen, so kann man Großansichten optional anbieten, indem man kleinere Versionen in der eigentlichen Website anbietet und erst beim Draufklicken mit dem Hinweis “Größeres Bild” das entsprechende größere Bild anbietet.

Ein Problem sind dynamische Seiten, die erst beim Besuch aus der Datenbank generiert werden. Bei entsprechendem Traffic kann das lange dauern, wir wissen aber alle, das kaum einer – auch keiner von uns – die Geduld hat, hierauf zu warten.

Zudem verfügt nicht jeder potentielle Besucher über einen Breitbandanschluß. Mobile Geräte z. B. haben öft größere Schwankungen. Möchte man Besucher aus anderen Ländern haben, verstärkt sich das Problem zusätzlich. Jenseits der westlichen Welt gibt es auch in Internet-Cafes nur sehr langsame Anschlüsse.

Die Lösung dynamische Seiten ist ein Cache, der bei entsprechenden CMS-Systemen existiert. Für WordPress gibt es eine eingebaute Cache-Funktion sowie ein Plugin.

Für nichtdynamische Webseiten hat man eventuell die Möglichkeit, die HTTP-Kompression des Servers zu aktivieren. Hierfür muss man allerdings Zugriff auf die Serverkonfiguration haben. Einige Browser scheinen zudem nicht in der Lage zu sein, serverseitig komprimierte Dateien zu entpacken.

Viele kleine Dateien wie etwa GIF-Bildchen auszuliefern beansprucht den Server stärker als die Auslieferung einer einzelnen großen Datei. Hier ließe sich überlegen, ob man etwa mit CSS und browserseitig erzeugten Grafiken wie Listensymbolen besser fährt.

Last not least sollte man die Cache-Funktion für Proxies nicht deaktivieren. Es kann immer mal passieren, dass der Server aus irgendeinem Grund down ist. Deswegen ist es von Vorteil, wenn die Provider eine Version aus dem Cache anbieten können, zumal das oft flotter ist als die aktuelle Version jeweils abzufragen.

Wie man dynamische Seiten mit MySQL optimiert, erfährt man hier. SELFhtml hält ebenfalls einen Text bereit.

Suchmaschinenoptimierung über Sitemaps – Website in der Nußschale

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Manche Seiten werden schlechter indiziert als andere. Um zumindest sicher zu stellen, dass die gesamte Website inklusive aller Unterseiten erfasst wird, werden Sitemaps verwendet.

Zu unterscheiden sind die HTML-Sitemaps, die von normalen Nutzern verwendet werden können und einen Einblick in die Struktur eines Webauftritts geben. Sie zeigen in der Art von Organigrammen Hierarchien von Ober- und Unterseiten.

Daneben stehen maschinenlesbare XML-Sitemaps. Google bietet ein Tool an, das solche Maps generiert. Dieses Tool funktioniert aber nur, wenn man es per FTP auf den eigenen Server hochladen kann und der Server Python unterstützt. Bei normalen Hostingpaketen ist das kein Standard. Man kann seine Sitemap aber auch mit anderen Tools generieren und dann bei Google und neuerdings auch bei Yahoo und MSN Live Search anmelden. Man benötigt jeweils einen Account und muss authentifizieren, dass man Eigentümer der Site ist. Für WordPress gibts natürlich ein Plugin, das Sitemaps online erstellt.

Google hält sich nach eigenen Angaben an den geltenden Standard, weshalb es im übrigen unsinnig ist, von “Google Sitemaps” zu reden, sie kommen jedem Crawler zugute.

Man sollte natürlich darauf achten, keine Seiten in die Map aufzunehmen, die nicht indiziert werden sollen.

Mehr zu SEO:

Web 2.0 fürs Optimieren

Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO leicht gemacht III – Verlinkungen

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Verlinkungen machen das Leben leichter. Ein Webbastler, der keine externen Links verwendet, weil er glaubt, seine Nutzer dadurch zu verlieren, hat den Sinn des WWW nicht ganz verstanden.
Auch Linkpartnerschaften oder Linkfarmen machen heute wenig Sinn. Suchmaschinenen sind durchaus in der Lage, eine normale Seite von einer zu unterscheiden, die lediglich auf andere Seiten verrweist. Eine Linksammlung zu einem bestimmten Thema ist durchaus sinnvoll, da sie einen Mehrwert für den Nutzer hat. Linksammlungen werden gerne in die Favoriten aufgenommen und erhöhen damit die Wahrscheinlichkeit, dass ein Nutzer zurückkehrt.

Google PageRank

Der Google PageRank bewertet eine Seite auf der Basis von Verlinkungen. Je öfter eine Seite verlinkt ist, desto besser wird sie bewertet. Allerdings werden auch Links unterschiedlich gewertet: Bei einer Seite mit hohem PageRank werden ausgehende Links höher bewertet als externe Links von Seiten, auf die selbst keine Links verweisen.
Wikipedia hat somit eine höhere Autorität als etwa die Seite des lokalen Kanichenzüchtervereins.
Wer allerdings versucht, wild Links auf allen möglichen Seiten zu streuen, wird vermutlich enttäuscht. Wikipedia stattet offenbar alle externen Links mit dem Attribut no-follow aus. Das gibt dem Suchmaschinenbot die Anweisung, diesem Link nicht zu folgen und ihn damit auch nicht zu werten. Zudem wird Linkspam recht flott beseitigt.

Links verteilen

Auch Gästebücher werden nicht gewertet, da sie ebenfalls vollgespamt werden.
Wenn es inhaltlich Sinn macht, darf man dennoch seine Links verteilen. Etwa wenn jemand in einem Forum oder Yahoo ASK nach einer bestimmten Sache frage, die man auf der eigenen Seite bereits beantwortet hat.

Linkwertigkeit

Man kann zudem vermuten, dass nur “echte” Links gewertet werden. Das heisst, der Text http://www.oliveira-online.net/wordpress/wp-admin/post-new.php
würde nicht gewertet, weil die Suchmaschine nicht erkennen kann oder will, dass es sich um einen Link handelt. Der Link muss anklickbar sein, der Tag a sollte verwendet werden, dass sieht dann so aus: das ist also der Link. Ich empfehle zudem die Verwendung sinnvoller Linknamen, nicht ausgerechnet “Hier klicken”, eher sollte man dem Nutzer klar machen, was ihn erwartet, wenn er den Link anklickt. Linknamen, Alternativtext und Titel spielen ebenfalls eine Rolle, wenn die Suchmaschine den Wert des Links herauszufinden sucht. Wir erinnern usn:
– der Linkname ist das, was der Nutzer als erstes sieht und den er anklicken kann
– der Alternativtext ist in XHTML vorgeschrieben und enthält einer ausführlichere Beschreibung dessen, was sich hinter dem Link verbirgt
– der Titel wird angezeigt, wenn der User mit der Maus über den Link fährt.

Bookmarken erleichtern

Der Nutzerfreundlichkeit wegen sollte man Icons anbieten, die das Favorisieren oder soziale Bookmarken erlauben, etwa bei Mister Wong oder del.icio.us. Man kann natürlich selbst seine eigene Seite als Favoriten dort einstellen, es ist ganz natürlich eine Affinität zur eigenen Site zu haben. Wie viel das bei Suchmaschinen im Endeffekt bringt, lässt sich aber nicht so ohne weiteres sagen. Bietet man aber interessanten Inhalt an und die Möglichkeiten zum einfachen Bookmarken, erhöht man zumindest die Wahrscheinlichkeit, dass der Besucher wieder kommt.

Intern versus extern

Ein interner Link verweist auf siteinterne Informationen, ein externer Link führt von der Seite weg. Je stärker eine Seite intern verlinkt ist, desto höher ist ihre Bedeutung. Am stärksten verlinkt sein dürften die Seiten, die in der Navigation stehen: die Startseite, die Kontaktseite usw. Interne Links haben zudem den Vorteil, dass sie auf Seiten verweisen können, die von der Suchmaschine aus irgendeinem Grund nicht gefunden wurden. Zudem sollte man eine Sitemap haben, Google stellt hier für Webmaster entsprechende Tools zur Verfügung.

Sinn der SEO

Schließlich sollte man das eigentliche Ziel der SEO nicht aus den Augen verlieren. Es besteht keineswegs darin, den eigenen Traffic in ungekannte Höhen zu treiben, sondern relvante Personen auf den eigenen rlevanten Content aufmerksam zu machen. Wer hingegen Foren vollspamt oder versucht, Suchmaschinen zu manipulieren, macht sich nicht nur unbeliebt, sondern kann ganz schnell auf einer Blacklist landen,k was im schlimmsten Falle das Ende des eigenen Geschäftes bedeuten kann.

Verwandte Beiträge

SEO VI – Optimieren mit Web 2.0

SEO V – Textarbeit

SEO IV – die Technik

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO VI – Web 2.0 fürs Optimieren

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Vielleicht sollte ich einmal mit dem Nummerieren aufhören;-) Wir haben in den letzten fünf Teilen die wesentlichen Elemente des Optimierens dargestellt, nun geht es darum, kreative Ideen selbst zu entwickeln.
Web 2.0 gehören zu den vielen alten Hüten des Net. In Deutschland ist es dennoch kaum angekommen aus Gründen, über die wir noch keine Erkenntnisse gewonnen haben.

Dabei lässt sich Web 2.0 hervorragend für die Optimierung der Website einsetzen. Wollen wir etwa Marketing für unsere Website betreiben, schreiben wir in sämtliche Prfoile, Kommentare und ähnliche Äußerungen im WWW unsere Webadresse rein – natürlich nur, wenn wir nicht anonym bleiben wollen.

On-Site-Marketing dürfte noch erfolgreicher sein: Man kann kontextabhängige Informationen anbieten in Form von Blogs oder als stinknormale Website.

Bindet man RSS ein, lassen sich Suchmaschinen binnen Minuten über neue Inhalte informieren und sie sind schnell aktualisiert.

Wenn sich anbietet, kann man auch Foren für Externe anbieten. ACHTUNG: Läßt man Fremde für sich schreiben, müssen die Kommentare und Ergüsse immer administriert werden.

Bekannt ist die Möglichkeit, die Seite zu bookmarken, die lustigen bunten Buttons finden sich ja schon überall.

Wer auf solche Art wertvollen Inhalt anbietet, sollte auch interne Links setzen, etwa aif verwandte Beiträge. Der Hintergrund ist, dass die Suchmaschinen so auf Seiten hingewiesen werden können, die sie aus irgendwelchen unerfindlichen Gründen bisher nicht indiziert haben.

Eine ganz simple Geschichte, die aber kaum verwendet wird, ist das Empfehlungsmarketing. Tell a Friend ist fast nur bei Zeitungen üblich. Doch wie oft findet man eine Seite, die man gerne weiterempfehlen würde? Man vergisst es aber wieder, weil eben keine Funktion dafür angeboten wird. Entsprechende PHP-Skripte lassen sich leicht finden.

Mehr zu SEO:
Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

Die Kunst der Suchmaschinenoptimierung erfordert Phantasie, Geduld, Gründlichkeit und viel viel Gefrickel. Wir fangen mit dem an, was man nicht tun sollte.

Zunächst zwei Warnungen:

– Man sollte nicht versuchen, eine Suchmaschine zu manipulieren. Das kommt früher oder später raus und kann schlimmstenfalls zum temporären oder kompletten Verschwinden aus dem Index führen. Google bietet extra einen Petzlink an. Wer dort einmal drin war, kann seine Domain direkt löschen lassen, sie ist verbrannt.

2. Man sollte nicht für eine bestimmte Suchmaschine optimieren. G ist zwar Marktfüher, meiner Ansicht nach werden sich aber früher oder später Spezialsuchmaschinen durchsetzen. Übrigens hat google vor allem in den Deutschland einen wahnsinnigen Marktanteil. In den USA sind Yahoo und Live sehr stark.

Für Suchmaschinenbots gibt es zwei Ebenen: Die Inhaltsebene und die Strukturebene.

Auf der Inhaltsebene ist es wichtig zu wissen, dass Suchmaschinen derzeit keine graphischen Elemente durchsuchen können, also keine Fotos, Flash-Elemente oder gar Audio/Video oder JavaScript.

Auf der Strukturebene – also dem HTML-Code – ist ebenfalls Text entscheidend. Hier muss der Text an der richtigen Stelle stehen, es gibt spezielle Attribute und Tags, die hier ausgewertet werden.

Die Überschriften <h1> – <h6>

Die Hervorhebungen <i> italic = kursiv, <b> – bold = fett, <u> – underline = unterstrichen (Achtung, hier besteht Verwechselungsgefahr mit Links), <blockquote> – Zitat, <ul> für Listen, <big>, <strong>, <p> für Absätze.

Weitere Artikel
Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO IV – die Strukturebene

Ebenso wichtig wie die Inhaltsebene ist die Strukturebene. Die Struktur einer einzelnen Website basiert auf der Auszeichnungssprache HTML. Mit WYSIWYG-Editoren läßt sich ein solcher HTML-Code automatisch erzeugen. Von großer Relevanz sind folgende Bereiche:

1. Der Title oder Seitentitel: Er wird in den Suchergebnissen als erstes angezeigt und ist ENTSCHEIDEND dafür, dass ein User eine Seite anklickt. Er steht im Kopf einer HTML-Datei und nicht im eigentlichen Text der Seite. Sieht man ein Suchergebnis mit dem Titel “Unbenannte Seite 1” merkt man sofort, dass da jemand geschludert hat

2. Sprechende Links: Von Content Management CMS erzeugte Seiten waren früher sehr kompliziert. Heute werten Suchmaschinen auch die Links aus, deshalb sollten sie Keywords enthalten, siehe die Adressleiste oben. WordPress kann also standardmäßig sprechende Links erzeugen.

3. Tags im Inhalt: Struktur gewinnt eine Seite wie bei normalen Dokumenten mittels Überschriften und Hervorhebungen. WYSIWYG-Editoren wie Kompozer bieten solche Formatvorlagen standardmäßig an. Dabei sollte man den üblichen Unsinn vermeiden, etwa den ganzen Text fett oder kursiv zu machen oder willkürlich Überschriften vergeben. So doof sind die Bot-Programmierer nun doch nicht.

4. Alternativtexte und Titel für Multimedia: Innerhalb eines Links oder Multimedia-Elements lassen sich Alternativtext und Titeltext vergeben. Der Titel wird angezeigt, wenn man mit der Maus darüber fährt. Es spricht nichts dagegen, dass Suchmaschinen solchen wichtigen Text auswerten, aber die Meisten vergessen schlicht, dass es solch eine Möglichkeit überhaupt gibt.

Wichtig ist, dass über CSS definierte Klassen natürlich nicht gewertet werden können. Dazu müsste der Bot verstehen, was mit der Klasse gemeint ist, das kann er natürlich nicht.

Suchmaschinen lieben RSS-Feeds. Ein Weblog-Eintrag kann so oft innerhalb von Minuten in den Suchergebnissen auftauchen. Natürlich sollten sie auch gefüttert werden, sprich, man sollte etwas Relevantes mitzuteilen haben.

SEO für alle II – die Inhaltsebene

Wie im ersten Teil erwähnt, gibt es eine Inhalts- und eine Strukturebene. Fangen wir bei der Inhaltsebene an.

Der Suchmaschinenbot erkennt derzeit nur Text. Deswegen müssen alle Multimediaelemente in unmittelbarer Nähe einen erklärenden und hilfreichen Text haben, sei es nun eine Überschrift, eine Bildunterschrift oder sonstwas. Dies ist im übrigen auch ein Grundsatz der Usability.

Entscheidend ist immer der Text. Sucht man zwei Begriffe im Kontext, ist die Nähe dieser Begriffe zueinander wichtig. Die Schlüsselwörter müssen öfter im Text vorkommen. ACHTUNG: Dem Grundssatz der Usability entsprechend sollte man immer an den Leser und nicht an eine Maschine denken. Wörter unsichtbar zu machen über Schriftfarbe oder CSS ist möglich, wird aber von den Bots nicht gewertet.

SEO Later – Tücken der Suchmaschinenoptimierung

Die Suchmaschinen sind heute immer unberechenbar. Ein eher unscheinbarer Beitrag von mir zu einem Beitrag von Craig Davidson im SZ-Magazin landet auf den ersten Plätzen im deutschsprachigen Raum. Der Beitrag, auf den ich verlinke, erscheint wesentlich tiefer, nicht einmal unter den ersten Zehn.

Woran das liegt? Vermutlich daran, dass das SZ-Magazin für Suchmaschinen nicht richtig zugänglich ist, während Blogs dank RSS manchmal innerhalb von Minuten und oft sehr weit oben in den Suchmaschinen auftauchen. Das mein kleines Blog eine höhere Autorität als das SZ-Magazin hätte, würde mich zwar freuen, wäre aber eher unwahrscheinlich. Entscheidendes Kriterium dürften aber die vergebenen Tags sein.