Schlagwort-Archive: SEO

Ranking bei Amazon – welches Produkt wird verkauft?

Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:

  • das Erscheinungsdatum
  • der Preis
  • die Lieferbarkeit
  • die Höhe der Bewertung
  • die Zahl der Bewertungen
  • die Verkaufszahlen
  • die Durchklickrate

Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.

Warum schlechter Traffic kein guter Traffic ist

Im Google Weblog wird mit einem Augenzwinkern gefragt „Brauchen wir einen Meta-Tag für ’negative Keywords‘?. Matt Cutts sagt nein: Der erste Teil der Erklärung ist verständlich, es ist aus Ressourcensicht nicht sinnvoll, unnötig Energie auf Begriffe aufzuwenden, mit denen die Leute nicht gefunden werden wollen. Der zweite Teil der Meldung ist hingegen ziemlicher Quatsch:

Wir danke für die Meldung, aber wir wurden einfach noch nicht oft genug gebeten: „Bitte sendet mir keine Besucher. Ich möchte bei dieser Wortgruppe nicht
angezeigt werden.“ Quelle

Schließlich geht es nicht um den Webmaster und es geht sicher nicht darum, auf Teufel komm raus Traffic zu generieren. Dies wissen wir schon seit der ersten Schwemme mit Meta Keywords, welche die Meta Tags bis heute diskreditiert haben. Daraus haben wir gelernt, wer Traffic haben will, muss seine Seite mit Erotik und Potenzmittel-Werbung vollpacken.

Inzwischen sollten wir aber verstanden haben, dass diese Art des Traffic uns keinerlei Mehrwert bringt, es sei denn, wir verkaufen Erotik oder Potenzmittel oder etwas Verwandtes. Oder wir kleistern unsere Seite mit Anzeigen voll, mit denen wir Geld verdienen.

Ansonsten sollten unsere Ansprüche wohl höher sein: jemand, der sich auf unsere Seite verirrt hat, wird mit sehr geringer Wahrscheinlichkeit unseren großartigen Content angucken. Schließlich hat er vermutlich etwas bestimmtes gesucht, was wir ihm nicht bieten können.

99 Prozent der Website-Betreiber sind zugleich auch Nutzer einer Suchmaschine und ärgern sich darüber, wenn sie das Gesuchte nicht finden.

Wer die Keywords oder Phrasen analysiert, mit denen die Besucher auf seine Seite kamen, weiß in der Regel, dass er für diese Suchen keine Inhalte liefern kann. Er will aber Besucher haben, die wegen seinem Content kommen, sich ein paar Seiten ansehen und möglichst lange bleiben. Dazu ist es aber auch nötig, die Enttäuschung über fehlende Inhalte möglichst gering zu halten. Bei großen Seiten ist es doch wahrscheinlich, dass die Leute sich den Namen der Site merken, die sie in die Irre führte und selbige auf ihre mentale schwarze Liste kommt.

Bei mir kommt da sehr schnell auch der Verdacht auf, dass die Verantwortlichen an der SEO herum manipuliert haben. Ich persönlich habe mich immer geärgert, wenn ich auf einer Seite gelandet bin, die vielversprechend klang und wenig Inhalte bot. Bei meiner eigenen Seite habe ich auch herumgebastelt, weil ich gemerkt habe, dass die Leute mit falschen Erwartungen zu mir kamen. Für meinen Geschmack ist so etwas ein Fall für den SEO-Doktor.

Als Fazit kann man festhalten, dass die Zufriedenheit des Nutzers ganz oben steht. SEO heißt deshalb nicht nur, möglichst viel Traffic auf meine Seite zu locken, sondern vor allem, die eigenen Inhalte am besten an den Besucher zu bringen.

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Linkstabilität – warum man auf die Öffentlich-Rechtlichen nicht mehr verlinken sollte

Ich habe mir neuerdings wieder den Broken Link Checker für WordPress installiert. Von den rund 800 internen und externen Links waren 80 404, also tot. Während ich einige Links fehlerhaft gesetzt hatte – das waren hauptsächlich interne Links zu eigenen Beiträgen, zeichnet sich bei den externen Links eine klare Tendenz ab: Viele Inhalte verschwinden wieder aus dem Netz.

Kurioserweise sind es gerade die großen Plattformen, deren Inhalte depubliziert werden, wie die Fachwelt zu sagen pflegt. Der aktuelle Medienstaatsvertrag verpflichtet die Öffentlich-rechtlichen dazu, bestimmte Inhalte gar nicht, andere nur für eine bestimmte Zeit bereit zu stellen. Das vermindert nur nebenbei drastisch ihre Verlinkungsattraktivität. Viele Inhalte, auf die ich verlinkt hatte, sind mittlerweile offline. Menschen, die Suchmaschinenoptimierung betreiben und ihre Seite allgemein in Schuß halten, haben viel Arbeit damit, diese Links aufzuspüren und zu entlinken.

Andere Webseiten verändern ihre Seitenstruktur. Wenn man wie ich gerne auf die Druckversion verlinkt und selbige durch JavaScript erzeugt wird, gehen bei einem Relaunch ebenfalls die Links verloren. Dabei wird der Druck-Algorithmus geändert. Deswegen sind viele Links 404. Es hat aber seinen Grund, warum ich die Druckversion verlinke: Die Zeit hatte früher und Technology Review bis heute die Angewohnheit, auch kurze Artikel auf zwei oder mehr Seiten zu verteilen.

Die 404-Plage erinnert uns daran, dass das Internet eben doch kein lückenloses Gedächnis hat. Niemand weiß, wie viele Texte, die nur im Web standen täglich verschwinden und die nirgendwo archiviert wurden. Denn es kann durchaus sein, dass einige Texte einfach aus dem netz genommen wurden. Archive.org ist eine nette Geschichte, aber die Jungs könnten – selbst wenn sie wollten – nicht alles speichern. Google tut das zwar – vermutlich – aber die dürfen schon aus urheberrechtlichen Gründen dieses Archiv nicht bereit stellen.

Wir neigen ein wenig dazu, die Informationen, digital gespeichert werden können, für unvergänglich zu halten. Dabei muss jedem klar sein, dass jeden Tag große Mengen an Daten verloren gehen, niemand weiß, wie viele das sind. Bücher verschimmeln in Archiven, einige Archive werden unfreiwillig tiefer gelegt, Magnetbänder zerfallen, auch die CDs und Minidiscs, die so unverwüstlich aussehen, können unlesbar werden.

SEO – technisch perfekte Seiten liefern

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Für die Suchmaschinenoptimierung ist es wichtig, technisch einwandfreie Seiten auszuliefern. Dazu gehört auch, dass die Seiten schnell angeschaut werden können. Sind die Dateien etwa aufgeblasen oder für HTML eine Spur zu groß, so hat der Crawler guten Grund, die Auslesung abzubrechen.

Fehlerhafte Tags entstehen oft bei handgemachten Seiten: Fehlende Title, nicht geschlossene Tags bei Überschriften oder Absätzen, fehlende Meta Tags können von Browsern zwar korrekt dargestellt werden. Die Suchmaschinenoptimierung scheitert aber natürlich, denn wo kein Title oder eine identifizierbare Überschrift ist, da kann erst gar keine Bewertung vorgenommen werden. Die Seiten werden eher herabgestuft, weil hier offensichtlich jemand seine Hausaufgaben nicht gemacht hat.

Dabei muss man auch bedenken, dass der Crawler schließlich sehr viele Seiten in sehr Kurzer Zeit anschauen soll bzw. will. Er muss dabei z. B. auch HTML-Befehle und HTML-Kommentare ausfiltern.

Eine einzelne HTML-Seite sollte nicht größer als 200 Kilobyte sein. Besser sind 100 KB maximal. Anfällig hierfür sind vor allem ältere Seiten mit tabellenbasierten Designs, Seiten mit großem Anteil an Inline-CSS und ähnliche Sünden des Webdesign.

Bilder sollten für das Web optimiert sein mit einer Auflösung von 72 dpi und einer vernünftigen Kompression. Sie sollten nicht größer als 100 Kilobyte sein. Ist man der Ansicht, unbedingt größere Bilder in hoher Qualität anbieten zu müssen, so kann man Großansichten optional anbieten, indem man kleinere Versionen in der eigentlichen Website anbietet und erst beim Draufklicken mit dem Hinweis „Größeres Bild“ das entsprechende größere Bild anbietet.

Ein Problem sind dynamische Seiten, die erst beim Besuch aus der Datenbank generiert werden. Bei entsprechendem Traffic kann das lange dauern, wir wissen aber alle, das kaum einer – auch keiner von uns – die Geduld hat, hierauf zu warten.

Zudem verfügt nicht jeder potentielle Besucher über einen Breitbandanschluß. Mobile Geräte z. B. haben öft größere Schwankungen. Möchte man Besucher aus anderen Ländern haben, verstärkt sich das Problem zusätzlich. Jenseits der westlichen Welt gibt es auch in Internet-Cafes nur sehr langsame Anschlüsse.

Die Lösung dynamische Seiten ist ein Cache, der bei entsprechenden CMS-Systemen existiert. Für WordPress gibt es eine eingebaute Cache-Funktion sowie ein Plugin.

Für nichtdynamische Webseiten hat man eventuell die Möglichkeit, die HTTP-Kompression des Servers zu aktivieren. Hierfür muss man allerdings Zugriff auf die Serverkonfiguration haben. Einige Browser scheinen zudem nicht in der Lage zu sein, serverseitig komprimierte Dateien zu entpacken.

Viele kleine Dateien wie etwa GIF-Bildchen auszuliefern beansprucht den Server stärker als die Auslieferung einer einzelnen großen Datei. Hier ließe sich überlegen, ob man etwa mit CSS und browserseitig erzeugten Grafiken wie Listensymbolen besser fährt.

Last not least sollte man die Cache-Funktion für Proxies nicht deaktivieren. Es kann immer mal passieren, dass der Server aus irgendeinem Grund down ist. Deswegen ist es von Vorteil, wenn die Provider eine Version aus dem Cache anbieten können, zumal das oft flotter ist als die aktuelle Version jeweils abzufragen.

Wie man dynamische Seiten mit MySQL optimiert, erfährt man hier. SELFhtml hält ebenfalls einen Text bereit.

SEO IV – schwerer wirds immer – technische Aspekte

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Der Titel „SEO leicht gemacht“, den ich bisher verwendet habe, war irreführend. SEO ist zumindest zeitaufwendig und ein Prozess, der genau genommen nie ganz abgeschlossen ist.

Die technische Ebene ist dabei die wahrscheinlich komplexeste Ebene. Hier kommt man ohne HTML-Kenntnisse nicht weit.

Die Bots und Crawler der Suchmaschinen können zwar nicht denken, sie sind aber keine totalen Authisten. Deswegen kann man ihnen auch so leicht nichts vormachen.

Sie können zum Beispiel erkennen, ob eine Seite sauber geschrieben ist. Viele der älteren WYSIWYG-Editoren wie Frontpage 2000, aber auch NVU X.X produzieren schlechten Code. Das hat sich wohl gebessert, auch beim Dreamweaver, ein weiteres Manko des WYSIWYG wird sich wohl nie beheben lassen – die Produktion von redundantem und kompliziertem  Code.

Das mag auch daran liegen, dass Stylesheets auf dieser Ebene eher schwierig zu implementieren sind.

Clean the code

Mit sauberem und schlankem HTML-Code kann man das Herz jedes Bots gewinnen. Eine vom WYSIWYG produzierte Seite ist trotz Optimierung doppelt oder dreimal so groß wie eine Handgeschriebene. Der Grund ist ganz einfach: Obwohl z. B. alle Absätze gleich formatiert sind, schreibt der optische Editor in jeden Absatz Schriftart, Schriftyp, Schriftgröße und weitere Informationen rein. Er weiß nicht, dass wir alle Absätze gleich formatieren wollen, weil wir das nicht vroher festgelegt haben.
Ein weiterer Grund sind Layouttabellen, die aus vielerlei Gründen von Webdesignern nach wie vor verwendet werden. Der Vorteil von Tabellen liegt tatsächlich darin, dass sich Elemente recht genau platzieren lassen und dass die Seiten auch dann strukturiert sind, wenn man sie als HTML abspeichert und offline anguckt. Stylesheets werden normalerweise nicht abgespeichert, wodurch natürlich alles verloren geht, was darin festgelegt wurde.
Aber: Layouttabellen vervielfachen den Quellcode.

Pflegeleichter Quellcode

Korrigieren lässt sich das Ganze nur auf Quelltextebene, den Quelltext muss man aber lesen können. Das beste ist wohl, parallel auf beiden Ebenen zu arbeiten, wem phase5, Notepad++ oder HTML-Studio zu spartanisch erscheint.

Banalitäten wie korrekte Dokumentendeklaration, Meta-Description, keine toten Links, Sitemaps, keine Links in JavaScript-Code, Titel für Images, Validierung des Quelltextes und des Style Sheets sollten eigentlich nicht mehr erwähnt werden. Viele Webdesigner vertrauen allerdings eher auf ihre Design- als auf technische Fähigkeiten.

Das alles ist aus einem simplen Grund wichtig: der Bot kann durchaus erkenen, ob eine Seite valides HTML ist, ob Links tot sind oder ob man sich Mühe gegeben hat, sauberen Code zu erstellen. Für den Bot ist es irrelevant, er weiß dann nur, dass da ein Profi am Werk war und das sie Seite nutzerfreundlich ist.

Meta und mehr

Obwohl Meta-Tags heute an sich für die Suchmaschinenoptimierung nicht mehr die Bedeutung wie einst hatten, müssen auch sie gepflegt werden. Der Webdesigner muss sich bemühen, einen ordentlichen Eindruck auf den Bot zu machen. Google und andere beschweren sich durchaus, wenn doppelte Meta-Descriptions vorhanden sind oder wenn die Keywords nicht mit dem Inhalt des Body übereinstimmen.
Ebenso benötigt man auch dann eine robots.txt, wenn man dem Robot eigentlich nichts mitteilen will, wenn man ihm also erlauben will, alle Verzeichnisse zu durchsuchen.

Weiterführendes

SEO VI – Web 2.0 fürs Optimieren
SEO IV – die Strukturebene

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

SEO leicht gemacht – Suchmaschinenoptimierung für alle I

Die Kunst der Suchmaschinenoptimierung erfordert Phantasie, Geduld, Gründlichkeit und viel viel Gefrickel. Wir fangen mit dem an, was man nicht tun sollte.

Zunächst zwei Warnungen:

– Man sollte nicht versuchen, eine Suchmaschine zu manipulieren. Das kommt früher oder später raus und kann schlimmstenfalls zum temporären oder kompletten Verschwinden aus dem Index führen. Google bietet extra einen Petzlink an. Wer dort einmal drin war, kann seine Domain direkt löschen lassen, sie ist verbrannt.

2. Man sollte nicht für eine bestimmte Suchmaschine optimieren. G ist zwar Marktfüher, meiner Ansicht nach werden sich aber früher oder später Spezialsuchmaschinen durchsetzen. Übrigens hat google vor allem in den Deutschland einen wahnsinnigen Marktanteil. In den USA sind Yahoo und Live sehr stark.

Für Suchmaschinenbots gibt es zwei Ebenen: Die Inhaltsebene und die Strukturebene.

Auf der Inhaltsebene ist es wichtig zu wissen, dass Suchmaschinen derzeit keine graphischen Elemente durchsuchen können, also keine Fotos, Flash-Elemente oder gar Audio/Video oder JavaScript.

Auf der Strukturebene – also dem HTML-Code – ist ebenfalls Text entscheidend. Hier muss der Text an der richtigen Stelle stehen, es gibt spezielle Attribute und Tags, die hier ausgewertet werden.

Die Überschriften <h1> – <h6>

Die Hervorhebungen <i> italic = kursiv, <b> – bold = fett, <u> – underline = unterstrichen (Achtung, hier besteht Verwechselungsgefahr mit Links), <blockquote> – Zitat, <ul> für Listen, <big>, <strong>, <p> für Absätze.

Weitere Artikel
Textarbeit

SEO IV – die Technik

SEO leicht gemacht III – Verlinkungen

SEO für alle II – die Inhaltsebene

SEO IV – die Strukturebene

Ebenso wichtig wie die Inhaltsebene ist die Strukturebene. Die Struktur einer einzelnen Website basiert auf der Auszeichnungssprache HTML. Mit WYSIWYG-Editoren läßt sich ein solcher HTML-Code automatisch erzeugen. Von großer Relevanz sind folgende Bereiche:

1. Der Title oder Seitentitel: Er wird in den Suchergebnissen als erstes angezeigt und ist ENTSCHEIDEND dafür, dass ein User eine Seite anklickt. Er steht im Kopf einer HTML-Datei und nicht im eigentlichen Text der Seite. Sieht man ein Suchergebnis mit dem Titel „Unbenannte Seite 1“ merkt man sofort, dass da jemand geschludert hat

2. Sprechende Links: Von Content Management CMS erzeugte Seiten waren früher sehr kompliziert. Heute werten Suchmaschinen auch die Links aus, deshalb sollten sie Keywords enthalten, siehe die Adressleiste oben. WordPress kann also standardmäßig sprechende Links erzeugen.

3. Tags im Inhalt: Struktur gewinnt eine Seite wie bei normalen Dokumenten mittels Überschriften und Hervorhebungen. WYSIWYG-Editoren wie Kompozer bieten solche Formatvorlagen standardmäßig an. Dabei sollte man den üblichen Unsinn vermeiden, etwa den ganzen Text fett oder kursiv zu machen oder willkürlich Überschriften vergeben. So doof sind die Bot-Programmierer nun doch nicht.

4. Alternativtexte und Titel für Multimedia: Innerhalb eines Links oder Multimedia-Elements lassen sich Alternativtext und Titeltext vergeben. Der Titel wird angezeigt, wenn man mit der Maus darüber fährt. Es spricht nichts dagegen, dass Suchmaschinen solchen wichtigen Text auswerten, aber die Meisten vergessen schlicht, dass es solch eine Möglichkeit überhaupt gibt.

Wichtig ist, dass über CSS definierte Klassen natürlich nicht gewertet werden können. Dazu müsste der Bot verstehen, was mit der Klasse gemeint ist, das kann er natürlich nicht.

Suchmaschinen lieben RSS-Feeds. Ein Weblog-Eintrag kann so oft innerhalb von Minuten in den Suchergebnissen auftauchen. Natürlich sollten sie auch gefüttert werden, sprich, man sollte etwas Relevantes mitzuteilen haben.

SEO für alle II – die Inhaltsebene

Wie im ersten Teil erwähnt, gibt es eine Inhalts- und eine Strukturebene. Fangen wir bei der Inhaltsebene an.

Der Suchmaschinenbot erkennt derzeit nur Text. Deswegen müssen alle Multimediaelemente in unmittelbarer Nähe einen erklärenden und hilfreichen Text haben, sei es nun eine Überschrift, eine Bildunterschrift oder sonstwas. Dies ist im übrigen auch ein Grundsatz der Usability.

Entscheidend ist immer der Text. Sucht man zwei Begriffe im Kontext, ist die Nähe dieser Begriffe zueinander wichtig. Die Schlüsselwörter müssen öfter im Text vorkommen. ACHTUNG: Dem Grundssatz der Usability entsprechend sollte man immer an den Leser und nicht an eine Maschine denken. Wörter unsichtbar zu machen über Schriftfarbe oder CSS ist möglich, wird aber von den Bots nicht gewertet.

SEO Later – Tücken der Suchmaschinenoptimierung

Die Suchmaschinen sind heute immer unberechenbar. Ein eher unscheinbarer Beitrag von mir zu einem Beitrag von Craig Davidson im SZ-Magazin landet auf den ersten Plätzen im deutschsprachigen Raum. Der Beitrag, auf den ich verlinke, erscheint wesentlich tiefer, nicht einmal unter den ersten Zehn.

Woran das liegt? Vermutlich daran, dass das SZ-Magazin für Suchmaschinen nicht richtig zugänglich ist, während Blogs dank RSS manchmal innerhalb von Minuten und oft sehr weit oben in den Suchmaschinen auftauchen. Das mein kleines Blog eine höhere Autorität als das SZ-Magazin hätte, würde mich zwar freuen, wäre aber eher unwahrscheinlich. Entscheidendes Kriterium dürften aber die vergebenen Tags sein.