Archiv der Kategorie: Suchmaschinenoptimierung SEO

Ranking bei Amazon – welches Produkt wird verkauft?

Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:

  • das Erscheinungsdatum
  • der Preis
  • die Lieferbarkeit
  • die Höhe der Bewertung
  • die Zahl der Bewertungen
  • die Verkaufszahlen
  • die Durchklickrate

Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.

Serendipity darf nicht sterben – Filterbubble auch ohne Datensammlung

Manchmal ist es doch überraschend, wie schlecht die Suchmaschinen nach wie vor funktionieren. Wie oft ist es dir passiert, dass du drei oder vier Suchbegriffe eingegeben hast und selbst der Branchenprimus Google nur Schrott ausgeworfen hat? In letzter Zeit sicher öfter – weil Google jetzt meint, besser zu wissen, was du suchst als du selbst. Die Folge ist, dass Google beliebig viele Begriffe bei Suchphrasen weglässt und entsprechend wertlose Suchergebnisse anzeigt. Zwei Beispiele: Ich suche nach dem More-More-Effekt und Google zeigt mir Noiré-Effekt, ich suche nach ODF und Google bietet mir Ergebnisse zu PDF.
Im Grunde haben sich die Suchmaschinen seit mehr als zehn Jahren nicht weiterentwickelt. Der letzte große Sprung wurde von Google mit dem Messen des Verlinkungsgrades gemacht, damit ist die Firma groß geworden. Alles, was danach kam war die Optimierung oder Spambekämmpfung durch den Algorythmus. Faktisch ist seit zehn Jahren nichts mehr von Belang im Suchmaschinenbereich passiert. Fairerweise muss ich aber dazu sagen, dass ich die zahlreichen kleinen Suchmaschinen und ihre Technik nicht kenne. Das liegt teilweise auch daran, dass Cuil oder Blekko im deutschsprachigen Bereich bisher nicht mitspielen können.
Die große Schwäche von Google und Co ist nach wie vor die Gleiche. Google schaut, ob bestimmte Worte in einem Text vorkommen, wwie diese Worte zueinander positioniert sind und ob überhaupt genügend signifikanter Text vorhanden ist. Angeblich können in bestimmtem Maße auch unterschiedliche Wortfolgen oder Synonyme verarbeitet werden, was aber meiner Erfahrung nach nicht wirklich funktioniert. Die Auswertung der Geoposition und dazu passende Suche ist ein nettes Gimmick, was aber niemanden vom Hocker haut.
Dazu kommt noch, dass mittlerweile jede Organisation, die etwas Geld in der Tasche hat versucht, ihre Texte zu seo-isiseren. Für wen das jetzt Neuland ist: Redakteure werden dazu angehalten, suchmaschinengerecht zu schreiben, das heißt, die richtigen Wörter in der richtigen Dichte einzusetzen. Das mag man für legitim halten, letzten Endes werden damit aber solche Texte auf die vorderen Plätze geschoben, ohne dass sich ihr Inhalt oder die Relevanz verbessert haben. Hat jemand schon mal ernsthaft nach einer Preissuchmaschine gesucht? Sicher nicht so häufig, dass sie auf der ersten Suchseite sein sollten.

Manche sprechen bereits von der Filterbubble. Algoritmen in den sozialen Netzwerken oder den Suchmaschinen präsentieren dem Nutzer bevorzugt das, was sie meinen, es interessiere ihn besonders. Dabei analysieren sie die Daten, die sie über Einen gesammelt haben: Was steht in seinem Profil, mit wem interagiert er am meisten, welche Links oder Inhalte fand er besonders toll und so weiter. Auch Amazon macht das.
Wir haben uns so sehr daran gewöhnt, dass Suchmaschinen buchstäblich nur die Wörter suchen, die wir eingegeben haben, dass uns das gar nicht mehr blöd vorkommt. Auffällig ist, wie stark Google den Long Tail verdrängt hat. Zum einen zieht es große Webseiten vor und zwar auch dort, wo Fachportale bessere und interessantere Inhalte bieten. Zum anderen lässt es aktuell mit dem letzten großen Update des Algorithmus gerne mal einen Suchbegriff weg oder interpretiert relativ frei, was der Sucher gesucht haben könnte. Das wäre ein guter Grund, Meta-Suchmaschinen einzusetzen. Leider scheint es auch hier keine Algoritmen zu geben, die nützliche Ergebnisse liefern.
Kann es eigentlich sein, dass wir schon so lange Google als Suchmaschine nutzen, dass wir alle anderen Suchmaschinen als schlechter empfinden? Klingt absurd, ist aber durchaus möglich. Sagen wir, ich nutze Google seit ungefähr zehn Jahren. Auch wenn wir Google für intuitiv halten, jede Maschine hat ihre Ecken und Kanten. Nur gewöhnen wir uns irgendwann daran und empfinden die Macken und Schwächen nicht mehr als solche. Es ist so wie mit den Autoabgasen, wir könnten wissen, dass sie da sind, auch wenn wir sie nicht mehr riechen. Oder wer andauernd MP3s hört, weiß nicht mehr, wie Musik in guter Qualität klingen muss.
Wenn wir jetzt anfangen, eine andere Suchmaschine zu nutzen, müssten wir uns umgewöhnen, und das tut eben keiner gern.

Google als Selbstverstärker

Einen interessanten Effekt, der auf Google basiert hat bisher keiner beschrieben: Google verstärkt oder verfestigt durch seine Suchergebnisse die Suchergebnisse. Klingt schwachsinnig, ist aber einfach zu erklären.
Nehmen wir an, ich schreibe einen Artikel über die Schwäche von Suchmaschinen. Zwischendurch oder nach dem Schreiben suche ich mit bestimmten Begriffen, die auch in meinem Artikel vorkommen nach interessanten Seiten, die ich verlinken kann. Ich schaue dabei mit Vorliebe auf die ersten Seiten von Google. Setze ich nun den Link, verbessere ich die Position des verlinkten Artikels zumindest minimal. Ich verfestige also die Position des verlinkten Artikels, allerdings ohne zu wissen, ob es nicht bessere Artikel gab, die eher zu meinem Artikel gepasst hätten. Ich bestätige also Google in seiner Meinung, dass es sich um den Beitrag, der durch seinen Algorithmus ausgewählt wurde um einen guten Beitrag handelt.
Die Filterbubble ist also schon da, auch ohne dass wir uns irgendwo einloggen und Profile über uns angelegt werden. Je stärker bestimmte Inhalte verlinkt werden, desto stärker werden andere Inhalte in den Long Tail verdrängt. Das ist der More-More-Effekt.
Weitere Tools verstärken die Filterbubble. Statt uns selber auf die Suche nach Inhalten zu begeben, verwenden wir Dienste wie paper.li, die uns die interessantesten Nachrichten zusammenstellen. Sie aggregieren und gewichten diese Nachrichten nach Likes und Re-Tweets und voila – wir haben den Google-Filter-Selbstverstärkungseffekt.
Der goldene Käfig von Facebook ist natürlich noch extremer. Bei Facebook kann man wenig machen, wenn man nicht eingeloggt ist. Für den energischen Facebooker existiert also nichts, was außerhalb der Gated Community von Facebook liegt bzw. nicht über Links reingekommen ist.
Der Serendipity-Effekt bleibt dabei zunehmend auf der Strecke. Das ist bedauerlich, weil In den hinteren Suchergebnissen so viel Potential steckt, das ungenutzt weil unbemerkt bleibt. Gerade dieser Effekt macht das Netz zu einem Quell kreativer Ideen. Liest man das, was alle anderen schon gelesen haben, hat man wahrscheinlich auch die gleichen Ideen, zumindest sinkt die Chance auf kreative neue Assoziationen.
Deswegen ist es auch so spannend, gut verlinkende Blogs zu lesen. Meiner Ansicht nach besteht eine der großen Stärken des Web darin, dass es weniger hierarchisch wie ein Buch sondern assoziativ wie ein Netz aufgebaut ist. Ich springe von Gedanken X zu Sache Y und schließe bei Z, wobei eine Verbindung geschaffen wird, die mir vorher nicht klar war. Auf jeden Fall kann ich sagen, dass es in einigen Blogs wesentlich interessantere Links gibt als man sie bei Google gefunden hätte.
Deswegen und um dem Filterbubble-Effekt zu entgehen empfehle ich jedem, der es nicht hören will, so viele interessante Blogs wie möglich in den RSS-Feed zu holen und nicht darauf zu vertrauen, dass Google, Twitter, Facebook oder ein anderer Dienst die passende Auswahl trifft.
Es ist kurios: die gleichen Leute, die sich darüber beschwert haben, welch starke Selektion die Massenmedien ausüben lassen nun andere Leute und Algoritmen darüber entscheiden, welche Informationen für sie wichtig sind.

Social Media Monitoring für den Hausgebrauch – Suchen automatisieren

Im ersten Teil des Artikels ging es um die Frage, wozu man Monitoring privat einsetzen kann. Ein einfaches Werkzeug dafür ist Google Alerts, mit dem man einen großen Teil des Netzes automatisch durchsuchen kann.

Social Media Monitoring

Das Social Media Monitoring läßt sich gut für Jobsuchen oder auch das Online-Reputationsmanagement einsetzen. Ein Dienst wie Social Mentions bietet eine Echtzeichtsuche für Blogs, Mikro-Blogs, Videos, Bookmarks, Bilder und mehr. Alerts funktionieren hier im Prinzip wie bei Google. Ob man hier mit Operatoren arbeiten kann, wird allerdings nicht klar. und Wikio sind weitere Dienste, die man für das Internet-Watching verwenden kann. Bei diesen Diensten kann man real simple mit RSS-Feeds arbeiten, die abonniert man einfach, nachdem man einen Suchbegriff eingegeben hat.

Feintuning und Filtern

Wer nicht filtert, geht wahrscheinlich in der Flut der Meldungen unter. Filtern sollte man vor allem bei Suchbegriffen, die entweder sehr häufig vorkommen, Synonyme haben oder in sehr vielen für den eigenen Zweck nicht relevanten Kontexten vorkommen. Wir arbeiten mit anderen Worten semantisch.
Suchen wir nach dem Raubtier Jaguar, verwenden wir Begriffe, die häufig mit dem Tier zusammen verwendet werden und schließen alles aus, was sehr wahrscheinlich nur im Kontext des Sportwagens vorkommt.
Filtern ist immer eine delikate Aufgabe. Schnell filtert man zu wenig und erhält Hunderte irrelevanter Ergebnisse, wobei wichtige Resultate untergehen. Oder man filtert zu stark und verliert wichtige Ergebnisse. Ich empfehle daher, zum Einen mit Filtern zu experimentieren, bis man zufrieden ist und zum Anderen die Filter eher zu lasch als zu stark einzustellen.
Nehmen wir Twitter, wo viele lange Begriffe abgekürzt werden (A11Y für accessibility). Andererseits gehört Twitter heute zu den wichtigsten Quellen für Empfehlungen, also auch für Jobs. Mag auch sein, dass viele Unternehmen mittlerweile neue Stellen über Twitter bekannt geben.

Was man nicht beobachten kann

Die Grenzen dieser Dienste sind allerdings nicht zu vernachlässigen. In Deutschland sind viele soziale Netzwerke Blackboxes, die sich von außen nicht durchsuchen lassen. Wenn man das für sinnvoll hält, kann man teilweise Suchagenten anlegen, etwa bei Xing. Dafür braucht man ein Konto bei Xing, das heißt, die Jungs wissen nicht nur, wer man ist, sondern auch, was man sucht. Wer das nicht will, kann auch mit einem Fake-Profil arbeiten, was aber nach den Allgemeinen Geschäftsbedingungen verboten ist.
Geschlossene Gesellschaften sind auch die großen Jobbörsen. Es handelt sich hierbei zumeist um geschlossene Datenbanken, die sich nur mit deren Webinferface durchsuchen lassen. Klar, die wollen ja Geld damit verdienen. Google und die anderen Dienste können hier nicht direkt zugreifen. Die Chancen sind nicht schlecht, dass hier neue Stellen via Twitter weiterempfohlen werden, immerhin lassen sich die Datensätze zumeist über Permalinks abrufen. Verlassen kann man sich darauf nicht. Das heißt, bei der Jobbörse seiner Wahl sollte man nicht auf die Suchagenten verzichten, welche die meisten Dienste anbieten. Man kann sich hier per Mail informieren lassen, wenn es neue Ergebnisse zu den eigenen Stichworten gibt. Kimeta wäre so ein Dienst, aber bei den großen Jobbörsen würde ich jeweils einen eigenen Agenten anlegen.
Für das persönliche Reputationsmanagement gibt es Dienste wie myonid, Yasni oder 123people. Diese Dienste tun allerdings nichts anderes als auf öffentlich zugängliche Quellen zuzugreifen und sie zusammenzufassen. Mit Google Alerts oder Social Mentions erreicht man meiner Beobachtung nach bessere Ergebnisse.

Alerts statt RSS?

Wer ständig auf der Jagd nach Informationen zu bestimmten Themen ist, liest normalerweise sehr viele RSS-Feeds. Auch hier können Monitorings einen besseren Überblick bieten. Wichtig ist dabei natürlich wie schon gezeigt, dass man die Stichworte passend wählt.
Nehmen wir an, wir suchen Informationen zum Thema Behinderung. Dann geben wir bei Google Alerts als Suchbegriff behindert | behinderung | handicap als Suchbegriffe ein und erhalten alle Beiträge, wo mindestens einer der Begriffe vorkommt. Dann geben wir noch -Verkehr ein, denn „Unfall behindert Verkehr auf A1“ wollen wir nicht haben.

Aktualität

Googles Indizierungsgeschwindigkeit ist sehr unterschiedlich. Dank RSS und Pings werden Weblogs normalerweise sehr schnell in die Suchergebnisse aufgenommen, bei kleinen oder mittelgroßen Organisationen kann es schon einmal eine Woche oder länger dauern, bis Aktualisierungen oder Änderungen übernommen werden. Dies sollte man im Hinterkopf behalten.
Zum ersten Teil des Artikels

Suchen automatisieren – nützliche Tools zur Jobsuche oder für das Reputationsmanagement

Zum zweiten Teil Beobachtung von Social Media
Mittlerweile gibt es relativ viele Stellenbörsen und sogar Metasuchmaschinen für Jobs. Dabei ist es recht anstrengend, die einzelnen Börsen regelmäßig zu durchforsten. Die Suchagenten, die viele Anbieter bereit stellen, sind oft nicht zufriedenstellend.
Problematisch ist auch, dass viele Unternehmen ihre Jobs nur auf die eigene Website stellen. Da kommt ja jeder Job-Suchende zwangsläufig vorbei. Bestimmt.
Eine einfache Möglichkeit, gezielt nach Jobs zu suchen besteht im Monitoring des Web. Die PR-Abteilungen machen das meistens mit professionellen Tools oder beauftragen große Agenturen, die sich auf die Beobachtung von Medien spezialisiert haben. Für unseren Zweck reichen kostenlose Tools wie Google Alerts, Social Mentions oder Twitter.

Mit solchen Tools kann man nicht nur nach Jobs, sondern nach beliebigen anderen Begriffen automatisch suchen lassen. Leute, die auf ihren Ruf im Web großen Wert legen, können schauen, ob ihr Name oder ihre Marke im Netz erwähnt werden. Man kann nach interessanten Artikeln suchen, ohne viele RSS-Feeds durchblättern zu müssen. Die Möglichkeiten sind praktisch unbegrenzt.

Google Alerts

Google Alerts ist eigentlich ein auf Google News zugeschnittener Dienst. Hier kann man sich täglich per Mail informieren lassen, wenn es zu einem bestimmten Stichwort eine neue Nachricht gibt. Ziemlich unbekannt scheint aber die Möglichkeit zu sein, einen Großteil des offenen Web via Google Alerts überwachen zu lassen. Dazu ruft man zunächst Google News auf, gibt ein Stichwort ein – vielleicht Behinderte – und startet die Suche. Anschließend scrollt man auf der Ergebnisseite nach unten und klickt auf „E-Mail-Benachrichtigung für … einrichten“. Auf der nächsten Seite kann man das Stichwort noch einmal ändern oder weitere Stichworte hinzufügen. In der Auswahlliste „Typ“ wählt man je nach Geschmack aus, aus welchem Bereich man News haben möchte, wir wählen „Alles“, geben eine E-Mail-Adresse ein, bestätigen den Alert per zugesendetem Link und das wars.
Man kann mit Google auch gezielt bestimmte Seiten durchsuchen. Dazu gibt man site:www.example.com Stichwort ein. Zur Feinsuche kann man Operatoren in Google verwenden, übrigens auch bei der normalen Suche. Um eine exakte Zeichenfolge zu suchen, gibt man die – korrekt geschriebene – Zeichenfolge in Anführungsstrichen ein, zum Beispiel „Behinderte in Deutschland“. Möchte man ein Dokument haben, wo mindestens eines von zwei Worten vorkommen soll, gibt man den senkrechten Strich ein: Behinderte | Handicapped zeigt mir alle Seiten an, wo mindestens einer der beiden Begriffe Behinderte oder Handicapped vorkommt.
Wem das mit den Operatoren zu komplex ist, der kann auch die Erweiterte News-Suche verwenden, die sich rechts neben dem Suchfeld bei Google News findet. Hier hat man die gleiche Funktionalität wie bei den Operatoren per Formular bereit gestellt.

Stichwortliste anlegen

Basis allen Suchens ist die Stichwortliste. Nehmen wir den Beruf des Online-Redakteurs, der vielerorts auch Web-Redakteur, Internet-Redakteur oder Multimedia-Redakteur heißt. Er kann aber auch Online-Journalist, schlicht Redakteur, Sachbearbeiter für Internet oder was ganz anderes sein. Gibt man nur Redakteur ein, werden sehr viele auch irrelevante Ergebnisse angezeigt. Gibt man nur Online-Redakteur oder gar „ONline-Redakteur“ ein läuft man Gefahr, dass einem der Onlineredakteur oder Webredakteur verloren geht. Mit den Feinheiten des filterns und weiteren Services werde ich mich beim nächsten Mal beschäftigen.
Zum zweiten Teil Beobachtung von Social Media

Die Kunst des richtigen Verlinkens – Teil II

Vor langer, langer Zeit hatte ich einen Artikel zum richtigen Verlinken geschrieben. Generell gibt es vier Arten von Verlinkung:

  • Viele Webseiten verlinken gar nicht, z. B. das Deutschlandradio.
  • Viele Websites setzen die Links an das Ende des Textes.
  • Viele Nachrichtenportale setzen Links in Blöcken zwischen die Texte, etwa Die Zeit und die Welt.
  • Der Rest verlinkt im Fließtext, das macht zum Beispiel Heise durchgängig in seinen Publikationen, aber auch die meisten Weblogs.

Mir fällt gerade während ich diese Zeilen schreibe auf, dass es hauptsächlich IT-Seiten und Web-2.0-Angebote sind, die in Fließtexten verlinken. Es scheint also doch etwas dran zu sein an der Aussage von Mario Fischer. Fischer sagt in seinem Buch „Website Boosting“, Links im Text würden von der Mehrheit als störend empfunden.

Wahrscheinlich können IT-ler und Hardcore-Internet-Nutzer die Links im Text eher ausblenden als Gelegenheitsleser.

Zugänglichkeit

Den Screenreader-Nutzer stören einzelne Links im Text weniger. Manche Leute bringen aber die kunst fertig, vier Wörter hintereinander mit dem selben Link zu versehen. Das Klingt dann wie „Link hier – Link klicken, – link für – Link das – Link Bild“.. Eine solche Link-Häufung macht weder aus redaktionellen noch aus kognitiven Gründen viel Sinn. Die Leser verstehen nicht, ob hier vier verschiedene Sachen verlinkt werden oder nur eine. Hier dürfte auch das primäre Problem für Menschen mit Lernschwierigkeiten ligen.
Generell stellt sich für die letztere Gruppe die Frage, ob sie durch Links im Fließtext vom Inhalt des Textes abgelenkt werden. Dazu fehlen mir valide Daten, aber ich bin mir nicht sicher, ob unterstrichener blauer Text schlimmer sein kann als eine flackernde Flashanimation.

Die Usability-Sicht

Aus Usability-Sicht würde ich eindeutig die Verlinkung im Text vorziehen. Zum Einen lässt sich hier eher kontextsensitiv verlinken. Zum Anderen ist eine Häufung von Links in Blöcken mitten im Text oder am Fuß des Textes ebenfalls eine kognitive Herausforderung. Nehmen wir an, wir hätten fünf Links die mit dem Text tatsächlich in Zusammenhang stehen: ich suche aber eine bestimmte Information, die mir im Text aufgefallen ist und die ich gerne weiter verfolgen möchte. Im schlimmsten Fall muss ich alle Links einmal durchklicken, um die gewünschte Information zu finden.
Die Wikipedia ist ein Beispiel dafür. Wenn ich mit einem Höllentempo mit dem Screenreader einen Artikel durchgehe, merke ich mir nicht die Nummer der Fußnote, wo Wikipedia seine Quellen ablegt. Entweder stoppe ich also die Lektüre, springe zur Fußnote, öffne den Link und kehre dann zu der Stelle zurück, wo ich die Lektüre des WP-Artikels abgebrochen habe. Ode ich lese den Artikel zu Ende, merke mir die Nummer der Fußnote und rufe dann den dahinter liegenden Link auf. Und wenn ich zwei oder drei Fußnoten verfolgen möchte?Wikipedia wird sicher seine Gründe haben, Quellen nicht im Fließtext zu verlinken, aus Usabilitysicht ist das eher ein großes Manko.
Ich persönlich kann mir wesentlich besser die Position eines Hyperlinks im Fließtext oder den Linktext merken als eine Nummer.
Bei redaktionellen Produkten ist die Debatte ohnehin obsolet, denn die verlinken nur auf Produkte des eigenen Hauses und selbst da nicht kontextsensitiv.

Fazit

Wo man von technik- oder web-affinen Lesern ausgehen kann, sind Links im Fließtext ein Muß. Man sollte es dabei auch nicht übertreiben und auf keinen Fall zwei Wörter hintereinander mit unterschiedlichen Zielen verlinken.
Im Nachrichtenbereich, wo ohnehin nur ein bis zwei Links auf Pressemitteilungen oder ähnliches gesetzt werden, kann der Link am Ende des Textes stehen. Eine Linkhäufung am Fuße des Textes ist nicht nur abschreckend, sie zeigt auch, dass der Autor sich keine Gedanken dazu gemacht hat, wie Informationen struktuiert präsentiert werden, Informationen und Verknüpfungen machen immer nur im größeren Zusammenhang einen Sinn.

Warum schlechter Traffic kein guter Traffic ist

Im Google Weblog wird mit einem Augenzwinkern gefragt „Brauchen wir einen Meta-Tag für ’negative Keywords‘?. Matt Cutts sagt nein: Der erste Teil der Erklärung ist verständlich, es ist aus Ressourcensicht nicht sinnvoll, unnötig Energie auf Begriffe aufzuwenden, mit denen die Leute nicht gefunden werden wollen. Der zweite Teil der Meldung ist hingegen ziemlicher Quatsch:

Wir danke für die Meldung, aber wir wurden einfach noch nicht oft genug gebeten: „Bitte sendet mir keine Besucher. Ich möchte bei dieser Wortgruppe nicht
angezeigt werden.“ Quelle

Schließlich geht es nicht um den Webmaster und es geht sicher nicht darum, auf Teufel komm raus Traffic zu generieren. Dies wissen wir schon seit der ersten Schwemme mit Meta Keywords, welche die Meta Tags bis heute diskreditiert haben. Daraus haben wir gelernt, wer Traffic haben will, muss seine Seite mit Erotik und Potenzmittel-Werbung vollpacken.

Inzwischen sollten wir aber verstanden haben, dass diese Art des Traffic uns keinerlei Mehrwert bringt, es sei denn, wir verkaufen Erotik oder Potenzmittel oder etwas Verwandtes. Oder wir kleistern unsere Seite mit Anzeigen voll, mit denen wir Geld verdienen.

Ansonsten sollten unsere Ansprüche wohl höher sein: jemand, der sich auf unsere Seite verirrt hat, wird mit sehr geringer Wahrscheinlichkeit unseren großartigen Content angucken. Schließlich hat er vermutlich etwas bestimmtes gesucht, was wir ihm nicht bieten können.

99 Prozent der Website-Betreiber sind zugleich auch Nutzer einer Suchmaschine und ärgern sich darüber, wenn sie das Gesuchte nicht finden.

Wer die Keywords oder Phrasen analysiert, mit denen die Besucher auf seine Seite kamen, weiß in der Regel, dass er für diese Suchen keine Inhalte liefern kann. Er will aber Besucher haben, die wegen seinem Content kommen, sich ein paar Seiten ansehen und möglichst lange bleiben. Dazu ist es aber auch nötig, die Enttäuschung über fehlende Inhalte möglichst gering zu halten. Bei großen Seiten ist es doch wahrscheinlich, dass die Leute sich den Namen der Site merken, die sie in die Irre führte und selbige auf ihre mentale schwarze Liste kommt.

Bei mir kommt da sehr schnell auch der Verdacht auf, dass die Verantwortlichen an der SEO herum manipuliert haben. Ich persönlich habe mich immer geärgert, wenn ich auf einer Seite gelandet bin, die vielversprechend klang und wenig Inhalte bot. Bei meiner eigenen Seite habe ich auch herumgebastelt, weil ich gemerkt habe, dass die Leute mit falschen Erwartungen zu mir kamen. Für meinen Geschmack ist so etwas ein Fall für den SEO-Doktor.

Als Fazit kann man festhalten, dass die Zufriedenheit des Nutzers ganz oben steht. SEO heißt deshalb nicht nur, möglichst viel Traffic auf meine Seite zu locken, sondern vor allem, die eigenen Inhalte am besten an den Besucher zu bringen.

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Was Weihnachten mit der Besucherstatistik macht

Es kann tatsächich auch Spaß machen, sich mit Statistiken zu beschäftigen. Ich schlage mich gerade mit dem Thema Web Analytics herum, nachdem ich jüngst Piwik von meinem Webspace geschmissen habe. Piwik ist ein sehr ausgereiftes Web-Analytics-Tool, welches mittlerweile in der Version 1.0 vorliegt. Leider war mein Billig-Webspace für soviel Auslastung nicht ausgelegt.

Ich bin ja als Blinder eher ein Fan von nackten Daten. Andere Leute schwärmen für ästhetisch ansprechende Diagramme mit allem Schnick-Schnack, mit lustigen 3-D-Effekten und skurillen Ausformungen. Ich freue mich über Excel-Tabellen, die kann man recht gut sortieren, man kann sie summieren, arithmetische Mittel bilden und andere Späße damit machen. Bislang bin ich eher unzufrieden mit den bordeigenen Tools zur Verknüpfung der Daten untereinander und den Sortierungsmöglichkeiten die sie bieten.

Bei den Statistiken kann man bestimmte Effekte beobachten, zum Beispiel, dass Besucherstatistiken zwischen Weihnachten und Neujahr regelmäßig einbrechen. Ich nenne das den Weihnachtsknick. Das kann man sehr schön bei Google Trends beobachten, hier kann man die Beliebtheit von Suchbegriffen ermitteln und zwei oder mehr Begriffe vergleichen. Außerdem kann man auch Websites – vermutlich sehr grob – im Langfrist-Trend beobachten.

Vergleicht man z. B. Amazon und EBay, sieht man deutlich den Knick um die Jahreswende und den im Vergleich etwas steileren Anstieg bei EBay im Januar. Nur ein Schelm denkt jetzt, da versuchen Unzufriedene ihre Geschenke zu versteigern. Vielleicht müssen sie aber auch dank der vielen Geschenke nur ihre Schränke ausmisten.

Vergleicht man die beiden IT-Newsticker Heise und Golem, sieht man den gleichen Trend. Hier stellt sich aber auch schon die Frage: Liegt das daran, dass es um die Jahreswende herum weniger Nachrichten gibt oder weil viele Leute um diese Zeit herum das Web weniger intensiv nutzen? Who knows?

Für kleinere Websites wären solche Statistiken zu grobkörnig, sofern Trends überhaupt Daten für sie ausgibt. Für Feinanalysen wären tatsächlich Tagestatistiken interessant. Hier kann man z.B. beobachten, ob Seiten tendentiell eher beruflich oder privat genutzt werden: Wenn etwa mehr Traffic an Werktagen zu bestimmten Zeiten stattfindet.

Auch solche Analysen müssten sich eigentlich stärker automatisieren lassen. Wenn Leute eher an einem Werktag zwischen 8 und 12 Uhr auf meine Website kommen, dürften sie je nachdem, was ich auf meiner Website anbiete, eher beruflich interessiert sein. Später kommen vielleicht die Studenten, die Informationen für ihre Arbeiten recherchieren und irgendwann abends oder am Wochenende kommen dann die Leute, die privat interessiert sind oder Unterhaltung suchen. Komischerweise unternimmt noch keines der Tools, die ich kenne – Google Analytics, Piwik oder eTracker – den Versuch, die Besucher-Daten anhand vorliegender Merkmale tatsächlich automatisch zu interpretieren.

Wahrscheinlich fehlt es noch an einer soliden Basis, die gewaltigen Datenmengen miteinander zu verknüpfen. Bis es so etwas gibt, genieße ich es, selber etwas in die Daten zu interpretieren. Ich finde einfach, es gibt kaum etwas Spanneneres als zu beobachten, was die Leute, die man nie kennen lernen wird auf der eigenen Seite so gemacht haben.

Poor Content – die Schwäche des Online-Journalismus

Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.

Zehn Jahre und keinen Schritt weiter

Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.

Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.

Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.

Was tun?

Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:

  • Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
  • Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
  • Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.

Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.

Die latent semantische Optimierung und der Effekt der Selbstverstärkung

Mittlerweile dürfte sich jede große oder mittelgroße Firma mit dem Thema Suchmaschinenoptimierung beschäftigen. Da man die Basics – oder das, was man dafür hält – früher oder später sämtlich erfüllt hat, müssen sich die Suchmaschinen neue Faktoren ausdenken, mit denen sie die Qualität der Suchergebnisse bewerten können. Aus einer höheren Perspektive betrachtet führt SEO zu einer Angleichung der Websites, weil jeder Betreiber die gleichen Zaubertricks einsetzt.

Ähnlich sieht es inhaltlich bei der LSO, der latent semantischen Optimierung aus. Ein Hersteller von Katzenfutter sucht sich die passenden Stichwörter aus einem Texttool seiner Wahl und optimiert damit seine Seite zum Thema Katzenfutter.

Die Texttools greifen – davon kann man ausgehen – ihrerseits auf echte Texte aus dem Web zurück, um daraus die Relevanz von Wortkombinationen und Wortnetzen abzuleiten. Da aber immer mehr Websites auf die gleichen Stichwortquellen zurückgreifen, um ihre Auftritte auf bestimmte Begriffsnetze zu optimieren, verliert das ganze System an Relevanz.

Da alle Seiten dann die gleichen Stichwortverbindungen nutzen, um ihre Texte zu optimieren, können die Suchmaschinen nicht mehr über dieses Kriterium beurteilen, welche Texte relevant sind.

Zugleich greifen die Suchmaschinen ihrerseits auf die semantisch optimierten Webseiten zurück, um ihre Begriffsnetze zu aktualisieren.

Die Lösung kann nur lauten, seltenere Worte zu verwenden und ein wenig mehr Kreativität als die Konkurrenz zu entwickeln. Die LSO ist nur ein Faktor unter vielen, letzten Endes schreibt man für Menschen und nicht für statistische Algorithmen.