Archiv der Kategorie: Tutorial

Die Kunst des richtigen Verlinkens – Teil II

Vor langer, langer Zeit hatte ich einen Artikel zum richtigen Verlinken geschrieben. Generell gibt es vier Arten von Verlinkung:

  • Viele Webseiten verlinken gar nicht, z. B. das Deutschlandradio.
  • Viele Websites setzen die Links an das Ende des Textes.
  • Viele Nachrichtenportale setzen Links in Blöcken zwischen die Texte, etwa Die Zeit und die Welt.
  • Der Rest verlinkt im Fließtext, das macht zum Beispiel Heise durchgängig in seinen Publikationen, aber auch die meisten Weblogs.

Mir fällt gerade während ich diese Zeilen schreibe auf, dass es hauptsächlich IT-Seiten und Web-2.0-Angebote sind, die in Fließtexten verlinken. Es scheint also doch etwas dran zu sein an der Aussage von Mario Fischer. Fischer sagt in seinem Buch „Website Boosting“, Links im Text würden von der Mehrheit als störend empfunden.

Wahrscheinlich können IT-ler und Hardcore-Internet-Nutzer die Links im Text eher ausblenden als Gelegenheitsleser.

Zugänglichkeit

Den Screenreader-Nutzer stören einzelne Links im Text weniger. Manche Leute bringen aber die kunst fertig, vier Wörter hintereinander mit dem selben Link zu versehen. Das Klingt dann wie „Link hier – Link klicken, – link für – Link das – Link Bild“.. Eine solche Link-Häufung macht weder aus redaktionellen noch aus kognitiven Gründen viel Sinn. Die Leser verstehen nicht, ob hier vier verschiedene Sachen verlinkt werden oder nur eine. Hier dürfte auch das primäre Problem für Menschen mit Lernschwierigkeiten ligen.
Generell stellt sich für die letztere Gruppe die Frage, ob sie durch Links im Fließtext vom Inhalt des Textes abgelenkt werden. Dazu fehlen mir valide Daten, aber ich bin mir nicht sicher, ob unterstrichener blauer Text schlimmer sein kann als eine flackernde Flashanimation.

Die Usability-Sicht

Aus Usability-Sicht würde ich eindeutig die Verlinkung im Text vorziehen. Zum Einen lässt sich hier eher kontextsensitiv verlinken. Zum Anderen ist eine Häufung von Links in Blöcken mitten im Text oder am Fuß des Textes ebenfalls eine kognitive Herausforderung. Nehmen wir an, wir hätten fünf Links die mit dem Text tatsächlich in Zusammenhang stehen: ich suche aber eine bestimmte Information, die mir im Text aufgefallen ist und die ich gerne weiter verfolgen möchte. Im schlimmsten Fall muss ich alle Links einmal durchklicken, um die gewünschte Information zu finden.
Die Wikipedia ist ein Beispiel dafür. Wenn ich mit einem Höllentempo mit dem Screenreader einen Artikel durchgehe, merke ich mir nicht die Nummer der Fußnote, wo Wikipedia seine Quellen ablegt. Entweder stoppe ich also die Lektüre, springe zur Fußnote, öffne den Link und kehre dann zu der Stelle zurück, wo ich die Lektüre des WP-Artikels abgebrochen habe. Ode ich lese den Artikel zu Ende, merke mir die Nummer der Fußnote und rufe dann den dahinter liegenden Link auf. Und wenn ich zwei oder drei Fußnoten verfolgen möchte?Wikipedia wird sicher seine Gründe haben, Quellen nicht im Fließtext zu verlinken, aus Usabilitysicht ist das eher ein großes Manko.
Ich persönlich kann mir wesentlich besser die Position eines Hyperlinks im Fließtext oder den Linktext merken als eine Nummer.
Bei redaktionellen Produkten ist die Debatte ohnehin obsolet, denn die verlinken nur auf Produkte des eigenen Hauses und selbst da nicht kontextsensitiv.

Fazit

Wo man von technik- oder web-affinen Lesern ausgehen kann, sind Links im Fließtext ein Muß. Man sollte es dabei auch nicht übertreiben und auf keinen Fall zwei Wörter hintereinander mit unterschiedlichen Zielen verlinken.
Im Nachrichtenbereich, wo ohnehin nur ein bis zwei Links auf Pressemitteilungen oder ähnliches gesetzt werden, kann der Link am Ende des Textes stehen. Eine Linkhäufung am Fuße des Textes ist nicht nur abschreckend, sie zeigt auch, dass der Autor sich keine Gedanken dazu gemacht hat, wie Informationen struktuiert präsentiert werden, Informationen und Verknüpfungen machen immer nur im größeren Zusammenhang einen Sinn.

Warum schlechter Traffic kein guter Traffic ist

Im Google Weblog wird mit einem Augenzwinkern gefragt „Brauchen wir einen Meta-Tag für ’negative Keywords‘?. Matt Cutts sagt nein: Der erste Teil der Erklärung ist verständlich, es ist aus Ressourcensicht nicht sinnvoll, unnötig Energie auf Begriffe aufzuwenden, mit denen die Leute nicht gefunden werden wollen. Der zweite Teil der Meldung ist hingegen ziemlicher Quatsch:

Wir danke für die Meldung, aber wir wurden einfach noch nicht oft genug gebeten: „Bitte sendet mir keine Besucher. Ich möchte bei dieser Wortgruppe nicht
angezeigt werden.“ Quelle

Schließlich geht es nicht um den Webmaster und es geht sicher nicht darum, auf Teufel komm raus Traffic zu generieren. Dies wissen wir schon seit der ersten Schwemme mit Meta Keywords, welche die Meta Tags bis heute diskreditiert haben. Daraus haben wir gelernt, wer Traffic haben will, muss seine Seite mit Erotik und Potenzmittel-Werbung vollpacken.

Inzwischen sollten wir aber verstanden haben, dass diese Art des Traffic uns keinerlei Mehrwert bringt, es sei denn, wir verkaufen Erotik oder Potenzmittel oder etwas Verwandtes. Oder wir kleistern unsere Seite mit Anzeigen voll, mit denen wir Geld verdienen.

Ansonsten sollten unsere Ansprüche wohl höher sein: jemand, der sich auf unsere Seite verirrt hat, wird mit sehr geringer Wahrscheinlichkeit unseren großartigen Content angucken. Schließlich hat er vermutlich etwas bestimmtes gesucht, was wir ihm nicht bieten können.

99 Prozent der Website-Betreiber sind zugleich auch Nutzer einer Suchmaschine und ärgern sich darüber, wenn sie das Gesuchte nicht finden.

Wer die Keywords oder Phrasen analysiert, mit denen die Besucher auf seine Seite kamen, weiß in der Regel, dass er für diese Suchen keine Inhalte liefern kann. Er will aber Besucher haben, die wegen seinem Content kommen, sich ein paar Seiten ansehen und möglichst lange bleiben. Dazu ist es aber auch nötig, die Enttäuschung über fehlende Inhalte möglichst gering zu halten. Bei großen Seiten ist es doch wahrscheinlich, dass die Leute sich den Namen der Site merken, die sie in die Irre führte und selbige auf ihre mentale schwarze Liste kommt.

Bei mir kommt da sehr schnell auch der Verdacht auf, dass die Verantwortlichen an der SEO herum manipuliert haben. Ich persönlich habe mich immer geärgert, wenn ich auf einer Seite gelandet bin, die vielversprechend klang und wenig Inhalte bot. Bei meiner eigenen Seite habe ich auch herumgebastelt, weil ich gemerkt habe, dass die Leute mit falschen Erwartungen zu mir kamen. Für meinen Geschmack ist so etwas ein Fall für den SEO-Doktor.

Als Fazit kann man festhalten, dass die Zufriedenheit des Nutzers ganz oben steht. SEO heißt deshalb nicht nur, möglichst viel Traffic auf meine Seite zu locken, sondern vor allem, die eigenen Inhalte am besten an den Besucher zu bringen.

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Poor Content – die Schwäche des Online-Journalismus

Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.

Zehn Jahre und keinen Schritt weiter

Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.

Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.

Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.

Was tun?

Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:

  • Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
  • Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
  • Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.

Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.

Texten für Alle

Gutes Schreiben ist eine Kunst für sich. Viele Leute bieten interessante Inhalte an, verpacken sie aber so, dass sie unlesbar werden. Manchen Weblogs und anderen Textquellen merkt man nach fünf Wörtern an, dass sie von Juristen, Soziologen, Pädagogen, Informatikern oder anderen Experten geschrieben wurden. Der Fachjargon einiger Disziplinen treibt dem gutwilligen Leser den Schweiß auf die Stirn und lässt auch so manchen Viel-Leser ratlos zurück.
Wer nicht nur für sich selber schreibt, sollte einige elementare Regeln beherzigen. Nebenbei sollte man im Hinterkopf behalten, dass die meisten Autoren professionelle Lektoren haben, die nicht nur für Verständlichkeit sorgen sollen, sondern auch logische Widersprüche, Gedankensprünge und sinnfreie Ausflüge ihrer Schützlinge ausbügeln.
Wie lauten also diese Regeln?
– Verbal statt nominal: Kaum etwas ist schlimmer als eine Reihe von Substantiven
– aktiv statt passiv: „man…“, „jeder…“
– keine komplexen Konstrukte: „Dies würde dazu führen, dass…“
– Fremdwörter vermeiden
– Fachjargon vermeiden, besonders Juristen- oder Pädagogen-Sprech
– sparsam mit Metaphern
– sparsam mit Webjargons, starken Satzzeichen wie Frage- oder Ausrufezeichen, sparsam mit Emoticons, insbesondere dem Smiley. Häufiger Einsatz von Emoticons wirkt außerhalb von Foren oder Chats unprofessionell. Inflationär eingesetzt erzeugen sie den Eindruck, der Schreiber würde entweder sich selbst nicht ernst nehmen oder sich über sein Gegenüber lustig machen. Das Ausrufezeichen verliert seine stilistische Wirkung, schließlich betonen wir auch beim Reden nicht jeden einzelnen Satz.
– konkret und anschaulich statt abstrakt und metaphysisch: lebensphilosophische Banalitäten sollten dem Dalai Lama und Paolo Coelho überlassen bleiben
– Tipp- und Rechtschreibfehler vermeiden: Ich ärgere mich auch über jeden meiner Tippfehler. Fakt ist, dass der Leser über Rechtschreibfehler stolpert. Kommata und andere Satzzeichen sind dort wichtig, wo sie die Lesbarkeit fördern. Zudem ist es echt peinlich, wenn der Name eines bekannten Regisseurs gleich mehrfach flasch geschrieben wird, so wie beim Deutschlandfunk.
Der Rest ist Übung und Geschmackssache: ein Ratgeber erfordert einen anderen Stil als ein Blog-Eintrag. Wer sich selber einen Gefallen tun möchte, sollte seine Texte von jemand anderem gegen lesen und kritisieren lassen.

Typographie

Unter Typographie verstehe ich die Gesamtgestaltung eines Textes, das betrifft das Kerning – der Abstand der Buchstaben zueinander – Zeilenabstand, Absatzausrichtung und vieles mehr. In mehreren Jahrhunderten Textgestaltung haben sich Regeln ausgebildet, die auch für das Web gelten. Und das um so mehr, weil Texte am Bildschirm nach wie vor nicht gut zu lesen sind.
– kein Blocksatz, die Abstände zwischen den Worten sehen einfach dumm aus (schade um das WordPress-Standard-Theme)
– Absätze geben dem Text und den Gedanken Struktur und dem Auge eine Orientierungsmöglichkeit.
– Zwischenüberschriften bieten eine Art kurzer Zusammenfassung und Erlauben das Überfliegen des Textes.
– Gut lesbare Schriftarten fördern das Weiterlesen. Nur weil ein Monitor 22 Zoll Diagonale besitzt, sind 10 Pixel nicht lesbarer.
– Buchstaben- und Zeilenabstand sollten so gewählt werden, dass der Text angenehm zu lesen ist, ohne dass man die anderen Zeilen aus dem Blick verliert. Ich erinnere mich mit Grauen an die Reclam-Hefte, die nicht nur wegen ihres zumeist schweren Inhalts schlecht zu lesen waren.
– Elemente wie Zitate oder Aufzählungen sollten entweder textlich oder via HTML als solche zu erkennen sein. Eine Aufzählung von fünf Gründen für dieses oder jenes in einen Satz mit zahlreichen Kommata, Gedankenstrichen, exotischen Klammern und Anführungszeichen zu packen zeugt von der Faulheit des Schreibers. Ein Zitat ist eine Einfügung fremden Materials und sollte entsprechend auch gekennzeichnet sein.

Und weiter?

Stilfragen sind Geschmacksfragen. Dennoch gibt es Regeln, an die sich jeder Schreiber halten sollte.
– Die Gedanken sollten klar formuliert werden. Literarische Ambitionen sind oft nett zu lesen, aber meist auch unverständlich.
– Der Kern der Sache sollte immer im Blick behalten werden. Philosophische und gedankliche Ausflüge, Lebensfindung und Selbstverortung haben in Texten nichts zu suchen, die eigentlich etwas anderes zum Thema haben.
– Kurz und knapp ist zumeist besser als lang und blumig. Der Leser ist nicht immer bereit, dem Schreiber endlos auf seinen gedanklichen Pfaden zu folgen.
Gute Schreiber fallen nicht vom Himmel, Schreiben erfordert Übung und Geduld. Viel Erfolg.

Werkzeuge zur Barrierefreiheit von Web- und anderen Inhalten

Hier eine kleine Sammlung von Werkzeugen, die Inhalte zugänglich machen können. Wer etwas ergänzen möchte, kann das gerne über die  Kommentarfunktion tun. Diese Tools sind vor allem für Sehbehinderte und Blinde interessant. Leider kann ich mangels eigener Erfahrung keine Werkzeuge für andere Behinderte empfehlen.
Ich weise ausdrücklich darauf hin, dass Urheberrechte und Copyrights zu beachten sind, wenn etwa Videos oder PDFs heruntergeladen oder umgewandelt werden.

Screenreader für Windows
Es gibt zwei freie Screenreader für Windows, die auch Deutsch „sprechen“

Thunder
http://www.screenreader.net/

NVDA Non-visual Desktop Access
http://www.nvda-project.org/

Die Betriebssysteme Ubuntu und Knoppix offerieren mit Orca und ADRIANE eine eingebaute Screenreaderlösung. Apples aktuelles Betriebssystem Mac OS X 10.6 und höher hat ebenfalls einen Screenreader namens VoiceOver an Bord.

YouTube per Tastatur steuern

Accessible Interface to YouTube
http://tube.majestyc.net/

EasyYoutube
http://icant.co.uk/easy-youtube/

Video2mp3 – Videos verschiedener Plattformen in mp3 umwandeln und  herunterladen
http://www.video2mp3.net/

Accessible Twitter
http://www.accessibletwitter.com/

Videos in MP3 herunterladen kann man auch mit dem Programm Free Youtube to mp3 converter von der Firma DVD Videosoft
http://www.dvdvideosoft.com/products/dvd/Free-YouTube-to-MP3-Converter.htm
Vorsicht bei der Installation, das Programm bringt eine unsinnige Toolbar huckepack mit, die sich in den Browser einklinkt und sich schwer wieder entfernen lässt. Bei der Installation sollte man den entsprechenden Haken entfernen.

PDFs lesen
Wer einen einfacheren Zugang zu PDF-Dateien haben möchte, kann die
HTML-Ansicht von Google verwenden, die sich früher unterhalb des PDF-Dokuments befand. Mittlerweile ist sie hinter dem Punkt „Schnellansicht“ verborgen, wo man eine reine HTML-Ansicht auswählen kann.

PDFill – PDF Tools
http://www.pdfill.com/
Eine sehr schöne mit Tastatur bedienbare Sammlung von PDF-Werkzeugen. Sehr schön ist die Möglichkeit, unnötigen Nutzersperren zu entfernen und damit PDFs für den Screenreader zugänglich zu machen.

WebVisum – Erweiterung für den Firefox
http://www.webvisum.com/
Der Firefox ist mit aktuellen Screenreadern zugänglich. Mit der Erweiterung WebVisum kann man ein paar Features nachrüsten wie das Lesen von CAPTCHAS.

Eine Sammlung nützlicher und blindengerechter Programme gibt es hier
http://www.iscb.de/downloads/winindex.htm

Wer weitere Tipps hat, immer her damit.

Kleine Anmerkung: Ich muss mich dafür entschuldigen, dass die Links nicht anklickbar sind. Ich dachte eigentlich, WordPress würde automatisch anklickbare Links generieren. Ich werde das so bald wie möglich in Angriff nehmen.

Was nicht barrierefrei ist, wird barrierefrei gemacht

Die Web Accessibility Initiative (WAI) des W3C fordert dazu auf, öffentlichen Stellen und Unternehmen mitzuteilen, wenn ihre Websites nicht barrierefrei zugänglich sind und schlägt auch vor, wie man dort vorgehen sollte. Ich meine, man kann da ruhig einen Sport daraus machen.
Schließlich ist das Web nicht für die Gesunden da, das Web ist kein Design-Wettbewerb. Wenn eine Person Schwierigkeiten bei der Bedienung einer Website hat, dann ist sie sicher nicht die Einzige.
>h2>Sagt es Ihnen und sagt es Ihnen laut
Wenn der Ansprechpartner nicht reagiert, sollte man ruhig einen Schritt weiter gehen und das öffentlich bekannt geben. Ich warte zum Beispiel bis heute auf eine Antwort des Bundesamtes für Statistik, warum ihr Statistischer Jahresbericht im PDF-Format nicht barrierefrei oder in HTML zugänglich ist. Und ich würde mich sehr freuen, wenn Sie mir doch noch antworten;-)

Macht es selber

Wir können den Alptraum jedes Webdesigners wahr machen und sein Design „zerstören“, indem wir es unseren Bedürfnissen anpassen. Ich habe ein kleines Skript geschrieben, wie man den Internet Explorer und den Firefox auf seine eigenen Schriftarten und Farben anpassen kann, hier im Doc-Format.
Für technisch versiertere Leute: die Erweiterung Greasemonkey für den Firefox erlaubt das Anreichern von Websites mit eigenem JavaScript-Code. Diese und viele andere Tipps zum Anreichern und zur Barrierefreiheit von Webinhalten gibt es in einem hervorragenden Vortrag von Chris Heilmann zur „Best of Accessibility“, dort als PDF und als Audio in mp3 (60 MB).

Rich Internet

Daran merkt man schnell, wie viele Dinge im Web selbstverständlich sein sollten. Unter Rich Internet versteht man heute das Angebot von Multimedia, Spielen und Ähnlichem im Web. Dabei besteht im Poor Internet noch viel Verbesserungsbedarf. Ich finde es immer amüsant, wenn Artikel in Online-Publikationen in Häppchen präsentiert werden und der User manchmal zehn Mal klicken darf, um zum Ende des Artikels zu gelangen. Web Analytics sollte zeigen, dass die meisten Leute nie das Ende des Artikels erreichen, weil sie keine Lust auf Klickorgien haben. Das Diktum, dass möglichst wenig Inhalt außerhalb des sichtbaren Screens sein sollte, ist veraltet. Heute gilt, kein überflüssiges Klicken, keine winzigen Schriften, keine flackernden Werbebanner. Rich Internet sollte bedeuten, dass sich die Seiten sich den Bedürfnissen des Benutzers anpassen lassen. So lange das nicht geht, müssen wir uns selbst helfen und schlechte im Sinne von barrierereiche Layouts zertrümmern.

Die ersten Gehversuche mit Drupal

Ein Vergleich von Drupal und WordPress bietet sich an, macht aber wenig Sinn. WordPress ist ein Spezialist, der auch allgemeine Aufgaben erledigen kann, Drupal ist ein Multitalent, aber das einzige, was es wirklich gut kann ist die Einbindung von Web 2.0 bzw. den Aufbau von Communites unterstützen.

Weil WordPress von Anfang an auf eine Aufgabe einerichtet ist, ist es auch wesentlich intuitiver zu bedienen. Drupal erfordert viel Einarbeitung, zudem kann man einiges irreparabel kaputt machen – das sollte eigentlich nicht sein. Allerdings habe ich mir tatsächlich nach stundenlanger Arbeit das Layout zerschossen und habe keine Möglichkeit gefunden, es wiederherstellen. Das wäre mit WordPress nicht passiert.

Drupal kann in der Standard-Installation erstaunlich wenig. Die Blogfunktionalität ist schwach, ein Texteditor muss extra installiert werden. Es ist auch reichlich unintuitiv, das der Aufbau der Navigation und die Inhaltszuweisung voneinander getrennt sind.

Wirklich frustriert war ich davon, wie wenig Support es in der Internet-Gemeinde gibt. Bei WordPress ist praktisch zu jedem Problem eine Lösung im Netz zu finden. Bei Drupal hingegen habe ich den Eindruck, ich sei der Einzige, der bestimmte Probleme hat, was eigentlich unwahrscheinlich ist.

Der einzige Tipp, den ich angehenden Drupalanern geben kann lautet: Macht zuerst eine Testinstallation, ob lokal oder auf einem Server, spielt mit der Menü- und der Blogfunktion herum, fügt ein paar Texte ein. Dann löscht das ganze Zeug und fangt ernsthaft mit der Arbeit hat, wobei Fehler vermieden werden sollten. Der größte Fehler ist zu glauben, man könne intuitiv mit Drupal arbeiten, deswegen sollte man keinesfalls echte Inhalte einfügen, bevor man das Layout und die Site-Konfiguration abgeschlossen hat. Es ist weniger schlimmer, ein Layout neu zu erstellen als langwierig Inhalte einzustellen und zu formatieren.

Was mir an Drupal und vielen anderen englisch-sprachigen Programmen negativ auffiel ist natürlich die Übersetzung. Ich habe die englische Version installiert, die deutschen Foren aber arbeiten mit den deutschen Menüs, die Übersetzung ist selten eindeutig. Wer genügend Englisch kann, sollte diese Version nehmen, denn die englischsprachige Community ist naturgemäß größer und hat mehr Probleme gelöst.

Und ein dritter Tipp: In Drupal werden alle benutzerspezifischen Daten in der Datenbank gespeichert. Wer also überlegt, ob er Drupal wegen eines irreparablen Schadens neu installiert und in den Ausgangszustand zurückversetzt, sollte vorher überlegen, ob es nicht ausreicht, eine bestimmte Tabelle bzw. deren Inhalt zu löschen. Die Tabellennamen sind übrigens auf Englisch, so dass derjenige, der die englische Version installiert hat, auch kein Problem haben wird, seine Tabelle in der Datenbank zu finden.

Das ewige Sicherheitsdilemma

Hacking ist ein ewiges Katz- und Mausspiel. Wenn unter Kriminellen eine Sicherheitslücke bekannt wird, ist diese blitzschnell verbreitet. Tools sind schnell programmiert.

Die Softwarehersteller stehen vor dem Problem, dass sie eine Sicherheitslücke nicht bekannt geben können, bevor sie geschlossen wurde. Ansonsten laden sie jene Hacker, denen die Lücke bisher nicht bekannt war dazu ein, das Zeitfenster auszunutzen, welches zwischen dem Bekanntwerden der Sicherheitslücke, dem Stopfen des Loches und dem Update beim User besteht.

Handelt es sich zum Beispiel um eine Lücke in Windows, ist die Wahrscheinlichkeit recht groß, dass vielleicht zehn Prozent der Benutzer ihren Rechner nicht regelmäßig updaten – sicher sind es mehr – und dies wären schon einige Millionen Nutzer, deren System angreifbar ist.

Vor allem Unternehmen daten ihren Virenschutz nicht einmal pro Tag, sondern stündlich ab. Der Ansatz,  Schädlinge an ihren Signaturen zu erkenne,  scheint nicht mehr zielführend zu sein. Stattdessen werden Tools wie ThreatFire benötigt, die Schädlinge an ihrem charakteristischen Verhalten erkennen.

OpenSource-Lösungen scheinen bisher im Bereich Sicherheit besser abzuschneiden. WordPress zum Beispiel gibt fast alle zwei Wochen eine neue Version heraus, wohl im Wesentlichen, um Bugs und Sicherheitslöcher zu stopfen. Anders sieht es zum Beispiel beim Microsoft Outlook bzw. Outlook Express aus: ein Schweizer Käse der Sicherheitslücken.

Personensuche im Web

Die Personensuche im Web wird immer wichtiger: Einerseits informieren sich immer mehr Personalchefs über ihre Bewerber im Netz. Andererseits ist "Googeln" nach Freunden, Bekannten oder nach Leuten, die man bald kennen lernen wird als Volkssport.

Auf diese Dienste setzt die Personensuchmaschine Yasni auf. Gibt man einen Personennamen ein, zeigt Yasni nach einigen Sekunden Treffer aus öffentlich zugänglichen Quellen, darunter auch Social Networks.

Da findet man etwa das Facebook- oder StayFriends-Profil einer Person. Aber auch das Profil bei dem karriereorientierten Netzwerk Xing wird angezeigt. Nicht angezeigt werden Profile, die nicht öffentlich zugänglich sind, etwa die von "Wer-kennt wen" oder StudiVZ.

Auch Kuriosa wie die "Amazon Bücherwunschliste" tauchen auf, also sei vorsichtig, welche Titel du dir wünscht. Natürlich werden auch private Websites bzw. Ergebnisse von anderen Websites angezeigt.

Wer seine Ergebnisse überwachen möchte, kann sich einen Account besorgen. Er kann sich dann seinen Namen sichern und passende Ergebnisse zu diesem Namen hinzufügen. Er erhält einen wöchentlichen Newsletter, in dem ihm mitgeteilt wird, wie viele neue Suchergebnisse es zu seinem Namen gibt und wie oft sein Name in der vergangenen Woche gesucht wurde.

Im Sinne des Reputationsmanagements ist Yasni ein Werkzeug. Wenn man einen Job wegen irgend welcher Peinlichkeiten nicht erhält, die der Personaler im Web gefunden hat, wird man das nie erfahren. Allerdings bietet Yasni keinerlei Mehrwert im Gegensatz zu normalen Suchmaschinen oder professionellen Jobportalen wie Xing oder LinkedIn. Letztere dürften die erste Anlaufstelle für Personalchefs sein. Zudem gibt es Gerüchte darüber, daß Yasni seine Accounts kostenpflichtig machen möchte. Ein ziemlicher Unsinn ist der selbstgenerierte „VIP-Rank“, in den man ungefragt einbezogen wird. Den höchsten VIP-Rank, hat vermutlich der Geschäftsführer von Yasni.

Es ist allerdings bei weitem nicht ausreichend, über Yasni zu suchen. Stattdessen sollte man auch verschiedene Suchmaschinen wie Google, Yahoo oder 123people einsetzen. Meistens riecht es aus, den eigenen Namen in verschiedenen Schreibweisen mit oder ohne Anführungszeichen zu suchen:

"Max Mustermann"
"Mustermann, Max"
"Mustermann Max"

Anführungszeichen erlauben es, eine exakte Zeichenkette zu suchen. Inzwischen erlauben auch Meta-Suchmaschinen wie MetaCrawler und Metager die Suche mit Anführungszeichen.

Wer das Glück oder Pech hat, einen Dutzendnamen zu besitzen, muss natürlich ein wenig tiefer in die Trickkiste greifen. Hier muss man sich überlegen, welche Begriffe oder Personen mit dem eigenen Namen in Verbindung stehen. Das könnte der Geburtsort sein, der Sportverein, der Studien- oder Ausbildungsort.

Ambitionierte Sucher werden nicht bei öffentlichen Quellen stehen bleiben. Es kann auch für dich durchaus Sinn machen, bei StudiVZ oder Wer-kennt-Wen nachzusehen, ob wenn nicht du, dann doch jemand anders ein Profil unter deinem Namen ein Profil angelegt hat. So etwas soll durchaus vorkommen. Dem Vernehmen nach scheinen die Anbieter hier sehr kulant zu sein und löschen diese Profile, wenn die "echte" Person eine diesbezügliche Anfrage gestellt wird.

Der PR-Blogger Klaus Eck gibt regelmäßig Tipps zum Reputationsmanagement.

Fazit: Vorerst bieten yasni und 123people keinerlei Vorteile, wenn man selber nach Personen suchen möchte. Yasni dient den Nutzern in erster Linie dazu, das Suchergebnis zur eigenen Person zu manipulieren, indem man unerwünschte Ergebnisse entfernt und erwünschte Suchergebnisse höher gewichtet. Zudem ist nie ganz klar, welche Quellen und Algorythmen Yasni tatsächlich verwendet, weshalb es natürlich auch nicht klar ist, welche Quellen außen vor gelassen werden. Daher sind Google, Yahoo und Live mit ihren erweiterten Suchfunktionen besser geeignet.