Archiv der Kategorie: Technik

Hören statt sehen – Audios und Podcasts zum barrierefreien Web

Viele Vortragende stellen mittlerweile Audio-Mitschnitte ihrer Vorträge bereit. Vor allem Blinde, aber nicht nur sie profitieren von Audio. Die Präsentationsfolien sind zwar interessant, aber auch oft unverständlich, wenn man den Vortrag nicht gehört hat. Eine Liste nützlicher Guidelines und Hilfen zur Barrierefreiheit habe ich schon veröffentlicht.
Der Webdesign-Podcast Technikwürze beschäftigt sich öfter mit Barrierefreiheit. Im aktuellen Beitrag um Contao formerly known as Typolight widmen sich die Teilnehmer ausführlich dem Thema Zugänglichkeit des Redaktionssystems.

Einfach für Alle bietet eine Reihe von Podcasts an, die zwar schon ein wenig älter , aber immer noch hörenswert sind.

Wirklich schwer macht es der Webkongress Erlangen 2010. Hier kommt man auf verschlungengen Wegen zu vielen Folien und Mitschnitten der Vorträge. Eine große Zahl der Vorträge befasst sich auch mit Barrierefreiheit. Um an die Audios zu kommen, klickt man zunächst auf den Vortrag, scrollt zum Fuß der Beschreibung, klickt auf Vortrag in „Multimedia-Formaten im Videoportal der FAU“ und anschließend auf Download. Einfach, oder?

Web AXE ist ein englischsprachiger Weblog und Podcast zum Thema Barrierefreiheit. Von dem Podcast sind bisher 86 Episoden erschienen.

Auf Deutsch und Englisch ist der Webevangelist Christian Heilmann unterwegs. Seine zahlreichen Vorträge sind immer hörenswert und drehen sich oft um Barrierefreiheit.

Kongresse

Warum man Formulare von Nutzern testen lassen sollte

Dieses Beispiel-Formular hier zeigt, dass Usability- und Zugänglichkeitsprobleme oft miteinander einher gehen. Ich hatte fünf Versuche gebraucht, um dann hinzuschmeißen und das Browserfenster entnervt zu schließen. Was ist passiert?

Bei dem Formular handelt es sich um ein Standardformular mit vielen Checkboxen, ein paar Radio-Buttons, zwei Eingabefeldern, einem Auswahlfeld und einem Absendebutton. Das Formular wird nicht clientseitig validiert, es dürfte also auch ohne JavaScript funktionieren, braucht es aber nicht, weil ich JS für diese Seite frei gegeben habe.
Es gibt einen kurzen Einleitungstext, man kann alle Checkboxen auswählen, wobei jede Checkbox eine Option darstellt. Außerdem gibt es eine Checkbox für „alles“, heißt, man will das ganze Paket. Ein simples Formular, sollte man meinen.
Falsch: Man darf aus irgendeinem Grund nur drei Checkboxen pro Bereich auswählen, kann aber beliebig viele aktivieren. Hat man die Checkbox „alles“ ausgewählt, darf keine der anderen zum Block gehörenden Checkboxen ausgewählt werden.
Mit anderen Worten, ich darf mit meinem Screenreader nach dem Ausfüllen und Versenden alle Checkboxen der „falsch“ ausgewählten Blöcke noch einmal durchgehen und an- bzw. abklicken, bis ich auf maximal drei aktive Checkboxen oder „alles“ komme. „Unendlicher Spaß“ würde David Foster Wallace das wohl nennen. Denn ich muss ja den betreffenden Block einmal komplett durchgehen, um zu wissen, welche Boxen ich im ersten „Wahlgang“ aktiviert habe und welche nicht.
Nun gehöre ich nicht zu den braven Leuten, die Anleitungen und gut gemeinte Ratschläge durchlesen, die bei einem solchen Formular als Ausfüllhilfe am Anfang stehen sollten. Ich bin also zur ursprünglichen Formularseite zurückgegangen und siehe da, es gab keine Ausfüllhilfen, weder am Anfang noch am Ende oder in den betreffenden Blöcken des Formulars. Erst in den Fehlermeldungen taucht die Mitteilung auf, ich dürfe nur drei … aber das sagte ich ja schon.
Ich bin ja der letzte, der behauptet, es sei einfach, gute Formulare zu erstellen. Was mich wirklich ärgert ist die vollkommene Sinnfreiheit solcher Maßnahmen. Wenn man „alles“ ausgewählt hat und „alles“ auch noch am Ende steht, sollte man meinen, dass es egal ist, welche Felder man noch aus diesem Block ausgewählt hat. Und wenn man nur drei Kreuze machen darf, sollte man auch nur drei auswählen können. Bei Checkboxen erwarte ich eigentlich, dass ich beliebig viele anklicke kann. In diesem Fall hätte man statt Checkboxen Auswahlfelder verwenden können, drei Auswahlfelder für drei auszuwählende Optionen.
Und natürlich gehört die vernünftige Gestaltung von Formularen zu dem Grundlegenden, was ein ernstzunehmender Portalbetreiber beherrschen sollte, wenn er Formulare anbieten möchte. Sowas lernen Studierende, die sich mit empirischer Forschung beschäftigen müssen in ersten Jahr des Studiums. Da erstellt man nichts anderes als Fragebögen in Form von Formularen und würde für so einen Fragebogen mit Sicherheit keine gute Note bekommen.
Das wirklich Ärgerliche daran ist, es hätte ein simpler Test mit drei bis vier Kollegen oder Freunden gereicht, um die größten Mankos dieser Umfrage auszubügeln.

Die Kunst des richtigen Verlinkens – Teil II

Vor langer, langer Zeit hatte ich einen Artikel zum richtigen Verlinken geschrieben. Generell gibt es vier Arten von Verlinkung:

  • Viele Webseiten verlinken gar nicht, z. B. das Deutschlandradio.
  • Viele Websites setzen die Links an das Ende des Textes.
  • Viele Nachrichtenportale setzen Links in Blöcken zwischen die Texte, etwa Die Zeit und die Welt.
  • Der Rest verlinkt im Fließtext, das macht zum Beispiel Heise durchgängig in seinen Publikationen, aber auch die meisten Weblogs.

Mir fällt gerade während ich diese Zeilen schreibe auf, dass es hauptsächlich IT-Seiten und Web-2.0-Angebote sind, die in Fließtexten verlinken. Es scheint also doch etwas dran zu sein an der Aussage von Mario Fischer. Fischer sagt in seinem Buch „Website Boosting“, Links im Text würden von der Mehrheit als störend empfunden.

Wahrscheinlich können IT-ler und Hardcore-Internet-Nutzer die Links im Text eher ausblenden als Gelegenheitsleser.

Zugänglichkeit

Den Screenreader-Nutzer stören einzelne Links im Text weniger. Manche Leute bringen aber die kunst fertig, vier Wörter hintereinander mit dem selben Link zu versehen. Das Klingt dann wie „Link hier – Link klicken, – link für – Link das – Link Bild“.. Eine solche Link-Häufung macht weder aus redaktionellen noch aus kognitiven Gründen viel Sinn. Die Leser verstehen nicht, ob hier vier verschiedene Sachen verlinkt werden oder nur eine. Hier dürfte auch das primäre Problem für Menschen mit Lernschwierigkeiten ligen.
Generell stellt sich für die letztere Gruppe die Frage, ob sie durch Links im Fließtext vom Inhalt des Textes abgelenkt werden. Dazu fehlen mir valide Daten, aber ich bin mir nicht sicher, ob unterstrichener blauer Text schlimmer sein kann als eine flackernde Flashanimation.

Die Usability-Sicht

Aus Usability-Sicht würde ich eindeutig die Verlinkung im Text vorziehen. Zum Einen lässt sich hier eher kontextsensitiv verlinken. Zum Anderen ist eine Häufung von Links in Blöcken mitten im Text oder am Fuß des Textes ebenfalls eine kognitive Herausforderung. Nehmen wir an, wir hätten fünf Links die mit dem Text tatsächlich in Zusammenhang stehen: ich suche aber eine bestimmte Information, die mir im Text aufgefallen ist und die ich gerne weiter verfolgen möchte. Im schlimmsten Fall muss ich alle Links einmal durchklicken, um die gewünschte Information zu finden.
Die Wikipedia ist ein Beispiel dafür. Wenn ich mit einem Höllentempo mit dem Screenreader einen Artikel durchgehe, merke ich mir nicht die Nummer der Fußnote, wo Wikipedia seine Quellen ablegt. Entweder stoppe ich also die Lektüre, springe zur Fußnote, öffne den Link und kehre dann zu der Stelle zurück, wo ich die Lektüre des WP-Artikels abgebrochen habe. Ode ich lese den Artikel zu Ende, merke mir die Nummer der Fußnote und rufe dann den dahinter liegenden Link auf. Und wenn ich zwei oder drei Fußnoten verfolgen möchte?Wikipedia wird sicher seine Gründe haben, Quellen nicht im Fließtext zu verlinken, aus Usabilitysicht ist das eher ein großes Manko.
Ich persönlich kann mir wesentlich besser die Position eines Hyperlinks im Fließtext oder den Linktext merken als eine Nummer.
Bei redaktionellen Produkten ist die Debatte ohnehin obsolet, denn die verlinken nur auf Produkte des eigenen Hauses und selbst da nicht kontextsensitiv.

Fazit

Wo man von technik- oder web-affinen Lesern ausgehen kann, sind Links im Fließtext ein Muß. Man sollte es dabei auch nicht übertreiben und auf keinen Fall zwei Wörter hintereinander mit unterschiedlichen Zielen verlinken.
Im Nachrichtenbereich, wo ohnehin nur ein bis zwei Links auf Pressemitteilungen oder ähnliches gesetzt werden, kann der Link am Ende des Textes stehen. Eine Linkhäufung am Fuße des Textes ist nicht nur abschreckend, sie zeigt auch, dass der Autor sich keine Gedanken dazu gemacht hat, wie Informationen struktuiert präsentiert werden, Informationen und Verknüpfungen machen immer nur im größeren Zusammenhang einen Sinn.

Tag der Normen

Heute, am 14. Oktober, ist Tag der Normen, wer hätte gedacht, dass sogar Normen einen Tag haben können? Es gibt kein lustiges Bildchen bei Google, keine Straßenfeste – zumindest nicht in Bonn – und keine hübschen Armbändchen, mit denen man sich als Freund bedrohter Normen quasi selber branden kann. Am 14. Oktober 1946 wurde die International Organization for Standardization gedründet.

Dennoch sind Normen wichtig und bestimmen unseren Alltag stärker, als wir ahnen. Wer denkt bei DIN A 4–Papier noch an die deutsche Industrie-Norm?

Diese Woche wurde auch das Projekt „User Guide 2.0 – Barrierefreie Technische Dokumentation“ eingeläutet, dass zu besser verständlichen Bedienungsanleitungen und technischen Informationen führen soll. Kurioserweise ist schon der Name eine böse Stolperfalle: Die einen werden kritisieren, dass man hier einen englischen Begriff für ein deutsches Projekt gewählt hat. Die Anderen dass „2.0“ hier mal gar keinen Sinn macht. Wenn ein Bild wirklich inflationär ist, dann ist es 2.0, vor allem bei diesem Projekt, denn es hat nur nebenbei etwas mit Internet und gar nichts mit nutzergenerierten Inhalten zu tun. Bisher scheint es auch keine Projekt-Website zu geben, es wurden also beste Voraussetzungen geschaffen, damit die interessierte Öffentlichkeit sich daran nicht beteiligen kann.

Es gibt eine ganze Reihe von Normen: Die Normen für Barrierefreies Bauen wurden dieses Jahr aktualisiert, es gibt Normen für Software-Ergonomie – also Usability – es gibt sogar Normen für besser lesbare Informationen im öffentlichen Raum.

Wer sich ein wenig mit dem Web beschäftigt, stößt früher oder später auf das World Wide Web Consortium. Das W3C entwickelt Standards für das Web, die aber nicht als Standards, sondern als Recommendations bezeichnet werden, es handelt sich also um Empfehlungen. Ansonsten funktioniert das W3C ähnlich wie die ISO oder das DIN, da kann es schon mal eine Generation dauern, bis ein Standard verabschiedet oder aktualisiert wird.

Zumindest die W3C-Empfehlungen sind keine leichte Lektüre, bei den Normen dürfte es noch schlimmer sein. Das macht aber wenig, denn die Normen sind nicht frei zugänglich, obwohl sie doch in unser aller Leben eingreifen. Das ist sehr bedauerlich, denn mich würden doch einige dieser Normen sehr interessieren.

Warum schlechter Traffic kein guter Traffic ist

Im Google Weblog wird mit einem Augenzwinkern gefragt „Brauchen wir einen Meta-Tag für ’negative Keywords‘?. Matt Cutts sagt nein: Der erste Teil der Erklärung ist verständlich, es ist aus Ressourcensicht nicht sinnvoll, unnötig Energie auf Begriffe aufzuwenden, mit denen die Leute nicht gefunden werden wollen. Der zweite Teil der Meldung ist hingegen ziemlicher Quatsch:

Wir danke für die Meldung, aber wir wurden einfach noch nicht oft genug gebeten: „Bitte sendet mir keine Besucher. Ich möchte bei dieser Wortgruppe nicht
angezeigt werden.“ Quelle

Schließlich geht es nicht um den Webmaster und es geht sicher nicht darum, auf Teufel komm raus Traffic zu generieren. Dies wissen wir schon seit der ersten Schwemme mit Meta Keywords, welche die Meta Tags bis heute diskreditiert haben. Daraus haben wir gelernt, wer Traffic haben will, muss seine Seite mit Erotik und Potenzmittel-Werbung vollpacken.

Inzwischen sollten wir aber verstanden haben, dass diese Art des Traffic uns keinerlei Mehrwert bringt, es sei denn, wir verkaufen Erotik oder Potenzmittel oder etwas Verwandtes. Oder wir kleistern unsere Seite mit Anzeigen voll, mit denen wir Geld verdienen.

Ansonsten sollten unsere Ansprüche wohl höher sein: jemand, der sich auf unsere Seite verirrt hat, wird mit sehr geringer Wahrscheinlichkeit unseren großartigen Content angucken. Schließlich hat er vermutlich etwas bestimmtes gesucht, was wir ihm nicht bieten können.

99 Prozent der Website-Betreiber sind zugleich auch Nutzer einer Suchmaschine und ärgern sich darüber, wenn sie das Gesuchte nicht finden.

Wer die Keywords oder Phrasen analysiert, mit denen die Besucher auf seine Seite kamen, weiß in der Regel, dass er für diese Suchen keine Inhalte liefern kann. Er will aber Besucher haben, die wegen seinem Content kommen, sich ein paar Seiten ansehen und möglichst lange bleiben. Dazu ist es aber auch nötig, die Enttäuschung über fehlende Inhalte möglichst gering zu halten. Bei großen Seiten ist es doch wahrscheinlich, dass die Leute sich den Namen der Site merken, die sie in die Irre führte und selbige auf ihre mentale schwarze Liste kommt.

Bei mir kommt da sehr schnell auch der Verdacht auf, dass die Verantwortlichen an der SEO herum manipuliert haben. Ich persönlich habe mich immer geärgert, wenn ich auf einer Seite gelandet bin, die vielversprechend klang und wenig Inhalte bot. Bei meiner eigenen Seite habe ich auch herumgebastelt, weil ich gemerkt habe, dass die Leute mit falschen Erwartungen zu mir kamen. Für meinen Geschmack ist so etwas ein Fall für den SEO-Doktor.

Als Fazit kann man festhalten, dass die Zufriedenheit des Nutzers ganz oben steht. SEO heißt deshalb nicht nur, möglichst viel Traffic auf meine Seite zu locken, sondern vor allem, die eigenen Inhalte am besten an den Besucher zu bringen.

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Was Weihnachten mit der Besucherstatistik macht

Es kann tatsächich auch Spaß machen, sich mit Statistiken zu beschäftigen. Ich schlage mich gerade mit dem Thema Web Analytics herum, nachdem ich jüngst Piwik von meinem Webspace geschmissen habe. Piwik ist ein sehr ausgereiftes Web-Analytics-Tool, welches mittlerweile in der Version 1.0 vorliegt. Leider war mein Billig-Webspace für soviel Auslastung nicht ausgelegt.

Ich bin ja als Blinder eher ein Fan von nackten Daten. Andere Leute schwärmen für ästhetisch ansprechende Diagramme mit allem Schnick-Schnack, mit lustigen 3-D-Effekten und skurillen Ausformungen. Ich freue mich über Excel-Tabellen, die kann man recht gut sortieren, man kann sie summieren, arithmetische Mittel bilden und andere Späße damit machen. Bislang bin ich eher unzufrieden mit den bordeigenen Tools zur Verknüpfung der Daten untereinander und den Sortierungsmöglichkeiten die sie bieten.

Bei den Statistiken kann man bestimmte Effekte beobachten, zum Beispiel, dass Besucherstatistiken zwischen Weihnachten und Neujahr regelmäßig einbrechen. Ich nenne das den Weihnachtsknick. Das kann man sehr schön bei Google Trends beobachten, hier kann man die Beliebtheit von Suchbegriffen ermitteln und zwei oder mehr Begriffe vergleichen. Außerdem kann man auch Websites – vermutlich sehr grob – im Langfrist-Trend beobachten.

Vergleicht man z. B. Amazon und EBay, sieht man deutlich den Knick um die Jahreswende und den im Vergleich etwas steileren Anstieg bei EBay im Januar. Nur ein Schelm denkt jetzt, da versuchen Unzufriedene ihre Geschenke zu versteigern. Vielleicht müssen sie aber auch dank der vielen Geschenke nur ihre Schränke ausmisten.

Vergleicht man die beiden IT-Newsticker Heise und Golem, sieht man den gleichen Trend. Hier stellt sich aber auch schon die Frage: Liegt das daran, dass es um die Jahreswende herum weniger Nachrichten gibt oder weil viele Leute um diese Zeit herum das Web weniger intensiv nutzen? Who knows?

Für kleinere Websites wären solche Statistiken zu grobkörnig, sofern Trends überhaupt Daten für sie ausgibt. Für Feinanalysen wären tatsächlich Tagestatistiken interessant. Hier kann man z.B. beobachten, ob Seiten tendentiell eher beruflich oder privat genutzt werden: Wenn etwa mehr Traffic an Werktagen zu bestimmten Zeiten stattfindet.

Auch solche Analysen müssten sich eigentlich stärker automatisieren lassen. Wenn Leute eher an einem Werktag zwischen 8 und 12 Uhr auf meine Website kommen, dürften sie je nachdem, was ich auf meiner Website anbiete, eher beruflich interessiert sein. Später kommen vielleicht die Studenten, die Informationen für ihre Arbeiten recherchieren und irgendwann abends oder am Wochenende kommen dann die Leute, die privat interessiert sind oder Unterhaltung suchen. Komischerweise unternimmt noch keines der Tools, die ich kenne – Google Analytics, Piwik oder eTracker – den Versuch, die Besucher-Daten anhand vorliegender Merkmale tatsächlich automatisch zu interpretieren.

Wahrscheinlich fehlt es noch an einer soliden Basis, die gewaltigen Datenmengen miteinander zu verknüpfen. Bis es so etwas gibt, genieße ich es, selber etwas in die Daten zu interpretieren. Ich finde einfach, es gibt kaum etwas Spanneneres als zu beobachten, was die Leute, die man nie kennen lernen wird auf der eigenen Seite so gemacht haben.

Poor Content – die Schwäche des Online-Journalismus

Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.

Zehn Jahre und keinen Schritt weiter

Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.

Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.

Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.

Was tun?

Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:

  • Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
  • Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
  • Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.

Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.

Studieren zuhause – Vorlesungen auf dem Sofa hören

Obwohl wir schon von lebenslangem Lernen sprechen, hat sich eigentlich recht wenig in diese Richtung entwickelt. Die autodidaktischen Fähigkeiten werden kaum gefördert. Um so schöner, dass es doch noch einige interessante Angebote gibt, die das Lernen zuhause ermöglichen.

Vorlesung Digitale Medien von Prof harald Sack
Die Vorlesung ist sehr gut zum Einstieg in das Thema digitale Medien, aber eher für Techniker geeignet. Der Screencast wird im topaktuellen RealMedia-Format angeboten.

Prof. Eduard Heindls Vorlesungen zum Online-Marketing
Eine eher allgemein gehaltene Einführung in Suchmaschinenoptimierung, Web Analytics und vieles mehr als mp3 zum Download. Die Sound-Qualität lässt zu wünscen übrig.

Weitere Vorlesungen von Prof. Heindl
Heindl hat weitere Vorlesungen online gestellt. Themen unter anderem Mathematik, die Rolle von Innovationen und Objektorientiertes Programmieren in Java. Die Vorlesungen liegen in mp3 vor, sind aber nicht alle vollständig.

Vorlesung Algorithmen von Prof. Dr. Oliver Vornberger
Die Vorlesung gibt es als FLV, MP4 und MP3. Algoritmen werden anhand von Java eingeführt, die Vorlesung ist wirklich lang.

Selbiger hält eine Vorlesung zu Datenbanken
Ebenfalls in FLV, MP4 und mp3.

Access News vom 8. Juli 2010 – blind Auto fahren

Amerikanische Forscher haben Hilfssysteme vorgestellt, mit denen Blinde ein Fahrzeug selbst steuern können. Die Betonung liegt dabei auf steuern, es ist also kein autonomes Fahrzeug:

Ein Team von Wissenschaftlern um Dennis Hong, der das Robotics and Mechanisms Laboratory des Virginia Tech leitet, will es mit technischen Hilfsmitteln
ausrüsten, die sie nichtvisuelle Schnittstellen nennen. Sie sollen es Blinden und Sehbehinderten ermöglichen, das Auto zu steuern. Hinzu kommt eine vibrierenden Weste, die die Geschwindigkeit anzeigt. Das Lenkrad liefert akustische Hinweise darauf, wie weit der Fahrer eingeschlagen hat.

Das klingt zur Abwechslung mal wirklich spannend. Ich hatte selbst schon mal überlegt, wie ein akkustisches Orientierungssystem für blinde Fußgänger aussehen könnte. Autos erfordern wegen der hohen Geschwindigkeit und der Vielfalt an Informationen ganz neue Herangehensweisen. Auch wenn das Golem-Forum stellt die Bibliothek IAccessible2 unter eine BsD-Lizenz, sie soll die Barrierefreiheit von Windows-Anwendungen verbessern.

Jaws 11 ist da

Jaws 11 ist erschienen. Bahnbrechende neue Features sind nicht anzutreffen, ein paar Verbesserungen hier und da, ein wenig mehr Unterstü
tzung für ARIAA, das wars.

BIENE-Countdown

Noch bis zum 15. Juli können sich barrierefreie Websites um eine BIENE bewerben. In diesem Jahr suchen die Veranstalter nach gut gelungenen Websites mit komplexen Transaktionen.

Blinde und Werbeblocker

Bei t3n erschien ein Artikel über die negativen Auswirkungen von Werbeblockern.

Es ist weniger der Nervfaktor, der die Werbung untragbar macht. Tatsächlich ist Werbung der falsche Name für die Technik, die da zum Einsatz kommt. Sieht man von Sicherheitsaspekten ab, sind JavaScript und mehr noch Flash die häufigsten Ursachen von Browserabstürzen. Ob nun die Werbebanner schlecht programmiert wurden oder der Browser Schrottt ist, das kommt auf das selbe heraus: Mit Flash-Blocker und NoScript verringern vor allem Blinde das Risiko eines Browserabsturzes. Für uns kommt der Screenreader als zusätzlicher Störfaktor dazu. Dessen Zusammenspiel mit anderen Programmen wie eben dem Browser oder dem Acrobat Reader ist die häufigste Ursache für Programmabstürze bei Computern mit Hilfssoftware. Da die meisten Firmen ohnehin auf Blinde Kunden verzichten zu können glauben, ist es um das deaktivierte Flash ohnehin nicht schade. Schlimmer sieht es bei JavaScript aus, das kann ja durchaus zur Barrierefreiheit beitragen, außerdem funktionieren einige Seiten mit deaktiviertem JavaScript gar nicht.

Dennoch halte ich NoScript und ähnliche Blocker für unumgänglich, denn einige Seiten meinen es zu gut mit externen scripts. Der Blinde muss aber warten, bis Facebook, Google Analytics und Exotischeres nachgeladen wurde, was mitunter recht viel Zeit kosten kann. Jaws zumindest liest die Seite erst vor, wenn sie komplett geladen wurde.
Es gibt für uns keinen Grund, diese Zumutung hinzunehmen, kaum ein Sehender würde 20 Sekunden auf eine Website warten, warum sollten wir das tun?