Archiv der Kategorie: Technik

Access-News vom 2. Juli 2010 – sterbende E-Book-Reader und tanzende Buchstaben im Flash-Format

Nach dem Motto „Totgesagte sterben schneller“ erklärt ZDNet die reinen E-Book-Reader zur aussterbenden Gerätekategerie. Einerseits sind die Geräte trotz jüngster Preissenkungen noch zu teuer, andererseits bekommen sie Konkurrenz durch Tablets und Smartphones mit hervorragenden Displays. Da es in Deutschland bis heute kaum neues und aktuelles Lesefutter für die Geräte gibt, werden wir dem wohl nicht hinterher trauern. Allerdings bringt Amazon einen neuen großen E-Book-Reader auf den Markt, der wohl immer noch ohne Unterstützung für Blinde auskommt, obwohl Amazon dieses Manko ausbügeln wollte.

Gerade für Menschen mit Sehschädigung könnte es nützlich sein, einen Reader mit EInk zu haben, wo die Schrift frei vergrößert werden kann. Für Blinde und Menschen mit Lernschwäche wäre die Vorlesefunktion ein unschlagbarer Vorteil gewesen. Wir dürfen uns bei der deutschen Buchindustrie und ihrem Börsenverein des deutschen Buchhandels dafür bedanken, dass es kaum EBooks gibt oder sie unerschwinglich sind, bei Amazon dafür, dass der Kindle nicht barrierefrei ist und bei Adobe dafür, dass ihre Digital Editions-Software, die zum Verwalten und Lesen der Bücher auf dem Computer nötig wäre nicht barrierefrei ist. Danke.

Flackernde Buchstaben

Die Firma NuCaptcha möchte Spamschutz über Flash einbinden. Das wird natürlich voll umfänglich barrierefrei mit Audio-Alternativtexten. Und es ist voll modern, weil Flash. Warum das jetzt für Menschen besser lesbar sein soll als die Pixelgraphiken und für Spambots schlechter, erschließt sich mir nicht. Die Buchstaben erinnern mich an die früher beliebten Newsticker, die von rechts nach links über die Seite vagabundieren. Nur das diese hier auch nebenbei noch horizontal wandern. Ich plane gerade einen Artikel zu Captchas, vielleicht komme ich darauf zurück.

Die latent semantische Optimierung und der Effekt der Selbstverstärkung

Mittlerweile dürfte sich jede große oder mittelgroße Firma mit dem Thema Suchmaschinenoptimierung beschäftigen. Da man die Basics – oder das, was man dafür hält – früher oder später sämtlich erfüllt hat, müssen sich die Suchmaschinen neue Faktoren ausdenken, mit denen sie die Qualität der Suchergebnisse bewerten können. Aus einer höheren Perspektive betrachtet führt SEO zu einer Angleichung der Websites, weil jeder Betreiber die gleichen Zaubertricks einsetzt.

Ähnlich sieht es inhaltlich bei der LSO, der latent semantischen Optimierung aus. Ein Hersteller von Katzenfutter sucht sich die passenden Stichwörter aus einem Texttool seiner Wahl und optimiert damit seine Seite zum Thema Katzenfutter.

Die Texttools greifen – davon kann man ausgehen – ihrerseits auf echte Texte aus dem Web zurück, um daraus die Relevanz von Wortkombinationen und Wortnetzen abzuleiten. Da aber immer mehr Websites auf die gleichen Stichwortquellen zurückgreifen, um ihre Auftritte auf bestimmte Begriffsnetze zu optimieren, verliert das ganze System an Relevanz.

Da alle Seiten dann die gleichen Stichwortverbindungen nutzen, um ihre Texte zu optimieren, können die Suchmaschinen nicht mehr über dieses Kriterium beurteilen, welche Texte relevant sind.

Zugleich greifen die Suchmaschinen ihrerseits auf die semantisch optimierten Webseiten zurück, um ihre Begriffsnetze zu aktualisieren.

Die Lösung kann nur lauten, seltenere Worte zu verwenden und ein wenig mehr Kreativität als die Konkurrenz zu entwickeln. Die LSO ist nur ein Faktor unter vielen, letzten Endes schreibt man für Menschen und nicht für statistische Algorithmen.

Access-News vom 24. Juni 2010 – Fraunhofer testet und Google bringt was Neues

Das Fraunhofer-Institut für Informationstechnik hat herausgefunden, dass die meisten Dax-Websites nicht validieren und nicht barrierefrei sind. Wer hätte das gedacht, nachdem Opera mit seiner MAMA-Studie das schon lange festgestellt hat? Wer es ausprobieren mag, es gibt ein Testtool auf der Website von Fraunhofer. Ich befürchte fast, das diese automatischen Tests mehr Schaden als Nutzen anrichten. Der Website-Bastler braucht sich mit dem Thema Barrierefreiheit gar nicht mehr zu beschäftigen, sondern arbeitet säuberlich eine Reihe von Fehlern ab und wird durch eine Fehlerfrei-Meldung des Systems geadelt. Zudem werden Leute belohnt, die statische Websites oder Alternativ-Versionen für Behinderte anbieten, denn hier wird das Prüfprogramm nicht durch so überflüssige Dinge wie JavaScript oder Flash in seiner Arbeit gestört.

Google mit OCR und Spracherkennung

GoogleDocs hat jetzt Texterkennung. Mit OCR lassen sich Texte aus Graphiken und PDFs extrahieren. Laut Golem soll die Qualität der Erkennung bisher noch nicht berauschend sein. Das ist etwa nützlich für PDF-Dateien, die aus gescannten Dokumenten generiert wurden. Nebenbei ist die HTML-Anzeige von PDF-Dateien eine der nützlichsten Werkzeuge Googles.
Mit seinem Know How im Rahmen der Bücherscan-Aktion dürfte Google bei der Scan-Qualität deutliche Verbesserungen ermöglichen.

GoogleVoice ist eine Technik, mit der sich Sprachmitteilungen in Text umwandeln lassen, zum Beispiel zum Versenden von SMS. Voice ist jetzt öffentlich verfügbar, allerdings bisher nur auf Englisch.

Vermischtes

Marco berichtet, dass das neue IOS 4 Teile von WAI ARIA unterstützt.
Die Entwickler von Chrome arbeiten jetzt an der Unterstützung von Chrome durch Screenreader. Sie haben recht flott auf die Petition reagiert, die von Steve Faulkner letzte Woche beworben wurde.
WebAIM setzt seine HTML5-Reihe mit einem Beitrag über Canvas fort.

David Gelernter über künstliche Intelligenz

Der Computerforscher David Gelernter hat dem Deutschlandfunk ein längeres Interview gegeben, in dem er vor allem über die Möglichkeiten künstlicher Intelligenz sprach. Obwohl Gelernter zu den Vordenkern des Web gezählt wird, hat die deutsche Wikipedia keinen Eintrag zu ihm, so viel zur Überbewertung von Quantitäten. Gelernter erlangte traurige Berühmtheit als eines der Opfer des Unabomber.
Gelernter sagt, dass künstliche Intelligenz durchaus hilfreich ist, um bestimmte – mathematisch fassbare – Probleme zu lösen. Allerdings werden Computer niemals menschlich denken können, weil sie weder Körper noch (Selbst-)Bewusstsein haben.
Es besteht also eine klare Trennung zwischen menschlicher und künstlicher Intelligenz, die durchaus nützlich ist:

Nun, ich würde schon sagen, diese ganze Beschäftigung mit Computern und Computerwissenschaft, dass das schon sehr, sehr, sehr wichtig war, weil selbst das letztendlich, die menschlichen Hirne und das menschliche Denken, das hat es ja schon auf jeden Fall weitergebracht, weil wir ganz oft davon ausgegangen sind – wir haben es einfach mal als Hypothese aufgestellt – den Computer wie ein menschliches Gehirn in irgendeiner Form zu betrachten, hat das einfach geholfen, dass man ein ganz neues Denken über das menschliche Denken und über das menschliche Hirn erst mal ermöglicht hat. Und das war unglaublich nützlich, auch wenn es jetzt nicht unbedingt gelungen ist und meiner Meinung nach auch nicht notwendig ist, einen menschenähnliches Hirn bei digitalen Computer oder bei digitalen Speichermedien zu entwickeln. […] Und da ist einfach der Computer ein nützliches Werkzeug, uns da weiterzubringen, weil es ist durchaus möglich, noch viel bessere Software zu entwickeln, noch viel intelligentere Software zu entwickeln, zum Beispiel Software, die uns hilft, diesen enormen Datenstrom, den es jetzt gibt, einfach besser zu filtern, besser zu bewältigen, besser zu kontrollieren. Da kann eben dann Software eben helfen, den Menschen näherzukommen, ohne eben selbst eine menschenähnliche Software zu sein. Quelle

Ein wenig redaktionelle Bearbeitung hätte dem Interview nicht geschadet, was er aber sagt: Es ist gar nicht nötig, dem Computer menschliche Intelligenz beizubringen.
Tatsächlich ist das Verhalten komplimentär oder wechselseitig: Der computer ist ein nützliches Werkzeug des Menschen, der Mensch kann heute ohne Computer gar nicht mehr existieren. Alle komplexen Systeme von der Energieversorgung über den Straßenverkehr bis hin zur Landwirtschaft basieren zumindest im Westen in irgendeiner Form auc Computern. Deshalb sind es nicht nur die Computer, die weiter entwickelt werden müssen. Es sind vor allem die Menschen, die mit diesen Geräten arbeiten. Es ist zu bequem, sich auf die Intelligenz der Algorithmen zu verlassen, um etwa seine Investitionen zu platzieren oder den Informationsstrom zu filtern. Doch Algorithmen werden von Menschen gemacht und Menschen können Fehler machen.

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Access News der Woche vom 17. Juni – ungesehene Präsentationen

Viel ist diese Woche nicht passiert. Die Arbeitsgruppe für Barrierefreiheit des W3C fragt, wie Präsentationen für alle zugänglich werden. Kurioserweise stellen auch viele Barrierefreiheits-Experten ihre Präsentationen auf SlideShare bereit. Dabei ist der Flash-Player derzeit die größte Barriere, um solche Dokumente zu lesen. Da loben wir uns das PDF, das dagegen eine Wonne ist.

Steve Faulkner weist auf eine Petition hin, die Googles Browser Chrome für Benutzer assistiver Technologien zugänglich haben möchte.

Die Kriterien für den BIENE-Award 2010 wurden veröffentlicht. In diesem Kriterienkatalog ist auch das Testverfahren vollständig dokumentiert.

Die Schweizer Stiftung „Zugänglichkeit für Alle“ stellt die Accessibility-Checklisten 2.0 vor. Die gibt es hier als Video und hier als Text.

Access News der Woche vom 9. Juni – HTML5 zieht in die Browser ein

Apple kommt mit Safari 5 heraus. Der Browser bringt eine erweiterte Unterstützung für HTML5 mit. Außerdem kann er – vermutlich auf Basis von HTML5 – Artikel hervorheben. HTML5 bringt „sprechende“ Tags wie article, navi und footer mit, so dass eine semantische Auswertung von Tags möglich wird.

Apple stellt das neue iPhone vor, das noble Gerät gibt es schon Ende Juni zu kaufen. Es bringt allerlei Neuerungen mit, angeblich soll man damit sogar telefonieren können. Die billigste Variante soll 900 Euro + x ohne Vertrag kosten. Wer also einen Monatslohn in der Hosentasche mitschleppen möchte: voila.

HTML5 bleibt in aller Munde. WebAIM hat einen weiteren Beitrag veröffentlicht: SVG ist ein freier Standard für Vektorgraphiken und eine gute Alternative zu Flash. Außer dem Internet Explorer wird SVG offenbar von allen Browsern unterstützt. SVG ist ein XML-basiertes Format und deshalb im Gegensatz zu Flash auch suchmaschinentauglich.

Nur nebenbei: SVG ist auch für Blinde eine schöne Möglichkeit, Vektorgraphiken und Animationen zu erzeugen. Dazu muss man allerdings zumindest in SVG und vermutlich auch in DOM und JavaScript fit sein und graphisches Vorstellungsvermögen haben. Ob das gut klappt, weiß ich allerdings nicht.

Sylvia Egger beschäftigt sich weiterhin mit Media Playern. Im aktuellen Beitrag geht es um Untertitelung.

Der Deutsche Blinden- und Sehbehindertenverband (DBSV) bittet um Unterstützung: Es geht um den Zugang zu Literatur und deren Umwandlung in zugängliche Formate. Damit sind die Formate Braille und DAISY – Hörbücher – gemeint. Ein kleines Rätsel zum Schluss: Warum setzt sich der DBSV nicht für zugängliche eBooks und ein blindengerechtes digitales Rechtemanagement ein, womit nicht fünf, sondern eher 95 Prozent der englischen und deutschen bücher zugänglich wären? Und das zweite kleine Rätsel am Abend: Warum setzt sich der Blindenverband nicht mit anderen Behindertenverbänden zusammen, um Bücher wirklich für alle zugänglich zu machen und ein anständiges Lobbying zustande zu bringen? Natürlich haben nicht alle Behindertenverbände die gleichen Interessen, aber wo das doch der Fall ist, sollte man auch zusammenarbeiten. Stattdessen fechten die Vereine ihre kleinen Schlachten jeder für sich aus.

Bad Practice im Webdesign

Update vom 29.06.2010: Wie ich gerade höre, wurde die Seite nicht relauncht, was aber nichts an meiner Kritik ändert. Ich habe mir die Seite vorher nie genauer angesehen und dachte, sie hätte früher anders ausgesehen.

Rehadat ist ein Informationsangebot für Arbeitssuchende mit Behinderung und Arbeitgeber, die einen Betroffenen beschäftigen wollen.
Offenbar seit heute, 10. Juni 2010, haben sie einen Relaunch gewagt. Optisch sieht die Seite gar nicht schlecht aus, ein wenig schlicht, aber Klicki-Bunti
ist eher was für eBay.
Die Seite entspricht allerdings nicht den Anforderungen an modernes Webdesign, was vor allem Blinden auffallen dürfte. In der Navigation wurde mit Spacer-Graphiken
gearbeitet, was nach der Veröffentlichung von CSS 2.1 nun wirklich badest practice ist. Hier ein Auszug aus der Navi, wie der Screenreader sie vorliest:

Hilfsmittel – Abstandhalter – Praxisbeispiele – Abstandhalter – Literatur – Abstandhalter
Rehadat

Eigentlich sagt die Sprachausgabe “Graphik Abstandhalter”, was das Surferlebnis nicht gerade steigert. Ein Blick in den Quellcode – ich spare mir hier die Zitate – offenbart, dass der Designer keine saubere Trennung von Struktur und Design vorgenommen hat. Es finden sich jede Menge Inline-Stylesheets. Das
ist zwar nicht verboten, aber es gehört schon seit Jahren nicht mehr zur guten Praxis. Inline-Styles sind ein typisches Artefakt von WYSIWYG-Editoren.

Bestimmte Browser zu empfehlen, gehört ebenfalls nicht zur guten Praxis:

empfohlene Browser: IE 6.x/7.x, Mozilla Firefox 2.x, Opera 9.x
Rehadat

Nutzer von Safari, Chrome oder mobilen Endgeräten mit anderen Browsern mögen bitte draußen bleiben. Das erinnert fatal an die frühen 2000er Jahre, als Websites
noch für Netscape oder Internet Explorer optimiert wurden. Einerseits hat die Meldung keinerlei Wert, da mit dieser Empfehlung ohnehin mehr als 80 Prozent
der Desktop-Browser abgedeckt sind. Andererseits mögen es die meisten Menschen einfach nicht, wenn man ihnen die Verwendung bestimmter Browser nahe legt.

Last not least: Wer ein Lesezeichen auf eine der alten Seiten gelegt hat, erlebt eine ärgerliche Überraschung: 404 – not found. Die 404-Meldung sollte im
Jahr 2010 einen grausamen Tod gestorben sein, geistert aber immer noch umher. Mit einer einfachen Codezeile kann man serverseitig alle 404-Fehlerseiten
auf eine hilfreichere Seite weiterleiten: ein Suchformular, eine Sitemap oder auf die Startseite mit einer passenden Fehlermeldung.

Das ist natürlich Jammern
auf hohem Niveau: Keine dieser Mankos verhindert, dass man auf der Website anständig surfen kann. Eine Seite irgendwie benutzbar zu halten ist aber nicht
Stand der Kunst im Jahr 2010, im Gegenteil: Wir haben die Technik und wir haben das Know How, das Surferlebnis für den Nutzer zu optimieren.

Es geht mir im übrigen nicht darum, die Macher der Site und die Webdesigner vorzuführen. Ich denke, dass Kritik nützlich sein kann. Es gibt noch jede Menge
anderer Seiten, die jüngst relauncht wurden und trotzdem noch Altlasten mit sich schleppen.

Multimedia im Web – optimiert für Suchmaschinen und Menschen

Obwohl wir schon seit Jahren von Benutzerfreundlichkeit reben und jeder Webdesigner sich selbiges auf die Fahnen geschrieben hat, werden jeden Tag neue oft schicke und benutzerunfreundliche Websites online gestellt.
Ungeliebtes Stiefkind der USability-Gilde sind Dateien. Ich kann mich nicht erinnern, wann jemand das letzte Mal einen Beitrag zu benutzerfreundlicher Multiemedia geschrieben hat. Hier also die Basics:
– alle Dateien zum Herunterladen sollten einen sprechenden Namen haben. Eine Datei namens 1322xayserer5.pdf klingt ungefähr so spannend wie der Wetterbericht von 1990.
– Jede Datei sollte in einer angemessenen Qualität ausgeliefert werden. Ein 10 MB großes PDF, welches zu 90 Prozent aus Luft und Liebe besteht ist ebenso wenig hilfreich wie ein verrauschtes MP3.
– Auch nach 15 Jahren MP3 scheint sich der Sinn von ID3 noch nicht herumgesprochen zu haben. Da stehen Meta-Daten drin, die bei vielen MP3-Playern statt des Dateinamens angezeigt werden. Eigentlich schon seltsam, da investiert jemand mehrere Stunden, um einen schönen Podcast zu produzieren, spart aber 30 Sekunden ein, weil er seiner Datei keinen sprechenden Namen und keine ID3-Tags verpasst. Dabei kann er hier wunderbar Daten wie Autorennamen, Titel, Erstelldatum und Herkunftsort ablegen.
Und wozu das alles? Ganz einfach, bei der Flut an Daten gehen Dateien ohne sprechenden Namen oder Meta-Daten gnadenlos unter. Bestenfalls landen sie in einem Archiv, wo sie dann auf nimmer Wiedersehen verschwinden. Selbst bei einer gezielten Recherche könnte der Archivar sie kaum wiederfinden, denn die Datei besitzt ja weder Meta-Daten noch einen sprechenden Dateinamen.

Wer von den Webworkern noch nicht endgültig überzeugt ist, für den kommt jetzt das Totschlagargument: Suchmaschinen-Optimierung. Google und andere orientieren sich maßgeblich am Datei- bzw. Linknamen. Ob Suchmaschinenbots die Metad-Daten auslesen, ist mir nicht bekannt, es spricht aber auch nichts dagegen, auch diese Daten einzutragen.
Im Sinne der Benutzerfreundlichkeit ist es auch wichtig, Informationen als normale Website anzubieten, statt sie in ein PDF zu packen. PDFs verbessern vielleicht das Ranking, vor allem im wissenschaftlichen Bereich. Ob da aber mehr als die ersten Absätze tatsächlich ausgewertet werden, kann eher bezweifelt werden. Man sollte auch an die Nutzer mobiler Endgeräte denken, die es lieber vermeiden, weitere Anwendungen zu starten. Der Titel von PDF-Dokumenten wird auch als Titel in Suchmaschinen angezeigt, sollte also sprechend sein. Da die Formatierungen in PDF-Dateien wie Überschriften rein optisch sind, tragen sie in keinem Fall zum Ranking bei.

Sprechende Dateinamen sollten keine Leerzeichen oder Sonderzeichen enthalten. Die einzelnen Begriffe werden mit Bindestrichen getrennt, d. h. zum Beispiel: Benutzerfreundlichkeit-in-Multimedia-Dateien.
Für die Suchmaschine sind mangels weitere Informationen der Text rund um die Datei sowie der Linkname ausschlaggebend für die Indizierung. Allerdings ist es auch sinnvoll, in Links das title-Attribut einzusetzen, indem auch Details zur Datei eingetragen werden können.
Das Thema RSS wird sträflich vernachlässigt. Der Webworker sollte einmal einen kritischen Blick auf seine Feeds werfen und sich folgende Fragen stellen:
1. Erfahre ich aus der Überschrift, worum es geht?
2. Reizt die Überschrift einen Anderen, diesen Beitrag aufzurufen?
Wer nicht im Datenstrom untergehen möchte, sollte eine dieser Fragen mit Ja beantworten, besser beide.
Das sind alles keine Sonderleistungen, sondern Basisanforderungen benutzerfreundlicher Inhalte.

Ist der Firefox noch zukunftsfähig?

Ich bin vor langer Zeit zufällig auf den Firefox gestoßen. Er war damals auf unseren Uni-Rechnern als Alternativ-Browser installiert und die frühe Version 1.x war dem Internet Explorer 6 schon damals weit überlegen.
Der Firefox hat seit dem zahlreiche Trends gesetzt und dem Internet Explorer einige Marktanteile abgejagt. Auch in der aktuellen Version des Internet Explorer ist ihm der Firefox noch immer um Meilen überlegen. Tatsächlich besitzt der IE 8 bis heute nicht einmal einen Shortcut, um Webseiten zu speichern.
Doch wie es aussieht, wächst der Firefox-Marktanteil nicht mehr und das meiner Meinung nach zurecht. Die Version 3 ist dermaßen schwerfällig geworden, dass das Surfen auf älteren Computern einfach keinen Spaß mehr macht. Der Firefox braucht nicht nur recht lang, um überhaupt zu starten, er schläft auch zwischendurch gerne mal ein. An den Festplattengeräuschen hört man ganz schön, dass er irgendwas tut, aber was eigentlich?
In die Surfer-Hölle kommt, wer JavaScript-lastige Seiten besuchen möchte. Und mit Flash ist es noch ein wenig schlimmer.
Wirklich seltsam ist der stetig zunehmende Arbeitsspeicher-Bedarf. Offenbar haben die Programmierer ihm nicht beigebracht, dass man Arbeitsspeicher auch mal freigeben kann. Außer bei fast ausgestorbenen Java-Webanwendungen habe ich keinen Browser gesehen, der mehr als 200 MB Arbeitsspeicher belegt und erst beim Beenden wieder freigibt.
Natürlich ist es eine feine Sache, dass es für jede vorstellbare Aufgabe eine Erweiterung gibt. Und das ist der größte Vorteil des Firefox vor allen anderen Browsern. Noch.
Denn Opera und Chrome glänzen mittlerweile durch hervorragende Geschwindigkeit und laufen auf kleinen Computern wie Netbooks sehr gut. Und Chrome ist inzwischen auch für Erweiterungen offen.
Wirklich enttäuscht war ich, dass Firefox noch recht wenig HTML5 eingebaut hat, ganz im gegensatz zu Opera und Chrome. Offenbar versteht sich Mozilla nicht mehr als Trendsetter.
Zwar soll dieses Jahr noch der Firefox 4 herauskommen und einige Mankos der 3er-Serie ausgleichen, aber so recht mag ich das noch nicht glauben. Würde das Programm vollkommen umgebaut – was wohl nötig wäre – dann würden die meisten der heutigen Erweiterungen nicht mehr funktionieren. Ob das dem Firefox nutzt, möchte ich bezweifeln. Die wichtigsten Erweiterungen würden sicher nachgebaut, aber viele Programmierer werden wohl für andere Plattformen entwickeln.
In puncto Sicherheit möchte ich dem Firefox eine Drei geben. Bei der ersten Installation ist er tatsächlich offen wie ein Scheunentor: Java ist aktiviert, Cookies sind erlaubt, alle möglichen (und überflüssigen) Addons und Plugins sind aktiviert. Einige Programme installieren gerne mal ungefragt irgendwelche Addons oder Toolbars, ohne dass der Firefox sich beschwert. Das entspricht dem Maß an Sicherheit, welches wir von Windows 9X kennen und ist weder sinnvoll noch zukunftsweisend.
Auf jeden Fall ist der Browserkampf auf einem neuen Feld vollkommen offen: den mobilen Endgeräten. Hier haben Apple, Google und Opera die Nase vorn, während die Desktop-Platzhirschen IE und FF alt aussehen.
Für einen Abgesang auf den Firefox ist es noch sehr früh. Und immerhin hat er Microsoft tüchtig eingeheizt. Deshalb hoffe ich, dass er wesentlich verbessert wird und Mozilla sich wieder mehr traut.