Archiv der Kategorie: Social Web

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Was Weihnachten mit der Besucherstatistik macht

Es kann tatsächich auch Spaß machen, sich mit Statistiken zu beschäftigen. Ich schlage mich gerade mit dem Thema Web Analytics herum, nachdem ich jüngst Piwik von meinem Webspace geschmissen habe. Piwik ist ein sehr ausgereiftes Web-Analytics-Tool, welches mittlerweile in der Version 1.0 vorliegt. Leider war mein Billig-Webspace für soviel Auslastung nicht ausgelegt.

Ich bin ja als Blinder eher ein Fan von nackten Daten. Andere Leute schwärmen für ästhetisch ansprechende Diagramme mit allem Schnick-Schnack, mit lustigen 3-D-Effekten und skurillen Ausformungen. Ich freue mich über Excel-Tabellen, die kann man recht gut sortieren, man kann sie summieren, arithmetische Mittel bilden und andere Späße damit machen. Bislang bin ich eher unzufrieden mit den bordeigenen Tools zur Verknüpfung der Daten untereinander und den Sortierungsmöglichkeiten die sie bieten.

Bei den Statistiken kann man bestimmte Effekte beobachten, zum Beispiel, dass Besucherstatistiken zwischen Weihnachten und Neujahr regelmäßig einbrechen. Ich nenne das den Weihnachtsknick. Das kann man sehr schön bei Google Trends beobachten, hier kann man die Beliebtheit von Suchbegriffen ermitteln und zwei oder mehr Begriffe vergleichen. Außerdem kann man auch Websites – vermutlich sehr grob – im Langfrist-Trend beobachten.

Vergleicht man z. B. Amazon und EBay, sieht man deutlich den Knick um die Jahreswende und den im Vergleich etwas steileren Anstieg bei EBay im Januar. Nur ein Schelm denkt jetzt, da versuchen Unzufriedene ihre Geschenke zu versteigern. Vielleicht müssen sie aber auch dank der vielen Geschenke nur ihre Schränke ausmisten.

Vergleicht man die beiden IT-Newsticker Heise und Golem, sieht man den gleichen Trend. Hier stellt sich aber auch schon die Frage: Liegt das daran, dass es um die Jahreswende herum weniger Nachrichten gibt oder weil viele Leute um diese Zeit herum das Web weniger intensiv nutzen? Who knows?

Für kleinere Websites wären solche Statistiken zu grobkörnig, sofern Trends überhaupt Daten für sie ausgibt. Für Feinanalysen wären tatsächlich Tagestatistiken interessant. Hier kann man z.B. beobachten, ob Seiten tendentiell eher beruflich oder privat genutzt werden: Wenn etwa mehr Traffic an Werktagen zu bestimmten Zeiten stattfindet.

Auch solche Analysen müssten sich eigentlich stärker automatisieren lassen. Wenn Leute eher an einem Werktag zwischen 8 und 12 Uhr auf meine Website kommen, dürften sie je nachdem, was ich auf meiner Website anbiete, eher beruflich interessiert sein. Später kommen vielleicht die Studenten, die Informationen für ihre Arbeiten recherchieren und irgendwann abends oder am Wochenende kommen dann die Leute, die privat interessiert sind oder Unterhaltung suchen. Komischerweise unternimmt noch keines der Tools, die ich kenne – Google Analytics, Piwik oder eTracker – den Versuch, die Besucher-Daten anhand vorliegender Merkmale tatsächlich automatisch zu interpretieren.

Wahrscheinlich fehlt es noch an einer soliden Basis, die gewaltigen Datenmengen miteinander zu verknüpfen. Bis es so etwas gibt, genieße ich es, selber etwas in die Daten zu interpretieren. Ich finde einfach, es gibt kaum etwas Spanneneres als zu beobachten, was die Leute, die man nie kennen lernen wird auf der eigenen Seite so gemacht haben.

Poor Content – die Schwäche des Online-Journalismus

Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.

Zehn Jahre und keinen Schritt weiter

Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.

Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.

Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.

Was tun?

Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:

  • Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
  • Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
  • Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.

Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.

Access-News vom 2. Juli 2010 – sterbende E-Book-Reader und tanzende Buchstaben im Flash-Format

Nach dem Motto „Totgesagte sterben schneller“ erklärt ZDNet die reinen E-Book-Reader zur aussterbenden Gerätekategerie. Einerseits sind die Geräte trotz jüngster Preissenkungen noch zu teuer, andererseits bekommen sie Konkurrenz durch Tablets und Smartphones mit hervorragenden Displays. Da es in Deutschland bis heute kaum neues und aktuelles Lesefutter für die Geräte gibt, werden wir dem wohl nicht hinterher trauern. Allerdings bringt Amazon einen neuen großen E-Book-Reader auf den Markt, der wohl immer noch ohne Unterstützung für Blinde auskommt, obwohl Amazon dieses Manko ausbügeln wollte.

Gerade für Menschen mit Sehschädigung könnte es nützlich sein, einen Reader mit EInk zu haben, wo die Schrift frei vergrößert werden kann. Für Blinde und Menschen mit Lernschwäche wäre die Vorlesefunktion ein unschlagbarer Vorteil gewesen. Wir dürfen uns bei der deutschen Buchindustrie und ihrem Börsenverein des deutschen Buchhandels dafür bedanken, dass es kaum EBooks gibt oder sie unerschwinglich sind, bei Amazon dafür, dass der Kindle nicht barrierefrei ist und bei Adobe dafür, dass ihre Digital Editions-Software, die zum Verwalten und Lesen der Bücher auf dem Computer nötig wäre nicht barrierefrei ist. Danke.

Flackernde Buchstaben

Die Firma NuCaptcha möchte Spamschutz über Flash einbinden. Das wird natürlich voll umfänglich barrierefrei mit Audio-Alternativtexten. Und es ist voll modern, weil Flash. Warum das jetzt für Menschen besser lesbar sein soll als die Pixelgraphiken und für Spambots schlechter, erschließt sich mir nicht. Die Buchstaben erinnern mich an die früher beliebten Newsticker, die von rechts nach links über die Seite vagabundieren. Nur das diese hier auch nebenbei noch horizontal wandern. Ich plane gerade einen Artikel zu Captchas, vielleicht komme ich darauf zurück.

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Multimedia im Web – optimiert für Suchmaschinen und Menschen

Obwohl wir schon seit Jahren von Benutzerfreundlichkeit reben und jeder Webdesigner sich selbiges auf die Fahnen geschrieben hat, werden jeden Tag neue oft schicke und benutzerunfreundliche Websites online gestellt.
Ungeliebtes Stiefkind der USability-Gilde sind Dateien. Ich kann mich nicht erinnern, wann jemand das letzte Mal einen Beitrag zu benutzerfreundlicher Multiemedia geschrieben hat. Hier also die Basics:
– alle Dateien zum Herunterladen sollten einen sprechenden Namen haben. Eine Datei namens 1322xayserer5.pdf klingt ungefähr so spannend wie der Wetterbericht von 1990.
– Jede Datei sollte in einer angemessenen Qualität ausgeliefert werden. Ein 10 MB großes PDF, welches zu 90 Prozent aus Luft und Liebe besteht ist ebenso wenig hilfreich wie ein verrauschtes MP3.
– Auch nach 15 Jahren MP3 scheint sich der Sinn von ID3 noch nicht herumgesprochen zu haben. Da stehen Meta-Daten drin, die bei vielen MP3-Playern statt des Dateinamens angezeigt werden. Eigentlich schon seltsam, da investiert jemand mehrere Stunden, um einen schönen Podcast zu produzieren, spart aber 30 Sekunden ein, weil er seiner Datei keinen sprechenden Namen und keine ID3-Tags verpasst. Dabei kann er hier wunderbar Daten wie Autorennamen, Titel, Erstelldatum und Herkunftsort ablegen.
Und wozu das alles? Ganz einfach, bei der Flut an Daten gehen Dateien ohne sprechenden Namen oder Meta-Daten gnadenlos unter. Bestenfalls landen sie in einem Archiv, wo sie dann auf nimmer Wiedersehen verschwinden. Selbst bei einer gezielten Recherche könnte der Archivar sie kaum wiederfinden, denn die Datei besitzt ja weder Meta-Daten noch einen sprechenden Dateinamen.

Wer von den Webworkern noch nicht endgültig überzeugt ist, für den kommt jetzt das Totschlagargument: Suchmaschinen-Optimierung. Google und andere orientieren sich maßgeblich am Datei- bzw. Linknamen. Ob Suchmaschinenbots die Metad-Daten auslesen, ist mir nicht bekannt, es spricht aber auch nichts dagegen, auch diese Daten einzutragen.
Im Sinne der Benutzerfreundlichkeit ist es auch wichtig, Informationen als normale Website anzubieten, statt sie in ein PDF zu packen. PDFs verbessern vielleicht das Ranking, vor allem im wissenschaftlichen Bereich. Ob da aber mehr als die ersten Absätze tatsächlich ausgewertet werden, kann eher bezweifelt werden. Man sollte auch an die Nutzer mobiler Endgeräte denken, die es lieber vermeiden, weitere Anwendungen zu starten. Der Titel von PDF-Dokumenten wird auch als Titel in Suchmaschinen angezeigt, sollte also sprechend sein. Da die Formatierungen in PDF-Dateien wie Überschriften rein optisch sind, tragen sie in keinem Fall zum Ranking bei.

Sprechende Dateinamen sollten keine Leerzeichen oder Sonderzeichen enthalten. Die einzelnen Begriffe werden mit Bindestrichen getrennt, d. h. zum Beispiel: Benutzerfreundlichkeit-in-Multimedia-Dateien.
Für die Suchmaschine sind mangels weitere Informationen der Text rund um die Datei sowie der Linkname ausschlaggebend für die Indizierung. Allerdings ist es auch sinnvoll, in Links das title-Attribut einzusetzen, indem auch Details zur Datei eingetragen werden können.
Das Thema RSS wird sträflich vernachlässigt. Der Webworker sollte einmal einen kritischen Blick auf seine Feeds werfen und sich folgende Fragen stellen:
1. Erfahre ich aus der Überschrift, worum es geht?
2. Reizt die Überschrift einen Anderen, diesen Beitrag aufzurufen?
Wer nicht im Datenstrom untergehen möchte, sollte eine dieser Fragen mit Ja beantworten, besser beide.
Das sind alles keine Sonderleistungen, sondern Basisanforderungen benutzerfreundlicher Inhalte.

Dateisystem oder Meta-Ebene

Neben PC und Notebook übernehmen immer mehr Kleingeräte alltägliche Aufgaben. Dabei stellt sich die Frage, ob man lieber direkt auf seine Dateien in dder klassischen Ordneransicht zugreifen möchte oder nur über die passenden Anwendungen.

Die Meta-Ebene zum Zugriff auf Dateien und Funktionen ist nicht so ganz neu. Bei statischen Websites werden ebenfalls Dateien abgerufen, die imm HTML-Format auf einer Festplatte liegen. Der Mail-Client verwendet in der Regel eine Datenbank und legt die Mails nicht als Text auf die Festplatte ab. Das Menü von Windows enthält auch nur Verknüpfungen auf Dateien, die auf der Festplatte liegen.
Die meisten Handys und PDAs gehen einen Schritt weiter. Hier existiert nur die Metaebene. Fotos werden nur in der Foto-App angezeigt, Dokumente in der Office-App und Multimedia nur in den jeweiligen Abspielern.
Diese Anzeige bietet Vor- und Nachteile. Der Mensch kann nicht direkt auf Systemdateien zugreifen und so versehentlich etwas zerstören. Die unordentliche Ansicht von kunterbunten Dateiordnern wird vermieden. Die jeweiligen Programme zeigen nur die Dateien an, mit denen sie auch etwas anfangen können.

Ich plädiere allerdings dafür, beide Ebenen zuzulassen. Vor allem sollte der Computer einen direkten Zugriff auf Dateien via USB erlauben. Wenn ich eine App entferne, die bestimmte Dateien im System abgelegt hat, dann habe ich auch keinen Zugriff auf diese Dateien mehr, weil sie in anderen Apps nicht angezeigt werden.

Das heißt praktisch: Entwder werden die Dateien gelöscht, wenn die zugehörige App gelöscht wird oder die Dateien werden nicht gelöscht, aber auch nicht angezeigt, weil es keine App gibt, die etwas mit ihnen anfangen kann. Damit verliere ich die Herrschaft über meine Daten.

Apple geht mindestens einen Schritt zu weit, wenn es einen Zwang zur Nutzung der Meta-Ebene auflegt und einen Zugriff via PC und Mac nur über iTunes erlaubt. Das gesamte System wird dadurch unflexibel.

Die Entmündigung des Computer-Nutzers sollte bestimmten Grenzen unterliegen. Wir wollen gerne wissen, welche Dateien auf unseren Festplatten liegen. Faktisch könnte, wenn wir unser Gerät zum Beispiel verkaufen, ein Dritter auf längst vergessene Dateien zugreifen.

BIENE gestartet – auf der Suche nach kreativen Web-Lösungen

Aktion Mensch und die Stiftung digitale Chancen suchen dieses Jahr wieder nach den besten deutschsprachigen barrierefreien Webseiten. Konsequenterweise werden die Ansprüche an die Wettbewerber erhöht.
Einerseits ist es recht einfach, eines der vielen Open Source Content
Management Systeme barrierefrei ins Netz zu stellen – die sind das
häufig schon von Haus aus. Andererseits sind bereits die WCAG 2.0 2008 verabschiedet worden und sollten nun auch in das Bewusstsein jener
Webdesigner Einzug halten, die Barrierefreiheit nicht kennen. Last not
least sollte es im Jahr 2010 möglich sein, Design und Struktur zu
trennen, auf Tabellendesigns zu verzichten und Überschriften
ordentlich auszuzeichnen.
Man darf vor allem darauf gespannt sein, wie die Jury mit den neuen
Elementen aus HTML5, CSS3 und WAI-ARIA umgeht, die teilweise schon
Eingang ins Webdesign gefunden haben. ARIA steht für Accessible Rich
Internet Applications und steht derzeit als Arbeitsentwurf des W3C
bereit. Damit sollen auch dynamische Elemente des Webs zugänglich
werden. Einige Elemente daraus haben bereits Einzug ins Web gehalten: In
Wordpress, sowie bei Yahoo und Google werden „Orientierungspunkte“ –
also wichtige Stationen auf einer Webseite – kenntlich gemacht.
Außerdem sind Pflichtfelder in Formularen eindeutig gekennzeichnet.
Es ist also ein gewagter, aber enorm wichtiger Schritt, Innovationen
in diesem Bereich vorzustellen und zu belohnen. Ich bin gespannt.

HTML oder Plain Text – die Zukunft der Mail

Immer wieder einmal keimt die Debatte auf, ob man Mails als HTML oder reinen Text versenden sollte. Die Diskussion ist eigentlich müßig, HTML-Mails bieten kaum Vorteile, dafür jede Menge Nachteile.
HTML-Mails sind mit oder ohne Bilder recht groß. Die Größe wird dabei von Gestaltungs-Elementen bestimmt, die wenn im Web verwendet an der Fähigkeit des Webdesigners zweifeln ließen: Inline-CSS, Layout-Tabellen, 0-Pixel-Graphiken und so weiter. Die Vielfalt der Mailprogramme und MailClients lässt nur eine begrenzte Bandbreite an Gestaltungselementen zu. Dazu kommt noch, dass die Mailfenster selbst unterschiedlich breit sein können. Das reicht von der Miniansicht auf Smartphones bis zur Maxidarstellung auf 24-Zoll-Displays. Ein festes Design sieht deshalb fast immer lächerlich aus: zu groß für das Smartphone, zu schmal für das große Display. Ein fluides Design sieht hingegen auf einem großen Display einfach alber aus, weil die Mail dann irgendwie zu kurz geraten aussieht.

Datenschutz

Viele Anbieter möchten über Newsletter Tracking betreiben. Das geht einerseits über speziell generierte Links in den Mails und über Bilder, die über das Web nachgeladen werden. Das könnte ein Verstoß gegen den Datenschutz sein, ich kann mich zumindest nicht daran erinnern, jemals danach gefragt worden zu sein, ob ich mit der Erhebung solcher Daten einverstanden bin. Es ist auch nicht naheliegend anzunehmen, der Empfang eines Newsletters könnte für solche Zwecke verwendet werden. Deswegen wird der Benutzer auch nicht gesondert auf solche Probleme achten. Für einen Tracking-Link ist es hingegen egal, ob er in HTML oder PlainText verwendet wird.

Mobilität

Wer seine Mails mobil abruft, wird sich über Mails freuen, die 100 Kilobyte groß sind, 200 x 150 Pixel große Bilder nachladen und wegen des Tabellen-Designs sowohl horizontal als auch vertikal gescrollt werden müssen. Bestimmt.

Sicherheitsrisiken

HTML-Mails stellen ein Sicherheitsrisiko dar. Sie landen doch recht häufig im Spam (wo sie auch meistens gut aufgehoben sind). Viele Webmailer blockieren zunächst die Volldarstellung.
Dem Leser geht es um den Inhalt der Mails und nicht um bunte Logos, farbenfrohe Graphiken und flockige Bilder, weswegen er kein Interesse daran hat, sich die Volldarstellung anzusehen.

Wozu gibt es RSS und Webseiten?

Newsletter sind eine aussterbende Rarität wie Gästebücher. Viele Nutzer greifen heute auf RSS, Twitter oder Facebook zurück, um sich aktuelle Informationen zu beschaffen. Immerhin bietet das Inhaltsverzeichnis eines Newsletters – wenn es gut gemacht ist – einen schnellen Überblick über die Neuigkeiten. Das funktioniert aber nicht, wenn bunte Bilder, Disclaimer und weitere Informationen den Blick auf den Inhalt verstellen.
HTML sollte dem Web vorbehalten bleiben, wo es gut aufgehoben ist und seinen Zweck erfüllt. Es gab früher und gibt bis heute keinen Grund, seine Mitmenschen mit HTML-Mails zu belästigen. Und mal ehrlich, wann hast du das letzte Mal das tolle Design eines Newsletters bewundert?
Wirklich absurd sind Newsletter, die als PDF verschickt oder irgendwo heruntergeladen werden müssen. Die Anbieter haben wohl nicht wirklich verstanden, dass das Internet keine Litfassäule ist.
Auch wenn der Newsletter als Informationsmedium eine große Rolle spielt und ähnlich wie der RSS-Feed zumindest in absehbarer Zeit nicht aussterben wird, sollte man die Kraft des Mediums nicht überschätzen. Entscheidend ist, wie viele Leute man tatsächlich erreicht und nicht, wie viele Leute den Newsletter abonniert haben. Im Mailprogramm ist es leichter, die Löschen-Taste zu drücken als ein Abo abzubestellen. Die Anbieter werden es nicht gerne hören, aber die Zahl der echten Leser steht in keinem guten Verhältnis zur Zahl der Abonnenten. Auch das ist ein Grund, sich auf das Wesentliche zu konzentrieren und alle möglicherweise störenden Elemente zu entfernen.

Der Tod von Flash?

Flash ist für blinde Nutzer ein stetiges Ärgernis. Vor ein paar Stunden wollte ich einen Artikel lesen, habe aber den Inhalt nicht finden können.

Irgendwann stieß ich darauf, dass der eigentliche Artikel in einer Flash-Animation steckte, die sich meinem Screenreader entzog.
Tatsächlich gibt es recht viele Inhalte, die sich in Flash verstecken.

Das dürfte in nächster Zeit zu gewaltigem Ärger führen, denn die
meisten Smartphones unterstützen Flash nur unzureichend. Zudem gilt Flash als energiehungrig, was bei Mobiltelefonen nicht unbedingt auf Gegenliebe stößt. Für die Tablets gilt ähnliches. Bessere Akkus +
längere Laufzeit sind das eine, aber Flash ist für solche Geräte bisher ungeeignet.
Der Fairness halber sollte man sagen, dass das nicht nur Adobes Schuld ist: Vektorgraphiken sind imGrunde recht schlank, was faule und schlechte Programierer aus Flash machen, ist etwas anderes.
Interessant wird es, wenn die komplette Website aus Flash besteht wie die Seite der „Pinakothek der Moderne“.
Zumindest dafür sollte man Steve Jobs danken. Indem er Flash aus dem iPad aussperrte, hat er den mobilen Surfern – allen mobilen Surfern – einen Riesengefallen erwiesen. Und auch den Website-Betreibern, die sich frühzeitig umstellen können.
Denn Fakt ist, auf eine Seite, die den Akku leer saugt, wird man nicht
zurück kehren. Das gehört zu den „bad experience“, welche die User in Scharen davon treiben. Bis heute scheinen einige Webdesigner zu
glauben, 1024 x 768 Pixel würden auf einem 3-Zoll-Display besonders
gut rüberkommen. Und da sowieso jeder DSL und viel Zeit hat, kann man die Bilder auch direkt von der Kamera auf die Website stellen. Und natürlich finden Suchmaschinen-Bots Inhalte besonders gut, wenn sie in binären Dateien versteckt sind.
Das ändert sich aber spätestens dann, wenn der Chef die eigene Website auf seinem PDA anguckt und dabei das Firmenlogo sieht und sich einen Daumen beim horizontalen und vertikalen Scrollen bricht. Kundenservice sieht anders aus.
Vielleicht verstehen die Webdesigner dann auch den tieferen Sinn von
Geräteunabhängigkeit und offenen Standards und vielleicht wird Adobe das auch irgendwann verstehen.