Archiv der Kategorie: Social Web

Online-Volunteering – Engagement über das Netz

Online-Volunteering ist ein nicht ganz neues , aber in Deutschland eher unbekanntes Engagement-Gebiet. Mit dem Leitfaden „Management von Online-Volunteers – ein Handbuch“ von Hannes Jähnert und Lisa Dittrich gibt es nun eine praxisorientierte Einführung in das Thema.Online-Volunteering könnte man auch als digitales Engagement bezeichnen, es geht darum, dass sich Freiwillige quasi von zuhause aus für eine gute Sache einsetzen, anstatt vor Ort zu erscheinen.

Der erste Teil des Leitfadens dreht sich vor allem um die Frage, was Online-Volunteering ist, welche Beispiele es gibt und warum es überhaupt sinnvoll ist, Freiwillige online zu gewinnen. Das bekannteste Beispiel für Online-Volunteering ist übrigens die Wikipedia, wo zumindest die Arbeit an den Artikeln komplett übers Netz läuft. Ein vielleicht noch interessanteres Beispiel ist OpenStreetMap, wo tausende Menschen mit GPS-Trackern durch die Gegend laufen und damit freie Karten erstellt haben. Ein sehr interessantes Projekt ist das World Community Grid von IBM, wo man Rechenleistung spenden kann, um zum Beispiel Krankheiten zu bekämpfen.
Im zweiten Teil geht es darum, wie man Freiwillige gewinnen kann. Das geht auch über das Internet. Die Kernfrage ist, wie man sie gewinnt und wie man das Engagement managt. Typischerweise gibtt ews zwei Engagement-Arten: es gibt Menschen, die sich projektweise engagieren und Menschen, die längerfristig für eine Organisation arbeiten. Für beide Gruppen müssen passende Aufgaben definiert werden.
Das klassische Recruiment von Engagierten läuft bei kleinen Organisationen immer noch über persönliche Netzwerke. Man hat also zuerst den Menschen und findet dann für ihn eine Aufgabe. Im OV muss man tatsächlich im Vorfeld überlegen, welche Aufgaben von daheim aus erledigt werden können und muss sich dann um Freiwillige kümmern. Neben den kurzfristigen Aufgaben wie dem Übersetzen eines Textes gibt es auch langfristige Aufgaben wie das Pflegen der Website, eines Forums oder Blogs.
Zudem muss eine Strategie entwickelt werden, wie Mitarbeiter motiviert werden, wenn die soziale Einbindung nur auf digitalem Wege geschieht.
Bei dem IBM-Projekt arbeitet man sehr geschickt mit unterschiedlichen Formen der Motivation: Es wird bei den verschiedenen Projekten ein der Fortschritt und der eigene Anteil daran angezeigt, es gibt Bestenlisten und man kann sich auch Gruppen anschließen, um gemeinsam mehr zu leisten. Das ist das einzige, was mir in der Broschüre fehlt: die Frage, wie man Online-Volunteers motiviert und bei der Stange hält. Beim konventionellen Engagement funktioniert das über gruppendynamische Prozesse, um es mal blumig auszudrücken.
Besonders freut mich, dass sich die beiden Autoren auch dem Thema Barrierefreiheit gewidmet haben. Viele Behinderte sind in ihrer Mobilität eingeschränkt, aber gerne bereit, sich zu engagieren. Mit dem OV weicht man gewissen Kommunikationsproblemen aus: so fällt es gehörlosen und schwerhörigen Menschen häufig schwer, mit Normal Hörenden zu kommunizieren. Last not least gehört zur Inklusion, dass Behinderte sich auch außerhalb des Bereichs der Behindertenselbsthilfe einbringen. Bis heute werden sie primär als Objekt der Fürsorge und weniger als handelnde Subjekte wahrgenommen.

Online Volunteering mit Behinderung

View more presentations from foulder

Wer mit dem Recruitment von Online-Volunteers loslegen möchte, für den ist das Handbuch von Hannes und Lisa ein sehr gut gemachter, praxisorientierter Einstieg. Erhältlich ist das Handbuch meines Wissens nach bei der Akademie für Ehrenamtlichkeit.

Weiterlesen

  • Infos zum Leitfaden im Blog von Hannes Jähnert
  • Akademie für Ehrenamtlichkeit Deutschland
  • World Community Grid
  • Online-Volunteering für Behinderte
  • Rechechereangebot für Engagement-Interessierte
  • Das bürgerschaftliche Engagement ist flach – Infos der BAGFA zum Online-Engagement PDF

Werkstattbericht: Besucherstatistik aufbereiten

So ein Tracking-System wirft schon nach kurzer Zeit unglaubliche Mengen an Daten aus – von denen viele uninteressant sind. Ich habe jetzt mal für einen Auftraggeber diese Daten in einer Präsentation aufbereiten dürfen und erzähle hier ein wenig über die Schwierigkeiten, die damit verbunden waren.

Besucherstatistik präsentieren

View more presentations from Domingos de Oliveira.

Aufbereitung für das Publikum

Am Anfang steht zunächst einmal die Entscheidung, für wen die Präsentation gedacht ist. Der Abteilungsleiter soll andere Indikatoren gezeigt bekommen als das Team, der Vorstand bekommt eine andere Präsentation als die Agentur.
Unter diesem Gesichtspunkt werden die zu präsentierenden Daten ausgewählt. Praktisch immer dabei sind folgende Indikatoren

  • Zahl der Besucher und Zahl der wiederkehrenden Besucher
  • Entwicklung in einem bestimmten Zeitraum
  • Besuchsdauer pro Besuch und ansichtszeit pro Seite
  • Besuchstiefe bzw. Zahl der aufgerufenen Seiten pro Besucher
  • die am meisten besuchten Seiten
  • Herkunft der Besucher im Verhältnis, also Suchmaschinen, Referrer und direkte Zugriffe
  • Suchbegriffe, mit denen die Menschen auf die Site gekommen sind
  • Links, mit denen die Menschen auf die Site gekommen sind

Web-Analytics-Spezialisten würden an dieser Stelle mit Segmentierung und Key Performance Indicators loslegen, die lasse ich mal weg,
Nach dem Motto one fits all stellt man fürs erste alle nötigen Daten zusammen und passt die fertige Universal-Präsentation den Bedürfnissen des jeweiligen Publikums an.
Wichtig ist auch, dass die Präsentation sozusagen als Stand-Alone auch ohne verbundenen Vortrag verständlich ist. Das gilt zumindest für jene Leute, die mit den Grundbegriffen der Webstatistik nicht vertraut sind.

Summary by Month
MonthDaily AvgMonthly Totals
HitsFilesPagesVisitsSiteskB FkB InkB OutVisitsPagesFilesHits
Jan 2011300125211852501440311016071626415058555727564590038
Dec 2010303325422006453422210978061019414060622027880994030
Nov 2010350429512208505489414771578110151626626988532105126
Oct 20102771230518944113550112919057312758587197148385927
Sep 20103108263819323573822166179623110732579657914093241
Aug 20102569211414883063195160945591579489461446554679641
Jul 20102729221516393563032164789623911039508236868784622
Jun 20103239259218093873591157798044711629542847777497175
May 2010285622861570464370912534660014412486777087488566
Apr 20103083240817904903400125556534014707537167226292519
Mar 2010401033172093479456017001093131486664886102833124320
Feb 201035843065204640734721352102520113965729085824100379
Totals16864128669871553086765479374091135584

Die Tabellenkalkulation ist der Königsweg

Anfänger werden eventuell versucht sein, eine Tabelle aus dem Browser direkt in das Präsentationstool zu kopieren, das dürfte in der Regel schief gehen. Wer schon mal versucht hat, eine Tabelle aus einem PDF zu kopieren, kennt das Ärgernis, es klappt ums Verrecken nicht. doch selbst eine HTML-Tabelle kann man nicht ohne Weiteres in Excel 2000 importieren, zumindest hat es bei mir nie unfallfrei funktioniert.
Man exportiert also den ganzen Wust an Daten aus der Webanwendung – in meinem Fall eTracker – heraus und verwendet dafür unbedingt das Format Excel! Alles andere bringt später Probleme.

Die grapphische Aufbereitung

eTracker bietet eine gewisse Zahl an Visualisierungen in Form von Kreis-, Balken- oder Kurvendiagrammen. Man kann sich ein passendes Diagramm auswählen und als Pixelgraphik speichern. Mein Tip: Laßt es bleiben, macht die Diagramme in Excel. Die Diagramme aus eTracker sind zur Nachbearbeitung ungeeignet, Excel bietet dafür bessere Möglichkeiten. Excel ist vom Handling her außerdem wesentlich bequemer als sämtliche webbasierten Interfaces.

Bereinigung der Tabellen

Wenn man die Daten für ein Jahr exportiert, entsteht eine recht große Datei. Bei sehr großen Websites könnten zumindest ältere Excelversionen ins Stolpern kommen, weil sie nicht mehr als 66.000 Zeilen pro Tabellenblatt vorsehen. Wie dem auch sei, der erste Schritt besteht darin, die Arbeitsmappe von überflüssigem Quatsch zu reinigen, zum Beispiel „Datum des letzten Zugriffs“. Möchte man die Originalmappe behalten – dagegen spricht ja nichts – legt man sich für die Arbeit eine Kopie an und löscht zunächst alle Tabellenblätter, die man nicht benötigt. Als nächstes löscht man alle Spalten, die man nicht braucht oder blendet sie aus.
Auch die Zelleninhalte müssen eventuell angepasst werden. Der Titel einer Spalte oder Zeile muss so benannt werden, dass er auch von Leuten verstanden wird, die nichts mit Webanalyse zu tun haben. Die Feinformatierung der Tabellen kommt hingegen später dran.

Von der Tabelle zur Graphik

Diagramme lockern die Präsentation auf, sie machen trockene Daten anschaulich und bringen nicht zuletzt Farbe und Dynamik in den Vortrag. Am einfachsten ist die Diagramm-Erstellung mit dem Diagramm-Assistenten von Excel.
Zunächst wählt man die zu zeigenden Daten aus. Nehmen wir an, es seien jeweils die Top-Ten. Mehr als 11 Spalten lassen sich auf einem Chart auch kaum noch lesbar unterbringen. Elf Spalten weil Top-Ten plus Überschrift. Auch die Spaltenzahl sollte begrenzt bleiben, fünf spalten sollten noch überschaubar sein.
Wir sortieren also die Werte in der Tabelle absteigend und löschen alle Zeilen, die wir nicht benötigen oder blenden sie aus. Es bleiben die Top-Ten übrig, die unnötigen Spalten sollten wir bereits gelöscht oder ausgeblendet haben.
Wenn man nicht gerade Conversions macht, reichen im Idealfall drei Diagrammtypen: das Säulendiagramm für sehr viele Werte, das Balkendiagramm für bis zu zehn Werte und das Kreisdiagramm, um das Verhältnis einzelner Indikatoren in großen Ganzen anzuzeigen. Im Wesentlichen können wir hier die Diagrammtypen übernehmen, wie sie von unserer Web-Ana-Software vorgeschlagen werden, basteln sie aber trotzdem selber in Excel.
Zunächst einmal markieren wir die zu verwenden Werte für das Diagramm, zum Beispiel die Spalten Besucher und Monat. Der Monat wird im Säulendiagramm auf der X-Achse angezeigt, während die Zahl der Besucher von der Y-Achse abgebildet wird. An dieser Stelle freuen wir uns darüber, dass wir die Daten als Excel und nicht als CSV exportiert haben, hier lauert eine böse Falle. Excel erkennt die Werte im CSV-Format nicht richtig, weil die Spalten nicht korrekt formatiert werden . Mit reinen Zahlen hat Excel kein Problem, weiß aber nicht, dass der 1. April ein Datum ist, wenn die Zellen nicht als Datum formatiert wurden und das kann CSV nicht.
Die zweite Falle lauert im Balkendiagramm. Wenn man hier die Werte absteigend sortiert hat, werden sie im Balkendiagramm aufsteigend angezeigt: der längste Balken befindet sich unten, da gehört er aber nicht hin. Die Werte müssen in der Tabelle aufsteigend sortiert werden, damit sie im Diagramm absteigend angezeigt werden. Alles logisch, oder?
Ich empfehle hier auf unnötigen Protz zu verzichten. Der Mehrwert von Balken- und Säulen-Diagrammen in 3D leuchtet mir nicht ein, auch wenn Avattar ein Riesenerfolg ist. Ihr müsst daran denken, dass die Charts eventuell auch ausgedruckt noch verständlich sein müssen und da die 3D-Effekte durch Farbvariationen erzeugt werden, ist das bei einem Schwarz-Weiß-Drucker nicht unbedingt gegeben. Entsprechendes gilt für den Einsatz von Farben zur Informationsvermittlung. Abgesehen von der großen Verbreitung der Rot-Gründ-Schwäche oder anderer Farbfehlsichtigkeiten muss man überlegen, ob die verwendeten Farben im Graustufen-Druck eine Unterscheidung der Indikatoren noch erlauben.
Aus einem unbekannten Grund verwendet Excel für die Beschriftung der Achsen und Legenden eine viel zu kleine Schrift. Das ändert man mit einem Rechtsklick auf das Element und passt die Schriftgröße und alles Weitere an.

Aussagen und Interpretationen

Um eine ordentliche Präsentation zustande zu bekommen, brauchen wir Tabellen, Visualisierungen und Aussagen. Das heißt, die wichtigsten Aussagen, die wir in unseren Daten gefunden haben, werden zusammengefasst und mit Zahlen unterfüttert. Wir merken uns hier: wir machen keine Aussagen, die nicht mit den Daten belegt werden können, die IN DEM CHART VORKOMMEN. Auf Nachfrage müssen wir in der Lage sein, sämtliche gemachte Aussagen und Interpretationen mit den Zahlen aus den Charts belegen zu können.
Zu jeder Tabellen-Diagramm-Kombination gehören Anmerkungen. Diese Anmerkungen fassen entweder das Gezeigte zusammen, weisen auf Besonderheiten hin oder zeigen ablesbare Trends auf.
Dafür gibt es bekannte Standards bei Präsentationen: knapp, prägnant, keine ganzen Sätze, kein Fachjargon – es sei denn, das Publikum versteht ihn.

Schönheitskur

Der lästigste Job ist die Aufhübschung der Präsentation. Das Kernproblem ist hier die Arbeit mit zwei verschiedenen Programmen. Excel und PowerPoint arbeiten nicht so reibungslos zusammen, wie man das gerne hätte. Deswegen werden Schönheitsreparaturen erst an der fertigen Präsentation vorgenommen.
Auch eine Tabelle kann schön sein. Nun ja, zumindest kann man sie lesbarer machen. Hear, what I did: Die Spaltenköpfe werden gefettet und zentriert, um sie von den Daten darunter hervorzuheben. Alle werte in den Tabellen werden vertikal zentriert. Achtet hierbei auf die Konsistenz, wenn ihr das bei einer Tabelle macht, dann macht es bei allen anderen Spalten auch. Man verwendet den höchstmöglichen Schriftgrad. Außerdem sollen die Spalten nicht all zu viel Luft zwischen den Inhalten lassen. Eine zweispaltige Tabelle muss nicht den gesammten Folienraum einnehmen.
Zahlenwerte werden immer so gruppiert, dass Komma bzw. Dezimalpunkt untereinander sind, das heißt, die Zahlen werden zumeist rechtsbündig ausgerichtet, wenn die enthalteten Werte sehr unterschiedlich sind.
Der Dezimalpunkt wird eingesetzt, um die Lesbarkeit langer Zahlen zu erhöhen. Das heißt also: 100, 1.000, 1.000.000 und so weiter.
Es kann auch sinnvoll sein, Farbschemata für die Diagramme einzusetzen. Ich meine damit, dass auch die Diagramme einer einheitlichen Gestaltung folgen sollten. Allerdings sind meine Überlegungen hierzu nicht so weit gediehen. Man kann aber zum Beispiel das Corporate Design der Firma für die Diagramme einsetzen. Hier gilt, was ich weiter oben zum Druck und zur Farbenblindheit gesagt habe, also Farben sparsam einsetzen, vor allem, wenn man sich der Wirkungen von Farben nicht so bewusst ist.

Die eigenen Fehler sieht man nicht

Bevor ihr das Ding einem Vorgesetzten gebt oder es gar präsentiert, lasst jemanden drüberschauen. Die Fehler der Anderen sieht man am leichtesten, aber immerhin erspart man sich damit eine Blamage. Es sind schon die seltsamsten Fehler aufgetreten, die von einem selbst unentdeckt bleiben. An einer Stelle schreibt man den Firmennamen falsch, an einer anderen vergißt man die Überschrift einer Folie. Das muss nicht sein.
Ich habe unzählige Stunden dabei verbracht, die Fehler, die ich hier beschrieben habe zu machen und daraus zu lernen. Die „lesson learned“ dabei ist, dass man es nur so wirklich lernen kann. Dennoch hoffe ich, dass ich dem einen oder anderen mit diesem Werkstattbericht eine Hilfe geben konnte. Fehler machen ist okay. Alle Fehler immer wieder machen ist hingegen dumm.

Informationskompetenz für Alle – das Ende der Gatekeeper

edit vom 8. Februar: Eine Anregung von Querdenkender aufgreifend habe ich den Begriff Medienkompetenz durch Informationskompetenz ersetzt.

Ursprünglich wollte ich Bloggergate als Aufhänger dieses Beitrags nehmen. Ich verzichte darauf, weil das Ganze zum einen die Aufregung nicht wert ist und zum anderen ins Persönliche abgedriftet ist. Zu Bloggergate ist schon alles gesagt worden, aber noch nicht von allen.
Ich möchte stattdessen einen Blick darauf werfen, wie die Öffentlichkeit beeinflußt wird und warum wir alle Informationskompetenz brauchen.

Die Anfälligkeit für Manipulationen

Das Web ist entgegen anderer Gerüchte anfällig für Manipulationen. Schon mittelständische Unternehmen haben große PR-Budgets. Von diesem Geld lassen sich problemlos ein bis zwei Webworker bezahlen, die 40 Stunden die Woche das Netz durchforsten, um negative Kommmentare mit wohlwollenden oder positiven Kommentaren zu neutralisieren, in kritischen Blogbeiträgen dem Autor Voreingenommenheit vorzuwerfen oder so lange herumtrollen, bis auch der geduldigste Diskutant kapituliert.
Man muss dabei nicht so ungeschickt sein wie ein gewisser Tablet-PC
-Vertreiber.
Suchmaschinenoptimierung ist ebenfalls der Versuch, die Suchergebnisse zu manipulieren. Die SEOs mögen einwenden, Google sei selbst nicht neutral, das hat nun auch keiner behauptet. Eine Manipulation dadurch zu rechtfertigen, dass eine Maschine sowieso schon falsch tickt, hat doch einen faden Beigeschmack. Wenn Webmaster endlich anfangen, Title, Alternativ-Text und Zwischenüberschriften vernünftig einzusetzen, ist das kein SEO, sondern Redaktionshandwerk. Wenn ich aber anfange, Link-Netzwerke, Linktausch und Linkkauf zu machen, ist das eine gezielte Manipulation von Google. Der Inhalt einer Seite wird dadurch nicht um ein Stück besser, der Otto-Normal-Googler hat aber keine Ahnung davon und hält die ersten Suchergebnisse für die wichtigsten oder besten.
Liebe SEOs, ich hätte gerne gute Ergebnisse auf den ersten Plätzen und nicht seo-gestählten Nonsens. Warum legt ihr den Schwerpunkt nicht darauf, die Inhalte der Websites zu verbessern, anstatt auf PageRank und SERPs zu schauen?

Kampagnen

Wir werden tagtäglich schlecht informiert. Meine Leseempfehlung dazu ist schon betagt und stammt von Wolf Schneider „Unsere tägliche Desinformation“. Dazu muss man wissen, dass Schneider ein Konservativer alter Schule ist und sein Buch nicht die übliche Mischung aus lauwarmer Kulturkritik und abgestandener Niedergangsrhetorik ist. Es geht darum, wie Medien teils absichtlich falsch, parteiisch oder ungenau berichten und damit die Öffentlichkeit manipulieren. Das Buch wurde in den 80ern geschrieben und man kann sich gut vorstellen, dass die damals vorherrschenden Zwänge heute eher zu- als abgenommen haben und auch für Online-Medien und Blogs gelten.
Techblogs zum Beispiel werben naturgemäß für technische Gadgets. Auch wenn das Ganze über Vermittlernetzwerke zustande kommt und man keinen direkten Kontakt zur Herstellerfirma hat: die Firma freut sich bestimmt nicht darüber, wenn ihr Produkt in einem Artikel zerpflückt wird, während links daneben die Werbung für das gleiche Produkt steht.
Ein weiteres lesenswertes Buch ist Media Control von Noam Chomsky. Chomsky erklärt die Mechanismen, die dazu führen, dass Medien sich freiwillig einem bestimmten Konsens unterordnen. Es geht dabei um informelle Zwänge und den Aufstieg in der Hierarchie, den nur die Konformisten schaffen.

Kampagnen-Journalismus

Große Medienhäuser fahren regelmäßig Kampagnen, wo sich sich auf das eine oder andere Thema einschießen, ohne das der Grund von außen ersichtlich ist. Es reicht schon, wenn der Chefredakteur etwas gegen Windräder hat und schon erscheinen Artikel, die die Windenergie schlecht machen. Der Guttenberg-Hype war auch eine Kampagne, vielleicht, um ein Sommer- oder Winterloch zu stopfen. Vielleicht glauben die Journalisten aber tatsächlich, normale Menschen würden gerne Storys über Guttenberg oder das Dschungelcamp in ihrer Zeitung lesen.

Presse und PR

Einer sinkenden Zahl von Journalisten stehen immer mehr Menschen aus Marketing, Werbung und PR gegenüber, ich mache übrigens auch PR, um hier keine Mißverständnisse aufkommen zu lassen. Ich habe mich für meinen Blog dem Pressekodex verpflichtet, eine symbolische, aber dennoch wichtige Sache.
Während ein Journalist zumindest nominell der Wahrheit und Fakten verpflichtet ist, wird das Marketing und die PR dafür bezahlt, etwas in möglichst gutem Licht dastehen zu lassen. Ein Journalist soll sich nie mit einer Sache gemein machen, ob sie nun gut oder schlecht ist. Ein Mensch aus der PR hingegen muss sich mit jeder Sache gemein machen, deren Auftragnehmer er ist.
In der Blogosphäre kann damit aus einem Vorteil ein Nachteil werden. Da hier oft Leute aus der Praxis kommen, verdienen sie ihr Geld damit, jemandem eine Dienstleistung zu verkaufen. Die Attraktivität von Blogs erwächst aus ihrer Praxisnähe, aber kann jemand ernsthaft erwarten, dass hier echte Kritik an der eigenen Branche oder an fehlgeleiteten Kollegen stattfindet? Eher nicht, denn hierzulande gelten Kritiker als Nestbeschmutzer. Niemand sägt den Ast ab, auf dem er sitzt, sei es das eigene Berufsfeld oder das Kollegennetzwerk.

Informationskompetenz für Alle

Wenn der Journalismus nicht mehr für uns die Aufgabe übernehmen kann, das Wahre von dem Falschen, das Wichtige von dem Unwichtigen und das Relevante von dem Irrelevanten zu trennen, dann ist jeder Einzelne von uns gefragt, diese Aufgabe zu übernehmen. Wir können uns dafür entscheiden, unsere Informationen aus verschiedenen Quellen zusammenzustellen. Dort, wo wir uns nicht auskennen, vertrauen wir auf Experten, die wir für kompetent halten.
Man muss ein Gespür dafür entwickeln, wer wann welche Interessen verfolgt und ob diese Interessen einen Einfluß auf seine Aussagen haben. Das Stichwort dazu ist kritische Quellenanalyse, eine Methode von Historikern, wir können von Quellenanalyse light sprechen, man muss es nicht übertreiben.
Warum wir alle Informationskompetenz brauchen? Weil wir alle gezwungen sind, innerhalb von Sekunden über die Relevanz von Suchergebnissen, Schlagzeilen und Informationen zu entscheiden. Deswegen umfasst Informationskompetenz heute auch mehr als die Kenntnis darüber, wie Informationen von Medien gemacht werden. Dazu gehört auch zu wissen, wie Umfragen und statistische Erhebungen zustande kommen, wie die Suchalgoritmen von Suchmaschinen arbeiten und wie Artikel in der Wikipedia zustande kommen.

Weiterführendes

  • Wolf Schneider (Hrsg.) Unsere tägliche Desinformation. Bertelsmann 1992
  • Noam Chomsky. Media Control. Piper 2010
  • Thomas Leif. Beraten und verkauft. Goldmann 2008 (zu Lobbying)
  • Walter Krämer. So lügt man mit Statistik. Piper 2011
  • zur Statistik empfehle ich auch das wöchentliche Statistik-Gespräch mit Katharina Schüller auf DRadio Wissen
  • Artikel bei Technology Review
  • 10 Tipps fürs Fact Checking aus dem generell lesenswerten Blog von Matthias Spielkamp
  • Mein Beitrag zur Filterbubble

Social Media Monitoring für den Hausgebrauch – Suchen automatisieren

Im ersten Teil des Artikels ging es um die Frage, wozu man Monitoring privat einsetzen kann. Ein einfaches Werkzeug dafür ist Google Alerts, mit dem man einen großen Teil des Netzes automatisch durchsuchen kann.

Web-Monitoring und Beobachtung mit kostenlosen Tools

View more presentations from Domingos de Oliveira.

Social Media Monitoring

Das Social Media Monitoring läßt sich gut für Jobsuchen oder auch das Online-Reputationsmanagement einsetzen. Ein Dienst wie Social Mentions bietet eine Echtzeichtsuche für Blogs, Mikro-Blogs, Videos, Bookmarks, Bilder und mehr. Alerts funktionieren hier im Prinzip wie bei Google. Ob man hier mit Operatoren arbeiten kann, wird allerdings nicht klar. und Wikio sind weitere Dienste, die man für das Internet-Watching verwenden kann. Bei diesen Diensten kann man real simple mit RSS-Feeds arbeiten, die abonniert man einfach, nachdem man einen Suchbegriff eingegeben hat.

Feintuning und Filtern

Wer nicht filtert, geht wahrscheinlich in der Flut der Meldungen unter. Filtern sollte man vor allem bei Suchbegriffen, die entweder sehr häufig vorkommen, Synonyme haben oder in sehr vielen für den eigenen Zweck nicht relevanten Kontexten vorkommen. Wir arbeiten mit anderen Worten semantisch.
Suchen wir nach dem Raubtier Jaguar, verwenden wir Begriffe, die häufig mit dem Tier zusammen verwendet werden und schließen alles aus, was sehr wahrscheinlich nur im Kontext des Sportwagens vorkommt.
Filtern ist immer eine delikate Aufgabe. Schnell filtert man zu wenig und erhält Hunderte irrelevanter Ergebnisse, wobei wichtige Resultate untergehen. Oder man filtert zu stark und verliert wichtige Ergebnisse. Ich empfehle daher, zum Einen mit Filtern zu experimentieren, bis man zufrieden ist und zum Anderen die Filter eher zu lasch als zu stark einzustellen.
Nehmen wir Twitter, wo viele lange Begriffe abgekürzt werden (A11Y für accessibility). Andererseits gehört Twitter heute zu den wichtigsten Quellen für Empfehlungen, also auch für Jobs. Mag auch sein, dass viele Unternehmen mittlerweile neue Stellen über Twitter bekannt geben.

Was man nicht beobachten kann

Die Grenzen dieser Dienste sind allerdings nicht zu vernachlässigen. In Deutschland sind viele soziale Netzwerke Blackboxes, die sich von außen nicht durchsuchen lassen. Wenn man das für sinnvoll hält, kann man teilweise Suchagenten anlegen, etwa bei Xing. Dafür braucht man ein Konto bei Xing, das heißt, die Jungs wissen nicht nur, wer man ist, sondern auch, was man sucht. Wer das nicht will, kann auch mit einem Fake-Profil arbeiten, was aber nach den Allgemeinen Geschäftsbedingungen verboten ist.
Geschlossene Gesellschaften sind auch die großen Jobbörsen. Es handelt sich hierbei zumeist um geschlossene Datenbanken, die sich nur mit deren Webinferface durchsuchen lassen. Klar, die wollen ja Geld damit verdienen. Google und die anderen Dienste können hier nicht direkt zugreifen. Die Chancen sind nicht schlecht, dass hier neue Stellen via Twitter weiterempfohlen werden, immerhin lassen sich die Datensätze zumeist über Permalinks abrufen. Verlassen kann man sich darauf nicht. Das heißt, bei der Jobbörse seiner Wahl sollte man nicht auf die Suchagenten verzichten, welche die meisten Dienste anbieten. Man kann sich hier per Mail informieren lassen, wenn es neue Ergebnisse zu den eigenen Stichworten gibt. Kimeta wäre so ein Dienst, aber bei den großen Jobbörsen würde ich jeweils einen eigenen Agenten anlegen.
Für das persönliche Reputationsmanagement gibt es Dienste wie myonid, Yasni oder 123people. Diese Dienste tun allerdings nichts anderes als auf öffentlich zugängliche Quellen zuzugreifen und sie zusammenzufassen. Mit Google Alerts oder Social Mentions erreicht man meiner Beobachtung nach bessere Ergebnisse.

Alerts statt RSS?

Wer ständig auf der Jagd nach Informationen zu bestimmten Themen ist, liest normalerweise sehr viele RSS-Feeds. Auch hier können Monitorings einen besseren Überblick bieten. Wichtig ist dabei natürlich wie schon gezeigt, dass man die Stichworte passend wählt.
Nehmen wir an, wir suchen Informationen zum Thema Behinderung. Dann geben wir bei Google Alerts als Suchbegriff behindert | behinderung | handicap als Suchbegriffe ein und erhalten alle Beiträge, wo mindestens einer der Begriffe vorkommt. Dann geben wir noch -Verkehr ein, denn „Unfall behindert Verkehr auf A1“ wollen wir nicht haben.

Aktualität

Googles Indizierungsgeschwindigkeit ist sehr unterschiedlich. Dank RSS und Pings werden Weblogs normalerweise sehr schnell in die Suchergebnisse aufgenommen, bei kleinen oder mittelgroßen Organisationen kann es schon einmal eine Woche oder länger dauern, bis Aktualisierungen oder Änderungen übernommen werden. Dies sollte man im Hinterkopf behalten.
Zum ersten Teil des Artikels

Suchen automatisieren – nützliche Tools zur Jobsuche oder für das Reputationsmanagement

Zum zweiten Teil Beobachtung von Social Media
Mittlerweile gibt es relativ viele Stellenbörsen und sogar Metasuchmaschinen für Jobs. Dabei ist es recht anstrengend, die einzelnen Börsen regelmäßig zu durchforsten. Die Suchagenten, die viele Anbieter bereit stellen, sind oft nicht zufriedenstellend.
Problematisch ist auch, dass viele Unternehmen ihre Jobs nur auf die eigene Website stellen. Da kommt ja jeder Job-Suchende zwangsläufig vorbei. Bestimmt.
Eine einfache Möglichkeit, gezielt nach Jobs zu suchen besteht im Monitoring des Web. Die PR-Abteilungen machen das meistens mit professionellen Tools oder beauftragen große Agenturen, die sich auf die Beobachtung von Medien spezialisiert haben. Für unseren Zweck reichen kostenlose Tools wie Google Alerts, Social Mentions oder Twitter.

Web-Monitoring und Beobachtung mit kostenlosen Tools

View more presentations from Domingos de Oliveira.

Mit solchen Tools kann man nicht nur nach Jobs, sondern nach beliebigen anderen Begriffen automatisch suchen lassen. Leute, die auf ihren Ruf im Web großen Wert legen, können schauen, ob ihr Name oder ihre Marke im Netz erwähnt werden. Man kann nach interessanten Artikeln suchen, ohne viele RSS-Feeds durchblättern zu müssen. Die Möglichkeiten sind praktisch unbegrenzt.

Google Alerts

Google Alerts ist eigentlich ein auf Google News zugeschnittener Dienst. Hier kann man sich täglich per Mail informieren lassen, wenn es zu einem bestimmten Stichwort eine neue Nachricht gibt. Ziemlich unbekannt scheint aber die Möglichkeit zu sein, einen Großteil des offenen Web via Google Alerts überwachen zu lassen. Dazu ruft man zunächst Google News auf, gibt ein Stichwort ein – vielleicht Behinderte – und startet die Suche. Anschließend scrollt man auf der Ergebnisseite nach unten und klickt auf „E-Mail-Benachrichtigung für … einrichten“. Auf der nächsten Seite kann man das Stichwort noch einmal ändern oder weitere Stichworte hinzufügen. In der Auswahlliste „Typ“ wählt man je nach Geschmack aus, aus welchem Bereich man News haben möchte, wir wählen „Alles“, geben eine E-Mail-Adresse ein, bestätigen den Alert per zugesendetem Link und das wars.
Man kann mit Google auch gezielt bestimmte Seiten durchsuchen. Dazu gibt man site:www.example.com Stichwort ein. Zur Feinsuche kann man Operatoren in Google verwenden, übrigens auch bei der normalen Suche. Um eine exakte Zeichenfolge zu suchen, gibt man die – korrekt geschriebene – Zeichenfolge in Anführungsstrichen ein, zum Beispiel „Behinderte in Deutschland“. Möchte man ein Dokument haben, wo mindestens eines von zwei Worten vorkommen soll, gibt man den senkrechten Strich ein: Behinderte | Handicapped zeigt mir alle Seiten an, wo mindestens einer der beiden Begriffe Behinderte oder Handicapped vorkommt.
Wem das mit den Operatoren zu komplex ist, der kann auch die Erweiterte News-Suche verwenden, die sich rechts neben dem Suchfeld bei Google News findet. Hier hat man die gleiche Funktionalität wie bei den Operatoren per Formular bereit gestellt.

Stichwortliste anlegen

Basis allen Suchens ist die Stichwortliste. Nehmen wir den Beruf des Online-Redakteurs, der vielerorts auch Web-Redakteur, Internet-Redakteur oder Multimedia-Redakteur heißt. Er kann aber auch Online-Journalist, schlicht Redakteur, Sachbearbeiter für Internet oder was ganz anderes sein. Gibt man nur Redakteur ein, werden sehr viele auch irrelevante Ergebnisse angezeigt. Gibt man nur Online-Redakteur oder gar „ONline-Redakteur“ ein läuft man Gefahr, dass einem der Onlineredakteur oder Webredakteur verloren geht. Mit den Feinheiten des filterns und weiteren Services werde ich mich beim nächsten Mal beschäftigen.
Zum zweiten Teil Beobachtung von Social Media

Die Kunst des richtigen Verlinkens – Teil II

Vor langer, langer Zeit hatte ich einen Artikel zum richtigen Verlinken geschrieben. Generell gibt es vier Arten von Verlinkung:

  • Viele Webseiten verlinken gar nicht, z. B. das Deutschlandradio.
  • Viele Websites setzen die Links an das Ende des Textes.
  • Viele Nachrichtenportale setzen Links in Blöcken zwischen die Texte, etwa Die Zeit und die Welt.
  • Der Rest verlinkt im Fließtext, das macht zum Beispiel Heise durchgängig in seinen Publikationen, aber auch die meisten Weblogs.

Mir fällt gerade während ich diese Zeilen schreibe auf, dass es hauptsächlich IT-Seiten und Web-2.0-Angebote sind, die in Fließtexten verlinken. Es scheint also doch etwas dran zu sein an der Aussage von Mario Fischer. Fischer sagt in seinem Buch „Website Boosting“, Links im Text würden von der Mehrheit als störend empfunden.

Wahrscheinlich können IT-ler und Hardcore-Internet-Nutzer die Links im Text eher ausblenden als Gelegenheitsleser.

Zugänglichkeit

Den Screenreader-Nutzer stören einzelne Links im Text weniger. Manche Leute bringen aber die kunst fertig, vier Wörter hintereinander mit dem selben Link zu versehen. Das Klingt dann wie „Link hier – Link klicken, – link für – Link das – Link Bild“.. Eine solche Link-Häufung macht weder aus redaktionellen noch aus kognitiven Gründen viel Sinn. Die Leser verstehen nicht, ob hier vier verschiedene Sachen verlinkt werden oder nur eine. Hier dürfte auch das primäre Problem für Menschen mit Lernschwierigkeiten ligen.
Generell stellt sich für die letztere Gruppe die Frage, ob sie durch Links im Fließtext vom Inhalt des Textes abgelenkt werden. Dazu fehlen mir valide Daten, aber ich bin mir nicht sicher, ob unterstrichener blauer Text schlimmer sein kann als eine flackernde Flashanimation.

Die Usability-Sicht

Aus Usability-Sicht würde ich eindeutig die Verlinkung im Text vorziehen. Zum Einen lässt sich hier eher kontextsensitiv verlinken. Zum Anderen ist eine Häufung von Links in Blöcken mitten im Text oder am Fuß des Textes ebenfalls eine kognitive Herausforderung. Nehmen wir an, wir hätten fünf Links die mit dem Text tatsächlich in Zusammenhang stehen: ich suche aber eine bestimmte Information, die mir im Text aufgefallen ist und die ich gerne weiter verfolgen möchte. Im schlimmsten Fall muss ich alle Links einmal durchklicken, um die gewünschte Information zu finden.
Die Wikipedia ist ein Beispiel dafür. Wenn ich mit einem Höllentempo mit dem Screenreader einen Artikel durchgehe, merke ich mir nicht die Nummer der Fußnote, wo Wikipedia seine Quellen ablegt. Entweder stoppe ich also die Lektüre, springe zur Fußnote, öffne den Link und kehre dann zu der Stelle zurück, wo ich die Lektüre des WP-Artikels abgebrochen habe. Ode ich lese den Artikel zu Ende, merke mir die Nummer der Fußnote und rufe dann den dahinter liegenden Link auf. Und wenn ich zwei oder drei Fußnoten verfolgen möchte?Wikipedia wird sicher seine Gründe haben, Quellen nicht im Fließtext zu verlinken, aus Usabilitysicht ist das eher ein großes Manko.
Ich persönlich kann mir wesentlich besser die Position eines Hyperlinks im Fließtext oder den Linktext merken als eine Nummer.
Bei redaktionellen Produkten ist die Debatte ohnehin obsolet, denn die verlinken nur auf Produkte des eigenen Hauses und selbst da nicht kontextsensitiv.

Fazit

Wo man von technik- oder web-affinen Lesern ausgehen kann, sind Links im Fließtext ein Muß. Man sollte es dabei auch nicht übertreiben und auf keinen Fall zwei Wörter hintereinander mit unterschiedlichen Zielen verlinken.
Im Nachrichtenbereich, wo ohnehin nur ein bis zwei Links auf Pressemitteilungen oder ähnliches gesetzt werden, kann der Link am Ende des Textes stehen. Eine Linkhäufung am Fuße des Textes ist nicht nur abschreckend, sie zeigt auch, dass der Autor sich keine Gedanken dazu gemacht hat, wie Informationen struktuiert präsentiert werden, Informationen und Verknüpfungen machen immer nur im größeren Zusammenhang einen Sinn.

Was Weihnachten mit der Besucherstatistik macht

Es kann tatsächich auch Spaß machen, sich mit Statistiken zu beschäftigen. Ich schlage mich gerade mit dem Thema Web Analytics herum, nachdem ich jüngst Piwik von meinem Webspace geschmissen habe. Piwik ist ein sehr ausgereiftes Web-Analytics-Tool, welches mittlerweile in der Version 1.0 vorliegt. Leider war mein Billig-Webspace für soviel Auslastung nicht ausgelegt.

Ich bin ja als Blinder eher ein Fan von nackten Daten. Andere Leute schwärmen für ästhetisch ansprechende Diagramme mit allem Schnick-Schnack, mit lustigen 3-D-Effekten und skurillen Ausformungen. Ich freue mich über Excel-Tabellen, die kann man recht gut sortieren, man kann sie summieren, arithmetische Mittel bilden und andere Späße damit machen. Bislang bin ich eher unzufrieden mit den bordeigenen Tools zur Verknüpfung der Daten untereinander und den Sortierungsmöglichkeiten die sie bieten.

Bei den Statistiken kann man bestimmte Effekte beobachten, zum Beispiel, dass Besucherstatistiken zwischen Weihnachten und Neujahr regelmäßig einbrechen. Ich nenne das den Weihnachtsknick. Das kann man sehr schön bei Google Trends beobachten, hier kann man die Beliebtheit von Suchbegriffen ermitteln und zwei oder mehr Begriffe vergleichen. Außerdem kann man auch Websites – vermutlich sehr grob – im Langfrist-Trend beobachten.

Vergleicht man z. B. Amazon und EBay, sieht man deutlich den Knick um die Jahreswende und den im Vergleich etwas steileren Anstieg bei EBay im Januar. Nur ein Schelm denkt jetzt, da versuchen Unzufriedene ihre Geschenke zu versteigern. Vielleicht müssen sie aber auch dank der vielen Geschenke nur ihre Schränke ausmisten.

Vergleicht man die beiden IT-Newsticker Heise und Golem, sieht man den gleichen Trend. Hier stellt sich aber auch schon die Frage: Liegt das daran, dass es um die Jahreswende herum weniger Nachrichten gibt oder weil viele Leute um diese Zeit herum das Web weniger intensiv nutzen? Who knows?

Für kleinere Websites wären solche Statistiken zu grobkörnig, sofern Trends überhaupt Daten für sie ausgibt. Für Feinanalysen wären tatsächlich Tagestatistiken interessant. Hier kann man z.B. beobachten, ob Seiten tendentiell eher beruflich oder privat genutzt werden: Wenn etwa mehr Traffic an Werktagen zu bestimmten Zeiten stattfindet.

Auch solche Analysen müssten sich eigentlich stärker automatisieren lassen. Wenn Leute eher an einem Werktag zwischen 8 und 12 Uhr auf meine Website kommen, dürften sie je nachdem, was ich auf meiner Website anbiete, eher beruflich interessiert sein. Später kommen vielleicht die Studenten, die Informationen für ihre Arbeiten recherchieren und irgendwann abends oder am Wochenende kommen dann die Leute, die privat interessiert sind oder Unterhaltung suchen. Komischerweise unternimmt noch keines der Tools, die ich kenne – Google Analytics, Piwik oder eTracker – den Versuch, die Besucher-Daten anhand vorliegender Merkmale tatsächlich automatisch zu interpretieren.

Wahrscheinlich fehlt es noch an einer soliden Basis, die gewaltigen Datenmengen miteinander zu verknüpfen. Bis es so etwas gibt, genieße ich es, selber etwas in die Daten zu interpretieren. Ich finde einfach, es gibt kaum etwas Spanneneres als zu beobachten, was die Leute, die man nie kennen lernen wird auf der eigenen Seite so gemacht haben.

Poor Content – die Schwäche des Online-Journalismus

Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.

Zehn Jahre und keinen Schritt weiter

Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.

Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.

Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.

Was tun?

Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:

  • Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
  • Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
  • Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.

Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Dateisystem oder Meta-Ebene

Neben PC und Notebook übernehmen immer mehr Kleingeräte alltägliche Aufgaben. Dabei stellt sich die Frage, ob man lieber direkt auf seine Dateien in dder klassischen Ordneransicht zugreifen möchte oder nur über die passenden Anwendungen.

Die Meta-Ebene zum Zugriff auf Dateien und Funktionen ist nicht so ganz neu. Bei statischen Websites werden ebenfalls Dateien abgerufen, die imm HTML-Format auf einer Festplatte liegen. Der Mail-Client verwendet in der Regel eine Datenbank und legt die Mails nicht als Text auf die Festplatte ab. Das Menü von Windows enthält auch nur Verknüpfungen auf Dateien, die auf der Festplatte liegen.
Die meisten Handys und PDAs gehen einen Schritt weiter. Hier existiert nur die Metaebene. Fotos werden nur in der Foto-App angezeigt, Dokumente in der Office-App und Multimedia nur in den jeweiligen Abspielern.
Diese Anzeige bietet Vor- und Nachteile. Der Mensch kann nicht direkt auf Systemdateien zugreifen und so versehentlich etwas zerstören. Die unordentliche Ansicht von kunterbunten Dateiordnern wird vermieden. Die jeweiligen Programme zeigen nur die Dateien an, mit denen sie auch etwas anfangen können.

Ich plädiere allerdings dafür, beide Ebenen zuzulassen. Vor allem sollte der Computer einen direkten Zugriff auf Dateien via USB erlauben. Wenn ich eine App entferne, die bestimmte Dateien im System abgelegt hat, dann habe ich auch keinen Zugriff auf diese Dateien mehr, weil sie in anderen Apps nicht angezeigt werden.

Das heißt praktisch: Entwder werden die Dateien gelöscht, wenn die zugehörige App gelöscht wird oder die Dateien werden nicht gelöscht, aber auch nicht angezeigt, weil es keine App gibt, die etwas mit ihnen anfangen kann. Damit verliere ich die Herrschaft über meine Daten.

Apple geht mindestens einen Schritt zu weit, wenn es einen Zwang zur Nutzung der Meta-Ebene auflegt und einen Zugriff via PC und Mac nur über iTunes erlaubt. Das gesamte System wird dadurch unflexibel.

Die Entmündigung des Computer-Nutzers sollte bestimmten Grenzen unterliegen. Wir wollen gerne wissen, welche Dateien auf unseren Festplatten liegen. Faktisch könnte, wenn wir unser Gerät zum Beispiel verkaufen, ein Dritter auf längst vergessene Dateien zugreifen.