Behinderte dürfen nicht wählen“ lese ich bei der Tageschau online und reibe mir die Ohren: Was habe ich eigentlich die letzten 20 Jahre gemacht? Habe ich mir eingebildet, an zahllosen Wahlen teilgenommen zu haben?
Ah, ich lese ausnahmsweise den zugehörigen Text und stelle fest, es geht um Personen, die in allen Belangen einer Betreuung unterstehen. Es geht also um 80.000 Betreute, nicht um 7,6 Millionen Schwerbehinderte. Die Überschrift ist also falsch oder zumindest suggestiv. Kommt uns das nicht irgendwie bekannt vor? Finden wir das nicht bei zahlreichen linken und rechten Alternativ-Fakten-Postillen. Deren Nachrichten enthalten ja auch fast immer an irgendeiner Stelle einen wahren Fakt. Dieser Fakt wird mit suggestiven Fragen, unbelegten Behauptungen und reißerischen Überschriften aufgeblasen.
Es ist übrigens auch inhaltlich falsch: Man braucht keine Behinderung, um einer Betreuung in allen Belangen zu unterstehen. Die Gefahr, dass eine Bezugsperson die Stimme ihres Schützlings ohne dessen Einveerständnis abgibt, wird natürlich komplett unterschlagen, passt ja nicht so gut zum Bild des wehrlosen Opfers eines herzlosen Staates.
Jetzt bleibt die Frage, warum ein halbwegs seriöses Medium wie die Tagesschau mit solch suggestiven Überschriften arbeitet. Die Antwort ist Click-Baiting. Heißt, so viele Klicks wie möglich generieren.
Nun bin ich Online-Redakteur und kenne das Problem. Bei einer Überschrift wie „Menschen, die in allen Belangen betreut werden, dürfen nicht wählen“ wird der Leser in Zeiten, in denen Aufmerksamkeit in Milisekunden gemessen wird niemanden vom Hocker reißen.
Doch gerade die vom Bürger finanzierten öffentlich-rechtlichen Publikationen haben solch ein Verhalten nicht nötig. Und was ist jetzt das Ergebnis? Tausende von Leuten, die den Artikel nicht gelesen oder verstanden haben und nur die Überschrift kennen denken, Behinderte dürften nicht wählen. Auf Facebook liest man die üblichen Beschimpfungen auf Politiker. Die Tagesschau hat also ihren redlichen Beitrag zum Hate-Speeching geleistet.
Als Online-Redakteure sollten wir zumindest eines daraus lernen: Egal, was in unserem Text steht, wir sind auch für unsere Überschriften verantwortlich. Es ist unredlich, falsche Fakten über Überschriften zu verbreiten, denn wir können nie wissen, ob die Leser unsere Artikel tatsächlich lesen.
Archiv der Kategorie: Social Web
Hypermedia-Learning – ein neuer Ansatz im eLearning
eLearning ist nach wie vor die Domäne von klassischen Bildungsstätten. Es werden viele Ressourcen aufgewendet, um Lernmaterialien zusammenzustellen. Die Kurse sind meistens geschlossen, das Lernen und Kollaborieren findet in geschlossenen Systemen statt. Im folgenden möchte ich einen Ansatz vorschlagen, der das Erstellen von Lernumgebungen demokratisieren und das Lernen erleichtern soll.
Ich bin selber kein eLearning-Experte, daher weiß ich nicht, ob es schon einen Begriff dafür gibt. Ich nenne es Hypermedia Learning. Es vermischt vor allem zwei Ansätze: das rapid eLearning und die Massive Open Online Courses (MOOC). Das Hypermedia-Learning basiert auf vier Prinzipien:
- Prinzip 1: Verknüpfen statt selber machen
- Prinzip 2: Selbstständig statt angeführt
- Prinzip 3: Verteilt statt konzentriert
- Prinzip 4: Multidimensional statt textzentriert
Wie ich mir das ungefähr vorstelle, sieht man an diesem Beispiel, das allerdings noch nicht ganz fertig ist.
Prinzip 1: Verknüpfen statt selber machen
Für mich ist immer wieder erschreckend, wie viele Ressourcen darauf verwendet werden, das Rad neu zu erfinden. Jedes System hat zumindest in gewissem Maße seine Existenzberechtigung. Ein Informatiker hat villeicht Spaß daran, den Hunderten von Programmiersprachen noch eine neue hinzuzufügen. Aber warum man 30 verschiedene Lernplattformen basteln muss, von denen jede einzelne ihre Schwächen hat, erschließt sich mir nicht. Weil es beim Hypermedia-eLearning keine großen technischen Anforderungen gibt, lässt sich dafür jede Plattform verwenden, welche die technischen Anforderungen erfüllt. Das kann auch ein kostenloses WordPress-Blog sein oder Drupal.
Das Gleiche gilt für Informationen im Internet. Viele von den Informationen sind schon vorhanden und sie werden hoffentlich auch bleiben. Deshalb gibt es selten einen Grund, einen Text komplett neu zu schreiben, wenn die Informationen einfach nur verlinkt werden müssen. Vielfalt ist nicht per se schlecht, aber Vielfalt ist auch kein Wert an sich.
Im Hypermedia-eLearning stellt der Autor die Basis-Informationen in einem Text zusammen und bindet weitere Informationen über Links ein. Am besten ist es natürlich, die Informationen direkt in die Webseite einzubinden, wie man es mit YouTube-Videos oder Slideshare-Präsentationen machen kann. Mit Text geht das wegen der Urheberrechte nicht, eine Ausnahme wäre Scribd.
Statt alles selber zu schreiben stellt der Autor also die wesentlichen Informationen strukturiert und im Zusammenhang zusammen. Der Nutzer muss im Rahmen des Kurses die verschiedenen Materialien durcharbeiten.
Ich propagiere im übrigen kein Häppchen-Lernen. Es reicht normalerweise nicht, Texte, die man geschrieben hat einfach in eine logische Reihenfolge zu stellen. Vielmehr muss das gesamte Lernangebot einen roten Faden haben. Kein Autor wird also darum herum kommen, seine Inhalte ein wenig zu überarbeiten. Wer dafür weder Zeit noch Muße hat, fährt mit einem MOOC besser, wo lediglich zu bearbeitende Inhalte verlinkt und dazu passende Fragen zusammengestellt werden.
Prinzip 2: Selbstständig statt angeführt
Im klassischen eLearning werden vom Kursleiter Aufgaben vorgegeben, die der Schüler in einer bestimmten Zeit bearbeiten und wieder einreichen soll. Der Lehrer prüft die Lösung und gibt Feedback.
Im Hypermedia-eLearning übernehmen wir das Prinzip des autonomen Lernens. Der Nutzer erhält die Aufgabe, etwas zu tun, etwas auszuprobieren und selbständig zu prüfen, ob er das Ziel erreicht hat. Eine richtige Erfolgskontrolle wie beim klassischen eLearning ist für das selbstständige eLearning nicht nötig. Entsprechend müssen die Übungen gestaltet sein.
Prinzip 3: Verteilt statt konzentriert
Das Entscheidende ist dabei das Ziel Cummunity-Building. Die Community unterstützt im Idealfall die Bereitschaft, den Kurs zu Ende zu führen. Sie erleichtert den Austausch, wodurch das Wissen vertieft und die Reflexion verstärkt wird. Lernen ohne Lehrer könnte das Motto sein.
Viele Kurse haben keine nachhaltige Wirkung, weil der Stoff zwar durchgearbeitet wird, aber nur in Hinblick auf den Abschluß des Kurses. Das Ziel sollte aber sein, dass die Kursteilnehmer den Stoff selbständig vertiefen und das klappt im Austausch mit anderen am besten. Die Teilnehmer stellen Fragen, die durch das Kursmaterial nicht ausreichend beantwortet wurden oder gar nicht behandelt wurden. Diese Diskussionen helfen späteren Teilnehmern, den Stoff weiter zu reflektieren, das ist Crowd-Bildung.
Wenn der Kurs von der Plattform unabhängig ist, suchen sich die Teilnehmer ihre eigene Form der Verarbeitung auf Facebook, Twitter, Pinterest, Audioboo, YouTube oder wo auch immer.
Im Idealfall ergänzt dieses Material den Kurs und macht via Crowdsourcing einen besseren Kurs daraus. Das klappt aber nicht, wenn der Kurs und die Kursplattform geschlossen sind.
Prinzip 4: Multidimensional statt textzentriert
Im Internet liegen genügend multimediale Inhalte, um einen akademischen Abschluß nur mit diesen Materialien zu erlangen. Gleichzeitig sind die Kurse heute eher textbasiert. Multimedialität lässt sich dabei sowohl bei der Zusammenstellung des Kursmaterials als auch bei der Bearbeitung der Übungen realisieren.
Jeder Mensch hat seinen eigenen Lernstil. Manche mögen es eher visuell, manche eher akkustisch. Diese Vorlieben werden in den klassischen Kursen nicht berücksichtigt, weil jeder Teilnehmer die gleiche Aufgabe in der gleichen Weise bearbeiten muss.
Am besten wäre es, wenn die Lernenden den Stoff direkt auf ein konkretes Projekt anwenden könnten, das sie aktuell bearbeiten. Auch das geht in den klassischen Kursen nicht, weil das dem Lehrenden zu viel Mühe bereiten würde. Das konkrete Anwenden des Erlernten ist entscheidend für den Lernerfolg.
Statt ellenlange Texte durchzuarbeiten sollte der Nutzer die Möglichkeit bekommen, möglichst viel auszuprobieren. Es geht darum, den Spieltrieb zu wecken, dem Nutzer etwas zum Anfassen zu geben, seine Neugier zu wecken und ihn möglichst viel alleine herausfinden zu lassen, statt ihm alle Informationen vorverdaut zu präsentieren.
Demokratisierung der Bildung
Für professionelle Kurse werden zahlreiche Ressourcen benötigt. Es werden Didaktiker, Fachleute zur Erstellung des Kurses und Designer benötigt, die den Kurs inhaltlich ausarbeiten und optisch aufbereiten. Die Kurse kosten im besten Falle mehere Hundert Euro. Gleichzeitig haben wir einen expliziten Mangel an Kursen vor allem zu aktuellen Themen. Die ersten deutschsprachigen Kurse zu Web 2.0 erschienen vor drei bis vier Jahren. Ist das Kursmaterial einmal ausgearbeitet, wird es nur selten auf den aktuellen Stand gebracht.
Das hier vorgeschlagene Prinzip ist sozusagen die Wikipediasierung des Lernens. Die Entstehung von Bildungsmaterial und Enzyklopädien hat viel gemeinsam. Die Enzyklopedia Britannica ist sicher ein tolles Werk, das auch seine Existenzberechtigung hat. Aber sie ist teuer und praktisch in dem Moment veraltet, wo sie auf den Markt kommt.
Gleichzeitig wirft das beschriebene Verfahren die gleichen Probleme auf, wie sie die Wikipedia bereits heute hat. Das sind vor allem die Qualitätsunterschiede in den Artikeln.
Die Qualitätskontrolle wandert sozusagen von den Inhalteerstellern zu den Kursnutzern. Sie sind angehalten, das Gerlernte kritisch zu reflektieren, in Frage zu stellen und mit ihren Beiträgen zu verbessern. Das ist sozusagen Teil des Kurses und entspricht dem Prinzip des selbständigen Lernens.
Zur Demokratisierung gehört auch, dass jeder diese Kurse erstellen kann. Es gibt keinen Grund, die Schaffung von Wissen den Experten zu überlassen. Es gibt einen Hunger auf Wissen und es gibt keinen Grund, dieses Wissen in sorgfältig gebundene vom Verlag geprüfte Bücher zu packen.
Oftmals liegt das Basismaterial schon vor. Viele Blogs werden seit Jahren mit Einträgen gefüllt. Im Idealfall müssten die Beiträge nur in eine Struktur gebracht werden, die den Lernenden die Aufnahme erleichtert. Sie werden dann ergänzt mit Beiträgen, die die Lücken füllen und mit Fragen, die den Nutzern das Selbst-Lernen erleichtern. Das Material kann nach Belieben mit Texten von anderen Webseiten, Videos, Audios oder Präsentationen ergänzt werden. Dem Autoren fällt hier als Quasi-Experten die manchmal schwere Aufgabe zu, die aus seiner Sicht besten Inhalte auszuwählen. Theoretisch lassen sich beliebig viele Inhalte einbinden, praktisch soll aber gerade der Lernende nicht mit einem Übermaß an Inhalten überschüttet werden. Und natürlich sind die Urheberrechte zu berücksichtigen, es geht nicht um Copy-Paste, sondern um Hypermedia.
Ein Kurs kann auch modular gestaltet werden, so dass er einerseits Laien wie Experten ansprechen kann. Auf der anderen Seite können so auch unterschiedliche Zielgruppen erreicht werden. Die Redakteure zum Beispiel bearbeiten den ersten Teil, die Designer den zweiten Teil, aber beide haben auch die Möglichkeit, die jeweils anderen Teile durchzuarbeiten. Das heißt, dass die einzelnen Module des Kurses grundsätzlich eigenständig funktionieren müssten.
Unsere Regale sind voll von Lehrbüchern, die mit der besten Absicht gekauft wurden, aber keinen nachhaltigen Einfluß hatten. Unsere Schulen, Universitäten und das Internet sind voll altbackener Didaktik, die heutige Möglichkeiten bei weitem nicht ausnutzt.
Drupal als einfaches Learning Management System
Es gibt eine Reihe kostenloser Open-Source-Lösungen für Lernumgebungen zum eLearning im Internet. Die größte und wahrscheinlich auch umfangreichste Lösung ist Moodle. Moodle ist allerdings sehr anspruchsvoll, was den Ressourcenbedarf angeht. Außerdem ist es für kleine Lernumgebungen überdimensioniert. Ein einfaches Redaktionssystem erfüllt oft viele Ansprüche und lässt sich mit geringeren Ressourcen betreiben.
Vieles spricht für WordPress: es ist schnell erlernt, es gibt zahllose Erweiterungen für jeden Zweck und es lässt sich fast überall betreiben.
Für interaktive Umgebungen scheint mir aber das freie System Drupal besser geeignet. Es erfordert ein wenig mehr Einarbeitung als WordPress, bringt jedoch einige interessante Funktionen von Haus aus mit. Der Schwerpunkt von Drupal liegt auf dem Community-Building. Man kann zu jedem Inhalt ein Forum hinzufügen, so dass Diskussionen und Kommentare zu jedem Lerninhalt geführt werden können.
Drupal ist ein klassisches Redaktionssystem zum Erstellen von Webseiten, während der Schwerpunkt von WordPress auf Weblogs liegt. In Blogs gibt es normalerweise keine Hierarchie, alle Beiträge liegen auf der gleichen Navigationsebene. Die Beiträge werden nicht im Zusammenhang in einer bestimmten Reihenfolge gezeigt, sondern umgekehrt chronologisch. Das kann man natürlich nach Belieben ändern, Drupal erlaubt das aber von Haus aus. Das Buchmodul von Drupal erleichtert es, Inhalte in eine lineare Reihenfolge zu bringen, so dass der Lernende den Stoff nac einem bstimmten System durcharbeiten kann.
Vieles andere ist integriert oder lässt sich nachrüsten: Benutzerverwaltung mit Rollen, zeitgesteurtes Veröffentlichen, Blogs, die Einbindung von RSS-Feeds, Umfragen/Fragebögen usw.
Auch das Einreichen von Aufgaben und die Rückmeldung durch den Lehrenden sollte sich realisieren lassen.
Der große Vorteil von Drupal gegenüber zum Beispiel Typo3 ist die vergleichsweise einfache Erlernbarkeit und Anpassbarkeit. Außerdem verbraucht es weniger Ressourcen als Moodle und ist stärker auf den Austausch und Benutzer mit unterschiedlichen Rollen ausgelegt als WordPress.Drupal ist ein Framwork für Community-Building, so dass angemeldete Nutzer ihre Diskussionen, Blogs oder eigene Beiträge innerhalb des Systems abgeben können, ohne dass das System erweitert werden muss.
Drupals Stärken werden leider schnell unterschätzt. Ein Problem des Systems ist, dass es im Gegensatz zu WordPress out of the box nicht besonders benutzerfreundlich ist. Ich glaube, sehr viel mehr Leute würden das System einsetzen, wenn es fertig vorfonfigurierte Systeme z.B. für Redakteure gäbe. So ist die Einarbeitungszeit doch ein wenig höher, weil die Funktionen teilweise gut versteckt sind. Zum Beispiel gibt es out of the box keinen graphischen Texteditor. Die Funktion zum Hochladen von Bildern muss in einigen Inhaltstypen wie Büchern erst eingeschaltet werden.
Drupal gilt als Linux der Content Management Systeme, aber das trift auch auf MODx oer Typo3 mit seinem TypoScript zu. Im Vergleich ist Drupal einfacher.
Digitale Mitbestimmung für Menschen mit Behinderung
Digitale Werkzeuge können auch für Menschen mit Behinderung die Mitbestimmung erleichtern und verbessern:
Politisches Engagement findet zunehmend über das Netz statt. Viele der neuen Möglichkeiten sind auch für Menschen mit Behinderung interessant. Ihre Wege
zur politischen Mitbestimmung sind oft eingeschränkt, weil sie nicht mobil sind oder ihre Kommunikationsfähigkeit eingeschränkt ist. Weiterlesen
Die Zukunft des Fachbuches heißt eLearning
eLearning hat in Deutschland noch keinen besonders guten Status. Die klassischen Anbieter von Fernstudiengängen, Fernlehrgängen und Fernkursen bieten online Möglichkeiten, Material hoch- oder runterzuladen, mit Studienkollegen zu diskutieren oder aktuelle Infos in Erfahrung zu bringen. Mit eLearning hat das nur am Rande zu tun. eLearning heißt, dass der Lehrstoff am Computer oder einem mobilen Endgerät bearbeitet werden kann. Dabei können Animationen, interaktive Schaubilder, Audio- und Videoelemente integriert sein.
Dazu gehören aber auch Möglichkeiten, Aufgaben online zu lösen. Das geht offen, indem man eine eigene Antwort auf eine Aufgabe formuliert oder geschlossen, indem man Multiple-Choice-Aufgaben ausfüllt und diese direkt mit der Lösung abgleichen kann.
Viele Fachbücher sind bereits an Lernende adressiert. So werden häufig am Ende eines Kapitels Fragen gestellt, die der Leser beantworten soll, um zu kontrollieren, wie viel er verstanden hat. Bei Softwarebüchern muss er kleine Projekte oder Programme erstellen – natürlich am Computer.
Es ist also naheliegend, diese beiden Bereiche zu kombinieren. Mit den enriched oder enhanced eBooks werden solche Formate durchaus realisierbar. Mit ePub 3.0 lässt sich z.B. schon JavaScript in eBooks einsetzen, was eine Voraussetzung für Interaktivität ist. Formulare für Multiple-Choice-Abfragen lassen sich bereits mit HTML umsetzen, das bei eBooks verwendet wird.
Ein Problem könnten die großen Datenmengen sein, die für Multimedia eingesetzt werden müssen. Eventuell muss man hier einige Abstriche machen, da die Displays klassischer eBook-Reader nicht leistungsfähig sind – und außerdem schwarz-weiß.
Ich glaube im übrigen noch nicht an die multimedialen Bücher. Wenn jemand ein Buch liest, möchte er lesen und nicht sich ein Video angucken. Einfache Animationen oder einfache Tabellenfunktionen oder sogar Pivot-Charts haben einen gewissen Nutzen in Fachbüchern, aber Videos, Audios und andere Multimedia-Inhalte in die Bücher selbst zu packen erscheint mir nicht sinnvoll. Es wird auch leicht unterschätzt, wie teuer solche Produktionen sind. Jede Filmminute kostet mehrere hundert Euro, solche Kosten lassen sich mit eBooks nicht finanzieren. Das sind dann Multimedia-Shows oder Apps, für die man ein wenig mehr verlangen kann, aber keine Bücher.
Es geht aber noch weiter: die Verlage könnten ein Programm für Zertifikate anbieten. Ein Präsentationskurs könnte optional die Möglichkeit enthalten, für sagen wir 50 Euro eine Prüfung zu absolvieren, wofür ein Zertifikat ausgestellt wird. Natürlich hat ein solches Zertifikat nur einen begrenzten Wert, aber zumindest kann der Betreffende damit belegen, dass er sich mit der Materie beschäftigt hat. Viel mehr bringen die Urkunden zugelassener Fernschulen auch nicht. Und die Verlage könnten die Preise der Fernschulen unterbieten.
Die Fernschulen haben gleich mehrere Probleme: Ihre Strukturen sind nicht auf Selbständige ausgelegt, was man daran sieht, dass die meisten Schulen keine Rechnungen mit ausgewiesener Mehrwertsteuer ausstellen. Damit zusammen hängt ihre Preisstruktur, die sich eher an dem Festangestellten mit ordentlichem Einkommen orientiert. Das große Problem ist aber die mangelnde Modularisierung: ein Kurs kann über ein bis zwei Jahre gehen und entsprechend zwischen 1000 und 3000 Euro kosten. Und das, obwohl sich die Kurse leicht in Module zerlegen ließen, die aufgeteilt sogar ein wenig mehr kosten könnten als der komplette Kurs – aber im Endeffekt für Selbständige attraktiver werden. Denn sie wissen durchaus nicht, was in einem halben Jahr sein wird. Für sie können deshalb einzelne Module eines Kurses interessanter sein als das Gesamtpaket.
Auch mit der Barrierefreiheit der Kurse ist es nicht weit her. Gedrucktes Material ist für Blinde ohnehin ungeeignet, aber auch Großdruck für Sehbehinderte wird normalerweise nicht angeboten. Auch bei eLearning-Kursen ist natürlich nicht garantiert, dass sie barrierefrei sind: es gibt Kurse auf CD, die für Tastaturnutzer einfach nicht nutzbar sind. Aber Barrierefreiheit ist im digitalen Bereich eher umsetzbar als im Printbereich.
Fazit
Ein Autor ist allerdings kein eLearning-Autor. Die oben beschriebenen Werke verlangen neben den Fachexperten auch eLearning-Autoren, die sich mit der Didaktik auskennen und eventuell auch Infografiker oder Multimedia-Designer. Solche Bücher werden zunehmend nicht mehr von Einzelautoren, sondern von Gruppen abgefasst werden.
Das Buch der Zukunft wird außerdem nicht mehr statisch sein. Um Bücher herum werden kleine Communities entstehen, sich über einzelne Stellen austauschen und die Autoren direkt auf schlechte Formulierungen oder Fehler hinweisen können. Man könnte das als Crowd-Lektorat bezeichnen, auch wenn das Wort nicht gerade hübsch ist. Es wird dann ähnlich wie bei Software verschiedene Versionen von Büchern geben, die Bücher werden stetig aktualisiert. Vielleicht werden wir Bücher nicht mehr kaufen, sondern abonnieren.
Entscheidend ist das vernetzte Lernen. Der Kobo-Reader hat das soziale Lesen in seine Software integriert, so dass Leser sich über einzelne Stellen im Buch austauschen können.
Damit eng zusammen hängt das mobile Lernen. Dabei werden mobile Endgeräte zum Lernen eingesetzt. Das ist sicher nicht für jeden Bereich geeignet, aber dort, wo Informationen häppchenweise aufgenommen werden wie beim Vokabeln lernen erscheint es sinnvoll.
Weiterlesen
- Der Teia-Lehrbuch-Verlag bietet etwas dem oben beschriebenen schon sehr ähnliches an. Die Lherbücher können kostenlos online gelesen werden. Bezahlt wird für gedruckte oder elektronische Fassungen sowie für den Erwerb von Zertifikaten
- Auch der Galileo-Verlag bietet viele seiner IT-Bücher kostenlos im Netz
- Hypermedia-Learning – die Demokratisierung der Bildung
- Themenspezial des Upload-Magazins zum Buch der Zukunft
- Bob Stein über die Zukunft des Lesens und Schreibens“
- Rollt Apple den Bildungsmarkt auf?
- Bernd Sonneck über die elektronische Anreicherung von Fachbüchern: „Die Technik verändert nicht unsere Kernaufgabe“
Open Course 2011 – die Zukunft des Lernens
Ranking bei Amazon – welches Produkt wird verkauft?
Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:
- das Erscheinungsdatum
- der Preis
- die Lieferbarkeit
- die Höhe der Bewertung
- die Zahl der Bewertungen
- die Verkaufszahlen
- die Durchklickrate
Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.
- erbraucher führen Produktsuche zu 60% über eBay, Amazon und Co. durch
- Understanding Sales Rankings for Books
- Joachim Leser: Die Amazonisierung des Sortiments
- WER WEIß WAS ÜBER DIE NUTZER: Die wirkliche Datenkrake heißt Amazon
Serendipity darf nicht sterben – Filterbubble auch ohne Datensammlung
Manchmal ist es doch überraschend, wie schlecht die Suchmaschinen nach wie vor funktionieren. Wie oft ist es dir passiert, dass du drei oder vier Suchbegriffe eingegeben hast und selbst der Branchenprimus Google nur Schrott ausgeworfen hat? In letzter Zeit sicher öfter – weil Google jetzt meint, besser zu wissen, was du suchst als du selbst. Die Folge ist, dass Google beliebig viele Begriffe bei Suchphrasen weglässt und entsprechend wertlose Suchergebnisse anzeigt. Zwei Beispiele: Ich suche nach dem More-More-Effekt und Google zeigt mir Noiré-Effekt, ich suche nach ODF und Google bietet mir Ergebnisse zu PDF.
Im Grunde haben sich die Suchmaschinen seit mehr als zehn Jahren nicht weiterentwickelt. Der letzte große Sprung wurde von Google mit dem Messen des Verlinkungsgrades gemacht, damit ist die Firma groß geworden. Alles, was danach kam war die Optimierung oder Spambekämmpfung durch den Algorythmus. Faktisch ist seit zehn Jahren nichts mehr von Belang im Suchmaschinenbereich passiert. Fairerweise muss ich aber dazu sagen, dass ich die zahlreichen kleinen Suchmaschinen und ihre Technik nicht kenne. Das liegt teilweise auch daran, dass Cuil oder Blekko im deutschsprachigen Bereich bisher nicht mitspielen können.
Die große Schwäche von Google und Co ist nach wie vor die Gleiche. Google schaut, ob bestimmte Worte in einem Text vorkommen, wwie diese Worte zueinander positioniert sind und ob überhaupt genügend signifikanter Text vorhanden ist. Angeblich können in bestimmtem Maße auch unterschiedliche Wortfolgen oder Synonyme verarbeitet werden, was aber meiner Erfahrung nach nicht wirklich funktioniert. Die Auswertung der Geoposition und dazu passende Suche ist ein nettes Gimmick, was aber niemanden vom Hocker haut.
Dazu kommt noch, dass mittlerweile jede Organisation, die etwas Geld in der Tasche hat versucht, ihre Texte zu seo-isiseren. Für wen das jetzt Neuland ist: Redakteure werden dazu angehalten, suchmaschinengerecht zu schreiben, das heißt, die richtigen Wörter in der richtigen Dichte einzusetzen. Das mag man für legitim halten, letzten Endes werden damit aber solche Texte auf die vorderen Plätze geschoben, ohne dass sich ihr Inhalt oder die Relevanz verbessert haben. Hat jemand schon mal ernsthaft nach einer Preissuchmaschine gesucht? Sicher nicht so häufig, dass sie auf der ersten Suchseite sein sollten.
Manche sprechen bereits von der Filterbubble. Algoritmen in den sozialen Netzwerken oder den Suchmaschinen präsentieren dem Nutzer bevorzugt das, was sie meinen, es interessiere ihn besonders. Dabei analysieren sie die Daten, die sie über Einen gesammelt haben: Was steht in seinem Profil, mit wem interagiert er am meisten, welche Links oder Inhalte fand er besonders toll und so weiter. Auch Amazon macht das.
Wir haben uns so sehr daran gewöhnt, dass Suchmaschinen buchstäblich nur die Wörter suchen, die wir eingegeben haben, dass uns das gar nicht mehr blöd vorkommt. Auffällig ist, wie stark Google den Long Tail verdrängt hat. Zum einen zieht es große Webseiten vor und zwar auch dort, wo Fachportale bessere und interessantere Inhalte bieten. Zum anderen lässt es aktuell mit dem letzten großen Update des Algorithmus gerne mal einen Suchbegriff weg oder interpretiert relativ frei, was der Sucher gesucht haben könnte. Das wäre ein guter Grund, Meta-Suchmaschinen einzusetzen. Leider scheint es auch hier keine Algoritmen zu geben, die nützliche Ergebnisse liefern.
Kann es eigentlich sein, dass wir schon so lange Google als Suchmaschine nutzen, dass wir alle anderen Suchmaschinen als schlechter empfinden? Klingt absurd, ist aber durchaus möglich. Sagen wir, ich nutze Google seit ungefähr zehn Jahren. Auch wenn wir Google für intuitiv halten, jede Maschine hat ihre Ecken und Kanten. Nur gewöhnen wir uns irgendwann daran und empfinden die Macken und Schwächen nicht mehr als solche. Es ist so wie mit den Autoabgasen, wir könnten wissen, dass sie da sind, auch wenn wir sie nicht mehr riechen. Oder wer andauernd MP3s hört, weiß nicht mehr, wie Musik in guter Qualität klingen muss.
Wenn wir jetzt anfangen, eine andere Suchmaschine zu nutzen, müssten wir uns umgewöhnen, und das tut eben keiner gern.
Google als Selbstverstärker
Einen interessanten Effekt, der auf Google basiert hat bisher keiner beschrieben: Google verstärkt oder verfestigt durch seine Suchergebnisse die Suchergebnisse. Klingt schwachsinnig, ist aber einfach zu erklären.
Nehmen wir an, ich schreibe einen Artikel über die Schwäche von Suchmaschinen. Zwischendurch oder nach dem Schreiben suche ich mit bestimmten Begriffen, die auch in meinem Artikel vorkommen nach interessanten Seiten, die ich verlinken kann. Ich schaue dabei mit Vorliebe auf die ersten Seiten von Google. Setze ich nun den Link, verbessere ich die Position des verlinkten Artikels zumindest minimal. Ich verfestige also die Position des verlinkten Artikels, allerdings ohne zu wissen, ob es nicht bessere Artikel gab, die eher zu meinem Artikel gepasst hätten. Ich bestätige also Google in seiner Meinung, dass es sich um den Beitrag, der durch seinen Algorithmus ausgewählt wurde um einen guten Beitrag handelt.
Die Filterbubble ist also schon da, auch ohne dass wir uns irgendwo einloggen und Profile über uns angelegt werden. Je stärker bestimmte Inhalte verlinkt werden, desto stärker werden andere Inhalte in den Long Tail verdrängt. Das ist der More-More-Effekt.
Weitere Tools verstärken die Filterbubble. Statt uns selber auf die Suche nach Inhalten zu begeben, verwenden wir Dienste wie paper.li, die uns die interessantesten Nachrichten zusammenstellen. Sie aggregieren und gewichten diese Nachrichten nach Likes und Re-Tweets und voila – wir haben den Google-Filter-Selbstverstärkungseffekt.
Der goldene Käfig von Facebook ist natürlich noch extremer. Bei Facebook kann man wenig machen, wenn man nicht eingeloggt ist. Für den energischen Facebooker existiert also nichts, was außerhalb der Gated Community von Facebook liegt bzw. nicht über Links reingekommen ist.
Der Serendipity-Effekt bleibt dabei zunehmend auf der Strecke. Das ist bedauerlich, weil In den hinteren Suchergebnissen so viel Potential steckt, das ungenutzt weil unbemerkt bleibt. Gerade dieser Effekt macht das Netz zu einem Quell kreativer Ideen. Liest man das, was alle anderen schon gelesen haben, hat man wahrscheinlich auch die gleichen Ideen, zumindest sinkt die Chance auf kreative neue Assoziationen.
Deswegen ist es auch so spannend, gut verlinkende Blogs zu lesen. Meiner Ansicht nach besteht eine der großen Stärken des Web darin, dass es weniger hierarchisch wie ein Buch sondern assoziativ wie ein Netz aufgebaut ist. Ich springe von Gedanken X zu Sache Y und schließe bei Z, wobei eine Verbindung geschaffen wird, die mir vorher nicht klar war. Auf jeden Fall kann ich sagen, dass es in einigen Blogs wesentlich interessantere Links gibt als man sie bei Google gefunden hätte.
Deswegen und um dem Filterbubble-Effekt zu entgehen empfehle ich jedem, der es nicht hören will, so viele interessante Blogs wie möglich in den RSS-Feed zu holen und nicht darauf zu vertrauen, dass Google, Twitter, Facebook oder ein anderer Dienst die passende Auswahl trifft.
Es ist kurios: die gleichen Leute, die sich darüber beschwert haben, welch starke Selektion die Massenmedien ausüben lassen nun andere Leute und Algoritmen darüber entscheiden, welche Informationen für sie wichtig sind.
- Eli Pariser. Filterbubble. Carl-Hanser-Verlag 2012
- Webseite zum Buch
Online-Volunteering – Engagement über das Netz
Online-Volunteering ist ein nicht ganz neues , aber in Deutschland eher unbekanntes Engagement-Gebiet. Mit dem Leitfaden „Management von Online-Volunteers – ein Handbuch“ von Hannes Jähnert und Lisa Dittrich gibt es nun eine praxisorientierte Einführung in das Thema.Online-Volunteering könnte man auch als digitales Engagement bezeichnen, es geht darum, dass sich Freiwillige quasi von zuhause aus für eine gute Sache einsetzen, anstatt vor Ort zu erscheinen.
Der erste Teil des Leitfadens dreht sich vor allem um die Frage, was Online-Volunteering ist, welche Beispiele es gibt und warum es überhaupt sinnvoll ist, Freiwillige online zu gewinnen. Das bekannteste Beispiel für Online-Volunteering ist übrigens die Wikipedia, wo zumindest die Arbeit an den Artikeln komplett übers Netz läuft. Ein vielleicht noch interessanteres Beispiel ist OpenStreetMap, wo tausende Menschen mit GPS-Trackern durch die Gegend laufen und damit freie Karten erstellt haben. Ein sehr interessantes Projekt ist das World Community Grid von IBM, wo man Rechenleistung spenden kann, um zum Beispiel Krankheiten zu bekämpfen.
Im zweiten Teil geht es darum, wie man Freiwillige gewinnen kann. Das geht auch über das Internet. Die Kernfrage ist, wie man sie gewinnt und wie man das Engagement managt. Typischerweise gibtt ews zwei Engagement-Arten: es gibt Menschen, die sich projektweise engagieren und Menschen, die längerfristig für eine Organisation arbeiten. Für beide Gruppen müssen passende Aufgaben definiert werden.
Das klassische Recruiment von Engagierten läuft bei kleinen Organisationen immer noch über persönliche Netzwerke. Man hat also zuerst den Menschen und findet dann für ihn eine Aufgabe. Im OV muss man tatsächlich im Vorfeld überlegen, welche Aufgaben von daheim aus erledigt werden können und muss sich dann um Freiwillige kümmern. Neben den kurzfristigen Aufgaben wie dem Übersetzen eines Textes gibt es auch langfristige Aufgaben wie das Pflegen der Website, eines Forums oder Blogs.
Zudem muss eine Strategie entwickelt werden, wie Mitarbeiter motiviert werden, wenn die soziale Einbindung nur auf digitalem Wege geschieht.
Bei dem IBM-Projekt arbeitet man sehr geschickt mit unterschiedlichen Formen der Motivation: Es wird bei den verschiedenen Projekten ein der Fortschritt und der eigene Anteil daran angezeigt, es gibt Bestenlisten und man kann sich auch Gruppen anschließen, um gemeinsam mehr zu leisten. Das ist das einzige, was mir in der Broschüre fehlt: die Frage, wie man Online-Volunteers motiviert und bei der Stange hält. Beim konventionellen Engagement funktioniert das über gruppendynamische Prozesse, um es mal blumig auszudrücken.
Besonders freut mich, dass sich die beiden Autoren auch dem Thema Barrierefreiheit gewidmet haben. Viele Behinderte sind in ihrer Mobilität eingeschränkt, aber gerne bereit, sich zu engagieren. Mit dem OV weicht man gewissen Kommunikationsproblemen aus: so fällt es gehörlosen und schwerhörigen Menschen häufig schwer, mit Normal Hörenden zu kommunizieren. Last not least gehört zur Inklusion, dass Behinderte sich auch außerhalb des Bereichs der Behindertenselbsthilfe einbringen. Bis heute werden sie primär als Objekt der Fürsorge und weniger als handelnde Subjekte wahrgenommen.
Wer mit dem Recruitment von Online-Volunteers loslegen möchte, für den ist das Handbuch von Hannes und Lisa ein sehr gut gemachter, praxisorientierter Einstieg. Erhältlich ist das Handbuch meines Wissens nach bei der Akademie für Ehrenamtlichkeit.
Weiterlesen
- Infos zum Leitfaden im Blog von Hannes Jähnert
- Akademie für Ehrenamtlichkeit Deutschland
- World Community Grid
- Online-Volunteering für Behinderte
- Rechechereangebot für Engagement-Interessierte
- Das bürgerschaftliche Engagement ist flach – Infos der BAGFA zum Online-Engagement PDF
Poor Content – die Schwäche des Online-Journalismus
Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.
Zehn Jahre und keinen Schritt weiter
Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.
Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.
Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.
Was tun?
Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:
- Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
- Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
- Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.
Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.
Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz
Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.
Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.
Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.
Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.
Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.
Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.
Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?
Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.
Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.