Ein einzelner Mensch ist keine Gemeinschaft, doch die Gemeinschaft ist mehr als die Summe der Menschen, aus der sie besteht. Die Gemeinschaft bildet wie der Mensch einen Charakter aus.
Einzelne Personen aus der Gemeinschaft repräsentieren einzelne Charakterzüge des Menschen: da gibt es den Widerspenstigen, den Antreiber, den Faulenzer, den Optimisten, den Pessimisten, den Dauerbeleidigten und viele mehr.
Es gab einen recht interessanten Radio-Beitrag vom Coach Roland Kopp-Wichmann. Gefragt, warum viele Veränderungswünsche nicht in die Tat umgesetzt werden antwortete er sinngemäß, dass die Menschen sich in einer Komfortzone eingerichtet haben und jede Veränderung instinktiv ablehnen. Es spiegelt sozusagen die Dualität des menschlichen Charakter wider: Wir können rational begreifen, dass etwas zu tun richtig wäre. Aber unser Über-Ich – wenn wir so wollen – sagt uns, dass Veränderung Anstrengung, Gefahr und Risiko birgt.
Diesen Gedanken können wir auch auf Organisationen übertragen. Ich habe mich schon mehrfach darüber gewundert, wie unflexibel Organisationen auf Veränderungen reagieren. Wir wissen etwa, dass wir stärker mit Social Media arbeiten sollten, aber machen Pressearbeit wie vor 20 Jahren. Wir wissen, dass die Produktpalette veraltet ist, aber haben nicht den Mut, neue Produkte auszuprobieren.
Mein Eindruck ist, dass die meisten Organisationen versuchen, diesen Stillstand mit interner Unternehmensentwicklung zu kaschieren. Da werden Coaches herangezogen, Werte geschaffen, Fortbildungen betrieben. Das alles ist Beschäftigungsstrategie. Und es hat nur geringen Einfluß auf die externeUnternehmensentwicklung. Die Pleite wird uns nicht verschonen, weil wir so schöne Werte haben.
Ein Grundproblem scheint mir außerdem in der deutschen Arbeitsmarkt-Struktur zu liegen. Manche Leute arbeiten 30 Jahre für das gleiche Unternehmen, sitzen auf dem gleichen Platz und tun in etwa das Gleiche. Mancherorts begrenzt sich die Mitarbeiterfluktuation auf Null. Das mag gut für das Unternehmensklima sein, schlecht ist es für Veränderungen. Ähnlich wie einzelne Menschen fürchten sich Unternehmen vor Veränderungen, denn auch sie wollen die Komfortzone nicht verlassen – und werden deshalb entweder scheitern oder sehr schmerzhafte Umbauprozesse mitmachen müssen. Wer sehen will, wie das läuft, sollte sich die großen Energiekonzerne ansehen.
Archiv der Kategorie: Geistes- & Gesellschaftswissenschaften
Der Charme kleiner Organisationen – arm, kreativ, innovativ
Arm, aber sexy wurde einmal als Leitmotiv für Berlin vorgeschlagen. Der Spruch mag zynisch sein, hat aber seine Berechtigung. Je größer eine Organisation oder ein Unternehmen ist, desto stärker ist sie mit sich selber beschäftigt und desto weniger ist sie in der Lage, ihren Zweck effizient zu erfüllen.
Ich kann nicht sagen, wie es früher war, aber heute sind viele Organisationen stetig damit beschäftigt, ihre Mission zu erklären, Strategien festzulegen und interne Prozesse zu verbessern. Hochbezahlte Manager kämpfen sich durch unendliche Meetings, Workshops und Selbstfindungsseminare, während das operative Geschäft stetig in den Hintergrund rückt. Das alles mag in gewissem Maße seine Berechtigung haben, aber der Effekt ist verheerend.
Die operative Arbeit wird von den Mitarbeitern der unteren Ränge erledigt. Aber auch sie werden stetig in eine Kultur der Selbstoptimierung hineingepresst. Sie sollen Feedbacks abgeben, sich in Prozesse einbringen, die sie nicht interessieren oder an der Selbstfindungsaktivität teilnehmen. Und natürlich ihre Arbeit machen, die ja nicht weniger wird.
Ein ganzer Wirtschaftszweig hat sich um den Bereich der Selbstoptimierung, Marken- und Strategie-Definition gebildet. Berater, Coaches und Mediatoren verdienen aber nicht nur an diesem Trend, sie rühren auch kräftig die Werbetrommel und erzeugen dadurch erst den Bedarf, den vorher niemand gesehen hat. Sie sind es schließlich, die die Beiträge in Business-Magazinen schreiben. Nebenbei gesagt sind die größten Puscher von negativen Schlagzeilen über Social Media Social-Media-Berater, die sich mit Shitstorm- oder Reputationsmanagement ein schön hohes Gehalt sichern.
Es wäre doch nett, wenn Führungskräfte mehr managen und führen würden statt Management- und Führungskurse zu besuchen.
Kleine Organisationen mit wenigen Mitarbeitern können sich diesen Prozess gar nicht leisten. Da wird die Strategie eben im laufenden Prozess entworfen und wenn nötig angepasst. Es funktioniert doch.
Es ist ein populärer Irrtum, wenn man glaubt, mehr Geld steigere die Qualität zum Beispiel des Marketing oder der Öffentlichkeitsarbeit. Das Gegenteil wäre auch falsch: Fakt ist aber, dass je mehr Geld man zur Verfügung hat, desto eher neigt man dazu, das Geld unnötig auszugeben. Wir kennen alle diesen urbanen Mythos von den Baustellen, die nur aufgemacht werden, damit der entsprechende Haushaltsposten im nächsten Jahr nicht gekürzt wird. Da ist was dran. Aus buchhalterischer Sicht muss man nicht nur begründen, warum man mehr Geld ausgegeben hat als im Budget vorgesehen war. Man muss auch begründen, warum man weniger ausgegeben hat und warum man dann dennoch im nächsten Jahr das gleiche oder sogar mehr Budget haben möchte. Auch das würde in kleinen Organisationen sofort auffallen. Hier würde niemand bei knappen Budgets auf die Idee kommen, Geld aus buchhalterischen Gründen auszugeben, wenn es keine Notwendigkeit dazu gibt.
Der NGO-Bereich hat sich BWLisiert, wenn man so sagen möchte. Marketing, Controlling und andere Bereiche laufen heute nicht anders als in der Privatwirtschaft, was im übrigen zu begrüßen ist. NPOs, was immer man sonst über sie sagen mag sind verpflichtet, mit ihren Geldern effizient umzugehen. Dabei spielt es keine Rolle, ob das Geld gespendet wurde oder über Merchandising reinkam. Es ist das Geld anderer Leute und damit muss effizient umgegangen werden.
Das Problem ist, dass das viele Geld und vermutlich auch der Bekanntheitsgrad die Fantasie nicht beflügelt. Wenn man 10.000 Euro pro Jahr für Öffentlichkeitsarbeit zur Verfügung hat, macht man sich Gedanken darüber, wie man am effizientesten arbeiten kann. Wenig Geld beflügelt die Phantasie. Wenn man hingegen 1.000.000 Euro zur Verfügung hat und sie sowieso ausgeben muss, verpulvert man einen Großteil des Geldes für sinnfreie Hochglanzbroschüren, teure Anzeigen und vermutlich auch hochbezahlte PR-Agenturen. Die Kreativität kommt aus diesen Agenturen, die locker 1000 Euro und mehr pro Tag kosten können. Ich sah einmal einen Menschen, der aus einem kleinen in eine große Organisation wechselte. In den erste Monaten wollte er noch das Budget seines Bereiches auf den Prüfstand stellen. Ich fiel fast vom Stuhl, als er eines Tages einen Workshop mit den Führungskräften und dem Chef einer PR-Agentur auf die Beine stellen wollte, um die Haltung der Organisation in bestimmten Fragen abzuklären. Kostenpunkt, für einen halbtägigen Workshop mehrere tausend Euro.
Mittlerweile hat sich vor allem bei spendenorientierten Organisationen der Trend durchgesetzt, die Kosten für Marketing und PR zu kaschieren, weil sie von den Spendern nicht mehr ohne weiteres akzeptiert werden. Deswegen sind die ausgewiesenen Kosten im Geschäftsbericht nicht so ernst zu nehmen, Transparrenz sieht anders aus.
Außenhirn
Die Auslagerung der Intelligenz wird für die Mitarbeiter zur Regel. Wenn sie etwas nicht können, fragen sie die Profis. Niemand käme auf die Idee, sich das nötige Wissen selber anzueignen, es sei denn, das Unternehmen bezahlt die Fortbildung. In kleinen Organisationen müssen einzelne Personen oft verschiedene Bereiche beherrschen. Sie lernen, mangelnde finanzielle Mittel in mehr unternehmerische Ideen umzusetzen. Kreativität aus Geldmangel könnte man das nennen.
Zudem fällt es in kleinen Organisationen sofort auf, wenn ein Mitarbeiter nur noch Dienst nach Vorschrift macht. Solche Leute kann man gar nicht gebrauchen. das Engagement scheint antiproportional zur Größe der Mitarbeiterschaft zu sein: je größer die Organisation, desto geringer das Engagement des Einzelnen.
Rente auf Lebenszeit
Last not least scheinen größere Organisationen eine sehr geringe Mitarbeiterfluktuation zu haben. Das wird immer positiv hervorgehoben: natürlich haben Mitarbeiter oftmals einen hohen Expertengrad, wenn sie eine Position jahrelang besetzt haben. Auf der anderen Seite gerät man schnell in einen Trott, bei dem das gemacht wird, was man schon immer gemacht hat. Frisches Blut kommt selten herein, so dass der Alltagstrott nicht gestört wird. Neue Ideen gibt es nicht von altgedienten Mitarbeitern, weil ihnen nach fünf Jahren schlicht der Gedanke absurd erscheint, man könnte etwas anders machen. Ich plädiere nicht für eine Entlassung älterer Mitarbeiter, sondern für eine gesunde Mischung aus Jungen und Alten. Faktisch besetzen die Babyboomer noch für die nächsten 10 bis 25 Jahre alle Führungspositionen. In einigen Organisationen werden praktisch 100 Prozent der festen Stellen von Menschen besetzt, die zwischen 40 und 60 Jahren alt sind.
Wir wissen aber, dass ältere Menschen zwangsläufig konservativer sind und handeln als jüngere. Das mag in vielen Fällen sinnvoll sein, wird aber faktisch zur Bremse, wenn es um Innovationen geht. Das ist im übrigen der Grund, warum sich Neuentwicklungen so langsam durchsetzen, es braucht eine neue Generation, die bereit ist, etwas neues umzusetzen.
Die Kleinen sind innovativ
Langer Text – kurzer Sinn. Die Innovationen im NGO-Bereich kommen vor allem von kleinen und relativ neuen NGOs. Da wäre 2aid.org, die mit relativ wenig Geld einen hohen Bekanntheitsgrad erreicht haben. Oder arbeiterkind.de. Natürlich tun auch die großen viel, aber genau darum geht es ja, sie erreichen viel mit reiner Ressourcenpower, ohne echte Ideen, Innovationen oder Kreativität. Oder die neuen Ideen werden nicht umgesetzt, weil keiner den Mut dazu aufbringt, das Dillemma des Innovators.
Kleiner Nachtrag: Peter Metzinger hat mit seinem Business Campaigning-Ansatz das beschrieben, was ich hier konstatiere. Peter Metzinger. Business Campaigning. Springer-Verlag 2004, ein sehr lesenswertes Buch für Campaigner.
Ein kleiner Leitfaden zur Konzeption von Kampagnen – auch mi wenig Geld
Ranking bei Amazon – welches Produkt wird verkauft?
Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:
- das Erscheinungsdatum
- der Preis
- die Lieferbarkeit
- die Höhe der Bewertung
- die Zahl der Bewertungen
- die Verkaufszahlen
- die Durchklickrate
Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.
- erbraucher führen Produktsuche zu 60% über eBay, Amazon und Co. durch
- Understanding Sales Rankings for Books
- Joachim Leser: Die Amazonisierung des Sortiments
- WER WEIß WAS ÜBER DIE NUTZER: Die wirkliche Datenkrake heißt Amazon
Serendipity darf nicht sterben – Filterbubble auch ohne Datensammlung
Manchmal ist es doch überraschend, wie schlecht die Suchmaschinen nach wie vor funktionieren. Wie oft ist es dir passiert, dass du drei oder vier Suchbegriffe eingegeben hast und selbst der Branchenprimus Google nur Schrott ausgeworfen hat? In letzter Zeit sicher öfter – weil Google jetzt meint, besser zu wissen, was du suchst als du selbst. Die Folge ist, dass Google beliebig viele Begriffe bei Suchphrasen weglässt und entsprechend wertlose Suchergebnisse anzeigt. Zwei Beispiele: Ich suche nach dem More-More-Effekt und Google zeigt mir Noiré-Effekt, ich suche nach ODF und Google bietet mir Ergebnisse zu PDF.
Im Grunde haben sich die Suchmaschinen seit mehr als zehn Jahren nicht weiterentwickelt. Der letzte große Sprung wurde von Google mit dem Messen des Verlinkungsgrades gemacht, damit ist die Firma groß geworden. Alles, was danach kam war die Optimierung oder Spambekämmpfung durch den Algorythmus. Faktisch ist seit zehn Jahren nichts mehr von Belang im Suchmaschinenbereich passiert. Fairerweise muss ich aber dazu sagen, dass ich die zahlreichen kleinen Suchmaschinen und ihre Technik nicht kenne. Das liegt teilweise auch daran, dass Cuil oder Blekko im deutschsprachigen Bereich bisher nicht mitspielen können.
Die große Schwäche von Google und Co ist nach wie vor die Gleiche. Google schaut, ob bestimmte Worte in einem Text vorkommen, wwie diese Worte zueinander positioniert sind und ob überhaupt genügend signifikanter Text vorhanden ist. Angeblich können in bestimmtem Maße auch unterschiedliche Wortfolgen oder Synonyme verarbeitet werden, was aber meiner Erfahrung nach nicht wirklich funktioniert. Die Auswertung der Geoposition und dazu passende Suche ist ein nettes Gimmick, was aber niemanden vom Hocker haut.
Dazu kommt noch, dass mittlerweile jede Organisation, die etwas Geld in der Tasche hat versucht, ihre Texte zu seo-isiseren. Für wen das jetzt Neuland ist: Redakteure werden dazu angehalten, suchmaschinengerecht zu schreiben, das heißt, die richtigen Wörter in der richtigen Dichte einzusetzen. Das mag man für legitim halten, letzten Endes werden damit aber solche Texte auf die vorderen Plätze geschoben, ohne dass sich ihr Inhalt oder die Relevanz verbessert haben. Hat jemand schon mal ernsthaft nach einer Preissuchmaschine gesucht? Sicher nicht so häufig, dass sie auf der ersten Suchseite sein sollten.
Manche sprechen bereits von der Filterbubble. Algoritmen in den sozialen Netzwerken oder den Suchmaschinen präsentieren dem Nutzer bevorzugt das, was sie meinen, es interessiere ihn besonders. Dabei analysieren sie die Daten, die sie über Einen gesammelt haben: Was steht in seinem Profil, mit wem interagiert er am meisten, welche Links oder Inhalte fand er besonders toll und so weiter. Auch Amazon macht das.
Wir haben uns so sehr daran gewöhnt, dass Suchmaschinen buchstäblich nur die Wörter suchen, die wir eingegeben haben, dass uns das gar nicht mehr blöd vorkommt. Auffällig ist, wie stark Google den Long Tail verdrängt hat. Zum einen zieht es große Webseiten vor und zwar auch dort, wo Fachportale bessere und interessantere Inhalte bieten. Zum anderen lässt es aktuell mit dem letzten großen Update des Algorithmus gerne mal einen Suchbegriff weg oder interpretiert relativ frei, was der Sucher gesucht haben könnte. Das wäre ein guter Grund, Meta-Suchmaschinen einzusetzen. Leider scheint es auch hier keine Algoritmen zu geben, die nützliche Ergebnisse liefern.
Kann es eigentlich sein, dass wir schon so lange Google als Suchmaschine nutzen, dass wir alle anderen Suchmaschinen als schlechter empfinden? Klingt absurd, ist aber durchaus möglich. Sagen wir, ich nutze Google seit ungefähr zehn Jahren. Auch wenn wir Google für intuitiv halten, jede Maschine hat ihre Ecken und Kanten. Nur gewöhnen wir uns irgendwann daran und empfinden die Macken und Schwächen nicht mehr als solche. Es ist so wie mit den Autoabgasen, wir könnten wissen, dass sie da sind, auch wenn wir sie nicht mehr riechen. Oder wer andauernd MP3s hört, weiß nicht mehr, wie Musik in guter Qualität klingen muss.
Wenn wir jetzt anfangen, eine andere Suchmaschine zu nutzen, müssten wir uns umgewöhnen, und das tut eben keiner gern.
Google als Selbstverstärker
Einen interessanten Effekt, der auf Google basiert hat bisher keiner beschrieben: Google verstärkt oder verfestigt durch seine Suchergebnisse die Suchergebnisse. Klingt schwachsinnig, ist aber einfach zu erklären.
Nehmen wir an, ich schreibe einen Artikel über die Schwäche von Suchmaschinen. Zwischendurch oder nach dem Schreiben suche ich mit bestimmten Begriffen, die auch in meinem Artikel vorkommen nach interessanten Seiten, die ich verlinken kann. Ich schaue dabei mit Vorliebe auf die ersten Seiten von Google. Setze ich nun den Link, verbessere ich die Position des verlinkten Artikels zumindest minimal. Ich verfestige also die Position des verlinkten Artikels, allerdings ohne zu wissen, ob es nicht bessere Artikel gab, die eher zu meinem Artikel gepasst hätten. Ich bestätige also Google in seiner Meinung, dass es sich um den Beitrag, der durch seinen Algorithmus ausgewählt wurde um einen guten Beitrag handelt.
Die Filterbubble ist also schon da, auch ohne dass wir uns irgendwo einloggen und Profile über uns angelegt werden. Je stärker bestimmte Inhalte verlinkt werden, desto stärker werden andere Inhalte in den Long Tail verdrängt. Das ist der More-More-Effekt.
Weitere Tools verstärken die Filterbubble. Statt uns selber auf die Suche nach Inhalten zu begeben, verwenden wir Dienste wie paper.li, die uns die interessantesten Nachrichten zusammenstellen. Sie aggregieren und gewichten diese Nachrichten nach Likes und Re-Tweets und voila – wir haben den Google-Filter-Selbstverstärkungseffekt.
Der goldene Käfig von Facebook ist natürlich noch extremer. Bei Facebook kann man wenig machen, wenn man nicht eingeloggt ist. Für den energischen Facebooker existiert also nichts, was außerhalb der Gated Community von Facebook liegt bzw. nicht über Links reingekommen ist.
Der Serendipity-Effekt bleibt dabei zunehmend auf der Strecke. Das ist bedauerlich, weil In den hinteren Suchergebnissen so viel Potential steckt, das ungenutzt weil unbemerkt bleibt. Gerade dieser Effekt macht das Netz zu einem Quell kreativer Ideen. Liest man das, was alle anderen schon gelesen haben, hat man wahrscheinlich auch die gleichen Ideen, zumindest sinkt die Chance auf kreative neue Assoziationen.
Deswegen ist es auch so spannend, gut verlinkende Blogs zu lesen. Meiner Ansicht nach besteht eine der großen Stärken des Web darin, dass es weniger hierarchisch wie ein Buch sondern assoziativ wie ein Netz aufgebaut ist. Ich springe von Gedanken X zu Sache Y und schließe bei Z, wobei eine Verbindung geschaffen wird, die mir vorher nicht klar war. Auf jeden Fall kann ich sagen, dass es in einigen Blogs wesentlich interessantere Links gibt als man sie bei Google gefunden hätte.
Deswegen und um dem Filterbubble-Effekt zu entgehen empfehle ich jedem, der es nicht hören will, so viele interessante Blogs wie möglich in den RSS-Feed zu holen und nicht darauf zu vertrauen, dass Google, Twitter, Facebook oder ein anderer Dienst die passende Auswahl trifft.
Es ist kurios: die gleichen Leute, die sich darüber beschwert haben, welch starke Selektion die Massenmedien ausüben lassen nun andere Leute und Algoritmen darüber entscheiden, welche Informationen für sie wichtig sind.
- Eli Pariser. Filterbubble. Carl-Hanser-Verlag 2012
- Webseite zum Buch
Du bist Teil des Problems
Menschen halten sich immer für rational, dabei sind sie sie es oft nie, manchmal gar nicht und selten wirklich. Heute wollen wir uns einen Effekt angucken, den man als das Hammer-Nagel-Problem bezeichnen könnte. Wenn du einen Hammer hast, neigst du dazu, jedes Problem als einen Nagel zu betrachten.
Wir können das Problem überall beobachten: als Wissenschaftler hat man eine bestimmte Methode gelernt und wendet sie dann auf jede Fragestellung an, ob sie passt oder nicht. Für einen Soziologen ist jedes Problem soziologisch, für den Psychologen psychologisch und für den Biologen biologisch und den Chemiker chemisch.
Betrachten wir einen anderen Bereich. Wenn sich ein Journalist sehr stark mit der Mafia beschäftigt, neigt er dazu, überall die Mafia zu sehen. Das Gleiche gilt für die Themen Ausbeutung, Korruption oder jedes beliebige andere negativ belastete Thema. Wenn ich ein Buch dieser Journalisten gelesen habe, neige ich dazu, überall Mafia, Ausbeutung und Korruption zu sehen, zumindest unmittelbar nach der Lektüre. Geht euch das auch so? Der Effekt ist nie nachhaltig: wenn wir gerade ein Buch über Umweltverschmutzung gelesen haben, neigen wir dazu, uns vorzunehmen, uns zukünftig umweltfreundlicher zu verhalten. Im Endeffekt tun wir das nie oder zumindest nicht für lange. Das Gleiche gilt, wenn wir Raucher sind und ein Buch für die schädlichen Folgen des Rauchens lesen. Oder wenn wir über das Elend der Dritten Welt lesen, nehmen wir uns fest vor, zu spenden oder kein Billigzeugs mehr zu kaufen.
Das Phänomen läßt sich folgendermaßen beschreiben: je stärker wir uns mit einem Thema beschäftigen, desto stärker sehen wir dessen Facetten im Alltag. Wir übertragen diese Facetten in den Alltag hinein.
Mir ist dieses Phänomen aufgefallen, als ich die Linken in meiner Umgebung beobachtet habe. Das sind in der Regel keine dummen Menschen, aber in ihren Ansichten so fest gefahren, dass es keinen Spaß macht, mit ihnen zu diskutieren. Die Rechte ist spiegelbildlich. Man kann ihnen mit den vernünftigsten Argumenten kommen, aber sie halten an ihren Überzeugungen fest.
Die Wahrnehmung selektiert die realität: es werden nur noch Fakten akzeptiert, die in das Konstrukt passen.
Das Phänomen ist analog bei Verschwörungstheoretikern zu beobachten. Sie können die komplexesten Theoreme aufstellen, obwohl die Realität wesentlich einfacher zu erklären ist.
Bisher habe ich noch keine Erklärung für dieses Phänomen gefunden. Ich vermute, dass das Gehirn es sich so einfach wie möglich macht und einmal angelegte Denkmodelle aufrecht erhält, um Beständigkeit herzustellen. Es wäre unpraktisch, wenn wir jeden Tag unser Denkmodell ändern würden. Hinzu kommen gruppendynamische Prozesse. Wir freunden uns mit Leuten an, die ähnliche Ansichten wie wir vertreten und stärken uns nach und nach in unseren Ansichten.
Möglicherweise sind wir aber auch nur unheimlich gut darin, uns selbst zu belügen. Niemandem wird es leicht fallen, eine lang gehegte Ansicht als falsch anzuerkennen, egal, wie unbedeutend sie ist. Einmal Gelerntes vergisst man nicht so schnell, ob das Gelernte richtig oder falsch ist, das ist ja erst mal egal. Die Ansicht, dass die Erde eine Scheibe ist, die Sonne sich um diese Scheibe dreht oder der Menschen durch Evolution entstanden ist, hat sich auch lange nicht durchsetzen können.
Falls du zufällig einer der genannten Gruppen angehörst, kann ich deine Reaktion exakt erraten: du wirst sagen, ich sei erstens blöd und hätte zweitens keine Ahnung: die Welt besteht aus Ausbeutung, Mafia, Korruption und Verschwörungen. Du weißt das ganz genau, weil du dich Jahre lang mit nichts anderem beschäftigt hast und ich bin ein Teil der Konterrevolution oder hätte eben nichts verstanden. Das ist eine typische Reaktion.
Der Artikel Spiegel: Weltkurzsichtigkeit zeigt sehr schön, wie die personalisierte Suche zur Verengung des Weltblicks beiträgt.
li>Cass R. Sunstein. Infotopia – How Many Minds produces Knowlede. Oxford University Press 2008
Online-Volunteering – Engagement über das Netz
Online-Volunteering ist ein nicht ganz neues , aber in Deutschland eher unbekanntes Engagement-Gebiet. Mit dem Leitfaden „Management von Online-Volunteers – ein Handbuch“ von Hannes Jähnert und Lisa Dittrich gibt es nun eine praxisorientierte Einführung in das Thema.Online-Volunteering könnte man auch als digitales Engagement bezeichnen, es geht darum, dass sich Freiwillige quasi von zuhause aus für eine gute Sache einsetzen, anstatt vor Ort zu erscheinen.
Der erste Teil des Leitfadens dreht sich vor allem um die Frage, was Online-Volunteering ist, welche Beispiele es gibt und warum es überhaupt sinnvoll ist, Freiwillige online zu gewinnen. Das bekannteste Beispiel für Online-Volunteering ist übrigens die Wikipedia, wo zumindest die Arbeit an den Artikeln komplett übers Netz läuft. Ein vielleicht noch interessanteres Beispiel ist OpenStreetMap, wo tausende Menschen mit GPS-Trackern durch die Gegend laufen und damit freie Karten erstellt haben. Ein sehr interessantes Projekt ist das World Community Grid von IBM, wo man Rechenleistung spenden kann, um zum Beispiel Krankheiten zu bekämpfen.
Im zweiten Teil geht es darum, wie man Freiwillige gewinnen kann. Das geht auch über das Internet. Die Kernfrage ist, wie man sie gewinnt und wie man das Engagement managt. Typischerweise gibtt ews zwei Engagement-Arten: es gibt Menschen, die sich projektweise engagieren und Menschen, die längerfristig für eine Organisation arbeiten. Für beide Gruppen müssen passende Aufgaben definiert werden.
Das klassische Recruiment von Engagierten läuft bei kleinen Organisationen immer noch über persönliche Netzwerke. Man hat also zuerst den Menschen und findet dann für ihn eine Aufgabe. Im OV muss man tatsächlich im Vorfeld überlegen, welche Aufgaben von daheim aus erledigt werden können und muss sich dann um Freiwillige kümmern. Neben den kurzfristigen Aufgaben wie dem Übersetzen eines Textes gibt es auch langfristige Aufgaben wie das Pflegen der Website, eines Forums oder Blogs.
Zudem muss eine Strategie entwickelt werden, wie Mitarbeiter motiviert werden, wenn die soziale Einbindung nur auf digitalem Wege geschieht.
Bei dem IBM-Projekt arbeitet man sehr geschickt mit unterschiedlichen Formen der Motivation: Es wird bei den verschiedenen Projekten ein der Fortschritt und der eigene Anteil daran angezeigt, es gibt Bestenlisten und man kann sich auch Gruppen anschließen, um gemeinsam mehr zu leisten. Das ist das einzige, was mir in der Broschüre fehlt: die Frage, wie man Online-Volunteers motiviert und bei der Stange hält. Beim konventionellen Engagement funktioniert das über gruppendynamische Prozesse, um es mal blumig auszudrücken.
Besonders freut mich, dass sich die beiden Autoren auch dem Thema Barrierefreiheit gewidmet haben. Viele Behinderte sind in ihrer Mobilität eingeschränkt, aber gerne bereit, sich zu engagieren. Mit dem OV weicht man gewissen Kommunikationsproblemen aus: so fällt es gehörlosen und schwerhörigen Menschen häufig schwer, mit Normal Hörenden zu kommunizieren. Last not least gehört zur Inklusion, dass Behinderte sich auch außerhalb des Bereichs der Behindertenselbsthilfe einbringen. Bis heute werden sie primär als Objekt der Fürsorge und weniger als handelnde Subjekte wahrgenommen.
Wer mit dem Recruitment von Online-Volunteers loslegen möchte, für den ist das Handbuch von Hannes und Lisa ein sehr gut gemachter, praxisorientierter Einstieg. Erhältlich ist das Handbuch meines Wissens nach bei der Akademie für Ehrenamtlichkeit.
Weiterlesen
- Infos zum Leitfaden im Blog von Hannes Jähnert
- Akademie für Ehrenamtlichkeit Deutschland
- World Community Grid
- Online-Volunteering für Behinderte
- Rechechereangebot für Engagement-Interessierte
- Das bürgerschaftliche Engagement ist flach – Infos der BAGFA zum Online-Engagement PDF
Poor Content – die Schwäche des Online-Journalismus
Viele Leute wissen nicht, dass die großen Online-Angebote von Zeitungen und Magazinen von eigenständigen Redaktionen betreut werden. Wozu sollte diese Info auch gut sein? Es ist allerdings so, generell pflegt jedes große Medium seine eigene Online-Redaktion, die zumindest organisatorisch von der Print-Redaktion unabhängig ist. Das heißt natürlich nicht, dass Artikel nicht mehrfach verwertet werden oder das ein Offliner nicht für Online schreibt oder umgekehrt.
Zehn Jahre und keinen Schritt weiter
Man kennt das: da ist ein interessanter Artikel und man hätte gerne die Zahlen und Fakten auf einen Blick, weil sie im Artikel zu kurz gekommen sind. Gut, dass unsere service-orientierten Medienseiten genau das anbieten.
Besonders gut gefällt mir, dass in Online-Artikeln die Quelle nicht nur passiv genannt, sondern aktiv verlinkt wird. Die kryptischen und eher nichts sagenden Abkürzungen dpa und ddp müssen echten Quellennachweisen und Verweisen auf Pressemitteilungen, anderen Webpublikationen und sogar user-generierten Inhalten wie Weblogs, Podcasts und YouTube-Videos weichen. So weiß der Leser nicht nur, woher der clevere Journalist seine Infos hat, sondern kann sich selber ein Bild machen.
Aber mal im Ernst, das alles ist nicht nur Zukunftsmusik, es wird in renommierten Publikationen bis auf weiteres nicht auftauchen. Die Mutlosigkeit der Printer, wie ich sie nennen möchte, ist mit Händen greifbar. Im Grunde haben sie das Print-Modell ohne großartige Modifikationen auf Online übertragen. Das Höchste der Gefühle sind „verwandte Artikel“ und Schlagworte, die vermutlich automatisch erstellt wurden. Denkt man sich diese beiden Erfindungen weg – die im übrigen auch schon fünf Jahre alt sind – könnte man ohne Weiteres glauben, im Jahr 2000 zu sein. Die Einbindung verwackelter YouTube-Videos oder das Betreiben von Journalisten-Weblogs kann nicht darüber hinweg täuschen, dass die Medien-Branche eine Innovationsschlafmütze ist.
Jeder echte Onliner bekommt Zahnschmerzen, wenn er einmal mehr nach der Quelle einer Information suchen muss, anstatt sie – wie es im übrigen jeder vernünftige Blogger tut – ordentlich im Artikel verlinkt zu finden. Jede Online-Publikation scheint davon zu träumen, sie könne den Leser auf ewig in ihrer Site gefangen halten, weil er nicht weiß, wie man mit der Adressleiste umgeht.
Was tun?
Nun bin ich kein Mensch, der nur meckern möchte. Hier also ein paar Vorschläge, wie die Online-Publikationen zu echten Service-Dienstleistern für den Leser werden können, sich aus der Papier-Steinzeit befreien und vielleicht endlich auch vernünftig Geld einnehmen können:
- Quellen: Der heutige Leser möchte wissen, woher eine Information kommt. Er erwartet einen Link auf die Quelle, sei es nun ein Weblog, eine Pressemitteilung, ein Tweet oder etwas anderes.
- Factbox: Jeder Journalist weiß, wie schwierig es ist, Zahlen in großen Mengen in Artikeln unterzubringen. Diese Zahlen können in einer Factbox untergebracht werden, wo sie übersichtlicher sind: Wie viele Studierende gibt es, wie viele werden in den nächsten Jahren erwartet, wer will was studieren? Ein weicher Bericht über Einzelschicksale ist schön und gut, aber wir wollen den Gesamtkontext erfahren und der drückt sich in harten Zahlen aus. Die zahlen lassen sich auch mit Diagrammen oder Schaubildern veranschaulichen.
- Hintergründe: Die Redakteure verweisen mit Vorliebe auf eigene Artikel, aktuelle Artikel oder Artikel, wo ein Stichwort des gelesenen Artikels prominent vorkommt. Dass im aktuellen Artikel und den drei Artikeln unfein gesagt vier Mal das selbe steht, stört ihn weniger. Ich stelle mir stattdessen eine Art Storyline vor: Dabei werden die Beiträge, die zum aktuellen Artikel im Bezug stehen, auf einer Art Zeitachse angeordnet, Hintergrund-Berichte und vertiefende Informationen werden hervorgehoben und die Artikel werden in einen Gesamtbezug zueinander gestellt. So findet der Leser, was er sucht: Hintergründe, Details, verwandte Themenfelder… Im übrigen könnten diese Verweise – oh Schock – auch auf externe Quellen verweisen! Sei es nun ein gelungener Wikipedia-Artikel, eine Publikation des eigenen Hauses, aber auf einer anderen Website oder eben tatsächlich eine private Website, die aber qualitativ gute Informationen liefert.
Das sind nur einige Vorschläge, die weiter gedacht, ausprobiert oder verworfen werden müssen. Es ist sicher nicht meine Aufgabe, die Verlagshäuser vor ihrer Denkfaulheit zu retten. Im Augenblick sind die einzelnen Publikationen austauschbar und bis zur Unkenntlichkeit identisch. Was aber für die Generation Print gereicht hat, wird für die gerade anwachsende Generation Online noch lange nicht genug sein. Deshalb muss Online weiterentwickelt werden. Und dazu müssen sowohl die technischen als auch die inhaltichen Möglichkeiten wesentlich besser genutzt werden, als das heute in Deutschland passiert.
Sind Bücher dank des Internet überflüssig?
Die kurze Antwort heißt jein. Um sich grundlegend in ein Thema einzuarbeiten, ist ein Buch oftmals besser. Mittels eines Buches kann man sich ein solides Grundwissen aneignen. Das ist vor allem im Studium wichtig, wo hartes Faktenwissen immer noch und bis auf Weiteres die Basis ist, um sinnvoll weitermachen zu können.
In anderen Bereichen hingegen erscheinen Bücher heute fast vollkommen überflüssig. Das ist vor allem der Bereich rund um Computer und Medien. Nehmen wir das Beispiel Photoshop. Hier sind die Bücher recht teuer, da sie zumeist Fotos enthalten und in entsprechender Qualität gedruckt werden müssen. Da Adobe aber gut alle 1,5 Jahre eine neue Version von Photoshop auf den Markt wirft, ist jedes Buch nach 1,5, spätestens aber nach drei jahren veraltet. Es wäre also sinnvoller, sich einen Basislernkurs für die Fotobearbeitung zuzulegen. Denn die Kernbegriffe ändern sich ja nicht oder kaum. Zudem ist das Buch universeller einsetzbar, ob Photoshop, Paintshop oder Gimp, die Tonwertkorrektur bleibt die Tonwertkorrektur und zwar im Jahr 2000 ebenso wie im Jahr 2010.
Bleiben wir bei Photoshop: Ist ein Buch hier überhaupt sinnvoll oder sollte es nicht eher ein Videotutorial sein? Oder eine Bildschirmaufzeichnung mit Kommentaren? Das spielt auch fast keine Rolle, denn hat man einmal die Basics gelernt, helfen einem Youtube, unzählige Tutorials und Foren weiter, wo alle denkbaren Probleme tausend Mal gelöst wurden.
Ich will hier mal die ungewöhnliche Unterscheidung zwischen Spaß- und Pflicht-Literatur machen. Die Spaßliteratur ist oft schon kurz nach Erscheinen günstig zu haben. Ältere Belletristik läßt sich kistenweise zu Spotpreisen aufkaufen. Daneben steht die Fachliteratur, die weit über 30 Euro kostet und selten gebraucht unter diesen Betrag fällt. Entscheidend ist , entweder sind die Bücher aktuell oder sie sind es nicht. Niemand wird heute noch 30 Euro für ein Buch über WordPress 2.x kaufen, weil diese Version veraltet ist. Das gilt auch für viele Bereiche der Wissenschaft.
Nun sind wir aber heute gezwungen, uns wissenstechnisch auf dem neuesten Stand zu halten. Ein Mensch, er im Medienbereich arbeitet und dessen Wissen über das Internet auf dem Stand von 2000 ist, hat kaum noch große Chancen auf dem Arbeitsmarkt. Hier helfen uns Weblogs, Podcasts und diverse kostenlose Publikationen. Mit Google Scholar oder Metager kann man gezielt nach wissenschaftlichen Publikationen suchen. Mit dem Attribut filetype:pdf
kann man bei Google in Kombination mit den entsprechenden Suchbegriffen nach PDF-Dateien suchen, die häufig kompakte, gut aufbereitete Informationen enthalten. Wer des Englischen mächtig ist, stößt auf praktisch unendliche Quellen in beliebigem Format. Auf SlideShare werden in der Regel professionell aufbereitete Präsentationen bereit gestellt.
Nicht zuletzt haben sich im Web tausende von Expertenforen herausgebildet, wo meistens schnell und kompetent auch auf sehr spezifische Fragen geantwortet wird. Das professionelle Nachschlagewerk entfällt deshalb häufig.
Bücher hingegen bleiben teuer und veralten schnell. Für einen Freelancer ist es einfach illusorisch, sich auch nur die wichtigsten Werke zu seinen Fachgebieten ins Regal zu stellen. Denn je spezifischer oder tiefgreifender ein Buch ist, desto teurer ist es im Allgemeinen. Außerdem: jeder von uns kennt den seltsamen Effekt, wenn man gerade ein Buch braucht, ist es ausgeliehen oder spurlos verschwunden.
Ich will gar nicht bestreiten, dass diese Fachbücher nicht zu Spottpreisen auf den Markt geworfen werden können. Je spezifischer der Inhalt und je kleiner die Zielgruppe, desto höher muss der Verlag den Preis ansetzen, um auf seine Kosten zu kommen. Das ändert aber nichts an unserer finanziellen Situation, die für uns solche Bücher unerschwinglich macht.
Der vermessene Mensch – welche Leute nehmen an Studien teil?
Egal, was man studiert, früher oder später wird man gefragt, ob man nicht Lust hat, an einer Untersuchung teilzunehmen. Psychologie-Studenten mussten zu meiner Zeit in Marburg 25 Versuchsstunden bis zum Vordiplom zusammen bekommen. Sie mussten an Versuchen teilnehmen, die von älteren Studierenden durchgeführt werden, die ihre Zwischen- oder Abschlussarbeiten mit empirischen Untersuchungen untermauern müssen. Auch in der Soziologie und der Pädagogik gehören Studien zum Standard.
Die Unmessbaren messen
Was aber macht man mit Leuten, die sich schlicht weigern, an solchen Studien teilzunehmen? Darüber schweigen sich die Studien aus. Gibt es den Typus des Studiengroupies, der sich darum reißt, befragt, vermessen, gewogen und durchleuchtet zu werden? Vielleicht, ganz sicher gibt es den Menschen, der sich kategorisch verweigert. Seine Motive kennt niemand, er läßt sich ja nicht befragen.
Beliebt sind die Befragungen per Telefon oder direkt an der haustür. Sie finden zu einer Zeit statt, wo Berufstätige normalerweise nicht zu Hause sind. Viele jüngere Leute haben gar kein Festnetz mehr und stehen mit ihren Handy-Nummern nicht im Telefonbuch.
Auch die Zahl der Totalverweigerer lässt sich kaum herausfinden. Bei postalischen Umfragen, wo Fragebögen ausgefüllt zurückgesendet werden müssen, läßt sich die Zahl der Rückläufe ermitteln.Man weiß aber nie, ob man hier einen Verweigerer vor sich hat oder jemanden, der schlicht keine Zeit hat oder vergisst, den Bogen auszufüllen. Und wer bei obskuren Anrufern einfach auflegt, ist vielleicht einmal zuviel von Werbeanrufern belästigt worden. Selbiges gilt für unbekannte Leute, die eines Tages vor der Tür stehen oder jemanden in der Fußgängerzone anhalten. Religiöse Freaks, Verkaufs-Genies, Bettler, Politiker auf Stimmenfang und wirre Zeitgenossen, nach solchen Erfahrungen wird jeder Mensch bei Spontan-Begegnungen nervös.
Spontan würde ich die Zahl der Studienverweigerer auf 20 – 30 Prozent schätzen. Doch selbst wenn es nur zehn Prozent wären, würde sich das signifikant auf die Studienergebnisse auswirken.
Die exakten Angaben der Studienergebnisse verführen zu dem Glauben, sie wären irgendwie näher an der Realität als andere Forschungsmethoden. Das können sie im Grunde genommen aber nicht sein, wenn rund ein Drittel der Menschen sich schlicht weigert, daran teilzunehmen oder einfach nicht erreicht wird.
Falls einer meiner Leser zufällig etwas mehr darüber weiß, würde ich mich über Hinweise freuen.
Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz
Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.
Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.
Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.
Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.
Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.
Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.
Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?
Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.
Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.