Archiv der Kategorie: Social Web

Clickbaiting oder warum Behinderte bei der Tageschau nicht wählen dürfen“

Behinderte dürfen nicht wählen“ lese ich bei der Tageschau online und reibe mir die Ohren: Was habe ich eigentlich die letzten 20 Jahre gemacht? Habe ich mir eingebildet, an zahllosen Wahlen teilgenommen zu haben?
Ah, ich lese ausnahmsweise den zugehörigen Text und stelle fest, es geht um Personen, die in allen Belangen einer Betreuung unterstehen. Es geht also um 80.000 Betreute, nicht um 7,6 Millionen Schwerbehinderte. Die Überschrift ist also falsch oder zumindest suggestiv. Kommt uns das nicht irgendwie bekannt vor? Finden wir das nicht bei zahlreichen linken und rechten Alternativ-Fakten-Postillen. Deren Nachrichten enthalten ja auch fast immer an irgendeiner Stelle einen wahren Fakt. Dieser Fakt wird mit suggestiven Fragen, unbelegten Behauptungen und reißerischen Überschriften aufgeblasen.
Es ist übrigens auch inhaltlich falsch: Man braucht keine Behinderung, um einer Betreuung in allen Belangen zu unterstehen. Die Gefahr, dass eine Bezugsperson die Stimme ihres Schützlings ohne dessen Einveerständnis abgibt, wird natürlich komplett unterschlagen, passt ja nicht so gut zum Bild des wehrlosen Opfers eines herzlosen Staates.
Jetzt bleibt die Frage, warum ein halbwegs seriöses Medium wie die Tagesschau mit solch suggestiven Überschriften arbeitet. Die Antwort ist Click-Baiting. Heißt, so viele Klicks wie möglich generieren.
Nun bin ich Online-Redakteur und kenne das Problem. Bei einer Überschrift wie „Menschen, die in allen Belangen betreut werden, dürfen nicht wählen“ wird der Leser in Zeiten, in denen Aufmerksamkeit in Milisekunden gemessen wird niemanden vom Hocker reißen.
Doch gerade die vom Bürger finanzierten öffentlich-rechtlichen Publikationen haben solch ein Verhalten nicht nötig. Und was ist jetzt das Ergebnis? Tausende von Leuten, die den Artikel nicht gelesen oder verstanden haben und nur die Überschrift kennen denken, Behinderte dürften nicht wählen. Auf Facebook liest man die üblichen Beschimpfungen auf Politiker. Die Tagesschau hat also ihren redlichen Beitrag zum Hate-Speeching geleistet.
Als Online-Redakteure sollten wir zumindest eines daraus lernen: Egal, was in unserem Text steht, wir sind auch für unsere Überschriften verantwortlich. Es ist unredlich, falsche Fakten über Überschriften zu verbreiten, denn wir können nie wissen, ob die Leser unsere Artikel tatsächlich lesen.

Behinderung spielend vermitteln

Spielkarten
Ein spannendes Thema zur Vermittlung von Behinderung und Barrieren sind Computerspiele bzw. Mechanismen aus Spielen. Sie haben mittlerweile fast überall Einzug gehalten, z.B. bekommt man bei einigen eLearning-Programmen Punkte für jede Lektion, so bei der CodeAcademy oder bei TechChange. Bei FourSquare kann man Bürgermeister von irgendwas werden, wenn man sich oft genug dort einloggt. Dass ich heute ganz passabel Englisch lesen kann verdanke ich weniger der Schule und meinen Irland-Urlauben als dem Lexikon aus Sid Meiers Civilisation I, dass ich damals auf Englisch gespielt habe.

Das Problem mit den heutigen Methoden der Presse- und Öffentlichkeitsarbeit besteht darin, dass sie weitgehend ausgeschöpft sind. Plakatkampagnen, Internet-Kampagnen und Aufforderungen, dieses und jenes zu liken oder zu retweeten sind heute so penetrant wie klassische Werbung. Es gibt nicht nur eine Ad Avoidance, sondern auch eine Kampagnen-Avoidance. Man muss neue Methoden finden, um andere Menschen zu überzeugen. Und Spiele könnten ein solcher neuer Ansatz sein. Weiterlesen: Behinderung spielerisch vermitteln

Es gibt ein Spiel, in dem ein acht-jähriges Mädchen mit Autismus die Protagonistin ist. Ich habe das nicht in den Artikel aufgenommen, weil das wohl zu makaber wäre, hier gibt es einen englischen Artikel dazu. Auf Kickstarter gibt es ein Spiel mit einem blinden Helden.

Es gibt eine Reihe von Möglichkeiten, um Behinderung und Barrierefreiheit spielerisch zu vermitteln, ohne Computer versteht sich. Solche Initiativen werden oft kritisch gesehen, aber es geht eher um Sensibilisierung als um eine Transformation. Zehn Minuten Augenbinde können nicht vermitteln, was Blindheit bedeutet, aber darum geht es auch nicht. Es geht darum, dass sich die Menschen überhaupt damit beschäftigen, wodurch schon ein kleiner Bewusstseinswandel entstehen kann. Ich habe einige spielerische Ansätze gesammelt.

Hypermedia-Learning – ein neuer Ansatz im eLearning

eLearning ist nach wie vor die Domäne von klassischen Bildungsstätten. Es werden viele Ressourcen aufgewendet, um Lernmaterialien zusammenzustellen. Die Kurse sind meistens geschlossen, das Lernen und Kollaborieren findet in geschlossenen Systemen statt. Im folgenden möchte ich einen Ansatz vorschlagen, der das Erstellen von Lernumgebungen demokratisieren und das Lernen erleichtern soll. Screenshot von Drupal
Ich bin selber kein eLearning-Experte, daher weiß ich nicht, ob es schon einen Begriff dafür gibt. Ich nenne es Hypermedia Learning. Es vermischt vor allem zwei Ansätze: das rapid eLearning und die Massive Open Online Courses (MOOC). Das Hypermedia-Learning basiert auf vier Prinzipien:

  • Prinzip 1: Verknüpfen statt selber machen
  • Prinzip 2: Selbstständig statt angeführt
  • Prinzip 3: Verteilt statt konzentriert
  • Prinzip 4: Multidimensional statt textzentriert

Wie ich mir das ungefähr vorstelle, sieht man an diesem Beispiel, das allerdings noch nicht ganz fertig ist.

Prinzip 1: Verknüpfen statt selber machen

Für mich ist immer wieder erschreckend, wie viele Ressourcen darauf verwendet werden, das Rad neu zu erfinden. Jedes System hat zumindest in gewissem Maße seine Existenzberechtigung. Ein Informatiker hat villeicht Spaß daran, den Hunderten von Programmiersprachen noch eine neue hinzuzufügen. Aber warum man 30 verschiedene Lernplattformen basteln muss, von denen jede einzelne ihre Schwächen hat, erschließt sich mir nicht. Weil es beim Hypermedia-eLearning keine großen technischen Anforderungen gibt, lässt sich dafür jede Plattform verwenden, welche die technischen Anforderungen erfüllt. Das kann auch ein kostenloses WordPress-Blog sein oder Drupal.
Das Gleiche gilt für Informationen im Internet. Viele von den Informationen sind schon vorhanden und sie werden hoffentlich auch bleiben. Deshalb gibt es selten einen Grund, einen Text komplett neu zu schreiben, wenn die Informationen einfach nur verlinkt werden müssen. Vielfalt ist nicht per se schlecht, aber Vielfalt ist auch kein Wert an sich.
Im Hypermedia-eLearning stellt der Autor die Basis-Informationen in einem Text zusammen und bindet weitere Informationen über Links ein. Am besten ist es natürlich, die Informationen direkt in die Webseite einzubinden, wie man es mit YouTube-Videos oder Slideshare-Präsentationen machen kann. Mit Text geht das wegen der Urheberrechte nicht, eine Ausnahme wäre Scribd.
Statt alles selber zu schreiben stellt der Autor also die wesentlichen Informationen strukturiert und im Zusammenhang zusammen. Der Nutzer muss im Rahmen des Kurses die verschiedenen Materialien durcharbeiten.
Ich propagiere im übrigen kein Häppchen-Lernen. Es reicht normalerweise nicht, Texte, die man geschrieben hat einfach in eine logische Reihenfolge zu stellen. Vielmehr muss das gesamte Lernangebot einen roten Faden haben. Kein Autor wird also darum herum kommen, seine Inhalte ein wenig zu überarbeiten. Wer dafür weder Zeit noch Muße hat, fährt mit einem MOOC besser, wo lediglich zu bearbeitende Inhalte verlinkt und dazu passende Fragen zusammengestellt werden.

Prinzip 2: Selbstständig statt angeführt

Im klassischen eLearning werden vom Kursleiter Aufgaben vorgegeben, die der Schüler in einer bestimmten Zeit bearbeiten und wieder einreichen soll. Der Lehrer prüft die Lösung und gibt Feedback.
Im Hypermedia-eLearning übernehmen wir das Prinzip des autonomen Lernens. Der Nutzer erhält die Aufgabe, etwas zu tun, etwas auszuprobieren und selbständig zu prüfen, ob er das Ziel erreicht hat. Eine richtige Erfolgskontrolle wie beim klassischen eLearning ist für das selbstständige eLearning nicht nötig. Entsprechend müssen die Übungen gestaltet sein.

Prinzip 3: Verteilt statt konzentriert

Das Entscheidende ist dabei das Ziel Cummunity-Building. Die Community unterstützt im Idealfall die Bereitschaft, den Kurs zu Ende zu führen. Sie erleichtert den Austausch, wodurch das Wissen vertieft und die Reflexion verstärkt wird. Lernen ohne Lehrer könnte das Motto sein.
Viele Kurse haben keine nachhaltige Wirkung, weil der Stoff zwar durchgearbeitet wird, aber nur in Hinblick auf den Abschluß des Kurses. Das Ziel sollte aber sein, dass die Kursteilnehmer den Stoff selbständig vertiefen und das klappt im Austausch mit anderen am besten. Die Teilnehmer stellen Fragen, die durch das Kursmaterial nicht ausreichend beantwortet wurden oder gar nicht behandelt wurden. Diese Diskussionen helfen späteren Teilnehmern, den Stoff weiter zu reflektieren, das ist Crowd-Bildung.
Wenn der Kurs von der Plattform unabhängig ist, suchen sich die Teilnehmer ihre eigene Form der Verarbeitung auf Facebook, Twitter, Pinterest, Audioboo, YouTube oder wo auch immer.
Im Idealfall ergänzt dieses Material den Kurs und macht via Crowdsourcing einen besseren Kurs daraus. Das klappt aber nicht, wenn der Kurs und die Kursplattform geschlossen sind.

Prinzip 4: Multidimensional statt textzentriert

Im Internet liegen genügend multimediale Inhalte, um einen akademischen Abschluß nur mit diesen Materialien zu erlangen. Gleichzeitig sind die Kurse heute eher textbasiert. Multimedialität lässt sich dabei sowohl bei der Zusammenstellung des Kursmaterials als auch bei der Bearbeitung der Übungen realisieren.
Jeder Mensch hat seinen eigenen Lernstil. Manche mögen es eher visuell, manche eher akkustisch. Diese Vorlieben werden in den klassischen Kursen nicht berücksichtigt, weil jeder Teilnehmer die gleiche Aufgabe in der gleichen Weise bearbeiten muss.
Am besten wäre es, wenn die Lernenden den Stoff direkt auf ein konkretes Projekt anwenden könnten, das sie aktuell bearbeiten. Auch das geht in den klassischen Kursen nicht, weil das dem Lehrenden zu viel Mühe bereiten würde. Das konkrete Anwenden des Erlernten ist entscheidend für den Lernerfolg.
Statt ellenlange Texte durchzuarbeiten sollte der Nutzer die Möglichkeit bekommen, möglichst viel auszuprobieren. Es geht darum, den Spieltrieb zu wecken, dem Nutzer etwas zum Anfassen zu geben, seine Neugier zu wecken und ihn möglichst viel alleine herausfinden zu lassen, statt ihm alle Informationen vorverdaut zu präsentieren.

Demokratisierung der Bildung

Für professionelle Kurse werden zahlreiche Ressourcen benötigt. Es werden Didaktiker, Fachleute zur Erstellung des Kurses und Designer benötigt, die den Kurs inhaltlich ausarbeiten und optisch aufbereiten. Die Kurse kosten im besten Falle mehere Hundert Euro. Gleichzeitig haben wir einen expliziten Mangel an Kursen vor allem zu aktuellen Themen. Die ersten deutschsprachigen Kurse zu Web 2.0 erschienen vor drei bis vier Jahren. Ist das Kursmaterial einmal ausgearbeitet, wird es nur selten auf den aktuellen Stand gebracht.
Das hier vorgeschlagene Prinzip ist sozusagen die Wikipediasierung des Lernens. Die Entstehung von Bildungsmaterial und Enzyklopädien hat viel gemeinsam. Die Enzyklopedia Britannica ist sicher ein tolles Werk, das auch seine Existenzberechtigung hat. Aber sie ist teuer und praktisch in dem Moment veraltet, wo sie auf den Markt kommt.
Gleichzeitig wirft das beschriebene Verfahren die gleichen Probleme auf, wie sie die Wikipedia bereits heute hat. Das sind vor allem die Qualitätsunterschiede in den Artikeln.
Die Qualitätskontrolle wandert sozusagen von den Inhalteerstellern zu den Kursnutzern. Sie sind angehalten, das Gerlernte kritisch zu reflektieren, in Frage zu stellen und mit ihren Beiträgen zu verbessern. Das ist sozusagen Teil des Kurses und entspricht dem Prinzip des selbständigen Lernens.
Zur Demokratisierung gehört auch, dass jeder diese Kurse erstellen kann. Es gibt keinen Grund, die Schaffung von Wissen den Experten zu überlassen. Es gibt einen Hunger auf Wissen und es gibt keinen Grund, dieses Wissen in sorgfältig gebundene vom Verlag geprüfte Bücher zu packen.
Oftmals liegt das Basismaterial schon vor. Viele Blogs werden seit Jahren mit Einträgen gefüllt. Im Idealfall müssten die Beiträge nur in eine Struktur gebracht werden, die den Lernenden die Aufnahme erleichtert. Sie werden dann ergänzt mit Beiträgen, die die Lücken füllen und mit Fragen, die den Nutzern das Selbst-Lernen erleichtern. Das Material kann nach Belieben mit Texten von anderen Webseiten, Videos, Audios oder Präsentationen ergänzt werden. Dem Autoren fällt hier als Quasi-Experten die manchmal schwere Aufgabe zu, die aus seiner Sicht besten Inhalte auszuwählen. Theoretisch lassen sich beliebig viele Inhalte einbinden, praktisch soll aber gerade der Lernende nicht mit einem Übermaß an Inhalten überschüttet werden. Und natürlich sind die Urheberrechte zu berücksichtigen, es geht nicht um Copy-Paste, sondern um Hypermedia.
Ein Kurs kann auch modular gestaltet werden, so dass er einerseits Laien wie Experten ansprechen kann. Auf der anderen Seite können so auch unterschiedliche Zielgruppen erreicht werden. Die Redakteure zum Beispiel bearbeiten den ersten Teil, die Designer den zweiten Teil, aber beide haben auch die Möglichkeit, die jeweils anderen Teile durchzuarbeiten. Das heißt, dass die einzelnen Module des Kurses grundsätzlich eigenständig funktionieren müssten.
Unsere Regale sind voll von Lehrbüchern, die mit der besten Absicht gekauft wurden, aber keinen nachhaltigen Einfluß hatten. Unsere Schulen, Universitäten und das Internet sind voll altbackener Didaktik, die heutige Möglichkeiten bei weitem nicht ausnutzt.

Drupal als einfaches Learning Management System

Es gibt eine Reihe kostenloser Open-Source-Lösungen für Lernumgebungen zum eLearning im Internet. Die größte und wahrscheinlich auch umfangreichste Lösung ist Moodle. Moodle ist allerdings sehr anspruchsvoll, was den Ressourcenbedarf angeht. Außerdem ist es für kleine Lernumgebungen überdimensioniert. Ein einfaches Redaktionssystem erfüllt oft viele Ansprüche und lässt sich mit geringeren Ressourcen betreiben.
Vieles spricht für WordPress: es ist schnell erlernt, es gibt zahllose Erweiterungen für jeden Zweck und es lässt sich fast überall betreiben.
Screenshot von Drupal
Für interaktive Umgebungen scheint mir aber das freie System Drupal besser geeignet. Es erfordert ein wenig mehr Einarbeitung als WordPress, bringt jedoch einige interessante Funktionen von Haus aus mit. Der Schwerpunkt von Drupal liegt auf dem Community-Building. Man kann zu jedem Inhalt ein Forum hinzufügen, so dass Diskussionen und Kommentare zu jedem Lerninhalt geführt werden können.
Drupal ist ein klassisches Redaktionssystem zum Erstellen von Webseiten, während der Schwerpunkt von WordPress auf Weblogs liegt. In Blogs gibt es normalerweise keine Hierarchie, alle Beiträge liegen auf der gleichen Navigationsebene. Die Beiträge werden nicht im Zusammenhang in einer bestimmten Reihenfolge gezeigt, sondern umgekehrt chronologisch. Das kann man natürlich nach Belieben ändern, Drupal erlaubt das aber von Haus aus. Das Buchmodul von Drupal erleichtert es, Inhalte in eine lineare Reihenfolge zu bringen, so dass der Lernende den Stoff nac einem bstimmten System durcharbeiten kann.
Vieles andere ist integriert oder lässt sich nachrüsten: Benutzerverwaltung mit Rollen, zeitgesteurtes Veröffentlichen, Blogs, die Einbindung von RSS-Feeds, Umfragen/Fragebögen usw.
Auch das Einreichen von Aufgaben und die Rückmeldung durch den Lehrenden sollte sich realisieren lassen.
Der große Vorteil von Drupal gegenüber zum Beispiel Typo3 ist die vergleichsweise einfache Erlernbarkeit und Anpassbarkeit. Außerdem verbraucht es weniger Ressourcen als Moodle und ist stärker auf den Austausch und Benutzer mit unterschiedlichen Rollen ausgelegt als WordPress.Drupal ist ein Framwork für Community-Building, so dass angemeldete Nutzer ihre Diskussionen, Blogs oder eigene Beiträge innerhalb des Systems abgeben können, ohne dass das System erweitert werden muss.

Drupals Stärken werden leider schnell unterschätzt. Ein Problem des Systems ist, dass es im Gegensatz zu WordPress out of the box nicht besonders benutzerfreundlich ist. Ich glaube, sehr viel mehr Leute würden das System einsetzen, wenn es fertig vorfonfigurierte Systeme z.B. für Redakteure gäbe. So ist die Einarbeitungszeit doch ein wenig höher, weil die Funktionen teilweise gut versteckt sind. Zum Beispiel gibt es out of the box keinen graphischen Texteditor. Die Funktion zum Hochladen von Bildern muss in einigen Inhaltstypen wie Büchern erst eingeschaltet werden.
Drupal gilt als Linux der Content Management Systeme, aber das trift auch auf MODx oer Typo3 mit seinem TypoScript zu. Im Vergleich ist Drupal einfacher.

Digitale Mitbestimmung für Menschen mit Behinderung

Digitale Werkzeuge können auch für Menschen mit Behinderung die Mitbestimmung erleichtern und verbessern:

Politisches Engagement findet zunehmend über das Netz statt. Viele der neuen Möglichkeiten sind auch für Menschen mit Behinderung interessant. Ihre Wege
zur politischen Mitbestimmung sind oft eingeschränkt, weil sie nicht mobil sind oder ihre Kommunikationsfähigkeit eingeschränkt ist. Weiterlesen

Die Zukunft des Fachbuches heißt eLearning

eLearning hat in Deutschland noch keinen besonders guten Status. Die klassischen Anbieter von Fernstudiengängen, Fernlehrgängen und Fernkursen bieten online Möglichkeiten, Material hoch- oder runterzuladen, mit Studienkollegen zu diskutieren oder aktuelle Infos in Erfahrung zu bringen. Mit eLearning hat das nur am Rande zu tun. eLearning heißt, dass der Lehrstoff am Computer oder einem mobilen Endgerät bearbeitet werden kann. Dabei können Animationen, interaktive Schaubilder, Audio- und Videoelemente integriert sein.
Aufgeschlagene Bücher
Dazu gehören aber auch Möglichkeiten, Aufgaben online zu lösen. Das geht offen, indem man eine eigene Antwort auf eine Aufgabe formuliert oder geschlossen, indem man Multiple-Choice-Aufgaben ausfüllt und diese direkt mit der Lösung abgleichen kann.
Viele Fachbücher sind bereits an Lernende adressiert. So werden häufig am Ende eines Kapitels Fragen gestellt, die der Leser beantworten soll, um zu kontrollieren, wie viel er verstanden hat. Bei Softwarebüchern muss er kleine Projekte oder Programme erstellen – natürlich am Computer.
Es ist also naheliegend, diese beiden Bereiche zu kombinieren. Mit den enriched oder enhanced eBooks werden solche Formate durchaus realisierbar. Mit ePub 3.0 lässt sich z.B. schon JavaScript in eBooks einsetzen, was eine Voraussetzung für Interaktivität ist. Formulare für Multiple-Choice-Abfragen lassen sich bereits mit HTML umsetzen, das bei eBooks verwendet wird. Pocketbook im Querformat
Ein Problem könnten die großen Datenmengen sein, die für Multimedia eingesetzt werden müssen. Eventuell muss man hier einige Abstriche machen, da die Displays klassischer eBook-Reader nicht leistungsfähig sind – und außerdem schwarz-weiß.
Ich glaube im übrigen noch nicht an die multimedialen Bücher. Wenn jemand ein Buch liest, möchte er lesen und nicht sich ein Video angucken. Einfache Animationen oder einfache Tabellenfunktionen oder sogar Pivot-Charts haben einen gewissen Nutzen in Fachbüchern, aber Videos, Audios und andere Multimedia-Inhalte in die Bücher selbst zu packen erscheint mir nicht sinnvoll. Es wird auch leicht unterschätzt, wie teuer solche Produktionen sind. Jede Filmminute kostet mehrere hundert Euro, solche Kosten lassen sich mit eBooks nicht finanzieren. Das sind dann Multimedia-Shows oder Apps, für die man ein wenig mehr verlangen kann, aber keine Bücher.
Es geht aber noch weiter: die Verlage könnten ein Programm für Zertifikate anbieten. Ein Präsentationskurs könnte optional die Möglichkeit enthalten, für sagen wir 50 Euro eine Prüfung zu absolvieren, wofür ein Zertifikat ausgestellt wird. Natürlich hat ein solches Zertifikat nur einen begrenzten Wert, aber zumindest kann der Betreffende damit belegen, dass er sich mit der Materie beschäftigt hat. Viel mehr bringen die Urkunden zugelassener Fernschulen auch nicht. Und die Verlage könnten die Preise der Fernschulen unterbieten.
Die Fernschulen haben gleich mehrere Probleme: Ihre Strukturen sind nicht auf Selbständige ausgelegt, was man daran sieht, dass die meisten Schulen keine Rechnungen mit ausgewiesener Mehrwertsteuer ausstellen. Damit zusammen hängt ihre Preisstruktur, die sich eher an dem Festangestellten mit ordentlichem Einkommen orientiert. Das große Problem ist aber die mangelnde Modularisierung: ein Kurs kann über ein bis zwei Jahre gehen und entsprechend zwischen 1000 und 3000 Euro kosten. Und das, obwohl sich die Kurse leicht in Module zerlegen ließen, die aufgeteilt sogar ein wenig mehr kosten könnten als der komplette Kurs – aber im Endeffekt für Selbständige attraktiver werden. Denn sie wissen durchaus nicht, was in einem halben Jahr sein wird. Für sie können deshalb einzelne Module eines Kurses interessanter sein als das Gesamtpaket.
Auch mit der Barrierefreiheit der Kurse ist es nicht weit her. Gedrucktes Material ist für Blinde ohnehin ungeeignet, aber auch Großdruck für Sehbehinderte wird normalerweise nicht angeboten. Auch bei eLearning-Kursen ist natürlich nicht garantiert, dass sie barrierefrei sind: es gibt Kurse auf CD, die für Tastaturnutzer einfach nicht nutzbar sind. Aber Barrierefreiheit ist im digitalen Bereich eher umsetzbar als im Printbereich.

Fazit

Ein Autor ist allerdings kein eLearning-Autor. Die oben beschriebenen Werke verlangen neben den Fachexperten auch eLearning-Autoren, die sich mit der Didaktik auskennen und eventuell auch Infografiker oder Multimedia-Designer. Solche Bücher werden zunehmend nicht mehr von Einzelautoren, sondern von Gruppen abgefasst werden.
Das Buch der Zukunft wird außerdem nicht mehr statisch sein. Um Bücher herum werden kleine Communities entstehen, sich über einzelne Stellen austauschen und die Autoren direkt auf schlechte Formulierungen oder Fehler hinweisen können. Man könnte das als Crowd-Lektorat bezeichnen, auch wenn das Wort nicht gerade hübsch ist. Es wird dann ähnlich wie bei Software verschiedene Versionen von Büchern geben, die Bücher werden stetig aktualisiert. Vielleicht werden wir Bücher nicht mehr kaufen, sondern abonnieren.
Entscheidend ist das vernetzte Lernen. Der Kobo-Reader hat das soziale Lesen in seine Software integriert, so dass Leser sich über einzelne Stellen im Buch austauschen können.
Damit eng zusammen hängt das mobile Lernen. Dabei werden mobile Endgeräte zum Lernen eingesetzt. Das ist sicher nicht für jeden Bereich geeignet, aber dort, wo Informationen häppchenweise aufgenommen werden wie beim Vokabeln lernen erscheint es sinnvoll.

Weiterlesen

Informationsgrafiken in der Öffentlichkeitsarbeit von NGOs

Der Datenjournalismus hat einen kleinen Hype ausgelöst- jeder redet darüber, nur wenige setzen ihn um. Ich möchte im folgenden einige Gründe diskutieren, warum Infografiken auch in der Öffentlichkeitsarbeit von NGOs eine größere Rolle spielen sollten

Spieltrieb befriedigen

Irgendwie fällt es einem schwer, auch bei dem hundersten Betroffenenbericht noch Mitleid zu empfinden. Um Menschen für Themen zu interessieren, funktioniert die Mitleidsschiene immer weniger. Für manche NGOs und Fundraiser ist das ganze Jahr Weihnachten, zumindest überschütten sie uns das ganze Jahr mit Mitleidsfotos, Linda Polman spricht sogar von der Mitleidsindustrie.
Wer die Menschen neugierig machen und Bewusstsein erzeugen möchte, präsentiert keine reinen Meinungsbeiträge mehr, er gibt ihnen die Möglichkeit, selbst Dinge auszuprobieren, Dinge anzufassen – virtuell – und Dinge selbst herauszufinden. Das klappt nicht mit Texten und auch nicht mit Videos, sondern eher mit Spielen und interaktiven Infografiken. Für Spiele ist Gamification das neue Schlagwort.

Zusammenhänge

Das Gleiche gilt für komplexe Zusammenhänge. Sie lassen sich nicht ohne weiteres in Bildern, Videos oder Pressemitteilungen transportieren.
Stefan Münz gab seinem selfHTML das Motto „Die Magie des Verstehens“. Ich glaube, dieser Aha-Effekt – der Moment des Verstehens – und dessen nachhaltige Wirkung wird von vielen PR-Menschen unterschätzt. Wer eine neue Erkenntnis erlangt hat, hat das Bedürfnis, das allen mitzuteilen und über das Weeb 2.0 hat er die Möglichkeit dazu.

Sharing

Gerade das Teilen über das Netz gehört zu den wichtigsten Möglichkeiten der Kommunikation. Abgesehen von albernen Videos werden nur wenige Inhalte verbreitet, die von NGOs erstellt wurden. Die klassische Pressemitteilung interessiert nicht einmal Journalisten so wirklich. Es gibt viele gut gemachte Inhalte, Bilderstrecken oder Videos, aber sie werden kaum verbreitet. Das liegt zum einen daran, dass die Botschaft immer die Gleiche ist, nur die Verpackung ist ein wenig anders. Es fehlt der Neuigkeitswert. Zum anderen sind aber die Formate selbst ausgelutscht.
Ich denke, dass Inhalte, mit denen man spielen kann deshalb eine wesentlich bessere Chance haben, geteilt zu werden. Damit werden dann auch Menschen erreicht, die man mit anderen Inhalten wahrscheinlich nicht erreichen würde.

Beispiele

Es gibt im Grunde keine Grenzen für den Einsatz von Informationsgrafiken. Zum Beispiel ließe sich der Zusammenhang von Temperaturschwankungen und deren Auswirkungen auf das Klima visualisieren. Oder die Auswirkungen von Spekulationen auf die Lebensmittelpreise.

Mehr Experimentierfreude

Insgesamt vermisse ich in der deutschen NGO-Szene die Freude am Experiment. Ich sehe recht oft, wie über den Twitterstream einfach nur die eigenen – teils total belanglosen – Inhalte rausgepustet werden. Bei einer Organisation scheint sich jemand nachmittags hinzusetzen und einfach mal die am Tage aufgelaufenen Nachrichten kurz hintereinander zu verschicken. Wie bei der klassischen PR werden Inhalte rausgepustet, an einer Interaktion mit den Followern ist man gar nicht interessiert. Die PR ist eine Blackbox.

Links

Ranking bei Amazon – welches Produkt wird verkauft?

Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:

  • das Erscheinungsdatum
  • der Preis
  • die Lieferbarkeit
  • die Höhe der Bewertung
  • die Zahl der Bewertungen
  • die Verkaufszahlen
  • die Durchklickrate

Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.

Serendipity darf nicht sterben – Filterbubble auch ohne Datensammlung

Manchmal ist es doch überraschend, wie schlecht die Suchmaschinen nach wie vor funktionieren. Wie oft ist es dir passiert, dass du drei oder vier Suchbegriffe eingegeben hast und selbst der Branchenprimus Google nur Schrott ausgeworfen hat? In letzter Zeit sicher öfter – weil Google jetzt meint, besser zu wissen, was du suchst als du selbst. Die Folge ist, dass Google beliebig viele Begriffe bei Suchphrasen weglässt und entsprechend wertlose Suchergebnisse anzeigt. Zwei Beispiele: Ich suche nach dem More-More-Effekt und Google zeigt mir Noiré-Effekt, ich suche nach ODF und Google bietet mir Ergebnisse zu PDF.
Im Grunde haben sich die Suchmaschinen seit mehr als zehn Jahren nicht weiterentwickelt. Der letzte große Sprung wurde von Google mit dem Messen des Verlinkungsgrades gemacht, damit ist die Firma groß geworden. Alles, was danach kam war die Optimierung oder Spambekämmpfung durch den Algorythmus. Faktisch ist seit zehn Jahren nichts mehr von Belang im Suchmaschinenbereich passiert. Fairerweise muss ich aber dazu sagen, dass ich die zahlreichen kleinen Suchmaschinen und ihre Technik nicht kenne. Das liegt teilweise auch daran, dass Cuil oder Blekko im deutschsprachigen Bereich bisher nicht mitspielen können.
Die große Schwäche von Google und Co ist nach wie vor die Gleiche. Google schaut, ob bestimmte Worte in einem Text vorkommen, wwie diese Worte zueinander positioniert sind und ob überhaupt genügend signifikanter Text vorhanden ist. Angeblich können in bestimmtem Maße auch unterschiedliche Wortfolgen oder Synonyme verarbeitet werden, was aber meiner Erfahrung nach nicht wirklich funktioniert. Die Auswertung der Geoposition und dazu passende Suche ist ein nettes Gimmick, was aber niemanden vom Hocker haut.
Dazu kommt noch, dass mittlerweile jede Organisation, die etwas Geld in der Tasche hat versucht, ihre Texte zu seo-isiseren. Für wen das jetzt Neuland ist: Redakteure werden dazu angehalten, suchmaschinengerecht zu schreiben, das heißt, die richtigen Wörter in der richtigen Dichte einzusetzen. Das mag man für legitim halten, letzten Endes werden damit aber solche Texte auf die vorderen Plätze geschoben, ohne dass sich ihr Inhalt oder die Relevanz verbessert haben. Hat jemand schon mal ernsthaft nach einer Preissuchmaschine gesucht? Sicher nicht so häufig, dass sie auf der ersten Suchseite sein sollten.

Manche sprechen bereits von der Filterbubble. Algoritmen in den sozialen Netzwerken oder den Suchmaschinen präsentieren dem Nutzer bevorzugt das, was sie meinen, es interessiere ihn besonders. Dabei analysieren sie die Daten, die sie über Einen gesammelt haben: Was steht in seinem Profil, mit wem interagiert er am meisten, welche Links oder Inhalte fand er besonders toll und so weiter. Auch Amazon macht das.
Wir haben uns so sehr daran gewöhnt, dass Suchmaschinen buchstäblich nur die Wörter suchen, die wir eingegeben haben, dass uns das gar nicht mehr blöd vorkommt. Auffällig ist, wie stark Google den Long Tail verdrängt hat. Zum einen zieht es große Webseiten vor und zwar auch dort, wo Fachportale bessere und interessantere Inhalte bieten. Zum anderen lässt es aktuell mit dem letzten großen Update des Algorithmus gerne mal einen Suchbegriff weg oder interpretiert relativ frei, was der Sucher gesucht haben könnte. Das wäre ein guter Grund, Meta-Suchmaschinen einzusetzen. Leider scheint es auch hier keine Algoritmen zu geben, die nützliche Ergebnisse liefern.
Kann es eigentlich sein, dass wir schon so lange Google als Suchmaschine nutzen, dass wir alle anderen Suchmaschinen als schlechter empfinden? Klingt absurd, ist aber durchaus möglich. Sagen wir, ich nutze Google seit ungefähr zehn Jahren. Auch wenn wir Google für intuitiv halten, jede Maschine hat ihre Ecken und Kanten. Nur gewöhnen wir uns irgendwann daran und empfinden die Macken und Schwächen nicht mehr als solche. Es ist so wie mit den Autoabgasen, wir könnten wissen, dass sie da sind, auch wenn wir sie nicht mehr riechen. Oder wer andauernd MP3s hört, weiß nicht mehr, wie Musik in guter Qualität klingen muss.
Wenn wir jetzt anfangen, eine andere Suchmaschine zu nutzen, müssten wir uns umgewöhnen, und das tut eben keiner gern.

Google als Selbstverstärker

Einen interessanten Effekt, der auf Google basiert hat bisher keiner beschrieben: Google verstärkt oder verfestigt durch seine Suchergebnisse die Suchergebnisse. Klingt schwachsinnig, ist aber einfach zu erklären.
Nehmen wir an, ich schreibe einen Artikel über die Schwäche von Suchmaschinen. Zwischendurch oder nach dem Schreiben suche ich mit bestimmten Begriffen, die auch in meinem Artikel vorkommen nach interessanten Seiten, die ich verlinken kann. Ich schaue dabei mit Vorliebe auf die ersten Seiten von Google. Setze ich nun den Link, verbessere ich die Position des verlinkten Artikels zumindest minimal. Ich verfestige also die Position des verlinkten Artikels, allerdings ohne zu wissen, ob es nicht bessere Artikel gab, die eher zu meinem Artikel gepasst hätten. Ich bestätige also Google in seiner Meinung, dass es sich um den Beitrag, der durch seinen Algorithmus ausgewählt wurde um einen guten Beitrag handelt.
Die Filterbubble ist also schon da, auch ohne dass wir uns irgendwo einloggen und Profile über uns angelegt werden. Je stärker bestimmte Inhalte verlinkt werden, desto stärker werden andere Inhalte in den Long Tail verdrängt. Das ist der More-More-Effekt.
Weitere Tools verstärken die Filterbubble. Statt uns selber auf die Suche nach Inhalten zu begeben, verwenden wir Dienste wie paper.li, die uns die interessantesten Nachrichten zusammenstellen. Sie aggregieren und gewichten diese Nachrichten nach Likes und Re-Tweets und voila – wir haben den Google-Filter-Selbstverstärkungseffekt.
Der goldene Käfig von Facebook ist natürlich noch extremer. Bei Facebook kann man wenig machen, wenn man nicht eingeloggt ist. Für den energischen Facebooker existiert also nichts, was außerhalb der Gated Community von Facebook liegt bzw. nicht über Links reingekommen ist.
Der Serendipity-Effekt bleibt dabei zunehmend auf der Strecke. Das ist bedauerlich, weil In den hinteren Suchergebnissen so viel Potential steckt, das ungenutzt weil unbemerkt bleibt. Gerade dieser Effekt macht das Netz zu einem Quell kreativer Ideen. Liest man das, was alle anderen schon gelesen haben, hat man wahrscheinlich auch die gleichen Ideen, zumindest sinkt die Chance auf kreative neue Assoziationen.
Deswegen ist es auch so spannend, gut verlinkende Blogs zu lesen. Meiner Ansicht nach besteht eine der großen Stärken des Web darin, dass es weniger hierarchisch wie ein Buch sondern assoziativ wie ein Netz aufgebaut ist. Ich springe von Gedanken X zu Sache Y und schließe bei Z, wobei eine Verbindung geschaffen wird, die mir vorher nicht klar war. Auf jeden Fall kann ich sagen, dass es in einigen Blogs wesentlich interessantere Links gibt als man sie bei Google gefunden hätte.
Deswegen und um dem Filterbubble-Effekt zu entgehen empfehle ich jedem, der es nicht hören will, so viele interessante Blogs wie möglich in den RSS-Feed zu holen und nicht darauf zu vertrauen, dass Google, Twitter, Facebook oder ein anderer Dienst die passende Auswahl trifft.
Es ist kurios: die gleichen Leute, die sich darüber beschwert haben, welch starke Selektion die Massenmedien ausüben lassen nun andere Leute und Algoritmen darüber entscheiden, welche Informationen für sie wichtig sind.

Zusammenarbeit in Gruppen

Viele Aufgaben können heute besser in einer Gruppe gelöst werden. Ob das in stundenlangen Meetings oder asynchron übers Netz geschieht, ist letzten Endes egal. Um die Gruppenarbeit zu verbessern, sollte man bestimmte Regeln beachten, die generell für die Zusammenarbeit von Menschen gelten.

Struktur im Chaos

Anarchismus und Basisdemokratie sind interessante Ideen. Sie funktionieren aber nur bedingt. Am Ende braucht man jemanden, der eine Entscheidung für das eine oder das andere trifft. Das muss nicht unbedingt eine einzelne Person sein. Der Parteienforscher Joachim Raschke hat festgestellt, dass es in jeder Partei einen strategischen Kern etwa fünf Personen gibt, welche die grobe Steuerung übernehmen. Raschke spricht von einem strategischen Zentrum.

Alles Pareto

Das Pareto-Prinzip ist eine Regel, die auf viele Lebensbereiche angewendet werden kann. Demnach verrichten 10 – 20 Prozent der Menschen 80 – 90 Prozent der Arbeit. Das ist vielfach mißverstanden worden:

  1. Es ist zum einen in der Wertschöpfung zu sehen. Die Entscheidungen eines hohen Managers haben finanziell höhere Konsequenzen als die Entscheidungen eines Müllmanns.
  2. Das heißt aber nicht, dass der Manager auf den Müllmann verzichten kann. Im Gegenteil: der Müllmann könnte auf den Manager eher verzichten als umgekehrt. Der Manager, der die Presseaussendung macht, den
    Müll wegbringt und die Toilette sauber macht kommt nicht mehr dazu, seine eigentliche Aufgabe zu erledigen.

Im Endeffekt – und diesen Satz sollte sich jeder Entscheidungsträger auf den Handrücken schreiben – ist jeder ersetzbar. Nochmal – jeder ist ersetzbar.

Zeit ist ungleich Effektivität

Ein damit verwandter Denkfehler ist der Glaube, wer mehr arbeite, leiste auch mehr. Effizienz besteht aber darin, aus der Zeit die meiste Leistung herauszuholen. Der eine erledigt die Arbeit in 30 Stunden, der andere in 50, wen würdest du eher einstellen? Deswegen ist es auch wenig beeindruckend, wenn die jungen Anwälte bei John Grisham 80 Stunden die Woche arbeiten.

Was ist zu tun?

Wichtig ist vor allem, die Mitarbeiter regelmäßig zu motivieren. Gute Ideen sollten aufgenommen und diskutiert werden. Auch wenn sie nicht komplett umgesetzt werden können, sollte man zumindest versuchen, sie teilweise in andere Ideen einfließen zu lassen. Grundsätzlich sollte es eine offene Kritikkultur geben.

Informelle Strukturen zulassen

Je größer die Gruppe ist, desto mehr sollte man informelle Strukturen zulassen. Aus jeder chaotischen Gruppe geht am Ende eine Form der Selbstorganisation hervor. Wer versucht, den kompletten Prozess zu steuern, erlebt folgendes: die Mitarbeiter übernehmen am Ende keine Verantwortung mehr, sie machen nur noch Dienst nach Vorschrift und warten darauf, neue Befehle zu erhalten. Jegliche Eigeninitiative wird abgewürgt. Aber auch der komplette kreative Prozess wird abgewürgt, denn die Mitarbeiter erkennen schnell, dass ihre Ideen keine Anerkennung finden. Sie leben in einer Führerkultur, wo nur der Chef kreativ ist.

Amerikanisches Lob stinkt

Zu viel Loben nervt. Die Amerikaner haben generell eine andere Lebenseinstellung. Sie loben viel und finden erst mal alles ganz toll. Was für die Amerikaner erst einmal kulturell angemessen sein mag, kommt hierzlande eher als Anbiederung an. Lob für banale Aufgaben kommt eher negativ an.
Das selbe gilt für Understatement. Das ist eher in Großbritannien angesagt. Understatement soll Mitarbeiter und Vorgesetzte auf eine Stufe stellen. Es klingt aber häufig antrainiert – was es meistens auch ist. Der Mitarbeiter ist sich immer bewusst, dass er mindestens eine Stufe unter seinem Vorgesetzten steht und empfindet dessen Understatement als künstlich und gönnerhaft.

Weiterlesen

ul>

  • The Power of connected Minds
  • James Surowiecki. Die Weisheit der Vielen. Bertelsmann 2009
  • Etienne Wenger. Digital Habitats; Stewarding Technology for Communities. Cpsquare 2009