Schlagwort-Archive: Wikipedia

Informationskompetenz für Alle – das Ende der Gatekeeper

edit vom 8. Februar: Eine Anregung von Querdenkender aufgreifend habe ich den Begriff Medienkompetenz durch Informationskompetenz ersetzt.

Ursprünglich wollte ich Bloggergate als Aufhänger dieses Beitrags nehmen. Ich verzichte darauf, weil das Ganze zum einen die Aufregung nicht wert ist und zum anderen ins Persönliche abgedriftet ist. Zu Bloggergate ist schon alles gesagt worden, aber noch nicht von allen.
Ich möchte stattdessen einen Blick darauf werfen, wie die Öffentlichkeit beeinflußt wird und warum wir alle Informationskompetenz brauchen.

Die Anfälligkeit für Manipulationen

Das Web ist entgegen anderer Gerüchte anfällig für Manipulationen. Schon mittelständische Unternehmen haben große PR-Budgets. Von diesem Geld lassen sich problemlos ein bis zwei Webworker bezahlen, die 40 Stunden die Woche das Netz durchforsten, um negative Kommmentare mit wohlwollenden oder positiven Kommentaren zu neutralisieren, in kritischen Blogbeiträgen dem Autor Voreingenommenheit vorzuwerfen oder so lange herumtrollen, bis auch der geduldigste Diskutant kapituliert.
Man muss dabei nicht so ungeschickt sein wie ein gewisser Tablet-PC
-Vertreiber.
Suchmaschinenoptimierung ist ebenfalls der Versuch, die Suchergebnisse zu manipulieren. Die SEOs mögen einwenden, Google sei selbst nicht neutral, das hat nun auch keiner behauptet. Eine Manipulation dadurch zu rechtfertigen, dass eine Maschine sowieso schon falsch tickt, hat doch einen faden Beigeschmack. Wenn Webmaster endlich anfangen, Title, Alternativ-Text und Zwischenüberschriften vernünftig einzusetzen, ist das kein SEO, sondern Redaktionshandwerk. Wenn ich aber anfange, Link-Netzwerke, Linktausch und Linkkauf zu machen, ist das eine gezielte Manipulation von Google. Der Inhalt einer Seite wird dadurch nicht um ein Stück besser, der Otto-Normal-Googler hat aber keine Ahnung davon und hält die ersten Suchergebnisse für die wichtigsten oder besten.
Liebe SEOs, ich hätte gerne gute Ergebnisse auf den ersten Plätzen und nicht seo-gestählten Nonsens. Warum legt ihr den Schwerpunkt nicht darauf, die Inhalte der Websites zu verbessern, anstatt auf PageRank und SERPs zu schauen?

Kampagnen

Wir werden tagtäglich schlecht informiert. Meine Leseempfehlung dazu ist schon betagt und stammt von Wolf Schneider “Unsere tägliche Desinformation”. Dazu muss man wissen, dass Schneider ein Konservativer alter Schule ist und sein Buch nicht die übliche Mischung aus lauwarmer Kulturkritik und abgestandener Niedergangsrhetorik ist. Es geht darum, wie Medien teils absichtlich falsch, parteiisch oder ungenau berichten und damit die Öffentlichkeit manipulieren. Das Buch wurde in den 80ern geschrieben und man kann sich gut vorstellen, dass die damals vorherrschenden Zwänge heute eher zu- als abgenommen haben und auch für Online-Medien und Blogs gelten.
Techblogs zum Beispiel werben naturgemäß für technische Gadgets. Auch wenn das Ganze über Vermittlernetzwerke zustande kommt und man keinen direkten Kontakt zur Herstellerfirma hat: die Firma freut sich bestimmt nicht darüber, wenn ihr Produkt in einem Artikel zerpflückt wird, während links daneben die Werbung für das gleiche Produkt steht.
Ein weiteres lesenswertes Buch ist Media Control von Noam Chomsky. Chomsky erklärt die Mechanismen, die dazu führen, dass Medien sich freiwillig einem bestimmten Konsens unterordnen. Es geht dabei um informelle Zwänge und den Aufstieg in der Hierarchie, den nur die Konformisten schaffen.

Kampagnen-Journalismus

Große Medienhäuser fahren regelmäßig Kampagnen, wo sich sich auf das eine oder andere Thema einschießen, ohne das der Grund von außen ersichtlich ist. Es reicht schon, wenn der Chefredakteur etwas gegen Windräder hat und schon erscheinen Artikel, die die Windenergie schlecht machen. Der Guttenberg-Hype war auch eine Kampagne, vielleicht, um ein Sommer- oder Winterloch zu stopfen. Vielleicht glauben die Journalisten aber tatsächlich, normale Menschen würden gerne Storys über Guttenberg oder das Dschungelcamp in ihrer Zeitung lesen.

Presse und PR

Einer sinkenden Zahl von Journalisten stehen immer mehr Menschen aus Marketing, Werbung und PR gegenüber, ich mache übrigens auch PR, um hier keine Mißverständnisse aufkommen zu lassen. Ich habe mich für meinen Blog dem Pressekodex verpflichtet, eine symbolische, aber dennoch wichtige Sache.
Während ein Journalist zumindest nominell der Wahrheit und Fakten verpflichtet ist, wird das Marketing und die PR dafür bezahlt, etwas in möglichst gutem Licht dastehen zu lassen. Ein Journalist soll sich nie mit einer Sache gemein machen, ob sie nun gut oder schlecht ist. Ein Mensch aus der PR hingegen muss sich mit jeder Sache gemein machen, deren Auftragnehmer er ist.
In der Blogosphäre kann damit aus einem Vorteil ein Nachteil werden. Da hier oft Leute aus der Praxis kommen, verdienen sie ihr Geld damit, jemandem eine Dienstleistung zu verkaufen. Die Attraktivität von Blogs erwächst aus ihrer Praxisnähe, aber kann jemand ernsthaft erwarten, dass hier echte Kritik an der eigenen Branche oder an fehlgeleiteten Kollegen stattfindet? Eher nicht, denn hierzulande gelten Kritiker als Nestbeschmutzer. Niemand sägt den Ast ab, auf dem er sitzt, sei es das eigene Berufsfeld oder das Kollegennetzwerk.

Informationskompetenz für Alle

Wenn der Journalismus nicht mehr für uns die Aufgabe übernehmen kann, das Wahre von dem Falschen, das Wichtige von dem Unwichtigen und das Relevante von dem Irrelevanten zu trennen, dann ist jeder Einzelne von uns gefragt, diese Aufgabe zu übernehmen. Wir können uns dafür entscheiden, unsere Informationen aus verschiedenen Quellen zusammenzustellen. Dort, wo wir uns nicht auskennen, vertrauen wir auf Experten, die wir für kompetent halten.
Man muss ein Gespür dafür entwickeln, wer wann welche Interessen verfolgt und ob diese Interessen einen Einfluß auf seine Aussagen haben. Das Stichwort dazu ist kritische Quellenanalyse, eine Methode von Historikern, wir können von Quellenanalyse light sprechen, man muss es nicht übertreiben.
Warum wir alle Informationskompetenz brauchen? Weil wir alle gezwungen sind, innerhalb von Sekunden über die Relevanz von Suchergebnissen, Schlagzeilen und Informationen zu entscheiden. Deswegen umfasst Informationskompetenz heute auch mehr als die Kenntnis darüber, wie Informationen von Medien gemacht werden. Dazu gehört auch zu wissen, wie Umfragen und statistische Erhebungen zustande kommen, wie die Suchalgoritmen von Suchmaschinen arbeiten und wie Artikel in der Wikipedia zustande kommen.

Weiterführendes

Wikia Search am Ende

So berichten Golem und Heise, in den zugehörigen Foren ist recht viel Häme zu lesen, wahrscheinlich alles Google-Nutzer.

Ich hatte mich schon gefragt, was daraus geworden ist, schließlich war lange nichts davon zu hören. Das Problem ist typisch für Projekte im Web 2.0: Es konnte keine kritische Masse gewonnen werden, damit das Projekt sich selbst trägt. Das Problem läßt sich als Netzwerk-Effekt beschreiben: Je größer ein netz von Personen ist, desto schneller wächst es. Dabei muss ein gewisser Punkt überschritten werden, den Malcolm Gladwell als Tipping-Point bezeichnen würde.

Wenn eine bestimmte Zahl von Leuten zusammen kommt, trägt und entwickelt sich das System von selbst weiter. So etwas muss bei “Wer kennt wen” passiert sein, dem langweiligsten Social Network der Welt. welches nicht trotz, sondern wegen seiner Einfachheit erfolgreicher ist als die Riesen Facebook und MySpace.

Wikia scheint diese kritische Masse nicht zusammen gebracht zu haben. Für Häme ist da nur Platz, wenn man mit Google, Yahoo und Live zufrieden sein könnte. Dies dürfte das entscheidende Problem von Wikia gewesen sein. Die Wikipedia hatte keine Konkurrenz, als sie entstand. Sie versammelte unter einer Adresse alle Informationen, die man sich vorher mühsam im Web zusammen suchen musste.

Hätte es damals die Encyklpadia Britannica oder den Brockhaus im Web gegeben, wäre WP vermutlich nur ein Nischenprodukt für Spezialthemen wie aktuelle TV-Serien und ähnilches geblieben, was die regulären Lexika nicht behandeln.

Komplexe Link-Strukturen – Wikipedia

Die Wikipedia ist lebendiger Ausdruck menschlicher freiwilliger Kooperation. Ganz nebenbei ist sie eine riesige Ansammlung von untereinander verbundenen Artikeln. Die Zahl der internen Links ist dabei extrem hoch. Wir kennen das bereits aus gedruckten Lexika, wo praktisch in jedem Artikel ein halbes Dutzend und mehr Verweise auf andere Artikel enthalten sind.

Schaut man sich diese Artikel an, findet man wiederum weitere Querverweise auf weitere Artikel. Nachdem ich mir überlegt hatte, dass jeder jeden über sechs Ecken kennt und versuchte, das Ganze anschaulich zu machen, möchte ich nun einige Überlegungen zu komplexen Netzwerken ansellen.

Nehmen wir an, wir wollten eine Enzyklopädie komplett durchlesen, aber nicht linear von A bis Z, sondern indem wir bei einem beliebigen Artikel anfangen und alle Artikel durchlesen, auf die er verweist. Danach lesen wir sämtliche Artikel, auf die diese Artikel verwiesen haben. Und immer so fort.

Würden wir das tun, müssten wir früher oder später sämtliche Artikel der Enzyklopädie gelesen haben, natürlich vorausgesetzt, wir hätten die Zeit dafür. Wir interessieren uns hier aber weniger für die Artikel als die Verknüpfungen zwischen ihnen.

In Wikipedia müsste so etwas messbar sein. Nehmen wir an, jeder Artikel würde auf zehn weitere Artikel verweisen. Der Rechnung nach 10 x 10 x 10 x 10 x 10 x10 = 1 000 000, so bleiben wir bei unseren sechs Ecken.

Hier kann der Einwand kommen, dass viele Artikel weniger als zehn Verweise haben oder das Artikel, auf die verwiesen wird, oft die selben Verweise enthalten wie die Artikel, von denen der ursprüngliche Verweis kam.

Hier rettet uns die lexikalische Struktur. Ein Verweis von Miguel Cervantes führt uns zu Spanische Literatur, der uns zu Literatur führt, der uns zu Englische Literatur führt, der uns zu Joseph Conrad führt.

Oder anders: Jeder Artikel verweist auf eine höherrangige Kategorie, die uns wiederum zu den tieferen Verästelungen der Artikel führt.

Ein weiterer Vorteil lexikalischer Struktur besteht darin, dass auch voneinander im Grunde unabhängige Komplexe miteinander verbunden werden. Wie hüpfen wir zum Beispiel von Klimawandel zu Paris Hilton?

Wir könnten zum Beispiel – rein hypothetisch – eine Verknüpfung von Klimawandel zu Michael Crichton ziehen. Crichton hat einen heiß diskutierten Roman als Klimakritik verfasst. Nebenbei hat Crichton viele Romane geschrieben, die verfilmt wurden und war an der Serie “Emergency Room” beteiligt. Von Emergency Room kommen wir zu Hollywood und von Hollywood dürfte es zumindest über zwei Ecken eine Verbindung zu Paris Hilton geben.

Wikipedias Wahrheit – Wahrheitstheorien

Die Wahrheit und ihre Findung ist eine der wichtigen Themen der Philosophie. Viele meinen ja, Wissenschaftstheorie – also das Zustandekommen von Wissen, seine Validierung und gegebenenfalls Falsifizierung – sei heute die letzte und sicher wichtige Aufgabe der Philosophen.

Wahrheit ist, was funktioniert, meinen etwa die Pragmatisten wie William James. James meint etwa, es sei einfacher, an Gott zu glauben, weil der idelle Gewinn größer ist, während Nichtglauben Einem keinerlei Vorteile bringt.

Wikipedia ist allerdings heute näher an der gängien Sissenschaftstheorie. WPs Wahrheit basiert darauf, dass eine Aussage irgendwo belegt ist. Nun ja, die Qualität der Quellen sollte schon akzeptiert sein: renommierte Wissenschaftler, Universitäten, Fachzeitschriften… Die meisten geisteswissenschaftlichen Fakultäten verfahren ebenso, was besagter Autor allerdings nicht erwähnt.

Das Problem besteht darin, dass auch anerkannte Quellen falsch liegen können. Statt gegensätzliche Auffassungen und Minderheitenmeinungen zu akzeptieren, versucht Wikipedia, einen objektiven Point of View einzunehmen. Kein Plädoyer für Verschwörungstheorien, aber die meisten Flame Wars entstehen eben aus dieser Problematik. Dort, wo die Wissenschaft sich uneins ist, brauchen auch Internetschreiber nicht einer Meinung zu sein.

Wikipedia – die Mutter der Wikis

Wikis sind kleine Webseiten, die ähnlich wie Blogs bearbeitet werden können und technisch eine ähnliche Basis haben. Bei Wikis liegt allerdings der Schwerpunkt nicht auf Lesen und Kommentieren, sondern auf Zusammenarbeit. Die Schreibberechtigten können einen Text gemeinsam bearbeiten und kommentieren, was z. B. auch zur Projektplanung verwendet werden kann.
Die wikipedia ist der Archetyp und wohl das erfolgreichste – zugleich aber auch umstrittenste – Wiki und Web-2.0-Projekt. Es gibt sie in vielen Sprachen und mit sehr vielen Artikeln. In vielen Ländern überschreitet sie den Umfang von Enzyklopädien.
Jeder, ob registriert oder nicht, ob studierter Professor oder pubertierender Jugendlicher, ob ambitionierter Laie oder versierte Experte, hat hier die gleichen Schreibrechte.
Das eigentlich erstaunliche an dem Projekt ist, dass es überhaupt und oft genug funktioniert.
Zugleich zeigt es aber auch, welche Risiken und Probleme damit verbunden sind:
– Ständige Streitereien über den objektiven Blickwinkel – den Point of View oder POV
– Flamewars – Streitereien, die sich nicht selten in Beleidigungsorgien austoben.
– Es zählt nicht das Wissen oder Argumente, sondern der längere Atem und Hartnäckigkeit, um seinen Blickwinkel durchzudrücken.
– Und WP ist nicht so anarchisch, wie es aussehen mag. Die freiwilligen Admins können ebenfalls zu kleinen Ekeln mutieren, die einzelne Nutzer vergraulen, Diskussionen abwürgen oder Artikel für Änderungen sperren können.
Wegen der Vielzahl aktiver Nutzer kulminieren also in WP die Probleme, di sämtliche Web-2.0-Anwendungen mit sich schleppen.