Schlagwort-Archive: Wissenschaft

OpenAccess – offener Diebstahl

Rudolph Walther regt sich in einem Artikel in der taz gewaltig auf. Leider hat der gute Mann in seinem heiligen Zorn zwei Dinge wild vermischt: Die Google-Buchsuche und OpenAccess.

Die Google-Buchsuche basiert auf Büchern, die von Google eingescannt und digital zur Verfügung gestellt werden. Google hat das im Schatten von Halblegalität gemacht, sich aber mittlerweile mit amerikanischen Rechteinhabern geeinigt. Nach wie vor macht Google aber diese Bücher eben nicht frei zugänglich, wenn Urheberrecht oder Copyright bestehen. Nur gemeinfreie Bücher sind offen zugänglich. Der Rest ist lediglich für Recherche zugänglich, ähnlich wie bei Amazon stehen Ausschnitte zur Verfügung, nicht aber der Volltext.

OpenAccess hingegen ist der Zugang zu – in erster Linie – wissenschaftlichen Arbeiten. Es gibt nun gar keinen Zusammenhang zur Google-Buchsuche.

Herr Walther scheint auch kein Freund von digitalen Archiven zu sein. Zurecht verweist er darauf, dass alte Datenträger und Dateiformate nur schwer zugänglich sind.

Um so mehr müsste gerade er sich über die Google-Buchsuche freuen. Hätte Google das Kölner Stadtarchiv durchgescannt, würden wir heute zumindest digital darin stöbern können, statt sprichwörtlich in Schutt und Staub nach Überresten zu suchen.

Ein guter Teil der von Google eingescannten Bücher sind derzeit nicht lieferbar, weil sie mangels Rentabilität nicht nachgedruckt werden. Es ist gar nicht so unwahrscheinlich, dass viele dieser Titel sang- und klanglos in Vergessenheit geraten würden, wenn Google sie nicht im Web lebendig hält.

Jeder Student ärgert sich heute über geklaute, dauerausgeliehene, nicht lieferbare und nicht vorhandene Bücher in der Bibliothek. Neben mangelnder technischer Ausstattung ist der schwierige Zugang zu Fachliteratur eines der größten Probleme wissenschaftlicher Forschung.

Und die Wissenschaft ist nun das Musterbeispiel für ein Gemeingut. Es sind überwiegend Steuerzahler, welche die deutsche Wissenschaft finanzieren.

Wer sich für die Problematik interessiert, mag sich zwei Bücher der Bundeszentrale für politische Bildung herunterladen:

Urheberrecht im Alltag, unter anderem herausgegeben von Volker Grassmuck
Wissen und Eigentum, herausgegeben von Jeanette Hofmann, die Texte dieses Buches stehen unter Creative Commons License

Die Wahrheit ist irgend wo da drin – oder auch nicht

Suchmaschinen sind ein nützliches Instrument, doch um sie vernünftig verwenden zu können, sollte man wissen, wie sie funktionieren. Suchmaschinen wie Google produzieren ihre eigene Wahrheit, wie Wikipedia ihre eigene Wahrheit hat. Wikipedias Wahrheit basiert auf Belegen. Zu welchen Unfällen das führen kann, hat der Fall von und zu Guttenberg gezeigt. Ein Scherzkeks hat dem Herren mit den vielen Namen noch einen mehr spendiert. Andere Medien wie SpON sprangen auf und übernahmen die lange Liste von Namen inklusive dem überzähligen Vornamen. Ein Wikipedianer löschte zunächst den falschen vornamen im Artikel, sah sich nach weiteren Quellen um, fand sie im Spiegel und setzte den falschen Vornamen wieder ein. So wäre Herr Guttenberg im reifen Alter fast zu einem neuen Vornamen gekommen.

Wir kennen dieses Problem aus der wissenschaftlichen Forschung. Die Geisteswissenschaften greifen überdurchschnittlich stark auf Quellen zurück. Wer kritische Quellenanalyse betreibt, versucht natürlich, für umstrittene Informationen mehrere Quellen zu verwenden, wobei er das Risiko eingeht, dass sämtliche Quellen auch nur voneinander abgeschrieben haben. Wie etwa die vier Evangelisten des Neuen Testaments.

So funktioniert auch der Google PageRank. Der Erfolg der Wikipedia ist zuletzt Google zu verdanken. Bei sehr vielen – auch fachspezifischen – Themen spuckt Google als erstes Suchergebnis Wikipedia aus. Zumindest ist WP sehr oft auf der ersten Suchseite.

Auch wenn die Wikipedia-Artikel überwiegend in Ordnung sind, stellt sich doch die Frage, warumoffenbar alle auf deren Artikel verlinken, statt eine andere Quelle zu wählen, die vielleicht inormativer ist.

DerPageRank führt dazu, dass populäre Meinungen noch weiter gepuscht werden. Es entsteht ein Top-Ten-Effekt:

Nehmen wir an, ich suche Informationen zur Fotosynthese. Ich schaue mir die ersten zwanzig Suchergebnisse von Google an. Ich verlinke vier dieser Artikel auf meiner Website. Damit erhöhe ich die Wahrscheinlichkeit, dass der nächste Pflanzenneugierge genau auf die gleichen Suchergenisse zur Fotosynthese stößt wie ich. Und zwar auch dann, wenn er eben nicht von meiner Seite startet.

Statt also möglicherweise randständigere Aspekte der Fotosynthese erfahren zu können, wird er genau die gleichen Meinungen lesen, die ich gelesen habe. Er wird ebenfalls vier Ergebnisse aus den ersten zwanzig Ergebnissen verlinken. Und immer so fort.

Die Kritik richtet sich allerdings nicht gegen Google. Was imer google über sich selbst sagen oder denken mag: Google ist ein gewinnorientiertes Privatunternehmen. Die Kritik richtet sich gegen die Suchenden, die sich zu stark auf Googles Suchergebnisse verlassen.

Warum Web 2.0 für die Wissenschaft?

Nachdem wir bereits einige Beispiele für die Nutzung von Web 2.0 gegeben haben, muss einmal die Frage behandelt werden, warum Web 2.0 überhaupt Eingang in die Wissenschaft finden sollte.

Was immer sich in den letzten hundert Jahren abgespielt haben mag, die Wissenschaft ist noch immer ein elitärer, abgeschotter Zirkel mit geheimen Codes, geschlossenen Schulen, Ketzerverbrennung und Selbstverliebtheit. Nach dem Motto, das dumme Volk versteht uns eh nicht, verweigern sich die Wissenschaftler stetig der Neugier derjenigen, die ihre Umtriebe über Steuermittel finanzieren.

Wer zahlt, möchte auch sehen, wofür er zahlt. Und der Wissenschaftler bricht sich nichts, wenn er in der Lage ist zu erklären, was er eigentlich tut und worin dessen Nutzen besteht.

Die Selbstkontrolle spielt in der Wissenschaft noch keine große Rolle. Daher konnten Aufsätze plagiert werden, wissenschaftliche Ergebnisse manipuliert,
öffentliche Gelder für Unsinn verschwendet werden.

Der Wissenschaftler schätzt Kritik nicht besonders und Selbstkritik ist ihm fremd. Das Web 2.0 zwingt ihn dazu, auch Kritik anzunehmen und damit vernünftig umzugehen.

Und schließlich zwingt das Web 2.0 dazu, sich einfach aber präzise auszudrücken. Dies erhöht seine Fähigkeit, seine Arbeiten sauber zu strukturieren und zwingt vor allem deutsche Wissenschaftler, sich vom Zunftjargon zu verabschieden.

Wissenschaft im Social Web 2.0 – Blogs

Während Foren auf eine Diskussion ausgerichtet sind, in der grundsätzlich alle gleichberechtigt sind, zielen Blogs eher auf das Ein-Sender-Viele-Empfänger-Prinzip ab.
Ein Blog ist ideal, um kleine Fortschritte und Zwischenergebnisse bekannt zu geben, innerhalb einer Community oder auch öffentlich. Dies ist bei langen Untersuchungen interessant, wo die Teilnehmenden normalerweise bis zum Ende auf dem Trockenen liegen.
Für Psychologen sind Blogs deshalb interessant, um Versuchspersonen zu bekommen und als Multiplikatorfunktion. Normalerweise ist es recht schwierig, VPs zu bekommen. Mit Blogs können auch sie relativ problemlos über die Ergebnisse der Untersuchungen informiert werden, an denen sie teilgenommen haben. Sie werden dann eher bereit sein, anderen von ihren Erfahrungen zu berichten, die dann auch eher bereit sind, sich als Versuchskaninchen zur Verfügung zu stellen.

Die Kommentarfunktion ermöglicht es, Kritik oder Verbesserungsvorschläge zu unterbreiten, Fehler im Ablauf schnell festzustellen und erfüllen somit eine Selbstkontrollfunktion. So etwas ist in der Wissenschaft noch nicht sehr angesehen. Kritik ist das ungeliebte Stiefkind der Wissenschaft, ihre ebenso unbeliebte Schwester ist Selbstkritik.

Geschichten erzählen

Was Journalisten und insbesondere die Leute im Fernsehen schon lange wissen ist, dass Geschichten erst interessant werden, wenn eine Person oder eine Famlie in den Mittelpunkt gestellt wird. Alle soziologischen Studien über Armut bleiben blutleer und leblos, weil Statistiken nicht anschaulich sind und kein einzelnes Schicksal in den Mittelpunkt stellen.
Erzählt eine Person über ihr Schicksal, erweckt das ungleich mehr Eindruck. Ic habe dies in einem anderen Blog versucht.

Das Auge als Kamera

Viele Leute glauben immer noch, Sehen funktioniere wie eine Art Kamera, das Bild, welches auf unsere Netzhaut fällt, werde 1 : 1 ins Gehrin übertragen. Die Wirklichkeit ist faszinierender.

Fest steht bereits seit langem, dass das Gehirn Informationen des Sehens an verschiedenen Stellen verarbeitt. Ein rollender, roter Ball wird in drei Informationen verlegt, für deren Verareitung unterschiedliche Teile des Hirns veantwortlich sind: Bewegung, Farbe, Form.

In der aktuellen Ausgabe des Wissenschaftsmagazins Spektrum der Wissenschaft (Mai 2008, der genannte Artikel ist kostenpflichtig!) beschreiben zwei Forscher ein noch komplexeres System. Demnach werden nicht nur die oben genannten Faktoren voneinander getrennt, es laufen zwölf oder mehr verschiedene Filme ab. Sol heißen, die Nethaut vermag viele Informationen paralell, aber getrennt voneinander aufzunehmen: Schatten, Helligkeit, Umrisse, Bewegungsrichtungen.

Sinn des ganzen könnte sein, dass das Auge sich somit auf verschiedenste Stufen der Helligkeit und der Bewegung adaptieren kann. Vor allem die Billigkameras taugen oft nur – und auch nur bedingt – für verschiedene Lichtzustände. Oftmals können sie kaum adäquat eingestellt werden. Keine Kamera kann ohne Scheinwerfer oder Restlichtverstärker im Dunkeln brauchbar arbeiten.