Schlagwort-Archive: Google

OpenAccess – offener Diebstahl

Rudolph Walther regt sich in einem Artikel in der taz gewaltig auf. Leider hat der gute Mann in seinem heiligen Zorn zwei Dinge wild vermischt: Die Google-Buchsuche und OpenAccess.

Die Google-Buchsuche basiert auf Büchern, die von Google eingescannt und digital zur Verfügung gestellt werden. Google hat das im Schatten von Halblegalität gemacht, sich aber mittlerweile mit amerikanischen Rechteinhabern geeinigt. Nach wie vor macht Google aber diese Bücher eben nicht frei zugänglich, wenn Urheberrecht oder Copyright bestehen. Nur gemeinfreie Bücher sind offen zugänglich. Der Rest ist lediglich für Recherche zugänglich, ähnlich wie bei Amazon stehen Ausschnitte zur Verfügung, nicht aber der Volltext.

OpenAccess hingegen ist der Zugang zu – in erster Linie – wissenschaftlichen Arbeiten. Es gibt nun gar keinen Zusammenhang zur Google-Buchsuche.

Herr Walther scheint auch kein Freund von digitalen Archiven zu sein. Zurecht verweist er darauf, dass alte Datenträger und Dateiformate nur schwer zugänglich sind.

Um so mehr müsste gerade er sich über die Google-Buchsuche freuen. Hätte Google das Kölner Stadtarchiv durchgescannt, würden wir heute zumindest digital darin stöbern können, statt sprichwörtlich in Schutt und Staub nach Überresten zu suchen.

Ein guter Teil der von Google eingescannten Bücher sind derzeit nicht lieferbar, weil sie mangels Rentabilität nicht nachgedruckt werden. Es ist gar nicht so unwahrscheinlich, dass viele dieser Titel sang- und klanglos in Vergessenheit geraten würden, wenn Google sie nicht im Web lebendig hält.

Jeder Student ärgert sich heute über geklaute, dauerausgeliehene, nicht lieferbare und nicht vorhandene Bücher in der Bibliothek. Neben mangelnder technischer Ausstattung ist der schwierige Zugang zu Fachliteratur eines der größten Probleme wissenschaftlicher Forschung.

Und die Wissenschaft ist nun das Musterbeispiel für ein Gemeingut. Es sind überwiegend Steuerzahler, welche die deutsche Wissenschaft finanzieren.

Wer sich für die Problematik interessiert, mag sich zwei Bücher der Bundeszentrale für politische Bildung herunterladen:

Urheberrecht im Alltag, unter anderem herausgegeben von Volker Grassmuck
Wissen und Eigentum, herausgegeben von Jeanette Hofmann, die Texte dieses Buches stehen unter Creative Commons License

Google kennt dein Gesicht

Die Google-Bildersuche kann mittlerweile Gesichter erkennen.Unter „beliebiger Content“ kann man sich nur Gesichter anzeigen lassen. Googles kostenlose Fotoorganisationssoftware Picasa kann die eigene Fotosammlung auf Gesichter hin durchsuchen.

Es dürfte nur noch eine Frage der Zeit sein, bis man nicht nur allgemein Gesichter, sondern bestimmte Gesichter im Sinne der Personensuche finden kann. Noch müssen die Fotos einen Mindeststandard erfüllen.

Glaubt man Klaus Eck, spielt das Web für die Personalsuche eine immer größere Rolle. Das Management der eigenen Reputation wird somit immer wichtiger.

Bisher sind unsere Freunde nämlich zu faul, bei peinlichen Fotos, die sie ins Web stellen, die Namen der Abgebildeten einzutragen. Die Wahrscheinlichkeit, auf solchen Fotos zufällig zu landen, ist mit Handycams, Digicams und Camcordern in Verbindung mit fortgeschrittenem Alkoholkonsum doch recht hoch.

Nun, auch ein Bewerber hat ein Recht auf Privatsphäre, selbst im Web. Im Gegensatz zu Herrn Eck bin ich allerdings der Ansicht, dass man sich nach Möglichkeit weitgehend heraushalten sollte aus dem Web. Wer aber schon im Web ist, sollte tunlichst jede Peinlichkeit vermeiden. Der Job, den man eventuell nicht bekommt ist da vielleicht noch nicht die schlimmste Konsequenz.

Die Wahrheit ist irgend wo da drin – oder auch nicht

Suchmaschinen sind ein nützliches Instrument, doch um sie vernünftig verwenden zu können, sollte man wissen, wie sie funktionieren. Suchmaschinen wie Google produzieren ihre eigene Wahrheit, wie Wikipedia ihre eigene Wahrheit hat. Wikipedias Wahrheit basiert auf Belegen. Zu welchen Unfällen das führen kann, hat der Fall von und zu Guttenberg gezeigt. Ein Scherzkeks hat dem Herren mit den vielen Namen noch einen mehr spendiert. Andere Medien wie SpON sprangen auf und übernahmen die lange Liste von Namen inklusive dem überzähligen Vornamen. Ein Wikipedianer löschte zunächst den falschen vornamen im Artikel, sah sich nach weiteren Quellen um, fand sie im Spiegel und setzte den falschen Vornamen wieder ein. So wäre Herr Guttenberg im reifen Alter fast zu einem neuen Vornamen gekommen.

Wir kennen dieses Problem aus der wissenschaftlichen Forschung. Die Geisteswissenschaften greifen überdurchschnittlich stark auf Quellen zurück. Wer kritische Quellenanalyse betreibt, versucht natürlich, für umstrittene Informationen mehrere Quellen zu verwenden, wobei er das Risiko eingeht, dass sämtliche Quellen auch nur voneinander abgeschrieben haben. Wie etwa die vier Evangelisten des Neuen Testaments.

So funktioniert auch der Google PageRank. Der Erfolg der Wikipedia ist zuletzt Google zu verdanken. Bei sehr vielen – auch fachspezifischen – Themen spuckt Google als erstes Suchergebnis Wikipedia aus. Zumindest ist WP sehr oft auf der ersten Suchseite.

Auch wenn die Wikipedia-Artikel überwiegend in Ordnung sind, stellt sich doch die Frage, warumoffenbar alle auf deren Artikel verlinken, statt eine andere Quelle zu wählen, die vielleicht inormativer ist.

DerPageRank führt dazu, dass populäre Meinungen noch weiter gepuscht werden. Es entsteht ein Top-Ten-Effekt:

Nehmen wir an, ich suche Informationen zur Fotosynthese. Ich schaue mir die ersten zwanzig Suchergebnisse von Google an. Ich verlinke vier dieser Artikel auf meiner Website. Damit erhöhe ich die Wahrscheinlichkeit, dass der nächste Pflanzenneugierge genau auf die gleichen Suchergenisse zur Fotosynthese stößt wie ich. Und zwar auch dann, wenn er eben nicht von meiner Seite startet.

Statt also möglicherweise randständigere Aspekte der Fotosynthese erfahren zu können, wird er genau die gleichen Meinungen lesen, die ich gelesen habe. Er wird ebenfalls vier Ergebnisse aus den ersten zwanzig Ergebnissen verlinken. Und immer so fort.

Die Kritik richtet sich allerdings nicht gegen Google. Was imer google über sich selbst sagen oder denken mag: Google ist ein gewinnorientiertes Privatunternehmen. Die Kritik richtet sich gegen die Suchenden, die sich zu stark auf Googles Suchergebnisse verlassen.

Web 3.0 – dreidimensional, mobil, verständig

Wenn man die Essenz des Next-Generation-Web oder Web 3.0 zusammenfassen will, stößt man vor allem auf zwei Aspekte: Neue Möglichkeiten der graphischen Darstellung, Vereinfachung der Einbindung verschiedener Dienste, bessere Dienstleistungen.

Die 3-D-Welt Second Life ist heute weitgehend aus populären Medien verschwunden. Nachdem auch Google seine 3-D-Welt Lively geschlossen hat, sieht es zunächst einmal schlecht aus für neue Impulse der 3-D-Darstellung für normale Webseiten. Mit steigenden Ansprüchen an Graphik, höherer Bandbreite und besseren Darstellungsdiensten wird es sicherlich dennoch in absehbarer Zeit möglich, dreidimensionale Webauftritte zu kreiieren.

Dreidimensionale Darstellungen bieten auch ganze neue Möglichkeiten zur Navigation. Zumindest macht GPS das Angebot lokalisierter und mobiler Dienste möglich. Dazu müssen die Tarife für das mobile Surfen allerdings wesentlich billiger werden, zudem muss das mobile Surfen ein wenig angenehmer werden. Nicht jeder kann oder mag sich ein IPhone oder Android leisten.

Das semantische Web wird zumindest für große Informationsangebote relevant sein, etwa Wikipedia, aber auch andere Wissensanbieter. Es ermöglicht die Strukturierung von Informationen jenseits hyperkomplexer Datenbanken. Damit erleichtert es die Suche nach bestimmten Informationen. Das ganze Web maschinenlesbar zu machen wäre eine Sisiphus-Aufgabe, die wohl kaum zu bewältigen ist. Einzelne große Informationsangebote hingegen anständig durchsuchbar zu machen, ist hingegen ein Gebot der Stunde.

Warum aber über das Web 3.0 reden, wenn das Web 2.0 noch immer bei vielen Leuten gar nicht angekommen ist? Das Problem dabei ist weniger eine diffuse Ablehnung und vielmehr die Unkenntnis darüber, was Web 2.0 eigentlich ist, die mangelnde Neugier auf das, was da lauert und der Unwille, es zumindest einmal auszuprobieren, der sogar im Journalismus zu finden ist.

Die Killerapplikation, die dem Web endgültig zum Durchbruch verhelfen könnte, besteht aus zwei Komponenten: SingleSignOn und Unified Communications (UC). UC bedeutet Kommunikationskanäle gebündelt in einer Oberfläche: ob Twitter, StudiVZ, SMS oder E-Mail, alles muss in einer Oberfläche gebündelt werden. Das Internet wimmelt von toten Accounts, von den zig Millionen angeblichen Nutzern sozialer Netzwerke lassen sich rund ein Drittel inaktiver Nutzer abziehen, die wahrscheinlich sogar vergessen haben, dass sie sich jemals angemeldet haben.

In die gleiche Richtung geht SingleSignOn, einmal einschreiben oder eintragen. Das Problem besteht darin, unterschiedliche Profile miteinander zu vernetzen. Ist man z. B. bei MySpace und Facebook angemeldet und hat bei beiden Netzwerken Kontakte aufgebaut, müsste in beiden Netzwerken auch das mitteilen, was man für mitteilenswert hält. OpenID von Yahoo ist der erste vielversprechende Versuch, das Problem dieser Redundanz in den Griff zu bekommen. Facebook unterstützt es inzwischen.