Schlagwort-Archive: Google

Google stolpert über die Barrierefreiheit von Android

In einem Kommentar schrieb ich zu einem anderen Thema, dass einem Google fast leid tun könnte. Auf der einen Seite arbeiten sie beständig an der Weiterentwicklung von Android. Auf der anderen Seite profitieren die meisten Android-Nutzer nicht davon, weil die Updates durch die Hersteller nicht an die Nutzer weitergegeben werden. Google hat hier aus jeder Sicht versagt: die Nutzer profitieren nicht von Verbesserungen des Betriebssystems und Android-Handys werden ein Sicherheitsrisiko. Die Hersteller ihrerseits müssen – oder sollten zumindest – eigene Ressourcen aufwenden, um die Geräte auf die neueste Version zu bringen. Falls Microsoft bei Windows Phone eine andere Strategie verfolgt – ich weiß es leider nicht – könnte Android seine Vormachtstellung auf dem Mobilgeräte-Markt tatsächlich wieder einbüßen. Das Problem war eigentlich voraussehbar, weshalb es schlicht unverständlich ist, warum Google diesen Fehler gemacht hat. Andere Frage: Wie viele Leute werden noch ein Android-Gerät kaufen, wenn diese massenhaft von Hackern gekapert werden?

Googles Fehler in der Barrierefreiheit von Android

Ebenso groß ist Googles Versagen, was die Barrierefreiheit des Systems angeht. Dass sie relativ spät auf Barrierefreiheit gesetzt haben, könnte man ihnen noch verzeihen. Erst Apple hat überhaupt gewagt, ein touch-basiertes Gerät für Blinde zugänglich zu machen.

Was man Google nicht verzeihen kann ist die Fragmentierung der Zugänglichkeitshilfen. Zunächst müssen die Eingabehilfen im System eingeschaltet werden, danach darf man die passenden Apps aus dem Netz herunterladen. Es gibt nicht eine, sondern sehr viele Apps, die installiert werden müssen, um das Gerät überhaupt bedienbar zu machen.
Was mich wirklich geärgert hat ist, dass man das Gerät als Blinder oder Sehbehinderter nicht selbst einrichten kann. Man kann das Gerät nicht einfach an den Computer anschließen und dort konfigurieren. Die Apps müssen über den Appstore oder eine andere Quelle heruntergeladen und installiert werden. Sogar den Spaß, einen Google-Account samt CAPCHA übers Handy zu erstellen mutet Google einem zu.

Auf der Suche nach der verlorenen App

Für viele Aufgaben gibt es eine, zwei oder mehr Apps. Als Behinderter darf man sich die passende App aus dem Store aussuchen. Man kann sich auch die x Seiten durchlesen, die Google dankenswerterWeise zum Thema bereit gestellt hat. Schön und gut – aber wer will das schon? Selbst wenn man Zeit hat, gibt es angenehmere Dinge, mit denen man seine Zeit verbringen kann als Anleitungen zu lesen und Apps zu studieren.
Wirklich dämlich ist die mangelnde Anpassbarkeit der Android-Oberfläche für Sehbehinderte. Es wäre recht einfach gewesen, die Oberflächen an die eigenen Bedürfnisse anpassbar zu machen, indem man Schriftgrößen, Farben und Kontrast selbst einstellt. Die Antwort lautet wahrscheinlich: Es gibt eine App dafür! Es tut mir echt leid, aber für jeden Furz eine App zu installieren und wenn es auch so schnell geht ist absolut nicht die Lösung. Ich erwarte von jedem aktuellen Betriebssystem – ob Smartphone oder Desktop – ein Mindestmaß an Konfigurierbarkeit der Oberfläche.
Generell bin ich für den Open-Source-Ansatz. Es ist eine schöne Sache, dass es unzählige Hacks für Android gibt. Und dort, wo Hilfssoftware schon halbwegs gut funktioniert – auf dem Desktop – ist das schön. Nichts davon kommt aber Blinden auf einem Smartphone zugute, weil sie schlicht keinen kognitiven Zugang zum Gerät haben. Schade Google – schade Android.

Informationskompetenz für Alle – das Ende der Gatekeeper

edit vom 8. Februar: Eine Anregung von Querdenkender aufgreifend habe ich den Begriff Medienkompetenz durch Informationskompetenz ersetzt.

Ursprünglich wollte ich Bloggergate als Aufhänger dieses Beitrags nehmen. Ich verzichte darauf, weil das Ganze zum einen die Aufregung nicht wert ist und zum anderen ins Persönliche abgedriftet ist. Zu Bloggergate ist schon alles gesagt worden, aber noch nicht von allen.
Ich möchte stattdessen einen Blick darauf werfen, wie die Öffentlichkeit beeinflußt wird und warum wir alle Informationskompetenz brauchen.

Die Anfälligkeit für Manipulationen

Das Web ist entgegen anderer Gerüchte anfällig für Manipulationen. Schon mittelständische Unternehmen haben große PR-Budgets. Von diesem Geld lassen sich problemlos ein bis zwei Webworker bezahlen, die 40 Stunden die Woche das Netz durchforsten, um negative Kommmentare mit wohlwollenden oder positiven Kommentaren zu neutralisieren, in kritischen Blogbeiträgen dem Autor Voreingenommenheit vorzuwerfen oder so lange herumtrollen, bis auch der geduldigste Diskutant kapituliert.
Man muss dabei nicht so ungeschickt sein wie ein gewisser Tablet-PC
-Vertreiber.
Suchmaschinenoptimierung ist ebenfalls der Versuch, die Suchergebnisse zu manipulieren. Die SEOs mögen einwenden, Google sei selbst nicht neutral, das hat nun auch keiner behauptet. Eine Manipulation dadurch zu rechtfertigen, dass eine Maschine sowieso schon falsch tickt, hat doch einen faden Beigeschmack. Wenn Webmaster endlich anfangen, Title, Alternativ-Text und Zwischenüberschriften vernünftig einzusetzen, ist das kein SEO, sondern Redaktionshandwerk. Wenn ich aber anfange, Link-Netzwerke, Linktausch und Linkkauf zu machen, ist das eine gezielte Manipulation von Google. Der Inhalt einer Seite wird dadurch nicht um ein Stück besser, der Otto-Normal-Googler hat aber keine Ahnung davon und hält die ersten Suchergebnisse für die wichtigsten oder besten.
Liebe SEOs, ich hätte gerne gute Ergebnisse auf den ersten Plätzen und nicht seo-gestählten Nonsens. Warum legt ihr den Schwerpunkt nicht darauf, die Inhalte der Websites zu verbessern, anstatt auf PageRank und SERPs zu schauen?

Kampagnen

Wir werden tagtäglich schlecht informiert. Meine Leseempfehlung dazu ist schon betagt und stammt von Wolf Schneider „Unsere tägliche Desinformation“. Dazu muss man wissen, dass Schneider ein Konservativer alter Schule ist und sein Buch nicht die übliche Mischung aus lauwarmer Kulturkritik und abgestandener Niedergangsrhetorik ist. Es geht darum, wie Medien teils absichtlich falsch, parteiisch oder ungenau berichten und damit die Öffentlichkeit manipulieren. Das Buch wurde in den 80ern geschrieben und man kann sich gut vorstellen, dass die damals vorherrschenden Zwänge heute eher zu- als abgenommen haben und auch für Online-Medien und Blogs gelten.
Techblogs zum Beispiel werben naturgemäß für technische Gadgets. Auch wenn das Ganze über Vermittlernetzwerke zustande kommt und man keinen direkten Kontakt zur Herstellerfirma hat: die Firma freut sich bestimmt nicht darüber, wenn ihr Produkt in einem Artikel zerpflückt wird, während links daneben die Werbung für das gleiche Produkt steht.
Ein weiteres lesenswertes Buch ist Media Control von Noam Chomsky. Chomsky erklärt die Mechanismen, die dazu führen, dass Medien sich freiwillig einem bestimmten Konsens unterordnen. Es geht dabei um informelle Zwänge und den Aufstieg in der Hierarchie, den nur die Konformisten schaffen.

Kampagnen-Journalismus

Große Medienhäuser fahren regelmäßig Kampagnen, wo sich sich auf das eine oder andere Thema einschießen, ohne das der Grund von außen ersichtlich ist. Es reicht schon, wenn der Chefredakteur etwas gegen Windräder hat und schon erscheinen Artikel, die die Windenergie schlecht machen. Der Guttenberg-Hype war auch eine Kampagne, vielleicht, um ein Sommer- oder Winterloch zu stopfen. Vielleicht glauben die Journalisten aber tatsächlich, normale Menschen würden gerne Storys über Guttenberg oder das Dschungelcamp in ihrer Zeitung lesen.

Presse und PR

Einer sinkenden Zahl von Journalisten stehen immer mehr Menschen aus Marketing, Werbung und PR gegenüber, ich mache übrigens auch PR, um hier keine Mißverständnisse aufkommen zu lassen. Ich habe mich für meinen Blog dem Pressekodex verpflichtet, eine symbolische, aber dennoch wichtige Sache.
Während ein Journalist zumindest nominell der Wahrheit und Fakten verpflichtet ist, wird das Marketing und die PR dafür bezahlt, etwas in möglichst gutem Licht dastehen zu lassen. Ein Journalist soll sich nie mit einer Sache gemein machen, ob sie nun gut oder schlecht ist. Ein Mensch aus der PR hingegen muss sich mit jeder Sache gemein machen, deren Auftragnehmer er ist.
In der Blogosphäre kann damit aus einem Vorteil ein Nachteil werden. Da hier oft Leute aus der Praxis kommen, verdienen sie ihr Geld damit, jemandem eine Dienstleistung zu verkaufen. Die Attraktivität von Blogs erwächst aus ihrer Praxisnähe, aber kann jemand ernsthaft erwarten, dass hier echte Kritik an der eigenen Branche oder an fehlgeleiteten Kollegen stattfindet? Eher nicht, denn hierzulande gelten Kritiker als Nestbeschmutzer. Niemand sägt den Ast ab, auf dem er sitzt, sei es das eigene Berufsfeld oder das Kollegennetzwerk.

Informationskompetenz für Alle

Wenn der Journalismus nicht mehr für uns die Aufgabe übernehmen kann, das Wahre von dem Falschen, das Wichtige von dem Unwichtigen und das Relevante von dem Irrelevanten zu trennen, dann ist jeder Einzelne von uns gefragt, diese Aufgabe zu übernehmen. Wir können uns dafür entscheiden, unsere Informationen aus verschiedenen Quellen zusammenzustellen. Dort, wo wir uns nicht auskennen, vertrauen wir auf Experten, die wir für kompetent halten.
Man muss ein Gespür dafür entwickeln, wer wann welche Interessen verfolgt und ob diese Interessen einen Einfluß auf seine Aussagen haben. Das Stichwort dazu ist kritische Quellenanalyse, eine Methode von Historikern, wir können von Quellenanalyse light sprechen, man muss es nicht übertreiben.
Warum wir alle Informationskompetenz brauchen? Weil wir alle gezwungen sind, innerhalb von Sekunden über die Relevanz von Suchergebnissen, Schlagzeilen und Informationen zu entscheiden. Deswegen umfasst Informationskompetenz heute auch mehr als die Kenntnis darüber, wie Informationen von Medien gemacht werden. Dazu gehört auch zu wissen, wie Umfragen und statistische Erhebungen zustande kommen, wie die Suchalgoritmen von Suchmaschinen arbeiten und wie Artikel in der Wikipedia zustande kommen.

Weiterführendes

Warum schlechter Traffic kein guter Traffic ist

Im Google Weblog wird mit einem Augenzwinkern gefragt „Brauchen wir einen Meta-Tag für ’negative Keywords‘?. Matt Cutts sagt nein: Der erste Teil der Erklärung ist verständlich, es ist aus Ressourcensicht nicht sinnvoll, unnötig Energie auf Begriffe aufzuwenden, mit denen die Leute nicht gefunden werden wollen. Der zweite Teil der Meldung ist hingegen ziemlicher Quatsch:

Wir danke für die Meldung, aber wir wurden einfach noch nicht oft genug gebeten: „Bitte sendet mir keine Besucher. Ich möchte bei dieser Wortgruppe nicht
angezeigt werden.“ Quelle

Schließlich geht es nicht um den Webmaster und es geht sicher nicht darum, auf Teufel komm raus Traffic zu generieren. Dies wissen wir schon seit der ersten Schwemme mit Meta Keywords, welche die Meta Tags bis heute diskreditiert haben. Daraus haben wir gelernt, wer Traffic haben will, muss seine Seite mit Erotik und Potenzmittel-Werbung vollpacken.

Inzwischen sollten wir aber verstanden haben, dass diese Art des Traffic uns keinerlei Mehrwert bringt, es sei denn, wir verkaufen Erotik oder Potenzmittel oder etwas Verwandtes. Oder wir kleistern unsere Seite mit Anzeigen voll, mit denen wir Geld verdienen.

Ansonsten sollten unsere Ansprüche wohl höher sein: jemand, der sich auf unsere Seite verirrt hat, wird mit sehr geringer Wahrscheinlichkeit unseren großartigen Content angucken. Schließlich hat er vermutlich etwas bestimmtes gesucht, was wir ihm nicht bieten können.

99 Prozent der Website-Betreiber sind zugleich auch Nutzer einer Suchmaschine und ärgern sich darüber, wenn sie das Gesuchte nicht finden.

Wer die Keywords oder Phrasen analysiert, mit denen die Besucher auf seine Seite kamen, weiß in der Regel, dass er für diese Suchen keine Inhalte liefern kann. Er will aber Besucher haben, die wegen seinem Content kommen, sich ein paar Seiten ansehen und möglichst lange bleiben. Dazu ist es aber auch nötig, die Enttäuschung über fehlende Inhalte möglichst gering zu halten. Bei großen Seiten ist es doch wahrscheinlich, dass die Leute sich den Namen der Site merken, die sie in die Irre führte und selbige auf ihre mentale schwarze Liste kommt.

Bei mir kommt da sehr schnell auch der Verdacht auf, dass die Verantwortlichen an der SEO herum manipuliert haben. Ich persönlich habe mich immer geärgert, wenn ich auf einer Seite gelandet bin, die vielversprechend klang und wenig Inhalte bot. Bei meiner eigenen Seite habe ich auch herumgebastelt, weil ich gemerkt habe, dass die Leute mit falschen Erwartungen zu mir kamen. Für meinen Geschmack ist so etwas ein Fall für den SEO-Doktor.

Als Fazit kann man festhalten, dass die Zufriedenheit des Nutzers ganz oben steht. SEO heißt deshalb nicht nur, möglichst viel Traffic auf meine Seite zu locken, sondern vor allem, die eigenen Inhalte am besten an den Besucher zu bringen.

Der PageRank und der Sprachraum

Der PageRank fasziniert die Leute, die sich mit Suchmaschinenoptimierung beschäftigen. Er mißt den Grad der Verlinkung einer Website. Je besser eine Seite verlinkt ist, desto höher der PageRank. Und je höher der PageRank einer Seite ist, desto höher ist der Wert eines Links diese Site für eine andere Site.

Der PageRank wächst nicht gleichmäßig, sondern vermutlich um einen Faktor Fünf. Das heißt, man braucht für einen PageRank von 2 ungefähr fünf Mal so viele Links wie für einen PR von 1. Für einen PR 3 braucht man entsprechend 25 Mal mehr als für PR 1 und so weiter.

Das mag ein nettes Maß für die Qualität einer Website sein, hat jedoch einen entscheidenden Haken, den Google meines Wissens nach bisher nicht berücksichtigt hat: die Menschen verlinken bevorzugt auf Websites ihres eigenen Sprachraums.

Die Sprachenwelt des Internet ist natürlich wesentlich anders als die reale Sprachwelt: Die lingua franca des Web ist Englisch. Daneben gibt es nur eine Handvoll Sprachen im Web mit nennenswerten Zahlen an Websites: Spanisch, Französisch, Deutsch, Russisch, Mandarin und vermutlich Hindi, Portugiesisch und Arabisch. Die Afrikaner und viele Inder, die Websites betreiben dürften Englisch oder Französisch als Sprache bevorzugen, um eine größere Gruppe von Menschen zu erreichen. Internet ist in Indien immer noch selten und teuer und es dürfte daher wenige Leute geben, die eigene Websites betreiben. Zumal auch hier Netzwerke wie Facebook an die Stelle privater Websites getreten sind.

Das gilt aber auch für kleine europäische Sprachräume: Die Skandinavier dürften ganz gut mit Internet versorgt sein. Oder Osteuropa mit einer recht brauchbaren Versorgung mit Internet.

Alle diese Sprachräume haben eines gemein: Ihre Websites können noch so gut sein, sie könnten nie quantitativ so viele Links aufbauen wie englisch-sprachige Websites. Angloamerikanische Weblogs wie TechCrunch profitieren überwigend davon, dass sowohl englische als auch anderssprachige Websites auf seine Artikel verlinken. Dass TechCrunch seinerseits auf einen deutschen Blog verlinkt ist vielleicht noch denkbar, aber würde TechCrunch wohl auf einen norwegischen, estnischen oder Suaheli-Blog verlinken? Wahrscheinlich äußerst selten.

Hier stoßen die quantitativen und qualitativen Methoden von Googles PageRank schnell an ihre Grenzen. Es ist aber albern, einer englischen Site einen PR von 10 zu geben, aber einer polnischen Site einen solchen PR zu verweigern, wenn sie eben so gut.

Allerdings sollte man dem PageRank nicht so viel Gewicht beimessen. BWLer lieben Rankings und Zahlen. Aber eine Website mit schlechter On-Site-Optimierung profitiert weniger von einem guten Rank, während eine gut optimierte Site in ihrem Erfolg von einem schlechten Rank nicht allzusehr betroffen ist. Ärgerlich wird es etwa dann, wenn eine Website Geld verdienen will und der Wert von Bannerwerbung nicht an der Menge von qualifiziertem Traffic, sondern am PR gemessen wird.

Access News vom 26. August 2010 – Navi ohne GPS

Für Open Source droht neues Ungemach: Oracle verklagt Google wegen der Verwendung von Java in Android. Es war wohl absehbar, dass Oracle das von ihm gekaufte Sun früher oder später wie eine Zitrone auspressen würde: jetzt fragt sich jeder, was nach der Einstellung von Open Solaris als nächstes kommt. Google wird die Klage wenig schaden. Allerdings spielt Java im Open-Source-Bereich eine große Rolle und ziemlich sicher werden auch Zugänglichkeits-Anwendungen betroffen sein. Die Klage verunsichert vor allem die Programmierer, die zuvor auf Java als plattformübergreifende Programmiersprache gesetzt haben. Auch wenn bisherige Programme nicht betroffen sein mögen – als Laie ist das schwer zu sagen – weiß niemand, in welche Richtung Oracle künftig die Lizenzpolitik für Java steuern wird.

Brotkrummen statt GPS

Microsoft hat ein von Sensoren strotzendes Handy vorgestellt, mit dem sich ein Weg exakt zurückverfolgen läßt – ohne GPS. Das Gerät ermittelt die Daten über Luftdruck, Geschwindigkeit und weitere Parameter. Zweifelhaft ist die Tendenz, die Daten über das Internet auf zentralen Servern zu speichern. Es ist eigentlich wahrscheinlich, dass man sich an einem Ort befindet, wo kein GPS, aber Internet vorhanden ist?
Wie dem auch sei: kann man so viel Power in einem Gerät vereinen, dürfte das Gerät auch für die Orientierung Blinder und stark Sehbehinderter interessant werden. Dafür wären vor allem Sensoren interessant, welche die Entfernung bewegter und unbewegter Objekte – Menschen, Autos, Gebäude – ermitteln könnten.

iPad für Autisten

Autisten sind in der Lage, sich über Tablets auszudrücken. Der direkte taktile Kontakt mit der Oberfläche mit dem Gerät und die leichte und intuitive Bedienung erlaubt es auch Menschen mit Lernschwierigkeiten, sich schnell mit dem Computer zurecht zu finden. Das könnte ein sehr interessantes Forschungsfeld für neue Therapieformen werden.

Auf dem Weg zur Echtzeitsuche

Was RSS-Feeds schon länger möglich machen, scheint jetzt auch bei den großen Suchmaschinen Einzug zu halten: die Echtzeitsuche. Google und Bing arbeiten mit Twitter zusammen, um aktuelle Tweets in die Suche einzubinden. Google möchte zudem auch Social Communities wie Facebook in seine Suche einbinden, wie Technology Review berichtet. Interessant dabei ist, dass Google zur Relevanzanalyse offenbar einen ähnlichen Algoritmus wie seinen PageRank verwendet,das heißt, die Relevanz eines Tweets hängt von der Zahl der Follower ab. Ein Tweeter mit vielen Mitlesern soll einen Teil seines Ranks auf Tweeter mit weniger Lesern vererben können, wenn er diesem folgt. Damit könnte das Thema Suchmaschinenoptimierung in die nächste Runde gehen.
Das dürfte vor allem für Marketing-Fachleute und Trend-Scouts interessant sein, um die Resonanz auf Produkte und Kampagnen in Echtzeit zu untersuchen. Gepaart mit Geotags, wie sie von GPS-Handys mitgeliefert werden, können Echtzeitsuchmaschinen tatsächlich einen praktischen Zweck bei der Katastrophenprävention spielen. Wenn in einer Region überdurchschnittlich oft nach Grippe, Grippemitteln oder verwandten Begriffen gesucht wird, könnte in dieser Region ein verstärkter Bedarf nach Impfmitteln bestehen.
Ich sehe da allerdings im Augenblick keinen Vorteil für den Normaluser, der mit der Blogsuche und Google News im Grunde schon alle interessanten Instrumente hat. Was aber tatsächlich fehlt ist ein effizienter Filter bei der normalen Suche. Wer etwa ein technisches Problem hat, muss sich durch jahrealte Foreneinträge wühlen, nur um festzustellen, dass seine Frage im Jahr 2005 nicht beantwortet wurde. Es gibt aber auch keine Möglichkeit, Ergebnisse auszufiltern, die ein bestimmtes Alter überschritten haben. Da viele Websites auf den Servern der Suchmaschinen zwischengespeichert sind, wäre es für sie kein großes Problem festzustellen, dass eine Seite sich seit mehreren Jahren nicht verändert hat. Zudem haben die meisten Forenbeiträge wie auch Weblogs eine Datumsangabe. Gerade vorhin habe ich nach einem Produkt gesucht, von dem ich in einem Artikel gelesen habe. Nach einer mehrminütigen erfolglosen Suche habe ich endlich festgestellt, dass es den Artikel gar nicht mehr gibt.
Tatsächlich scheint eher die Fixierung auf Aktualität an Relevanz zu verlieren.

Was will Google?

Das fragt man sich, wenn man sieht, wie Google fast im Wochentakt neue Anwendungen präsentiert, zuletzt ein Smartphone auf Android-Basis. Android ist ein linuxbasiertes Betriebssystem, an dessen Entwicklung Google beteiligt ist. Google arbeitet an einem webbasierten Betriebssystem namens Chrome OS, möchte die Kommunikation mit „Wave“ revolutionieren, bietet ein Online-Office-Paket und vieles mehr.
Viele der Anwendungen laufen eher mäßig erfolgreich: von der hauseigenen Community „Orkut“ hört man selten, der Chrome-Browser schlägt sich mit Opera und Safari um den dritten Platz auf dem Browsermarkt, um die Wikipedia-Alternative Knol ist es nach wie vor still.
Zudem fällt auf, dass Google viele Projekte nicht selbst entwickelt, sondern aufgekauft hat: die Bildbearbeitung Picasa, das Videoportal YouTube, die Weblog-Plattform blogger.com, die Webanalyse-Software Analytics.
Die Antwort auf die Frage, was Google will, besteht aus drei Teilen:
– Google sammelt Informationen für seine Werbekunden und für spätere Anwendungen, von denen es selbst noch nicht weiß
– Google möchte das Web beherrschen
– Google möchte das Wissen und den Umgang mit Informationen kontrollieren
Um mit dem Ende anzufangen: Google stellt effiziente Instrumente für den Umgang mit Fotos, Videos, Texten, Tabellen usw. zur Verfügung. Google scannt einen beträchtlichen Teil der globalen Buchbestände ein und macht sie online durchsuchbar. Wer möchte, kann seinen gesamten Informationsbestand über Google-Tools verwalten: RSS-Feeds, E-Mails, Dokumente, Wikis, Fotos, Landkarten, Blogbeiträge, 3-D-Animationen, Webstatistiken, langsam wird es gruselig. Google lädt uns mit einem großzügigen Speicheranebot – allein für E-Mails mehrere Gigabytes – unsere Daten online zu verwalten und zu archivieren. Bei heutigen Bandbreiten ist das noch nicht attraktiv, kann aber in wenigen Jahren durchaus realistisch werden. Vor allem, wenn die Vernetzung zwischen online und offline weiter voranschreitet, woran Google mit seinen Browser- und Betriebssystem-Projekten kräftig mitarbeitet.
Da das Web allmählich den Heimcomputer verläßt und in andere Geräte wie das Smartphone abwandert, ist es auch folgerichtig, diesen Markt in Angriff zu nehmen. Warum? Weil dieser Markt nicht so stark von Microsoft kontrolliert wird wie der PC-Markt, die Karten werden hier neu gemischt. Die Programmierung eines eigenen Browser sowie die finanzielle Unterstützung der Mozilla-Programmierer ist da keine große Investition.
Über die gewaltigen Datenmengen, die Google sammelt, ist relativ wenig bekannt. Man ist sich aber recht sicher, dass bei Google kaum etwas verloren geht. Mit der Suchmaschine, Analytics, YouTube und anderen Quellen besteht ein beträchtlicher Schatz an Daten. Dass man – vermutlich – bisher nichts damit anfangen kann, heißt nicht, dass das lange so bleiben muss. Immerhin kann Google die Daten nutzen, um Statistiken für den Werbemarkt im Web – den es beherrscht – zu basteln, das ist für die Werbekunden durchaus interessant. Was Google in Zukunft mit seinen Daten anfangen wird, ist noch nicht absehbar. Netzpolitik weist auf ein Interview mit dem amerikanischen Soziologen Richard Sennett bei Spiegel Online hin, wo er genau dieses Problem anspricht:

Sennett: Vielleicht eignet sich ein Vergleich mit der Stasi. Die Stasi war eine Organisation wie Google. Sie hat Unmengen Material über die DDR-Bürger gesammelt. Sie hat nicht gewusst, ob sie all das Material verwenden würde, aber das Sammeln wurde zum Ziel, bloß damit der Staat die Daten hatte. Das ist der Geist. Nicht nur bei Google, auch bei anderen Technologien. Man sammelt Informationen, weil vielleicht irgendjemand, irgendwie sie nutzen will. Deshalb gibt es diesen Datenüberfluss. Und die Idee dahinter ist immer Macht durch detailliertes Wissen über die Menschen.

Eine Anwendung, die bisher nur unangemeldeten Benutzern zur Verfügung stand, verrät unfreiwillig, was Google alles speichert: die zu einem Cookie bzw. einer IP-Adresse zugehörigen Suchaufträge lassen sich im „Webprotokoll“ nachschlagen. Sicher eine nützliche Einrichtung. Wer aber nicht weiß, was ein Cookie ist und die Standardeinstellungen seines Browsers nicht geändert hat, von dem kann Google theoretisch ein umfassendes Suchprofil erstellen. „Sag mir, was du suchst und ich sage dir, wer du bist“. Man braucht nicht viel Phantasie, um sich auszumalen, was eine Kombination aus Suchbegriffen und aufgerufenen Seiten über die jeweilige Person verrät – so ziemlich alles.

Jenseits des Suchfeldes – eigene Suchmaschine bauen

Die meisten Leute begnügen sich damit, einen Begriff in das Suchfeld einer bekannten Suchmaschine einzugeben. Die Ergebnis sind gut oder schlecht, irgend was findet man irgendwann.Die Suchmaschine macht glücklich, wenn Suchen und nicht Finden das Ziel wäre.

Dabei bieten vermutlich alle Suchmaschinen verfeinerte Suchen an. Darauf wollen wir nicht eingehen, stattdessen bauen wir uns in Google eine eigene Suchmaschine. Schon wieder Google? Leider ja, denn andere scheinen einen solchen Dienst bisher nicht anzubieten. Sorry, Jungs;-(

Man benötigt wie üblich einen Google-Account. Hier findet man die Möglichkeit, eine benutzerdefinierte Suche einzurichten. Man definiert also eine benutzerdefinierte Suche, gibt dem Kind einen Namen und passende Stichworte, Ganz unten findet man ein Feld, in das man alle Seiten angeben kann, welche man durchforsten möchte. Man akzeptiert die Nutzungsbedingungen und schon ist man fertig. Es wird

Geht man nun auf die „Startseite“, kann man die Suche verwenden. Man kann andere einladen, die Suchmaschine zu benutzen. Mittels eines HTML-Formulars kann man die Suchmaschine auf die eigene Seite einbinden. Ich habe eine Google-Suchmaschine für meine reguläre Website eingerichtet.

Im Grunde ist das eine feine Sache, wenn man etwa gezielt wissenschaftliche Seiten durchsuchen möchte. Immer, wenn man gezielt eine bestimmte Art von Websites durchsuchen möchte, ist so eine benutzerdefinierte Suche das Non-Plus-Ultra.

Update: Es gibt meiner Erinnerung nach auch bei Yahoo die Möglichkeit, eine Suchmaschine auf die eigene Seite einzubinden. Leider finde ich diese Funktion nicht wieder. Sorry.

Appell gegen Google Buchsuche veröffentlicht

Eine Reihe deutschsprachiger Wissenschaftler und Publizisten veröffentlichen einen Appell an die Regierungen, gegen die Google-Buchsuche vorzugehen. Unterstützt wird der Appell unter anderem vom Zeitherausgeber Michael Naumann oder von dem Schriftsteller Daniel Kehlmann. Ich bin auf die Kritik hier bereits eingegangen.

Ich bin gestern bei einer Recherche ganz zufällig auf die Google-Buchsuche gestoßen und muß sagen, dass sie verdammt praktisch ist, um wissenschaftliche Literatur zu finden.

Google ist hier in eine Lücke gestoßen, die offensichtlich bestanden hat und welche von europäischen Kulturschaffenden bisher gar nicht gefüllt wurde – oder wird. Auf Europa zu warten ist wie warten auf den Messias.

Man muss nochmals darauf hinweisen, dass Google die Bücher eben nicht kostenlos anbietet, im Gegenteil, neben dem Buch werden Links angeboten, über die man von Dritten die Bücher erwerben kann.

Die Kritik basiert auf dem deutschen Urheberrecht, welches oft mit dem angloamerikanischen Copyright verwechselt wird. Das ist im übrigen kein Wunder, im deutschen Buch steht schließlich auch Copyright und eben nicht Urheberrecht.

Nach deutschem Urheberrecht bleibt das geistige Eigentum am eigenen Werk immer beim Autor. Er kann nur einzelne Rechte wie die Veröffentlichung oder weitere Verwendung an Dritte abgeben.

Im angloamerikanischen Raum hingegen kann man das Recht zur Veröffentlichung und weiteren Verwendung vollständig an Dritte abgeben.

Die Kritik zielt also darauf ab, dass man Google ausdrücklich das Recht einräumen müsste, die entsprechenden Titel einzuscannen und Versionen davon online zur Verfügung zu stellen.

Allerdings fällt die Kritik auf die Kritiker zurück. Warum melden sie sich jetzt und haben nicht vor fünf Jahren bereits auf ihre Rechte gepocht? Warum bieten sie keine brauchbare Alternative zur Google-Buchsuche an? Warum lebt Deutschland in der digitalen Steinzeit, warum muss man die aufwendige Fernleihe in der Bibliothek anzapfen und wochenlang auf wissenschaftliche Titel warten? Warum glaubt man, Bücher müssten als dicke Schwarten in dunklen Bücherregalen verstauben, der Zugang müsse möglichst aufwendig sein und digitale Bücher seien der Tod der deutschen Buch- und Wissensskultur?

Für blinde und sehbehinderte Menschen sind viele Bücher praktisch gar nicht zugänglich. Es gibt rund 50 000 nicht-kommerzielle Hörbücher, die von den Hörbüchereien zur Verfügung gestellt werden. Daneben gibt es eine kurze Zahl kommerzieller Hörbücher, die sich jeder kaufen kann. Dennoch ist das nur ein Bruchteil der tatsächlich verfügbaren Bücher. Hochproblematisch wird es, wenn man wissenschaftliche Literatur haben möchte.

Wenn man die Bücher dann doch irgendwie bekommt, ist es sehr aufwendig, sie zu lesen. Entweder muss sie eingescannt oder aufgelesen werden. Beides ist zeit- und kostenaufwendig.

Edit: Auf netzpolitik.org wird berichtet, der Heidelberger Literaturprofessor Roland Reuß sei wohl der Initiator der Google-Buchsuche-Kritik. Vermutlich hat er Oswald Spenglers „Untergang des Abendlandes“ gelesen.