Archiv der Kategorie: Geistes- & Gesellschaftswissenschaften

Sind Bücher dank des Internet überflüssig?

Die kurze Antwort heißt jein. Um sich grundlegend in ein Thema einzuarbeiten, ist ein Buch oftmals besser. Mittels eines Buches kann man sich ein solides Grundwissen aneignen. Das ist vor allem im Studium wichtig, wo hartes Faktenwissen immer noch und bis auf Weiteres die Basis ist, um sinnvoll weitermachen zu können.

In anderen Bereichen hingegen erscheinen Bücher heute fast vollkommen überflüssig. Das ist vor allem der Bereich rund um Computer und Medien. Nehmen wir das Beispiel Photoshop. Hier sind die Bücher recht teuer, da sie zumeist Fotos enthalten und in entsprechender Qualität gedruckt werden müssen. Da Adobe aber gut alle 1,5 Jahre eine neue Version von Photoshop auf den Markt wirft, ist jedes Buch nach 1,5, spätestens aber nach drei jahren veraltet. Es wäre also sinnvoller, sich einen Basislernkurs für die Fotobearbeitung zuzulegen. Denn die Kernbegriffe ändern sich ja nicht oder kaum. Zudem ist das Buch universeller einsetzbar, ob Photoshop, Paintshop oder Gimp, die Tonwertkorrektur bleibt die Tonwertkorrektur und zwar im Jahr 2000 ebenso wie im Jahr 2010.

Bleiben wir bei Photoshop: Ist ein Buch hier überhaupt sinnvoll oder sollte es nicht eher ein Videotutorial sein? Oder eine Bildschirmaufzeichnung mit Kommentaren? Das spielt auch fast keine Rolle, denn hat man einmal die Basics gelernt, helfen einem Youtube, unzählige Tutorials und Foren weiter, wo alle denkbaren Probleme tausend Mal gelöst wurden.

Ich will hier mal die ungewöhnliche Unterscheidung zwischen Spaß- und Pflicht-Literatur machen. Die Spaßliteratur ist oft schon kurz nach Erscheinen günstig zu haben. Ältere Belletristik läßt sich kistenweise zu Spotpreisen aufkaufen. Daneben steht die Fachliteratur, die weit über 30 Euro kostet und selten gebraucht unter diesen Betrag fällt. Entscheidend ist , entweder sind die Bücher aktuell oder sie sind es nicht. Niemand wird heute noch 30 Euro für ein Buch über WordPress 2.x kaufen, weil diese Version veraltet ist. Das gilt auch für viele Bereiche der Wissenschaft.

Nun sind wir aber heute gezwungen, uns wissenstechnisch auf dem neuesten Stand zu halten. Ein Mensch, er im Medienbereich arbeitet und dessen Wissen über das Internet auf dem Stand von 2000 ist, hat kaum noch große Chancen auf dem Arbeitsmarkt. Hier helfen uns Weblogs, Podcasts und diverse kostenlose Publikationen. Mit Google Scholar oder Metager kann man gezielt nach wissenschaftlichen Publikationen suchen. Mit dem Attribut filetype:pdf kann man bei Google in Kombination mit den entsprechenden Suchbegriffen nach PDF-Dateien suchen, die häufig kompakte, gut aufbereitete Informationen enthalten. Wer des Englischen mächtig ist, stößt auf praktisch unendliche Quellen in beliebigem Format. Auf SlideShare werden in der Regel professionell aufbereitete Präsentationen bereit gestellt.

Nicht zuletzt haben sich im Web tausende von Expertenforen herausgebildet, wo meistens schnell und kompetent auch auf sehr spezifische Fragen geantwortet wird. Das professionelle Nachschlagewerk entfällt deshalb häufig.

Bücher hingegen bleiben teuer und veralten schnell. Für einen Freelancer ist es einfach illusorisch, sich auch nur die wichtigsten Werke zu seinen Fachgebieten ins Regal zu stellen. Denn je spezifischer oder tiefgreifender ein Buch ist, desto teurer ist es im Allgemeinen. Außerdem: jeder von uns kennt den seltsamen Effekt, wenn man gerade ein Buch braucht, ist es ausgeliehen oder spurlos verschwunden.

Ich will gar nicht bestreiten, dass diese Fachbücher nicht zu Spottpreisen auf den Markt geworfen werden können. Je spezifischer der Inhalt und je kleiner die Zielgruppe, desto höher muss der Verlag den Preis ansetzen, um auf seine Kosten zu kommen. Das ändert aber nichts an unserer finanziellen Situation, die für uns solche Bücher unerschwinglich macht.

Der mit den Zahlen tanzt – Sarrazin und das Wissenschaftsrecycling

Es gibt Leute, die Universalisten sind: sie haben einen erstaunlichen Einblick in unterschiedliche Disziplinen der Wissenschaften.

Leider gibt es nur wenige dieser Universalisten und Sarrazin gehört nicht dazu. Das Erstaunliche anb ihm ist bestenfalls, mit welcher Non-Chalanz er die Ideen anderer wiederkäut und den Eindruck erweckt, er sei selber darauf gekommen.

Die Wurzeln Sarrazins

Seine genetischen und erbbiologischen Theorien sind von Charles Murray und dem Deutschen Volkmar Weiss entlehnt. Murray behauptet in „The Bell Curve“, dass die Intelligenz der Afroamerikaner genetisch bedingt signifikant unter der der Kaukasier liegt. Volkmar Weiss adaptiert diese Idee und wendet sie auf die türkischstämmige Bevölkerung Deutschlands an. Das Buch von Weiss Heißt „Die IQ-Falle“ und ist nur noch antiquarisch zu erhalten. Der Durchschnitts-IQ liegt per Definition bei 100. Murray und Weiss behaupten, dass Afroamerikaner bzw. Türken durchschnittlich 15 Punkte bzw. 15 Prozent unter dem IQ der Weißen bzw. Deutschen liegen. Die Genetik-Legende James Watson erregte vor einigen Jahren mit seiner These von der geringeren Intelligenz der Afrikaner Aufmerksamkeit.

Völkische Genese

Die Idee der Veränderung der völkischen Zusammensetzung ist von Sam Huntington und Gunnar Heinsohn entlehnt. Huntington schrieb einige Jahre nach seinem aufsehen-erregenden Buch „Kampf der Kulturen“ das ebenso brisante, aber unbekanntere „Who are We?“. Darin äußerte er die Befürchtung, die überwiegend katholischen Hispanics würden mit ihrem Geburtenreichtum und der spanischen Sprache dem angloamerikanischen protestantischen Weißen den Garaus machen. Man kann ruhig davon ausgehen, dass Huntington das Vorbild Sarrazins ist, beide huldigen der Zahlenmystik. Heinsohn schrieb einen längeren Essay in der Zeit, in der die gleichen Befürchtungen für Deutschland ausbreitete. Eine Vorliebe für Statistiken pflegte auch Herwig Birg, der vor einigen Jahren mit seiner Zahlenmystik das Aussterben Deutschlands prophezeite. Der weiter oben genannte Weiss erschaute bereits das Aussterben der Inteligenzia durch deren Geburten-Armut.

Es gibt nun zwei Möglichkeiten: Sarrazin kennt diese Bücher nicht, in diesem Falle hat er wissenschaftlich unsauber gearbeitet und verdient nicht, dass man sich mit ihm beschäftigt. Oder er kennt sie, in diesem Falle ist er nicht originell genug, um sich mit ihm zu beschäftigen.

Die Erfahrung Anderer zu eigen machen

Thilos restliche Quellen muss man nicht kennen: Necla Kelek und andere Kritiker des Islam sind reichlich bekannt. Allerdings kann man bei Kelek davon ausgehen, dass sie Erfahrungen aus erster Hand besitzt, während Sarrazin ein Kind der gehobenen Schicht ist und seine Kontakte mit Migranten sich auf die Begegnung mit Putzfrauen und Taxifahrern beschränken dürften.

Der Deklinismus

Sarrazin steht in einer langen Reihe der Deklinisten, wie ich die Vertreter dieser Strömung nennen möchte. Das sind Leute, die den Niedergang des Abendlandes oder der menschlichen Kultur als Ganzes als Resultat des kulturellen oder zivilisatorischen Verfalls befürchten. Diese Tradition geht auf Menschen wie Oswald Spengler, Arnold J. Toynbee oder Edward Gibbon zurück, nur dass diese Herren intelektuell und sprachlich wesentlich mehr zu bieten hatten als unsere heutigen Deklinisten: Eva Herrmann, Udo diFabio, Henryk. M. Broder und eine ganze Reihe mehr. Mit den abendländischen Deklinisten ließen sich ganze Buchläden füllen.

Warum Sarrazin das Beste ist, was unseren Medien widerfahren kann

Im Grunde gibt es nur zwei korrekte Umgangsweisen mit Sarrazins Thesen: Entweder ignoriert man ihn – etwas schlimmeres könnte ihm kaum zustoßen. Oder man zwingt ihn, seine Thesen tatsächlich bis zum Ende auszubreiten. Sarrazin mag etwas von Finanzmathematik verstehen, er ist aber weder Genetiker, Soziologe noch Bildungsforscher. Seine polemisch zugespitzten Thesen zeugen davon, dass er es vor allem auf Aufmerksamkeit angelegt hat. Es fehlt jeder Hinweis darauf, dass er die Wissenschaften, deren Thesen er referiert, nicht mehr als oberflächlich durchdrungen hat.In einer pepflegten Diskussion mit einem intelektuell wie rhetorisch gewandten Menschen würde Sarrazin keine zehn Minuten überstehen. Leider passt dieses Format nicht in unsere Medienwelt, die eine Haßliebe zu Provokateuren pflegt und daher Sarrazins als Medienereignisse erst möglich macht.

Es ist leider so, dass für die „seriösen“ Medien die Sarrazins, Haiders und Strachers etwa das sind, was Paris Hilton für die Klatschpresse ist, sie sorgen für steigende Auflagen und damit für steigende Werbeeinnahmen. Wer es nicht glaubt, möge sich einmal die Kommentare auf Zeit Online ansehen. Wo normalerweise zehn oder zwanzig Kommentare pro Artikel vorliegen, findet man jetzt 200 bis 300, sobald das Buzzword Sarrazin vorkommt.

edit: Wegen aktueller Trollgefahr habe ich die Kommentarfunktion für diesen Artikel abgestellt.

Literatur

Samuel Huntington. Who Are We? Die Krise der amerikanischen Identität. Europa-Verlag, Hamburg 2004,

– Kampf der Kulturen
. Die Neugestaltung der Weltpolitik im 21. Jahrhundert. Goldmann, München 1998,

Volkmar Weiss: • Die IQ-Falle: Intelligenz, Sozialstruktur und Politik.
Leopold Stocker Verlag
, Graz 2000

Charles Murray: The Bell Curve: Intelligence and Class Structure in American Life, with Richard J. Herrnstein, (1994)

Herwig Birg: • Die Weltbevölkerung. C.H.Beck, 2004

Studieren zuhause – Vorlesungen auf dem Sofa hören

Obwohl wir schon von lebenslangem Lernen sprechen, hat sich eigentlich recht wenig in diese Richtung entwickelt. Die autodidaktischen Fähigkeiten werden kaum gefördert. Um so schöner, dass es doch noch einige interessante Angebote gibt, die das Lernen zuhause ermöglichen.

Vorlesung Digitale Medien von Prof harald Sack
Die Vorlesung ist sehr gut zum Einstieg in das Thema digitale Medien, aber eher für Techniker geeignet. Der Screencast wird im topaktuellen RealMedia-Format angeboten.

Prof. Eduard Heindls Vorlesungen zum Online-Marketing
Eine eher allgemein gehaltene Einführung in Suchmaschinenoptimierung, Web Analytics und vieles mehr als mp3 zum Download. Die Sound-Qualität lässt zu wünscen übrig.

Weitere Vorlesungen von Prof. Heindl
Heindl hat weitere Vorlesungen online gestellt. Themen unter anderem Mathematik, die Rolle von Innovationen und Objektorientiertes Programmieren in Java. Die Vorlesungen liegen in mp3 vor, sind aber nicht alle vollständig.

Vorlesung Algorithmen von Prof. Dr. Oliver Vornberger
Die Vorlesung gibt es als FLV, MP4 und MP3. Algoritmen werden anhand von Java eingeführt, die Vorlesung ist wirklich lang.

Selbiger hält eine Vorlesung zu Datenbanken
Ebenfalls in FLV, MP4 und mp3.

Access-News vom 2. Juli 2010 – sterbende E-Book-Reader und tanzende Buchstaben im Flash-Format

Nach dem Motto „Totgesagte sterben schneller“ erklärt ZDNet die reinen E-Book-Reader zur aussterbenden Gerätekategerie. Einerseits sind die Geräte trotz jüngster Preissenkungen noch zu teuer, andererseits bekommen sie Konkurrenz durch Tablets und Smartphones mit hervorragenden Displays. Da es in Deutschland bis heute kaum neues und aktuelles Lesefutter für die Geräte gibt, werden wir dem wohl nicht hinterher trauern. Allerdings bringt Amazon einen neuen großen E-Book-Reader auf den Markt, der wohl immer noch ohne Unterstützung für Blinde auskommt, obwohl Amazon dieses Manko ausbügeln wollte.

Gerade für Menschen mit Sehschädigung könnte es nützlich sein, einen Reader mit EInk zu haben, wo die Schrift frei vergrößert werden kann. Für Blinde und Menschen mit Lernschwäche wäre die Vorlesefunktion ein unschlagbarer Vorteil gewesen. Wir dürfen uns bei der deutschen Buchindustrie und ihrem Börsenverein des deutschen Buchhandels dafür bedanken, dass es kaum EBooks gibt oder sie unerschwinglich sind, bei Amazon dafür, dass der Kindle nicht barrierefrei ist und bei Adobe dafür, dass ihre Digital Editions-Software, die zum Verwalten und Lesen der Bücher auf dem Computer nötig wäre nicht barrierefrei ist. Danke.

Flackernde Buchstaben

Die Firma NuCaptcha möchte Spamschutz über Flash einbinden. Das wird natürlich voll umfänglich barrierefrei mit Audio-Alternativtexten. Und es ist voll modern, weil Flash. Warum das jetzt für Menschen besser lesbar sein soll als die Pixelgraphiken und für Spambots schlechter, erschließt sich mir nicht. Die Buchstaben erinnern mich an die früher beliebten Newsticker, die von rechts nach links über die Seite vagabundieren. Nur das diese hier auch nebenbei noch horizontal wandern. Ich plane gerade einen Artikel zu Captchas, vielleicht komme ich darauf zurück.

Access-News vom 24. Juni 2010 – Fraunhofer testet und Google bringt was Neues

Das Fraunhofer-Institut für Informationstechnik hat herausgefunden, dass die meisten Dax-Websites nicht validieren und nicht barrierefrei sind. Wer hätte das gedacht, nachdem Opera mit seiner MAMA-Studie das schon lange festgestellt hat? Wer es ausprobieren mag, es gibt ein Testtool auf der Website von Fraunhofer. Ich befürchte fast, das diese automatischen Tests mehr Schaden als Nutzen anrichten. Der Website-Bastler braucht sich mit dem Thema Barrierefreiheit gar nicht mehr zu beschäftigen, sondern arbeitet säuberlich eine Reihe von Fehlern ab und wird durch eine Fehlerfrei-Meldung des Systems geadelt. Zudem werden Leute belohnt, die statische Websites oder Alternativ-Versionen für Behinderte anbieten, denn hier wird das Prüfprogramm nicht durch so überflüssige Dinge wie JavaScript oder Flash in seiner Arbeit gestört.

Google mit OCR und Spracherkennung

GoogleDocs hat jetzt Texterkennung. Mit OCR lassen sich Texte aus Graphiken und PDFs extrahieren. Laut Golem soll die Qualität der Erkennung bisher noch nicht berauschend sein. Das ist etwa nützlich für PDF-Dateien, die aus gescannten Dokumenten generiert wurden. Nebenbei ist die HTML-Anzeige von PDF-Dateien eine der nützlichsten Werkzeuge Googles.
Mit seinem Know How im Rahmen der Bücherscan-Aktion dürfte Google bei der Scan-Qualität deutliche Verbesserungen ermöglichen.

GoogleVoice ist eine Technik, mit der sich Sprachmitteilungen in Text umwandeln lassen, zum Beispiel zum Versenden von SMS. Voice ist jetzt öffentlich verfügbar, allerdings bisher nur auf Englisch.

Vermischtes

Marco berichtet, dass das neue IOS 4 Teile von WAI ARIA unterstützt.
Die Entwickler von Chrome arbeiten jetzt an der Unterstützung von Chrome durch Screenreader. Sie haben recht flott auf die Petition reagiert, die von Steve Faulkner letzte Woche beworben wurde.
WebAIM setzt seine HTML5-Reihe mit einem Beitrag über Canvas fort.

David Gelernter über künstliche Intelligenz

Der Computerforscher David Gelernter hat dem Deutschlandfunk ein längeres Interview gegeben, in dem er vor allem über die Möglichkeiten künstlicher Intelligenz sprach. Obwohl Gelernter zu den Vordenkern des Web gezählt wird, hat die deutsche Wikipedia keinen Eintrag zu ihm, so viel zur Überbewertung von Quantitäten. Gelernter erlangte traurige Berühmtheit als eines der Opfer des Unabomber.
Gelernter sagt, dass künstliche Intelligenz durchaus hilfreich ist, um bestimmte – mathematisch fassbare – Probleme zu lösen. Allerdings werden Computer niemals menschlich denken können, weil sie weder Körper noch (Selbst-)Bewusstsein haben.
Es besteht also eine klare Trennung zwischen menschlicher und künstlicher Intelligenz, die durchaus nützlich ist:

Nun, ich würde schon sagen, diese ganze Beschäftigung mit Computern und Computerwissenschaft, dass das schon sehr, sehr, sehr wichtig war, weil selbst das letztendlich, die menschlichen Hirne und das menschliche Denken, das hat es ja schon auf jeden Fall weitergebracht, weil wir ganz oft davon ausgegangen sind – wir haben es einfach mal als Hypothese aufgestellt – den Computer wie ein menschliches Gehirn in irgendeiner Form zu betrachten, hat das einfach geholfen, dass man ein ganz neues Denken über das menschliche Denken und über das menschliche Hirn erst mal ermöglicht hat. Und das war unglaublich nützlich, auch wenn es jetzt nicht unbedingt gelungen ist und meiner Meinung nach auch nicht notwendig ist, einen menschenähnliches Hirn bei digitalen Computer oder bei digitalen Speichermedien zu entwickeln. […] Und da ist einfach der Computer ein nützliches Werkzeug, uns da weiterzubringen, weil es ist durchaus möglich, noch viel bessere Software zu entwickeln, noch viel intelligentere Software zu entwickeln, zum Beispiel Software, die uns hilft, diesen enormen Datenstrom, den es jetzt gibt, einfach besser zu filtern, besser zu bewältigen, besser zu kontrollieren. Da kann eben dann Software eben helfen, den Menschen näherzukommen, ohne eben selbst eine menschenähnliche Software zu sein. Quelle

Ein wenig redaktionelle Bearbeitung hätte dem Interview nicht geschadet, was er aber sagt: Es ist gar nicht nötig, dem Computer menschliche Intelligenz beizubringen.
Tatsächlich ist das Verhalten komplimentär oder wechselseitig: Der computer ist ein nützliches Werkzeug des Menschen, der Mensch kann heute ohne Computer gar nicht mehr existieren. Alle komplexen Systeme von der Energieversorgung über den Straßenverkehr bis hin zur Landwirtschaft basieren zumindest im Westen in irgendeiner Form auc Computern. Deshalb sind es nicht nur die Computer, die weiter entwickelt werden müssen. Es sind vor allem die Menschen, die mit diesen Geräten arbeiten. Es ist zu bequem, sich auf die Intelligenz der Algorithmen zu verlassen, um etwa seine Investitionen zu platzieren oder den Informationsstrom zu filtern. Doch Algorithmen werden von Menschen gemacht und Menschen können Fehler machen.

Der vermessene Mensch – welche Leute nehmen an Studien teil?

Egal, was man studiert, früher oder später wird man gefragt, ob man nicht Lust hat, an einer Untersuchung teilzunehmen. Psychologie-Studenten mussten zu meiner Zeit in Marburg 25 Versuchsstunden bis zum Vordiplom zusammen bekommen. Sie mussten an Versuchen teilnehmen, die von älteren Studierenden durchgeführt werden, die ihre Zwischen- oder Abschlussarbeiten mit empirischen Untersuchungen untermauern müssen. Auch in der Soziologie und der Pädagogik gehören Studien zum Standard.

Die Unmessbaren messen

Was aber macht man mit Leuten, die sich schlicht weigern, an solchen Studien teilzunehmen? Darüber schweigen sich die Studien aus. Gibt es den Typus des Studiengroupies, der sich darum reißt, befragt, vermessen, gewogen und durchleuchtet zu werden? Vielleicht, ganz sicher gibt es den Menschen, der sich kategorisch verweigert. Seine Motive kennt niemand, er läßt sich ja nicht befragen.

Beliebt sind die Befragungen per Telefon oder direkt an der haustür. Sie finden zu einer Zeit statt, wo Berufstätige normalerweise nicht zu Hause sind. Viele jüngere Leute haben gar kein Festnetz mehr und stehen mit ihren Handy-Nummern nicht im Telefonbuch.

Auch die Zahl der Totalverweigerer lässt sich kaum herausfinden. Bei postalischen Umfragen, wo Fragebögen ausgefüllt zurückgesendet werden müssen, läßt sich die Zahl der Rückläufe ermitteln.Man weiß aber nie, ob man hier einen Verweigerer vor sich hat oder jemanden, der schlicht keine Zeit hat oder vergisst, den Bogen auszufüllen. Und wer bei obskuren Anrufern einfach auflegt, ist vielleicht einmal zuviel von Werbeanrufern belästigt worden. Selbiges gilt für unbekannte Leute, die eines Tages vor der Tür stehen oder jemanden in der Fußgängerzone anhalten. Religiöse Freaks, Verkaufs-Genies, Bettler, Politiker auf Stimmenfang und wirre Zeitgenossen, nach solchen Erfahrungen wird jeder Mensch bei Spontan-Begegnungen nervös.

Spontan würde ich die Zahl der Studienverweigerer auf 20 – 30 Prozent schätzen. Doch selbst wenn es nur zehn Prozent wären, würde sich das signifikant auf die Studienergebnisse auswirken.

Die exakten Angaben der Studienergebnisse verführen zu dem Glauben, sie wären irgendwie näher an der Realität als andere Forschungsmethoden. Das können sie im Grunde genommen aber nicht sein, wenn rund ein Drittel der Menschen sich schlicht weigert, daran teilzunehmen oder einfach nicht erreicht wird.

Falls einer meiner Leser zufällig etwas mehr darüber weiß, würde ich mich über Hinweise freuen.

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf „ROFL“, „LOL“ oder „SCNR“ beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Multimedia im Web – optimiert für Suchmaschinen und Menschen

Obwohl wir schon seit Jahren von Benutzerfreundlichkeit reben und jeder Webdesigner sich selbiges auf die Fahnen geschrieben hat, werden jeden Tag neue oft schicke und benutzerunfreundliche Websites online gestellt.
Ungeliebtes Stiefkind der USability-Gilde sind Dateien. Ich kann mich nicht erinnern, wann jemand das letzte Mal einen Beitrag zu benutzerfreundlicher Multiemedia geschrieben hat. Hier also die Basics:
– alle Dateien zum Herunterladen sollten einen sprechenden Namen haben. Eine Datei namens 1322xayserer5.pdf klingt ungefähr so spannend wie der Wetterbericht von 1990.
– Jede Datei sollte in einer angemessenen Qualität ausgeliefert werden. Ein 10 MB großes PDF, welches zu 90 Prozent aus Luft und Liebe besteht ist ebenso wenig hilfreich wie ein verrauschtes MP3.
– Auch nach 15 Jahren MP3 scheint sich der Sinn von ID3 noch nicht herumgesprochen zu haben. Da stehen Meta-Daten drin, die bei vielen MP3-Playern statt des Dateinamens angezeigt werden. Eigentlich schon seltsam, da investiert jemand mehrere Stunden, um einen schönen Podcast zu produzieren, spart aber 30 Sekunden ein, weil er seiner Datei keinen sprechenden Namen und keine ID3-Tags verpasst. Dabei kann er hier wunderbar Daten wie Autorennamen, Titel, Erstelldatum und Herkunftsort ablegen.
Und wozu das alles? Ganz einfach, bei der Flut an Daten gehen Dateien ohne sprechenden Namen oder Meta-Daten gnadenlos unter. Bestenfalls landen sie in einem Archiv, wo sie dann auf nimmer Wiedersehen verschwinden. Selbst bei einer gezielten Recherche könnte der Archivar sie kaum wiederfinden, denn die Datei besitzt ja weder Meta-Daten noch einen sprechenden Dateinamen.

Wer von den Webworkern noch nicht endgültig überzeugt ist, für den kommt jetzt das Totschlagargument: Suchmaschinen-Optimierung. Google und andere orientieren sich maßgeblich am Datei- bzw. Linknamen. Ob Suchmaschinenbots die Metad-Daten auslesen, ist mir nicht bekannt, es spricht aber auch nichts dagegen, auch diese Daten einzutragen.
Im Sinne der Benutzerfreundlichkeit ist es auch wichtig, Informationen als normale Website anzubieten, statt sie in ein PDF zu packen. PDFs verbessern vielleicht das Ranking, vor allem im wissenschaftlichen Bereich. Ob da aber mehr als die ersten Absätze tatsächlich ausgewertet werden, kann eher bezweifelt werden. Man sollte auch an die Nutzer mobiler Endgeräte denken, die es lieber vermeiden, weitere Anwendungen zu starten. Der Titel von PDF-Dokumenten wird auch als Titel in Suchmaschinen angezeigt, sollte also sprechend sein. Da die Formatierungen in PDF-Dateien wie Überschriften rein optisch sind, tragen sie in keinem Fall zum Ranking bei.

Sprechende Dateinamen sollten keine Leerzeichen oder Sonderzeichen enthalten. Die einzelnen Begriffe werden mit Bindestrichen getrennt, d. h. zum Beispiel: Benutzerfreundlichkeit-in-Multimedia-Dateien.
Für die Suchmaschine sind mangels weitere Informationen der Text rund um die Datei sowie der Linkname ausschlaggebend für die Indizierung. Allerdings ist es auch sinnvoll, in Links das title-Attribut einzusetzen, indem auch Details zur Datei eingetragen werden können.
Das Thema RSS wird sträflich vernachlässigt. Der Webworker sollte einmal einen kritischen Blick auf seine Feeds werfen und sich folgende Fragen stellen:
1. Erfahre ich aus der Überschrift, worum es geht?
2. Reizt die Überschrift einen Anderen, diesen Beitrag aufzurufen?
Wer nicht im Datenstrom untergehen möchte, sollte eine dieser Fragen mit Ja beantworten, besser beide.
Das sind alles keine Sonderleistungen, sondern Basisanforderungen benutzerfreundlicher Inhalte.

Dateisystem oder Meta-Ebene

Neben PC und Notebook übernehmen immer mehr Kleingeräte alltägliche Aufgaben. Dabei stellt sich die Frage, ob man lieber direkt auf seine Dateien in dder klassischen Ordneransicht zugreifen möchte oder nur über die passenden Anwendungen.

Die Meta-Ebene zum Zugriff auf Dateien und Funktionen ist nicht so ganz neu. Bei statischen Websites werden ebenfalls Dateien abgerufen, die imm HTML-Format auf einer Festplatte liegen. Der Mail-Client verwendet in der Regel eine Datenbank und legt die Mails nicht als Text auf die Festplatte ab. Das Menü von Windows enthält auch nur Verknüpfungen auf Dateien, die auf der Festplatte liegen.
Die meisten Handys und PDAs gehen einen Schritt weiter. Hier existiert nur die Metaebene. Fotos werden nur in der Foto-App angezeigt, Dokumente in der Office-App und Multimedia nur in den jeweiligen Abspielern.
Diese Anzeige bietet Vor- und Nachteile. Der Mensch kann nicht direkt auf Systemdateien zugreifen und so versehentlich etwas zerstören. Die unordentliche Ansicht von kunterbunten Dateiordnern wird vermieden. Die jeweiligen Programme zeigen nur die Dateien an, mit denen sie auch etwas anfangen können.

Ich plädiere allerdings dafür, beide Ebenen zuzulassen. Vor allem sollte der Computer einen direkten Zugriff auf Dateien via USB erlauben. Wenn ich eine App entferne, die bestimmte Dateien im System abgelegt hat, dann habe ich auch keinen Zugriff auf diese Dateien mehr, weil sie in anderen Apps nicht angezeigt werden.

Das heißt praktisch: Entwder werden die Dateien gelöscht, wenn die zugehörige App gelöscht wird oder die Dateien werden nicht gelöscht, aber auch nicht angezeigt, weil es keine App gibt, die etwas mit ihnen anfangen kann. Damit verliere ich die Herrschaft über meine Daten.

Apple geht mindestens einen Schritt zu weit, wenn es einen Zwang zur Nutzung der Meta-Ebene auflegt und einen Zugriff via PC und Mac nur über iTunes erlaubt. Das gesamte System wird dadurch unflexibel.

Die Entmündigung des Computer-Nutzers sollte bestimmten Grenzen unterliegen. Wir wollen gerne wissen, welche Dateien auf unseren Festplatten liegen. Faktisch könnte, wenn wir unser Gerät zum Beispiel verkaufen, ein Dritter auf längst vergessene Dateien zugreifen.