Schlagwort-Archive: Artikel

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf “ROFL”, “LOL” oder “SCNR” beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

OpenAccess – offener Diebstahl

Rudolph Walther regt sich in einem Artikel in der taz gewaltig auf. Leider hat der gute Mann in seinem heiligen Zorn zwei Dinge wild vermischt: Die Google-Buchsuche und OpenAccess.

Die Google-Buchsuche basiert auf Büchern, die von Google eingescannt und digital zur Verfügung gestellt werden. Google hat das im Schatten von Halblegalität gemacht, sich aber mittlerweile mit amerikanischen Rechteinhabern geeinigt. Nach wie vor macht Google aber diese Bücher eben nicht frei zugänglich, wenn Urheberrecht oder Copyright bestehen. Nur gemeinfreie Bücher sind offen zugänglich. Der Rest ist lediglich für Recherche zugänglich, ähnlich wie bei Amazon stehen Ausschnitte zur Verfügung, nicht aber der Volltext.

OpenAccess hingegen ist der Zugang zu – in erster Linie – wissenschaftlichen Arbeiten. Es gibt nun gar keinen Zusammenhang zur Google-Buchsuche.

Herr Walther scheint auch kein Freund von digitalen Archiven zu sein. Zurecht verweist er darauf, dass alte Datenträger und Dateiformate nur schwer zugänglich sind.

Um so mehr müsste gerade er sich über die Google-Buchsuche freuen. Hätte Google das Kölner Stadtarchiv durchgescannt, würden wir heute zumindest digital darin stöbern können, statt sprichwörtlich in Schutt und Staub nach Überresten zu suchen.

Ein guter Teil der von Google eingescannten Bücher sind derzeit nicht lieferbar, weil sie mangels Rentabilität nicht nachgedruckt werden. Es ist gar nicht so unwahrscheinlich, dass viele dieser Titel sang- und klanglos in Vergessenheit geraten würden, wenn Google sie nicht im Web lebendig hält.

Jeder Student ärgert sich heute über geklaute, dauerausgeliehene, nicht lieferbare und nicht vorhandene Bücher in der Bibliothek. Neben mangelnder technischer Ausstattung ist der schwierige Zugang zu Fachliteratur eines der größten Probleme wissenschaftlicher Forschung.

Und die Wissenschaft ist nun das Musterbeispiel für ein Gemeingut. Es sind überwiegend Steuerzahler, welche die deutsche Wissenschaft finanzieren.

Wer sich für die Problematik interessiert, mag sich zwei Bücher der Bundeszentrale für politische Bildung herunterladen:

Urheberrecht im Alltag, unter anderem herausgegeben von Volker Grassmuck
Wissen und Eigentum, herausgegeben von Jeanette Hofmann, die Texte dieses Buches stehen unter Creative Commons License

Das Social Web – die Technik

Das Social Web ist in aller Munde, aber keiner weiß so recht, was es ist, wie und vor allem, warum es funktioniert. Zumindest das Wie ist einfach zu erklären.

Aus markenrechtlichen Gründen nennen wir hier keine Namen, die ohnehin jeder kennt. Vom Prinzip her, also von der Technik gesehen, funktionieren alle Systeme gleich.

Die Schnittstelle bildet das User-Interface, also eine Webseite, in der Regel mit Formularen. Hier werden Daten eingegeben oder ausgewählt.

Über eine Skriptsprache wie PHP werden diese Daten in einer Datenbank, meistens MySQL, gespeichert. Eine Datenbank ist eine in Tabellen strukturierte Sammlung eingegebener Daten.

Die Daten werden über einen Schlüssel, die ID, eindeutig gekennzeichnet. Das sorgt dafür, dass z. B. Kundendaten und Bestelldaten zwar in einer Datenbank, nicht aber in der selben Tabelle stehen müssen, aber dennoch über die ID, etwa eine Kundennummer, eindeutig zugeordnet werden können.

Rufe ich dann z. B. das Benutzerprofil von XY auf, liest das Skript  die angeforderten Informationen aus der DB aus. Die DB kann dann auch komplexere Anfragen beantworten, z. b. die Frage, wen kennt XY, wenn kennt XY, den ich auch kenne und wer studiert dort oder das, wo oder was XY studiert?

So ähnlich funktionieren auch Buchempfehlungen. Ist ein Cookie gespeichert, weiß der Buchhändler, welche Titel ich mir angeguckt habe und sowieso, welche Titel ich bestellt habe.

Die Titel sind vermutlich über Schlagwörter ebenfalls in einer Datenbank gespeichert. Je nach Komplexität des Systems kann der Buchhändler bzw. seine Software Bücher empfehlen, die vom gleichen Autor stammen, das gleiche Schlagwort enthalten, einen ähnlichen Titel und sogar Titel, die preislich bei dem liegen, was ich mir vorher irgendwann angesehen oder gekauft habe.

Das ist das ganze süße Geheimnis des Social Web, eine Skriptsprache und eine DB. Dass Ganze zu programmieren und mit hoher Performance auszustatten, ist natürlich dennoch eine Kunst bzw. ein hartes Brot.
Die Technik für dynamische Seiten ist nicht besonders neu. Neu ist die Leistungsfähigkeit der Server, der Umstand, dass viele Menschen über einen günstigen Internetzugang verfügen und bereit sind, viele, viele Stunden im netz zu verbringen.

Die Charts als selbsterfüllende Prophezeiung

Mittlerweile setzen auch viele Webseiten auf Charts wie “die meistgelesenen Beiträge”. Wie jeder wissen sollte, besteht das Problem darin, dass Charts sich selbst reproduzieren, vor allem im Web.
Dafür gibt es mehrere Gründe:
– Die beliebtesten Artikel werden prominent beworben, sie sind oft an der gleichen Stelle auf jeder einzelnen Seite zu sehen
– je beliebter ein Artikel bei den Lesern ist, desto eher wird er für lesenswert gehalten
Wir haben also eine Vermischung der selffullfilling Prophecy und des More-More-Prinzips. Das Ganze macht nur beschränkt Sinn, denn das System ist anfällig für Manipulationen. Irgend jemand scheint sich einst einen Spaß daraus gemacht zu haben, das LIed “Walking in my Shoes” von Depeche Mode jahrelang in den Charts zu halten.

Auch Autoren haben durchaus Anlaß, durch “Klickbetrug” ihre “Einschaltquoten in die Höhe zu treiben. Ein Autor, dessen Artikel nicht gelesen werden, kann durchaus bestraft werden, indem er keine weiteren Aufträge mehr erhält.

Sinnvoller wäre eine Anzeige verwandter Artikel oder eine die Anzeige von zufällig ausgewählten Artikeln.