Archiv der Kategorie: Technik

Scrollen oder nicht scrollen – der Umgang mit langen Texten im Netz

Fast jedes Medium hat es einmal gemacht: mehr oder weniger sinnvolle Klickstrecken aus Bildern sollten den User zur Mausakrobatik animieren. Die Währung hieß damals Klickrate, je öfter man klickte, desto höher war der Wert der angezeigten Werbung. Das scheint zumindest teilweise korrigiert worden zu sein.

Doch bei Texten geht die Salami-Taktik weiter Die Zeit, das Süddeutsche Magazin und viele andere Websites verteilen einzelne Artikel auf mehrere Seiten.

Das galt als guter Stil, als Bildschirme noch Bildschirme waren und 14 Zoll maßen. Damals waren Mäuse mit Rädchen selten und der entnervte User musste den Cursor an den rechten Bildrand fahren, um sich beim Scrollen einen Tennisarm zu holen. Aus dieser Zeit stammt die Designweisheit, dass nichts beachtet wird, was außerhalb des Start-Screen liegt, also dem Bereich, den man ohne vertikales oder horizontales Scrollen sehen kann. Ergo müssen Texte, die über den Bildschirm reichen, in kleine Portionen aufgeteilt werden.

Ich war mal auf eine Seite gestoßen, die aus dieser Salami-Taktik ein Geschäft gemacht hat. Da stand ein etwas längerer Text kostenlos auf 20 Seiten verteilt und die komplette Fassung ließ sich als PDF käuflich erwerben.

Das klingt zwar kurios, aber gerade längere Artikel, die auf diese Weise zerstückelt werden, wird wohl kaum jemand wirklich zu Ende lesen. Vier Seiten dürften so die magische Grenze sein, wo auch der geduldigste Leser die Lust verliert. Zumal, wenn sein Surfgerät nicht so bequem ist wie ein PC. Mit einem Notebook-Touchpad oder einem Handy macht das wenig Spaß. Ärgerlich vor allem, wenn auf der letzten Seite nur ein kleiner Absatz steht, für den sich das Klicken gar nicht gelohnt hat.

Und leider bieten nur die wenigsten Seiten die Anzeige verteilter Artikel auf einer Seite an, die Zeit zum Beispiel. Viele Seiten bieten zwar eine Druckfunktion an, die einen ähnlichen Effekt hat – der ganze Artikel wird auf einer Seite angezeigt. Allerdings ist diese Funktion zumeist mit JavaScript verbunden, das den Druckerdialog des Browsers auslöst. Wer hier automatisch auf Return drückt und einen Drucker laufen hat, verschwendet einmal mehr unnötig Tinte und Papier. Die süddeutsche macht das zum Beispiel. Die Designer meinen wohl, die Menschen seien zu doof, den Drucker selber auszulösen.

Ein weiterer Nachteil verteilter Artikel besteht darin, dass man sie schlecht archivieren kann. Oder ist das die Absicht der Webbetreiber?

Ich würde heute ohne Wenn und Aber empfehlen, einen Artikel immer zusammenhängend auf eine Seite zu packen. Via Tracking kann jeder Webbetreiber feststellen, dass der User nicht bereit ist so oft zu klicken, wie der Webbetreiber es gerne hätte. Wir sind heute unheimlich klick- und tippfaul. Wer schon mal einen interessanten und längeren Diskussionsfaden im Heise-Forum konsequent lesen wollte, hat vermutlich spätestens nach dem zehnten neu aufgerufenen Beitrag aufgegeben, zumal die Hälfte der Beiträge sich auf “ROFL”, “LOL” oder “SCNR” beschränkt.

Mit den heutigen Smartphones wiederum ist das Scrollen einfacher als das Aufrufen neuer Websites durch das Berühren eines Links. Das Thema mobiles Web zwingt uns außerdem wieder dazu, über knappe Bandbreiten, lange Ladezeiten, Verbindungsabbrüche und weitere Ärgernisse nachzudenken, die uns noch aus der Modem-Zeit verfolgen. Die meisten bekannten Websites sind von der Performance her auf DSL angelegt und laden neben dem eigentlichen Inhalt noch einen Rattenschwanz an externen Inhalten, JavaScript, Werbebildchen und allerlei anderen Merkwürdigkeiten nach. Selbst bei DSL kann es immer noch mehr als zehn Skeunden dauern, bis die Seite komplett geladen ist. Im mobilen Web dauert das entsprechend länger und so lange möchte einfach niemand warten. Es ist also schon aus ökonomischer Sicht sinnvoll, zusammenhängende Artikel auf eine Seite zu packen.

Dateisystem oder Meta-Ebene

Neben PC und Notebook übernehmen immer mehr Kleingeräte alltägliche Aufgaben. Dabei stellt sich die Frage, ob man lieber direkt auf seine Dateien in dder klassischen Ordneransicht zugreifen möchte oder nur über die passenden Anwendungen.

Die Meta-Ebene zum Zugriff auf Dateien und Funktionen ist nicht so ganz neu. Bei statischen Websites werden ebenfalls Dateien abgerufen, die imm HTML-Format auf einer Festplatte liegen. Der Mail-Client verwendet in der Regel eine Datenbank und legt die Mails nicht als Text auf die Festplatte ab. Das Menü von Windows enthält auch nur Verknüpfungen auf Dateien, die auf der Festplatte liegen.
Die meisten Handys und PDAs gehen einen Schritt weiter. Hier existiert nur die Metaebene. Fotos werden nur in der Foto-App angezeigt, Dokumente in der Office-App und Multimedia nur in den jeweiligen Abspielern.
Diese Anzeige bietet Vor- und Nachteile. Der Mensch kann nicht direkt auf Systemdateien zugreifen und so versehentlich etwas zerstören. Die unordentliche Ansicht von kunterbunten Dateiordnern wird vermieden. Die jeweiligen Programme zeigen nur die Dateien an, mit denen sie auch etwas anfangen können.

Ich plädiere allerdings dafür, beide Ebenen zuzulassen. Vor allem sollte der Computer einen direkten Zugriff auf Dateien via USB erlauben. Wenn ich eine App entferne, die bestimmte Dateien im System abgelegt hat, dann habe ich auch keinen Zugriff auf diese Dateien mehr, weil sie in anderen Apps nicht angezeigt werden.

Das heißt praktisch: Entwder werden die Dateien gelöscht, wenn die zugehörige App gelöscht wird oder die Dateien werden nicht gelöscht, aber auch nicht angezeigt, weil es keine App gibt, die etwas mit ihnen anfangen kann. Damit verliere ich die Herrschaft über meine Daten.

Apple geht mindestens einen Schritt zu weit, wenn es einen Zwang zur Nutzung der Meta-Ebene auflegt und einen Zugriff via PC und Mac nur über iTunes erlaubt. Das gesamte System wird dadurch unflexibel.

Die Entmündigung des Computer-Nutzers sollte bestimmten Grenzen unterliegen. Wir wollen gerne wissen, welche Dateien auf unseren Festplatten liegen. Faktisch könnte, wenn wir unser Gerät zum Beispiel verkaufen, ein Dritter auf längst vergessene Dateien zugreifen.

HTML oder Plain Text – die Zukunft der Mail

Immer wieder einmal keimt die Debatte auf, ob man Mails als HTML oder reinen Text versenden sollte. Die Diskussion ist eigentlich müßig, HTML-Mails bieten kaum Vorteile, dafür jede Menge Nachteile.
HTML-Mails sind mit oder ohne Bilder recht groß. Die Größe wird dabei von Gestaltungs-Elementen bestimmt, die wenn im Web verwendet an der Fähigkeit des Webdesigners zweifeln ließen: Inline-CSS, Layout-Tabellen, 0-Pixel-Graphiken und so weiter. Die Vielfalt der Mailprogramme und MailClients lässt nur eine begrenzte Bandbreite an Gestaltungselementen zu. Dazu kommt noch, dass die Mailfenster selbst unterschiedlich breit sein können. Das reicht von der Miniansicht auf Smartphones bis zur Maxidarstellung auf 24-Zoll-Displays. Ein festes Design sieht deshalb fast immer lächerlich aus: zu groß für das Smartphone, zu schmal für das große Display. Ein fluides Design sieht hingegen auf einem großen Display einfach alber aus, weil die Mail dann irgendwie zu kurz geraten aussieht.

Datenschutz

Viele Anbieter möchten über Newsletter Tracking betreiben. Das geht einerseits über speziell generierte Links in den Mails und über Bilder, die über das Web nachgeladen werden. Das könnte ein Verstoß gegen den Datenschutz sein, ich kann mich zumindest nicht daran erinnern, jemals danach gefragt worden zu sein, ob ich mit der Erhebung solcher Daten einverstanden bin. Es ist auch nicht naheliegend anzunehmen, der Empfang eines Newsletters könnte für solche Zwecke verwendet werden. Deswegen wird der Benutzer auch nicht gesondert auf solche Probleme achten. Für einen Tracking-Link ist es hingegen egal, ob er in HTML oder PlainText verwendet wird.

Mobilität

Wer seine Mails mobil abruft, wird sich über Mails freuen, die 100 Kilobyte groß sind, 200 x 150 Pixel große Bilder nachladen und wegen des Tabellen-Designs sowohl horizontal als auch vertikal gescrollt werden müssen. Bestimmt.

Sicherheitsrisiken

HTML-Mails stellen ein Sicherheitsrisiko dar. Sie landen doch recht häufig im Spam (wo sie auch meistens gut aufgehoben sind). Viele Webmailer blockieren zunächst die Volldarstellung.
Dem Leser geht es um den Inhalt der Mails und nicht um bunte Logos, farbenfrohe Graphiken und flockige Bilder, weswegen er kein Interesse daran hat, sich die Volldarstellung anzusehen.

Wozu gibt es RSS und Webseiten?

Newsletter sind eine aussterbende Rarität wie Gästebücher. Viele Nutzer greifen heute auf RSS, Twitter oder Facebook zurück, um sich aktuelle Informationen zu beschaffen. Immerhin bietet das Inhaltsverzeichnis eines Newsletters – wenn es gut gemacht ist – einen schnellen Überblick über die Neuigkeiten. Das funktioniert aber nicht, wenn bunte Bilder, Disclaimer und weitere Informationen den Blick auf den Inhalt verstellen.
HTML sollte dem Web vorbehalten bleiben, wo es gut aufgehoben ist und seinen Zweck erfüllt. Es gab früher und gibt bis heute keinen Grund, seine Mitmenschen mit HTML-Mails zu belästigen. Und mal ehrlich, wann hast du das letzte Mal das tolle Design eines Newsletters bewundert?
Wirklich absurd sind Newsletter, die als PDF verschickt oder irgendwo heruntergeladen werden müssen. Die Anbieter haben wohl nicht wirklich verstanden, dass das Internet keine Litfassäule ist.
Auch wenn der Newsletter als Informationsmedium eine große Rolle spielt und ähnlich wie der RSS-Feed zumindest in absehbarer Zeit nicht aussterben wird, sollte man die Kraft des Mediums nicht überschätzen. Entscheidend ist, wie viele Leute man tatsächlich erreicht und nicht, wie viele Leute den Newsletter abonniert haben. Im Mailprogramm ist es leichter, die Löschen-Taste zu drücken als ein Abo abzubestellen. Die Anbieter werden es nicht gerne hören, aber die Zahl der echten Leser steht in keinem guten Verhältnis zur Zahl der Abonnenten. Auch das ist ein Grund, sich auf das Wesentliche zu konzentrieren und alle möglicherweise störenden Elemente zu entfernen.

Zugänglichkeit – über Shells, GUIs und Audio

Das Leben des blinden Computernutzers bleibt immer spannend. Er darf sich jedes Mal aufs Neue überraschen lassen, ob er ein bestimmtes Programm bedienen kann oder nicht. Viele Programme lassen sich zumindest teilweise über Tastatur bedienen, viele andere aber nicht. Spaßig wird es, wenn sich Teile des Programms per Tastatur erreichen lassen, andere Funktionen aber hinter Icons auf der Programmoberfläche versteckt sind. Im zweifelsfall wird der Blinde nie erfahren, dass es solche Funktionen gibt. Blinde sind nämlich ebenso wenig geneigt, Dokumentationen zu lesen wie Sehende.

Dabei könnte alles so einfach sein, wenn die Programmierer und Entwickler die Tastatur nur als einen Zugangsweg betrachten würden, der mit der Maus gleich berechtigt ist. Spannend wird es jetzt, weil sich zwischen Maus und Tastatur nun der Dritte Weg über Touchpads etabliert. Alle komplexen mobilen Betriebssysteme werden ohne Anpassung für Touchscreens scheitern.

Es ist ein offenes Geheimnis: Benutzer von Tastatur und der Kommandozeile kommen nach einer gewissen Einarbeitung schneller zum Ziel als die Benutzer graphischer Oberflächen. Eine große Ausnahme ist die Fotobearbeitung. Die Textverarbeitung hingegen ist ein gutes Beispiel: Ein Darstellungsproblem ließe sich in HTML wesentlich schneller lösen als etwa in einem Word-Dokument.
Die Kommando-Zeile ist die Alternative zur GUI, die Tastatur ist die Alternative zur Maus, der audivitive Zugang ist die Alternative zum optischen Zugang.
Wenn man heutzutage mehrere Hundert Euro für ein Betriebssystem ausgibt, dann sollte man auch den Zugang bekommen, den man benötigt. Microsoft aber hat bis heute im Gegensatz zu anderen keinen auditiven Zugang zu seinen Betriebssystemen. Im Gegenteil, viele grundlegende Funktionen sind nur per GUI und Maus zugänglich. Das Unternehmen hat viel Geld in eine graphische Benutzeroberfläche gesteckt, die kein Mensch wirklich braucht, aber keinen Euro in einen Zugang, der auch Blinden zugute kommt.
Nebenbei bemerkt nutzen solche Zugänge auch Menschen mit Lern- oder Leseschwäche, die sich damit auch die Oberfläche erschließen oder sich lange Texte vorlesen lassen können.

Warum der Staat auf Open Source setzen sollte

Die Argumente für Open-Source-Software werden selten schlüssig zusammengefasst. Die meisten Menschen argumentieren mit dem geringen Preis dieser Software. Natürlich ist Open Source nicht mit kostenlos zu verwechseln, Open Source bedeutet lediglich, dass der Quellcode der Software für jedermann einsehbar ist. Für den Privatanwender ist die Umstellung von Closed auf Open Source ein kleiner Kraftakt, schließlich muss man sich in ein neues System eingewöhnen und es kann eine gewisse Zeit dauern, bis man flüssig damit arbeiten kann. Für eine staatliche Behörde ist es ein Kraftakt, der viele Monate Vorlauf braucht und viel Geld kosten kann.
Warum es sich dennoch lohnen kann, zeigt dieser Artikel. Es geht vor allem um die Sicherheit der Software und die Zukunftsfähigkeit von Formaten. Der Kostenfaktor spielt eine geringere Rolle.
Bei quelloffener Software hat jeder mit entsprechenden Kenntnissen die Möglichkeit, die Software auf Sicherheitsprobleme zu überprüfen und auf seine eigenen Bedürfnisse anzupassen.
Noch wichtiger erscheint die Nutzung offener Formate. Wer mit älteren Office-Versionen mit Microsoft gearbeitet hat wird schockiert feststellen, dass die neuen Versionen mit älteren Dokument-Formaten nicht vernünftig arbeiten können. Umgekehrt können ältere Office-Versionen nichts mit DOCX anfangen.
Behörden müssen höhere Anforderungen an die Austauschbarkeit und Kompatibilität sowie die Archivierung von Dokumenten stellen. Deshalb kann es nicht sinnvoll sein, ein Format zu verwenden, das nur von einem Unternehmen vollständig unterstützt wird und dessen Schnittstellen nicht offen gelegt sind. Entweder macht man sich auf Dauer von einem Unternehmen abhängig oder das Unternehmen geht pleite, in diesem Falle muss die Behörde möglicherweise ihre Dokumente aufwendig konvertieren oder verliert sie im schlimmsten Falle vollständig.
Ähnliche Probleme gibt es bereits im Bereich der Content Management Systeme. Viele Unternehmen haben frühzeitig auf Agentur-Lösungen gesetzt. Wenn die Agenturen dann pleite gehen, was durchaus passiert ist, dann muss jemand dieses System aufwendig weiterentiwckeln. Im schlimmsten Fall ist das System nachlässig dokumentiert, so dass es nur mit großem Aufwand weiter entwickelt werden kann.
Die Open-Source-Lösungen a la TYPO 3 oder Drupal sind hingegen wesentlich flexibler und werden auf absehbare Zeit weiterentwickelt. Eine Migration von einem zum anderen System ist sehr gut möglich.
Der finanzielle Aufwand – um auf das Ausgangsargument zurückzukommen – dürfte auf lange Sicht bei Open Source geringer sein als bei Closed Source. Die Kosten für die Überführung veralteter und nicht unterstützter Formate und die Migration von Systemen scheint eventuelle Einsparungen durch Closed Source vollständig aufzuheben.

MP3 kills the Minidisc-Star – das lange Sterben der Minidisc

Die Ära der Minidisc begann vor etwa 15 Jahren. In Konkurrenz mit der DAT – einer Art digitaler Kassette – sollte die Minidisc die Cassette verdrängen. Ihre Vorteile waren unschlagbar:
– robuste Datenträger
– praktisch unendlich oft bespielbar
– jedes Abspielgerät war zugleich Aufnahmegerät
– mit jedem Aufnahmegerät ließen sich auch Editierarbeiten durchführen, man war also unabhängig vom Computer
– Aufnahmen ließen sich in digitaler Qualität machen
– mit LP4 ließen sich bis 300 Minuten aufnehmen
Doch von Anfang an litt die MD an ihren Schwächen, die ihr Ende in Europa einläutet.
– Sonys Serial Copy Management System verhinderte, dass man digitale Aufnahmen digital überspielen konnte, die Überspielung musste analog und mit Qualitätsverlusten erfolgen. Sony hatte weiterhin verschlafen, mobile Geräte mit einer Computerschnittstelle auszustatten. Als die Schnittstellen dann doch kamen, war es nicht möglich, Aufnahmen vom Endgerät auf den Computer zu überspielen, man konnte lediglich Daten vom Computer auf das Gerät überspielen. Erst seit einigen Jahren liefert Sony Geräte aus, die das Überspielen von Aufnahmen vom Endgerät zum Computer zulassen. Vermutlich fünf Jahre zu spät, denn die meisten Minidisc-Fans dürften zwischenzeitlich umgestiegen sein. Das Gerät kostet schlappe 300 Euro, doppelt so viel wie ein MD-Deck. Mit HiMD und NetMD hatte Sony sein Format zu retten versucht. Zumindest für den Profibereich dürfte die HiMD interessant sein, da sie Aufnahmen in CD-Qualität ermöglicht. Auffällig ist aber, dass Sony heute offenbar der einzige Anbieter neuer MD-Geräte ist, offenbar halten Sharp und andere Anbieter den Markt nicht mehr für groß genug. Bei Amazon gibt es gar keine neuen MD-Decks mehr. Der Todesstoß für die MD war das aufkommende MP3-Format und die mobilen Abspielgeräte sowie der massenhaft billige Speicher. CD-Brenner und billige Rohlinge haben die MD endgültig unerschwinglich gemacht.
Für die durchaus noch vorhandene Minidisc-Fan-Gemeinde in Deutschland wird es also in Zukunft schwierig, wenn ihre alten Geräte allmählich den Geist aufgeben. Interessant wäre die Frage, ob Sony in Japan weitermachen wird, wo die MD wesentlich erfolgreicher war als in Deutschland.

Apfel präsentiert neues Tablett

Apfel – der weltweit bekannte Hersteller von Fallobst präsentiert das neue Tablett iPlatt auf einer eigens dafür eingerufenen Pressekonferenz.

Der Apfel-Vorsitzende Stefan Arbeit sagte: „Apfel revolutioniert einmal mehr die Industrie der Speiselogistik!“. In der Tat ist das Tablett beeindruckend: 60 x 30 cm groß, flach wie ein Blatt Papier mit leicht erhöhtem Rand ist das Tablett optimal zum Transport von Speisen und Getränken geeignet. Das Tablett gibt es in weiß, braun oder schwarz. Als Logo dient ein dezent, die Oberfläche ausfüllender, angefaulter Apfel.

„Dieses Tablett“ sagte Arbeit, „ist mehr als ein Transporteur von Speisen, es ist die Erfüllung der Träume aller Kellner und Studentenbedienungen. Es steht für die Träume nach einem hohen Trinkgeld, nach schmerzfreien Beinen und dem Ende der Mitternachtsschicht. Für die Kunden steht es für den Glauben daran, dass das Essen doch noch irgendwann kommen wird, der Alkoholiker weiß, dass ihm dank des iPlatt niemals die Getränke ausgehen werden!“.

Speiseexperten und Restaurantkritiker gehen davon aus, dass Apfel einmal mehr eine Welle der Innovation durch das Speiselogistik-Gewerbe schwemmen wird. Apfels größter Konkurrent Mikrofon kündigte bereits an, dass man Arbeit „gewaltig in den Arsch treten“ werde. Der Vorstandsvorsitzende von Mikrofon Wilhelm Gehts sagte: „Der Tablettboom wird überschätzt, aber Mikrofon wird in Kürze was viel Besseres, Größeres, Tolleres und unheimlich Innovatives veröffentlichen. Vor allem aber wird es billyger sein!“.

Schneller schreiben als Denken – Stenographie für den Computer

Ob Zehn-Finger oder Ein-Finger-Suchsystem, das Tippen langer Texte ist ein langwieriger und undankbarer Job. Die Computerspracherkennung scheint auf einem guten Weg zu sein, es wird aber wohl seine Gründe haben, warum sie sich bisher nicht auf breiter Front durchgesetzt hat. Die wenigsten Leute können druckreif sprechen und an einer manchmal zeitaufwändigen Korrektur von Rechtschreibung und Grammatik kommt man nicht vorbei.

Wer sich also keinen Sekretär leisten kann und auf das viele Schreiben nicht verzichten mag, muss sich nach einer Alternative umsehen. Stenographie wäre eine Möglichkeit. Steno ist aber nur zum handschriftlichen Mitschreiben geeignet, mir ist keine Möglichkeit bekannt, Steno auf einer PC-Tastatur einzugeben. In diesem Fall hat man sogar Mehrarbeit, zunächst muss alles in Steno notiert werden, um es anschließend abzutippen. Ideal wäre es, wenn Steno direkt in den Computer eingegeben wird und sich in normalen Text umwandelt, wie das bei der Autokorrektur der Textverarbeitung passiert. Dabei werden häufig falsch geschriebene Worte korrigiert und einige Abkürzungen wie MFG ausgeschrieben.

Die Blindenschrift ist für diesen Fall ideal. Neben der normalen Brailleschrift – der Vollschrift – existiert eine Kurzform – die Kurzschrift. Die Kurzschrift besteht aus einzelnen Zeichen, die geläufige Zeichenketten wie „sch“, aber auch ganze Worte wie „sich“ in einem Zeichen zusammenfassen. Das Wort „schließlich“ zum Beispiel würde in Kurzschrift aus nur 5 Zeichen bestehen: sch, l, ie, ß, lich. Das System der deutschen Kurzschrift wird hier dargestellt.

Ein kleines Problem ist die Groß- und Kleinschreibung, sie wird in Braille nicht verwendet. Eine Lösung bestünde darin, ein auf der Standardtastatur vorhandenes Sonderzeichen wie die Raute vor groß geschriebene Worte oder Buchstaben voranzustellen. Der etwas aufwändigere Weg bestünde darin, sämtliche Kürzungen anzulegen, wobei Groß- und Kleinschreibung jeweils beachtet werden. Eine groß geschriebene Kürzung bleibt ausgeschrieben groß, eine klein geschriebene klein.

Fast alle Kürzungen in Braille bestehen aus ein oder zwei Buchstaben, einige aus einem Komma und einem Buchstaben. Da es im Deutschen kaum Wörter mit einem oder zwei Buchstaben gibt, lassen sich diese Zeichenketten ohne Verwechslungsgefahr einsetzen.

Der Vorteil von Braille gegenüber Steno besteht darin, dass hier fast nur Zeichen verwendet werden, die im normalen Alphabet vorkommen, im Gegensatz zu Steno, das einen eigenen Zeichensatz besitzt, der von der Tastatur nativ nicht unterstützt wird.

Der Vorteil einer Kurzschrift besteht darin, dass man praktisch in Denkgeschwindigkeit schreiben kann. Der durchschnittliche Tipper schafft mit Leerzeichen zwischen 120 und 240 Anschläge, wobei letzteres schon ein ordentliches Tempo wäre. Das dürften etwa 50 Silben sein. Ein Stenograph schafft bis zu 300 Silben pro Minute und mehr, was schneller als Sprechgeschwindigkeit ist.

Warum sollte man sich diesen Aufwand antun? Denn das alles ist mit Arbeit verbunden. Meines Wissens nach gibt es derzeit kein System auf dem Markt, wie ich es beschrieben habe. Das hat seinen Grund, man kommt nämlich nicht darum herum, ein mehr oder weniger komplexes System auswendig zu lernen. Damit das System funktioniert, müsste man bei meinem System einige Dutzend Kürzungen auswendig lernen. Andererseits muss man sagen, dass das Ganze interessante Möglichkeiten für Vielschreiber eröffnet. Sie können die Phase, in der sie intellektuell am leistungsfähigsten sind, effektiv ausnutzen, weil sie in Denkgeschwindigkeit schreiben könnten. Wessen intellektuelle Phase sich auf zwei bis drei Stunden beschränkt, ärgert sich über die Zeit, die er mit dem Aufschreiben oder Abtippen seiner Ideen verbringen muss. Ein Redemanuskript ließe sich auf einer Seite zusammenfassen, natürlich nur die wichtigsten Stichpunkte. Ein Zitat oder eine ganze Vorlesung ließen sich in Echtzeit mitschreiben, ob das alles im Einzelfall Sinn macht, ist eine andere Frage. Vor allem das Schreiben auf unbequemen Tastaturen wie bei PDAs oder Smartphones ließe sich abkürzen.

Ich bin übrigens darauf gekommen, als ich das Buch „Imperium“ von Robert Harris las, eine erzählerische Biographie des römischen Redners Cicero. Ciceros Sekretär Tiro erzählt die Geschichte aus der Ich-Perspektive. Tiro hatte eine eigene Kurzschrift entwickelt, um die Gedanken seines Herren aufzuschreiben.

edit: Mit der klassischen Autokorrektur der Textverarbeitung würde das Kurzschriftsystem leider nicht funktionieren, stelle ich gerade fest. Die Autokorrektur funktioniert nur bei ganzen Wörtern. Wollen wir aber Teile von Wörtern abkürzen, müssten wir in mühseliger Kleinarbeit zumindest die geläufigsten 200 Wörter oder mehr schon einmal abspeichern. Um einigermaßen flüssig arbeiten zu können, müssten es wohl eher 1000 Wörter sein, womit wir noch nicht die Sonderformen abgedeckt haben. Schließlich und schließlich, ausschließlich, einschließlich, anschließend oder abschließend, alle denkbaren formen müssten gespeichert werden. Einem Programmierer würden hier die Augen tränen, denn für ähnliche Aufgaben sollte man nicht so viel Aufwand treiben. Ich werde mir wohl etwas anderes überlegen müssen.

Update: Für den Mac gibt es den Text Expander, der die oben genannten Aufgaben erfüllen kann. Man erstellt eine Datenbank mit Textbausteinen, die dann über Kürzel automatisch in den Text eingefügt werden. Der Clou ist, dass das Tool systemweit zur Verfügung steht, also auch für die Textverarbeitung oder fürs Internet. Im Golem-Forum werden vergleichbare Tools für Windows erwähnt. Ich habe noch keines der Systeme ausprobiert.

Jenseits von Amazon und EBay – alternative Verkaufsstellen im Netz

Lang, lang ist es her, dass Amazon und EBay ein Tummelplatz für Privatverkäufer und Schnäppchenjäger waren. Vor allem für Privatpersonen lohnt es sich oft nicht mehr, dort zu verkaufen. Amazons überhöhte Gebühren führen dazu, dass es unterhalb einer bestimmten Schwelle uninteressant ist, Artikel anzubieten. Leider liegen aber die meisten Bücher, DVDs und CDs unter dieser Schwelle von 10 Euro. EBay vergretzt seine Verkäufer, indem es für viele Artikel keine Versandgebühren mehr zulässt. So kommt es, dass man hier oft draufzahlt, wenn man Artikel günstig losschlagen möchte. ZVAB, wo antiquarische Bücher angeboten werden, ist doch teilweise recht überteuert und wimmelt von neuen Angeboten, wo man mit Versandkosten mehr bezahlt als im normalen Buchhandel. Regalfrei.de wäre eine interessante Alternative für Leute, die einen ganzen Schwung Bücher auf einmal losschlagen wollen. Leider machen sie nur recht niedrige Angebote auch für gute Bücher, was das Angebot eher unattraktiv macht.

Interessante Alternativen sind etwa Hood und Booklooker. Hood ist ein klassisches Auktionshaus a la E-Bay, allerdings mit besseren Konditionen. Leider ist es derzeit nicht gerade stark frequentiert, was sich hoffentlich bald ändert. Booklooker entspricht eher Amazon Marketplace, hier werden Bücher, CDs, DVDs und Spiele zum Festpreis + Versandkosten angeboten. Das Einstellen von Artikeln ist in beiden Fällen kostenlos. Hood läßt sich für Extraleistungen bezahlen, Booklooker nimmt eine Verkaufsprovision.
Ebenfalls interessant ist tauschticket.de, ein Angebot zum Tauschen von Artikeln. Hier wird nicht mit Geld bezahlt, sondern mit sogenannten Tickets. Man bietet einen Artikel an, der an den Interessenten versendet wird. Dafür erhält man ein Tauschticket, mit dem man selbst Produkte “erwerben” kann. Geld fließt nicht, die Nutzung der Plattform ist inzwischen wohl nicht mehr kostenlos, den Versand der Produkte bezahlt der Versender.
Nebenbei bemerkt sind die meisten dieser Plattformen weit besser benutzbar als etwa EBay, was die Barrierefreiheit angeht.
Für Leute, die viele Bücher auf einmal verkaufen und nicht ewig auf Käufer warten möchten, bietet sich www.blidad.de an. Natürlich kriegt man hier weit weniger, als man bekommen würde, wenn man die Bücher einzeln verkauft. Das liegt einfach daran, dass sie die Bücher mit Gewinn weiter verkaufen müssen, um einen Gewinn zu machen. Blidad ist der Käufer der Bücher, es gibt eine Versandpauschale von maximal 7 Euro. Die Bücher sollen in einem guten Zustand sein, viele ältere Bücher werden allerdings nicht genommen. Eine Alternative ist ReBuy, ein Ableger von Trade-A-Game. Sie kaufen neben Büchern auch Computerspiele, Musik und DVDs. Sowohl Blidad als auch ReBuy scheinen besser zu bezahlen als der Libri-Ableger Regalfrei.

Dennoch kann ich von ReBuy und Blidad nur abraten, meine Erfahrungen mit den beiden Unternehmen sind schlecht. Die Mehrzahl der Bücher wird abgelehnt, so dass man die Wahl zwischen teurer Rücksendung oder Vernichtung hat. Am Ende zahlt man also doch drauf.

Wer seine Bücher nur loswerden möchte, ohne sie zu verschenken oder einen Gewinn damit zu machen kann natürlich immer noch auf eBay zurückgreifen.Genausogut kann man die Bücher aber auch bei einem Umsonst-Laden oder Oxfam-Laden vorbeibringen. Die verkaufen die Bücher weiter und finanzieren damit ihre Entwicklungsprojekte.

Die drei Fragezeichen und das Urheberrecht

Ein weiterer geheimnisvoller Fall für Justus, Peter und Bob? Leider nein, am fall der Drei Fragezeichen kann man sehen, welch Kuriosa das Copyright hervorbringt.

Die Serie wurde vor gut 40 Jahren von dem Schriftsteller Robert Arthur in den USA entwickelt, war dort allerdings nicht so erfolgreich wie in Deutschland. Hier sind wohl Millionen von Menschen im Alter von 20 – 40 Jahren mit den Hörspielen der Drei Detektive ins Bett gegangen. Deshalb wurde die Serie, als sie in den USA nicht mehr fortgeführt wurde, in Deutschland weiter geführt.Ich erinnere mich noch, wie ich mich gefreut habe, als ich Ende der 90er Jahre in einem Woolworth die Hörspielkassetten durchsah und plötzlich auf das bekannte Cover stieß, das erkennt man auch nach zehn Jahren problemlos wieder. Ich habe mir natürlich gleich alle vorhandenen Cassetten geschnappt und bin dann regelmäßig dorthin gepilgert, um zu gucken, ob es neue Cassetten oder CDs gab.

Dabei hat die Serie ein Redesign erfahren, die Jungs wurden flotter, bekamen einen gewöhnungsbedürftigen Soundtrack – aus Urheberrechtsgründen wurden sogar die alten Hörspielfolgen mit der neuen Musik ausgestattet. Angeblich waren die Tantiemen-Forderungen des Produzenten der ersten Hörspielmusik zu hoch. Kurioserweise wurden auch die ersten Folgen der Serie – der Super-Papagei und so weiter – mit neuer Musik ausgestattet, was sehr anachronistisch wirkt. Die typische 70er Jahre Kinderserie wie die Story mit dem Rubin oder dem Zirkus passt mit dem Kraftwerk-Verschnitt mit Roboter-Attitüden einfach nicht zusammen, wer das wohl verhunzt hat?

Und dann wurden die Drei umbenannt nach ihren amerikanischen Originalen, bis dahin hat wohl kaum jemand geahnt, dass Justus Jonas in den englischen Originalen Jupiter Jones und Peter Shaw eigentlich Peter Cranshaw heißt. Die drei Fragezeichen hießen dann die Dr3i, sieht ein wenig kryptisch aus, oder? Ursache war ein Rechtsstreit zwischen den Verlag und Hörspielproduzenten. Die Drei Fragezeichen wurden zu die Dr3i.
Und auch die Musik wurde wiederum geändert. Das war das einzig Gute an den neuen Folgen. Die Musik ist mittlerweile sehr passend, auch wenn die Fans wohl immer an der alten Musik hängen werden. Aber die wäre heute wohl ebenso anachronistisch wie der Technoverschnitt in den 70ern.

Die neuen Folgen sind alles in allem eigentlich nicht schlecht, aber für Kinder eher ungeeignet. Da sind doch einige sehr psychisch aufgeladene Fälle dabei. An die Umbenennung gewöhnt man sich aber recht schnell. Inzwischen scheint auch der letzte Rechtsstreit geklärt zu sein. Meine Damen und Herren, das hätten Sie auch einfacher, billiger und schneller haben können.

Inzwischen dürfte es mehr in Deutschland produzierte Folgen der drei Fragezeichen geben als amerikanische Folgen. Und das nicht wegen, sonderntrotz überkomplizierter Urheber- und Markenrechte. Vor allem die Hörspiele scheinen sich sehr gut zu verkaufen. Und die Drei Sprecher treten aus den Schatten der drei Detektive und kommen zu einem Ruhm, den sie wohl als Kiddies nie erwartet hätte.

Ähnliche Streitigkeiten haben schon zuvor die Einführung neuer Techniken verhindert. Die DVD hätte schon viele Jahre zuvor erscheinen können, doch die Filmindustrie bestand auf die Einführung eines Kopierschutzes. Das sogenannte CSS wurde aber sehr schnell geknackt, so wie alle Schutzmaßnahmen, die man sich nachgehend für teures Geld ausdachte.

Der Scheintod der Minidisc und der Tod des DAT-Rekorders ist von den Herstellerfirmen und den Contentindustrien selbst zu verantworten. Sony stattet seine MD-Player bis heute mit dem Serial Copy Management System aus, welches es verhindert, daß man von einer analog oder digital aufgenommenen Disc eine digitale Kopie anfertigt. Man muss sich das auf der Zunge zergehen lassen, Sony verhindert, daß man von seinen eigenen Aufnahmen digitale Kopien anfertigt. Heute gibt es Minidisc-Player mit USB, es ist aber nicht möglich, Daten vom Player auf den Computer zu bekommen. MP3 vom PC muss zunächst verlustbehaftet in Sonys eigenes ATTRAC-Format konvertiert werden. Und das alles, weil Sony in der Musikindustrie aktiv ist.

Diese Fälle zeigen, dass sich die Macher selbst die Einnahmequellen abschneiden. Es gibt Zehntausende von Menschen, die für die Serien ihrer Kinderzeit wie Matlock, Remington Steele und so weiter viel Geld ausgeben würden. Aber ihnen wird die Möglichkeit gar nicht gegeben, weil irgendwer an irgendwas die Recht hat oder nicht hat. Am Ende – und das ist wirklich dumm – verdient niemand Geld damit, obwohl die Serien ja schon fix und fertig da liegen und nur noch gemolken werden müssten.