Archiv der Kategorie: Technik

Hypermedia-Learning – ein neuer Ansatz im eLearning

eLearning ist nach wie vor die Domäne von klassischen Bildungsstätten. Es werden viele Ressourcen aufgewendet, um Lernmaterialien zusammenzustellen. Die Kurse sind meistens geschlossen, das Lernen und Kollaborieren findet in geschlossenen Systemen statt. Im folgenden möchte ich einen Ansatz vorschlagen, der das Erstellen von Lernumgebungen demokratisieren und das Lernen erleichtern soll. Screenshot von Drupal
Ich bin selber kein eLearning-Experte, daher weiß ich nicht, ob es schon einen Begriff dafür gibt. Ich nenne es Hypermedia Learning. Es vermischt vor allem zwei Ansätze: das rapid eLearning und die Massive Open Online Courses (MOOC). Das Hypermedia-Learning basiert auf vier Prinzipien:

  • Prinzip 1: Verknüpfen statt selber machen
  • Prinzip 2: Selbstständig statt angeführt
  • Prinzip 3: Verteilt statt konzentriert
  • Prinzip 4: Multidimensional statt textzentriert

Wie ich mir das ungefähr vorstelle, sieht man an diesem Beispiel, das allerdings noch nicht ganz fertig ist.

Prinzip 1: Verknüpfen statt selber machen

Für mich ist immer wieder erschreckend, wie viele Ressourcen darauf verwendet werden, das Rad neu zu erfinden. Jedes System hat zumindest in gewissem Maße seine Existenzberechtigung. Ein Informatiker hat villeicht Spaß daran, den Hunderten von Programmiersprachen noch eine neue hinzuzufügen. Aber warum man 30 verschiedene Lernplattformen basteln muss, von denen jede einzelne ihre Schwächen hat, erschließt sich mir nicht. Weil es beim Hypermedia-eLearning keine großen technischen Anforderungen gibt, lässt sich dafür jede Plattform verwenden, welche die technischen Anforderungen erfüllt. Das kann auch ein kostenloses WordPress-Blog sein oder Drupal.
Das Gleiche gilt für Informationen im Internet. Viele von den Informationen sind schon vorhanden und sie werden hoffentlich auch bleiben. Deshalb gibt es selten einen Grund, einen Text komplett neu zu schreiben, wenn die Informationen einfach nur verlinkt werden müssen. Vielfalt ist nicht per se schlecht, aber Vielfalt ist auch kein Wert an sich.
Im Hypermedia-eLearning stellt der Autor die Basis-Informationen in einem Text zusammen und bindet weitere Informationen über Links ein. Am besten ist es natürlich, die Informationen direkt in die Webseite einzubinden, wie man es mit YouTube-Videos oder Slideshare-Präsentationen machen kann. Mit Text geht das wegen der Urheberrechte nicht, eine Ausnahme wäre Scribd.
Statt alles selber zu schreiben stellt der Autor also die wesentlichen Informationen strukturiert und im Zusammenhang zusammen. Der Nutzer muss im Rahmen des Kurses die verschiedenen Materialien durcharbeiten.
Ich propagiere im übrigen kein Häppchen-Lernen. Es reicht normalerweise nicht, Texte, die man geschrieben hat einfach in eine logische Reihenfolge zu stellen. Vielmehr muss das gesamte Lernangebot einen roten Faden haben. Kein Autor wird also darum herum kommen, seine Inhalte ein wenig zu überarbeiten. Wer dafür weder Zeit noch Muße hat, fährt mit einem MOOC besser, wo lediglich zu bearbeitende Inhalte verlinkt und dazu passende Fragen zusammengestellt werden.

Prinzip 2: Selbstständig statt angeführt

Im klassischen eLearning werden vom Kursleiter Aufgaben vorgegeben, die der Schüler in einer bestimmten Zeit bearbeiten und wieder einreichen soll. Der Lehrer prüft die Lösung und gibt Feedback.
Im Hypermedia-eLearning übernehmen wir das Prinzip des autonomen Lernens. Der Nutzer erhält die Aufgabe, etwas zu tun, etwas auszuprobieren und selbständig zu prüfen, ob er das Ziel erreicht hat. Eine richtige Erfolgskontrolle wie beim klassischen eLearning ist für das selbstständige eLearning nicht nötig. Entsprechend müssen die Übungen gestaltet sein.

Prinzip 3: Verteilt statt konzentriert

Das Entscheidende ist dabei das Ziel Cummunity-Building. Die Community unterstützt im Idealfall die Bereitschaft, den Kurs zu Ende zu führen. Sie erleichtert den Austausch, wodurch das Wissen vertieft und die Reflexion verstärkt wird. Lernen ohne Lehrer könnte das Motto sein.
Viele Kurse haben keine nachhaltige Wirkung, weil der Stoff zwar durchgearbeitet wird, aber nur in Hinblick auf den Abschluß des Kurses. Das Ziel sollte aber sein, dass die Kursteilnehmer den Stoff selbständig vertiefen und das klappt im Austausch mit anderen am besten. Die Teilnehmer stellen Fragen, die durch das Kursmaterial nicht ausreichend beantwortet wurden oder gar nicht behandelt wurden. Diese Diskussionen helfen späteren Teilnehmern, den Stoff weiter zu reflektieren, das ist Crowd-Bildung.
Wenn der Kurs von der Plattform unabhängig ist, suchen sich die Teilnehmer ihre eigene Form der Verarbeitung auf Facebook, Twitter, Pinterest, Audioboo, YouTube oder wo auch immer.
Im Idealfall ergänzt dieses Material den Kurs und macht via Crowdsourcing einen besseren Kurs daraus. Das klappt aber nicht, wenn der Kurs und die Kursplattform geschlossen sind.

Prinzip 4: Multidimensional statt textzentriert

Im Internet liegen genügend multimediale Inhalte, um einen akademischen Abschluß nur mit diesen Materialien zu erlangen. Gleichzeitig sind die Kurse heute eher textbasiert. Multimedialität lässt sich dabei sowohl bei der Zusammenstellung des Kursmaterials als auch bei der Bearbeitung der Übungen realisieren.
Jeder Mensch hat seinen eigenen Lernstil. Manche mögen es eher visuell, manche eher akkustisch. Diese Vorlieben werden in den klassischen Kursen nicht berücksichtigt, weil jeder Teilnehmer die gleiche Aufgabe in der gleichen Weise bearbeiten muss.
Am besten wäre es, wenn die Lernenden den Stoff direkt auf ein konkretes Projekt anwenden könnten, das sie aktuell bearbeiten. Auch das geht in den klassischen Kursen nicht, weil das dem Lehrenden zu viel Mühe bereiten würde. Das konkrete Anwenden des Erlernten ist entscheidend für den Lernerfolg.
Statt ellenlange Texte durchzuarbeiten sollte der Nutzer die Möglichkeit bekommen, möglichst viel auszuprobieren. Es geht darum, den Spieltrieb zu wecken, dem Nutzer etwas zum Anfassen zu geben, seine Neugier zu wecken und ihn möglichst viel alleine herausfinden zu lassen, statt ihm alle Informationen vorverdaut zu präsentieren.

Demokratisierung der Bildung

Für professionelle Kurse werden zahlreiche Ressourcen benötigt. Es werden Didaktiker, Fachleute zur Erstellung des Kurses und Designer benötigt, die den Kurs inhaltlich ausarbeiten und optisch aufbereiten. Die Kurse kosten im besten Falle mehere Hundert Euro. Gleichzeitig haben wir einen expliziten Mangel an Kursen vor allem zu aktuellen Themen. Die ersten deutschsprachigen Kurse zu Web 2.0 erschienen vor drei bis vier Jahren. Ist das Kursmaterial einmal ausgearbeitet, wird es nur selten auf den aktuellen Stand gebracht.
Das hier vorgeschlagene Prinzip ist sozusagen die Wikipediasierung des Lernens. Die Entstehung von Bildungsmaterial und Enzyklopädien hat viel gemeinsam. Die Enzyklopedia Britannica ist sicher ein tolles Werk, das auch seine Existenzberechtigung hat. Aber sie ist teuer und praktisch in dem Moment veraltet, wo sie auf den Markt kommt.
Gleichzeitig wirft das beschriebene Verfahren die gleichen Probleme auf, wie sie die Wikipedia bereits heute hat. Das sind vor allem die Qualitätsunterschiede in den Artikeln.
Die Qualitätskontrolle wandert sozusagen von den Inhalteerstellern zu den Kursnutzern. Sie sind angehalten, das Gerlernte kritisch zu reflektieren, in Frage zu stellen und mit ihren Beiträgen zu verbessern. Das ist sozusagen Teil des Kurses und entspricht dem Prinzip des selbständigen Lernens.
Zur Demokratisierung gehört auch, dass jeder diese Kurse erstellen kann. Es gibt keinen Grund, die Schaffung von Wissen den Experten zu überlassen. Es gibt einen Hunger auf Wissen und es gibt keinen Grund, dieses Wissen in sorgfältig gebundene vom Verlag geprüfte Bücher zu packen.
Oftmals liegt das Basismaterial schon vor. Viele Blogs werden seit Jahren mit Einträgen gefüllt. Im Idealfall müssten die Beiträge nur in eine Struktur gebracht werden, die den Lernenden die Aufnahme erleichtert. Sie werden dann ergänzt mit Beiträgen, die die Lücken füllen und mit Fragen, die den Nutzern das Selbst-Lernen erleichtern. Das Material kann nach Belieben mit Texten von anderen Webseiten, Videos, Audios oder Präsentationen ergänzt werden. Dem Autoren fällt hier als Quasi-Experten die manchmal schwere Aufgabe zu, die aus seiner Sicht besten Inhalte auszuwählen. Theoretisch lassen sich beliebig viele Inhalte einbinden, praktisch soll aber gerade der Lernende nicht mit einem Übermaß an Inhalten überschüttet werden. Und natürlich sind die Urheberrechte zu berücksichtigen, es geht nicht um Copy-Paste, sondern um Hypermedia.
Ein Kurs kann auch modular gestaltet werden, so dass er einerseits Laien wie Experten ansprechen kann. Auf der anderen Seite können so auch unterschiedliche Zielgruppen erreicht werden. Die Redakteure zum Beispiel bearbeiten den ersten Teil, die Designer den zweiten Teil, aber beide haben auch die Möglichkeit, die jeweils anderen Teile durchzuarbeiten. Das heißt, dass die einzelnen Module des Kurses grundsätzlich eigenständig funktionieren müssten.
Unsere Regale sind voll von Lehrbüchern, die mit der besten Absicht gekauft wurden, aber keinen nachhaltigen Einfluß hatten. Unsere Schulen, Universitäten und das Internet sind voll altbackener Didaktik, die heutige Möglichkeiten bei weitem nicht ausnutzt.

World Community Grid – mitmachen ohne Admin-Rechte

Hier ein kurzer Tipp. Es ist immer sinnvoll, unter Windows nicht mit Admin-Rechten im internet unterwegs zu sein. Schließlich haben die Schädlinge die gleichen Rechte wie der Nutzer.
Wer beim World Community Grid mitmachen möchte, muss sich zunächst das Programm herunterladen. Nach der Installation stellt man fest, dass nur der Admin das Programm konfigurieren und ausführen kann. Bei der portablen Version sieht es leider ähnlich schlecht aus.
Dabei ist es relativ einfach: Bei der Installation des Programms sollte man die Option „Erweitert“ anklicken. Dort kann man ein Häkchen setzen bei „Alle Nutzer des Computers dürfen das Programm nutzen“ oder etwas sinngemäßes. Nach der Installation wechselt man dann nach dem Neustart in das Nicht-Admin-Konto und startet das Programm. Voila. Warum sie das nicht von vorneherein so eingestellt haben, erschließt sich mir nicht.
Disclaimer: Es ist verboten, ohne Erlaubnis des Arbeitgebers Programme zu installieren oder über dessen Internetzugang Dienste zu betreiben, die nicht direkt der Arbeit dienen. Holt euch die Erlaubnis der Admins, bevor ihr so etwas macht.

Drupal als einfaches Learning Management System

Es gibt eine Reihe kostenloser Open-Source-Lösungen für Lernumgebungen zum eLearning im Internet. Die größte und wahrscheinlich auch umfangreichste Lösung ist Moodle. Moodle ist allerdings sehr anspruchsvoll, was den Ressourcenbedarf angeht. Außerdem ist es für kleine Lernumgebungen überdimensioniert. Ein einfaches Redaktionssystem erfüllt oft viele Ansprüche und lässt sich mit geringeren Ressourcen betreiben.
Vieles spricht für WordPress: es ist schnell erlernt, es gibt zahllose Erweiterungen für jeden Zweck und es lässt sich fast überall betreiben.
Screenshot von Drupal
Für interaktive Umgebungen scheint mir aber das freie System Drupal besser geeignet. Es erfordert ein wenig mehr Einarbeitung als WordPress, bringt jedoch einige interessante Funktionen von Haus aus mit. Der Schwerpunkt von Drupal liegt auf dem Community-Building. Man kann zu jedem Inhalt ein Forum hinzufügen, so dass Diskussionen und Kommentare zu jedem Lerninhalt geführt werden können.
Drupal ist ein klassisches Redaktionssystem zum Erstellen von Webseiten, während der Schwerpunkt von WordPress auf Weblogs liegt. In Blogs gibt es normalerweise keine Hierarchie, alle Beiträge liegen auf der gleichen Navigationsebene. Die Beiträge werden nicht im Zusammenhang in einer bestimmten Reihenfolge gezeigt, sondern umgekehrt chronologisch. Das kann man natürlich nach Belieben ändern, Drupal erlaubt das aber von Haus aus. Das Buchmodul von Drupal erleichtert es, Inhalte in eine lineare Reihenfolge zu bringen, so dass der Lernende den Stoff nac einem bstimmten System durcharbeiten kann.
Vieles andere ist integriert oder lässt sich nachrüsten: Benutzerverwaltung mit Rollen, zeitgesteurtes Veröffentlichen, Blogs, die Einbindung von RSS-Feeds, Umfragen/Fragebögen usw.
Auch das Einreichen von Aufgaben und die Rückmeldung durch den Lehrenden sollte sich realisieren lassen.
Der große Vorteil von Drupal gegenüber zum Beispiel Typo3 ist die vergleichsweise einfache Erlernbarkeit und Anpassbarkeit. Außerdem verbraucht es weniger Ressourcen als Moodle und ist stärker auf den Austausch und Benutzer mit unterschiedlichen Rollen ausgelegt als WordPress.Drupal ist ein Framwork für Community-Building, so dass angemeldete Nutzer ihre Diskussionen, Blogs oder eigene Beiträge innerhalb des Systems abgeben können, ohne dass das System erweitert werden muss.

Drupals Stärken werden leider schnell unterschätzt. Ein Problem des Systems ist, dass es im Gegensatz zu WordPress out of the box nicht besonders benutzerfreundlich ist. Ich glaube, sehr viel mehr Leute würden das System einsetzen, wenn es fertig vorfonfigurierte Systeme z.B. für Redakteure gäbe. So ist die Einarbeitungszeit doch ein wenig höher, weil die Funktionen teilweise gut versteckt sind. Zum Beispiel gibt es out of the box keinen graphischen Texteditor. Die Funktion zum Hochladen von Bildern muss in einigen Inhaltstypen wie Büchern erst eingeschaltet werden.
Drupal gilt als Linux der Content Management Systeme, aber das trift auch auf MODx oer Typo3 mit seinem TypoScript zu. Im Vergleich ist Drupal einfacher.

Die Zukunft des Fachbuches heißt eLearning

eLearning hat in Deutschland noch keinen besonders guten Status. Die klassischen Anbieter von Fernstudiengängen, Fernlehrgängen und Fernkursen bieten online Möglichkeiten, Material hoch- oder runterzuladen, mit Studienkollegen zu diskutieren oder aktuelle Infos in Erfahrung zu bringen. Mit eLearning hat das nur am Rande zu tun. eLearning heißt, dass der Lehrstoff am Computer oder einem mobilen Endgerät bearbeitet werden kann. Dabei können Animationen, interaktive Schaubilder, Audio- und Videoelemente integriert sein.
Aufgeschlagene Bücher
Dazu gehören aber auch Möglichkeiten, Aufgaben online zu lösen. Das geht offen, indem man eine eigene Antwort auf eine Aufgabe formuliert oder geschlossen, indem man Multiple-Choice-Aufgaben ausfüllt und diese direkt mit der Lösung abgleichen kann.
Viele Fachbücher sind bereits an Lernende adressiert. So werden häufig am Ende eines Kapitels Fragen gestellt, die der Leser beantworten soll, um zu kontrollieren, wie viel er verstanden hat. Bei Softwarebüchern muss er kleine Projekte oder Programme erstellen – natürlich am Computer.
Es ist also naheliegend, diese beiden Bereiche zu kombinieren. Mit den enriched oder enhanced eBooks werden solche Formate durchaus realisierbar. Mit ePub 3.0 lässt sich z.B. schon JavaScript in eBooks einsetzen, was eine Voraussetzung für Interaktivität ist. Formulare für Multiple-Choice-Abfragen lassen sich bereits mit HTML umsetzen, das bei eBooks verwendet wird. Pocketbook im Querformat
Ein Problem könnten die großen Datenmengen sein, die für Multimedia eingesetzt werden müssen. Eventuell muss man hier einige Abstriche machen, da die Displays klassischer eBook-Reader nicht leistungsfähig sind – und außerdem schwarz-weiß.
Ich glaube im übrigen noch nicht an die multimedialen Bücher. Wenn jemand ein Buch liest, möchte er lesen und nicht sich ein Video angucken. Einfache Animationen oder einfache Tabellenfunktionen oder sogar Pivot-Charts haben einen gewissen Nutzen in Fachbüchern, aber Videos, Audios und andere Multimedia-Inhalte in die Bücher selbst zu packen erscheint mir nicht sinnvoll. Es wird auch leicht unterschätzt, wie teuer solche Produktionen sind. Jede Filmminute kostet mehrere hundert Euro, solche Kosten lassen sich mit eBooks nicht finanzieren. Das sind dann Multimedia-Shows oder Apps, für die man ein wenig mehr verlangen kann, aber keine Bücher.
Es geht aber noch weiter: die Verlage könnten ein Programm für Zertifikate anbieten. Ein Präsentationskurs könnte optional die Möglichkeit enthalten, für sagen wir 50 Euro eine Prüfung zu absolvieren, wofür ein Zertifikat ausgestellt wird. Natürlich hat ein solches Zertifikat nur einen begrenzten Wert, aber zumindest kann der Betreffende damit belegen, dass er sich mit der Materie beschäftigt hat. Viel mehr bringen die Urkunden zugelassener Fernschulen auch nicht. Und die Verlage könnten die Preise der Fernschulen unterbieten.
Die Fernschulen haben gleich mehrere Probleme: Ihre Strukturen sind nicht auf Selbständige ausgelegt, was man daran sieht, dass die meisten Schulen keine Rechnungen mit ausgewiesener Mehrwertsteuer ausstellen. Damit zusammen hängt ihre Preisstruktur, die sich eher an dem Festangestellten mit ordentlichem Einkommen orientiert. Das große Problem ist aber die mangelnde Modularisierung: ein Kurs kann über ein bis zwei Jahre gehen und entsprechend zwischen 1000 und 3000 Euro kosten. Und das, obwohl sich die Kurse leicht in Module zerlegen ließen, die aufgeteilt sogar ein wenig mehr kosten könnten als der komplette Kurs – aber im Endeffekt für Selbständige attraktiver werden. Denn sie wissen durchaus nicht, was in einem halben Jahr sein wird. Für sie können deshalb einzelne Module eines Kurses interessanter sein als das Gesamtpaket.
Auch mit der Barrierefreiheit der Kurse ist es nicht weit her. Gedrucktes Material ist für Blinde ohnehin ungeeignet, aber auch Großdruck für Sehbehinderte wird normalerweise nicht angeboten. Auch bei eLearning-Kursen ist natürlich nicht garantiert, dass sie barrierefrei sind: es gibt Kurse auf CD, die für Tastaturnutzer einfach nicht nutzbar sind. Aber Barrierefreiheit ist im digitalen Bereich eher umsetzbar als im Printbereich.

Fazit

Ein Autor ist allerdings kein eLearning-Autor. Die oben beschriebenen Werke verlangen neben den Fachexperten auch eLearning-Autoren, die sich mit der Didaktik auskennen und eventuell auch Infografiker oder Multimedia-Designer. Solche Bücher werden zunehmend nicht mehr von Einzelautoren, sondern von Gruppen abgefasst werden.
Das Buch der Zukunft wird außerdem nicht mehr statisch sein. Um Bücher herum werden kleine Communities entstehen, sich über einzelne Stellen austauschen und die Autoren direkt auf schlechte Formulierungen oder Fehler hinweisen können. Man könnte das als Crowd-Lektorat bezeichnen, auch wenn das Wort nicht gerade hübsch ist. Es wird dann ähnlich wie bei Software verschiedene Versionen von Büchern geben, die Bücher werden stetig aktualisiert. Vielleicht werden wir Bücher nicht mehr kaufen, sondern abonnieren.
Entscheidend ist das vernetzte Lernen. Der Kobo-Reader hat das soziale Lesen in seine Software integriert, so dass Leser sich über einzelne Stellen im Buch austauschen können.
Damit eng zusammen hängt das mobile Lernen. Dabei werden mobile Endgeräte zum Lernen eingesetzt. Das ist sicher nicht für jeden Bereich geeignet, aber dort, wo Informationen häppchenweise aufgenommen werden wie beim Vokabeln lernen erscheint es sinnvoll.

Weiterlesen

Warum das Schreiben auf dem iPad für Kreative schwierig ist

Jahrzehntelang haben Stift, Block und Tastatur den Schreibprozess bestimmt. Mit IPad, Smartphone und Handy haben sich neue Probleme für Vielschreiber ergeben, die ich im Folgenden betrachten möchte.

Kreativ versus logisch-rational

Auf der guten alten Schreibmaschine hatte man nicht allzuviele Formatierungsmöglichkeiten. Das hat sich mit dem Personalcomputer geändert. Heute würde man gewaltigen Ärger bekommen, wenn man unformatierten Text abgeben würde.
Dabei fällt auf, dass das Schreiben von Text und das Formatieren kognitiv zwei völlig unterschiedliche Aufgaben sind. Logisch wäre es, einen Satz zu schreiben, ihn wenn nötig zu formatieren, den nächsten Abschnitt zu schreiben, ihn zu formatieren und so fort. Der Vorteil liegt darin, dass man kaum eine Formatierung vergisst, die man für nötig hält. Hinterher müsste man den gesamten Text noch einmal durchgehen und gucken, wo eine Formatierung nötig ist.
In der Praxis verfährt meiner Erfahrung nach keiner so. Wir kennen alle die Geschichte über die zwei Hirnhemisphären, die eine kreativ, die andere rational. Aus der Sicht des Schreibprozesses könnte da was dran sein. Niemand unterbricht gerne seinen Schreibprozess, wenn er gerade in Fahrt ist. Da stünde die Formatierung einfach im Wege. Für mich ist das wie das Umschalten zwischen zwei Arbeitsmodi, der eine kreativ, der andere rational. Die Umschaltung würde so lange dauern, dass man am Ende keinen kreativen Gedanken zustande bekommt. Mir ist das sowohl beim Formatieren von Text mit der Textverarbeitung als auch mit HTML-Tags aufgefallen. Das Gleiche gilt übrigens auch für die Rechtschreibkorrektur oder für die logische Gliederung mit Überschriften.
Deswegen darf sich jeder glücklich schätzen, der sehr schnell schreiben kann. Denn das Aneinanderreihen von Worten ist beim Schreiben der eigentlich kreative Prozess, während das Aufschreiben als körperlicher Vorgang vollkommen rational ist. Wer schon mal einen Schnellschreiber in seiner kreativen Phase erlebt hat, weiß, was ich meine. Schneller Schreiben als Denken könnte die Devise lauten. Oder besser: Schneller schreiben als Sprechen.
Das Sprechen wäre der einzige wirklich kreative Prozessbestandteil beim Schreiben. Heute ist absehbar, dass wir in einigen Jahren nicht mehr mit der Tastatur schreiben werden – sofern wir irgendwo alleine sind – sondern Text unserem Lieblingsgadget diktieren werden. Das Gesprochene wird dann unmittelbar in Text umgewandelt und wir können zumindest diesen Teil des Prozesses vom Tippen ungebremst ablaufen lassen.
Denn die Tastatur ist nur ein Notbehelf. Wenn man nicht gerade Steno beherrscht, wird man nie schneller denken als Schreiben können. Der physische Prozess des Schreibens bremst immer das Denken aus.
Mir ist das aufgefallen, als ich auf meinem iPad zu tippen begonnen habe. Man mag über Tablets sagen, was man will, aber zum Schreiben von texten sind sie ungeeignet. Das Gerät reagiert auf Eingaben von Buchstaben sehr träge. Das Zehn-Finger-System funktioniert hier nicht.
Aber das schlimmste ist, dass man nachdenken muss, bevor man einen Buchstaben tippt. Jeder Tastaturschreiber wird bestätigen, dass man besser fährt, wenn man nicht mehr auf die Tastatur guckt. Nach einiger Zeit geht einem das Tippen auf einer Tastatur so flüssig von der Hand, dass man gar nicht mehr darüber nachdenken muss. Das bilt übrigens auch für das Schreiben von SMS auf den alten Handys mit einfachen haptischen Nummernblock. Selbst hier kann man halbwegs flott schreiben und muss nicht auf die Tastatur gucken. Beim iPad muss man hingegen immer darauf achten, ob man den richtigen Buchstaben gedrückt hat. Hier kollidiert die Rationalität mit der Kreativität und würgt sie rücksichtslos ab.
Ich sehe hier auch die Ursache dafür, dass überwigend noch auf Notizblöcke geschrieben wird, Papier hat eben doch einige Vorteile. Das man flüssig auf dem iPad schreiben kann, halte ich bisher für Zukunftsmusik. Das Schreiben als physischer Prozess muss immer intuitiv erfolgen. Sobald man Aufmerksamkeit auf den physischen Prozess lenken muss, fehlt die Aufmerksamkeit an anderer Stelle.
Letzten Endes ist es aber eine Frage der Gewönung. Die meisten Maschinenschreiber tun sich zunächst schwer, wenn sie von einer Schreibmaschine auf eine Tastatur oder von einer Desktop-tastatur auf eine Notebook-Tastatur umsteigen müssen. Es ist im Wesentlichen eine Frage der Gewöhnung. Deswegen kann es durchaus sein, dass man mit anderen Eingabegeräten bald ebensogut schreiben kann wie auf der klassischen Tastatur.

Ranking bei Amazon – welches Produkt wird verkauft?

Es gibt jede Menge Statistiken darüber, welche Suchmaschinen am stärksten eingesetzt werden. Ob Google, Bing oder Yahoo, wir kennen die Marktanteile dieser Suchmaschinenanbieter. Hinzu kommen soziale Netzwerke wie Facebook oder Twitter, die seltsamerweise nicht in diesen Rankings berücksichtigt werden, obwohl – wenn man sie als Suchmaschinen betrachtet – sie wahrscheinlich eine größere Rolle spielen als Bing oder Yahoo.
Seltsamerweise unbeachtet bleibt eine zweite Form nicht klassischer Suchmaschinen: die eCommerce-Riesen Amazon und eBay. Wenn man sich eine Vorstellung davon machen möchte, wie der aktuelle Durchschnittspreis eines Produktes ist, schaut man dort nach. Wenn man eine Bewertung von Büchern oder Musik haben möchte, wird man bei Amazon schneller fündig als bei Google. Leider verraten die beiden Shopping-Seiten nicht, wie viele Suchen über ihre Seiten abgewickelt werden, aber wenn man sie zu den Suchmaschinen rechnen würde, hätten sie einen guten Marktanteil. Ein wenig beachteter Aspekt ist das Ranking von Produkten bei Amazon. Nehmen wir an, ich suche nicht ein bestimmtes Buch, sondern gebe nur ein Stichwort wie „Web 2.0“ ein. Dann wirft Amazon eine ganze Reihe von Büchern aus. Gehen wir weiterhin davon aus, dass es bei Amazon ähnlich ist wie bei Google, die erste Suchergebnisseite erhält die gesamte Aufmerksamkeit, kaum jemand blättert auf Seite 2. Und je höher das Produkt steht, desto eher wird es gekauft oder zumindest zur Kenntnis genommen.
Es stellt sich also die Frage, wie Amazon seine Produkte rankt. Zunächst dürfte der wichtigste Faktor das Vorkommen des Suchbegriffs im Buchtitel sein. Das klingt zwar logisch, aber Amazon zeigt häufig genug auch Bücher an, in deren Titel das Suchwort nicht vorkommt.
Weitere Faktoren könnten sein:

  • das Erscheinungsdatum
  • der Preis
  • die Lieferbarkeit
  • die Höhe der Bewertung
  • die Zahl der Bewertungen
  • die Verkaufszahlen
  • die Durchklickrate

Die wenigsten Leute machen sich bewusst, dass Amazon sehr genau beobachten kann, was sie auf der Webseite treiben, welche Produkte wie lange angeguckt werden und so weiter. Es gibt keinen Beleg dafür, dass diese Faktoren in das Ranking einfliessen, aber möglich ist es.
Da Amazon maßgeblich für den Absatz der Produkte sorgen kann, wäre eine Optimierung des Produktnamens auf seine Suche nicht abwägig. Insbesondere bei Büchern, wo sich der Großteil der Preise zwischen 20 – 40 Euro bewegt, der Preis also nicht ausschlaggeben für den Kauf ist, ist es nicht nur wichtig, auf Seite 1 der Suche zu stehen, sondern möglichst weit oben.
Der Trend geht ja hin zu immer schreienderen Buchtiteln und Covern. Dass die Bücher häufig nicht halten können, was ihre Titel versprechen, ist leider jedem Käufer allzu bekannt. Ich neige heute eher dazu, mir eine Buchanschaffung sehr genau zu überlegen, weil ich bei einigen intuitiv gekauften Büchern doch sehr unzufrieden war.
Ich möchte hier keine Bewertung für das eCommerce-Optimieren abgeben, im Gegenteil, ich sehe das ziemlich kritisch. Wenn ich etwas suche, möchte ich das passende finden und nicht irgendwelchen SEO-optimierten Quatsch. Das Problem ist, dass möglicherweise interessantere und bessere Produkte hinten runterfallen, weil sie ein paar Euro teurer sind, die knalligen Keywords nicht im Titel vorkommen oder sie nicht oft genug rezensiert wurden. Wir haben zudem das Problem der selbsterfüllenden Prophezeiung, wenn wenig gekaufte Produkte nach hinten fallen. Ein Produkt, das häufiger gekauft wird, rutscht nach vorn und wird deshalb häufiger gekauft. Ein Produkt, das seltener gekauft wird, rutscht nach hinten und wird deshalb seltener gekauft. Dabei ist die Zahl der Verkäufe kein brauchbares Qualitätskriteerium. Amazon hilft mir dabei, Produkte zu kaufen, indem es mir Produkte empfiehlt, die andere Leute gekauft haben, die diesen Artikel gekauft haben, den ich mir gerade angucke. Amazon hilft mir nicht dabei, das Produkt zu finden, welches ich benötige, darum muss ich mich selber kümmern.
Ich will daher jedem Käufer raten, sich auch mal die hinteren Suchseiten anzugucken und vor allem kritisch auf die Produkte der Seite 1 zu gucken. Es schadet auch nicht, die Suchbegriffe zu variieren.

Serendipity darf nicht sterben – Filterbubble auch ohne Datensammlung

Manchmal ist es doch überraschend, wie schlecht die Suchmaschinen nach wie vor funktionieren. Wie oft ist es dir passiert, dass du drei oder vier Suchbegriffe eingegeben hast und selbst der Branchenprimus Google nur Schrott ausgeworfen hat? In letzter Zeit sicher öfter – weil Google jetzt meint, besser zu wissen, was du suchst als du selbst. Die Folge ist, dass Google beliebig viele Begriffe bei Suchphrasen weglässt und entsprechend wertlose Suchergebnisse anzeigt. Zwei Beispiele: Ich suche nach dem More-More-Effekt und Google zeigt mir Noiré-Effekt, ich suche nach ODF und Google bietet mir Ergebnisse zu PDF.
Im Grunde haben sich die Suchmaschinen seit mehr als zehn Jahren nicht weiterentwickelt. Der letzte große Sprung wurde von Google mit dem Messen des Verlinkungsgrades gemacht, damit ist die Firma groß geworden. Alles, was danach kam war die Optimierung oder Spambekämmpfung durch den Algorythmus. Faktisch ist seit zehn Jahren nichts mehr von Belang im Suchmaschinenbereich passiert. Fairerweise muss ich aber dazu sagen, dass ich die zahlreichen kleinen Suchmaschinen und ihre Technik nicht kenne. Das liegt teilweise auch daran, dass Cuil oder Blekko im deutschsprachigen Bereich bisher nicht mitspielen können.
Die große Schwäche von Google und Co ist nach wie vor die Gleiche. Google schaut, ob bestimmte Worte in einem Text vorkommen, wwie diese Worte zueinander positioniert sind und ob überhaupt genügend signifikanter Text vorhanden ist. Angeblich können in bestimmtem Maße auch unterschiedliche Wortfolgen oder Synonyme verarbeitet werden, was aber meiner Erfahrung nach nicht wirklich funktioniert. Die Auswertung der Geoposition und dazu passende Suche ist ein nettes Gimmick, was aber niemanden vom Hocker haut.
Dazu kommt noch, dass mittlerweile jede Organisation, die etwas Geld in der Tasche hat versucht, ihre Texte zu seo-isiseren. Für wen das jetzt Neuland ist: Redakteure werden dazu angehalten, suchmaschinengerecht zu schreiben, das heißt, die richtigen Wörter in der richtigen Dichte einzusetzen. Das mag man für legitim halten, letzten Endes werden damit aber solche Texte auf die vorderen Plätze geschoben, ohne dass sich ihr Inhalt oder die Relevanz verbessert haben. Hat jemand schon mal ernsthaft nach einer Preissuchmaschine gesucht? Sicher nicht so häufig, dass sie auf der ersten Suchseite sein sollten.

Manche sprechen bereits von der Filterbubble. Algoritmen in den sozialen Netzwerken oder den Suchmaschinen präsentieren dem Nutzer bevorzugt das, was sie meinen, es interessiere ihn besonders. Dabei analysieren sie die Daten, die sie über Einen gesammelt haben: Was steht in seinem Profil, mit wem interagiert er am meisten, welche Links oder Inhalte fand er besonders toll und so weiter. Auch Amazon macht das.
Wir haben uns so sehr daran gewöhnt, dass Suchmaschinen buchstäblich nur die Wörter suchen, die wir eingegeben haben, dass uns das gar nicht mehr blöd vorkommt. Auffällig ist, wie stark Google den Long Tail verdrängt hat. Zum einen zieht es große Webseiten vor und zwar auch dort, wo Fachportale bessere und interessantere Inhalte bieten. Zum anderen lässt es aktuell mit dem letzten großen Update des Algorithmus gerne mal einen Suchbegriff weg oder interpretiert relativ frei, was der Sucher gesucht haben könnte. Das wäre ein guter Grund, Meta-Suchmaschinen einzusetzen. Leider scheint es auch hier keine Algoritmen zu geben, die nützliche Ergebnisse liefern.
Kann es eigentlich sein, dass wir schon so lange Google als Suchmaschine nutzen, dass wir alle anderen Suchmaschinen als schlechter empfinden? Klingt absurd, ist aber durchaus möglich. Sagen wir, ich nutze Google seit ungefähr zehn Jahren. Auch wenn wir Google für intuitiv halten, jede Maschine hat ihre Ecken und Kanten. Nur gewöhnen wir uns irgendwann daran und empfinden die Macken und Schwächen nicht mehr als solche. Es ist so wie mit den Autoabgasen, wir könnten wissen, dass sie da sind, auch wenn wir sie nicht mehr riechen. Oder wer andauernd MP3s hört, weiß nicht mehr, wie Musik in guter Qualität klingen muss.
Wenn wir jetzt anfangen, eine andere Suchmaschine zu nutzen, müssten wir uns umgewöhnen, und das tut eben keiner gern.

Google als Selbstverstärker

Einen interessanten Effekt, der auf Google basiert hat bisher keiner beschrieben: Google verstärkt oder verfestigt durch seine Suchergebnisse die Suchergebnisse. Klingt schwachsinnig, ist aber einfach zu erklären.
Nehmen wir an, ich schreibe einen Artikel über die Schwäche von Suchmaschinen. Zwischendurch oder nach dem Schreiben suche ich mit bestimmten Begriffen, die auch in meinem Artikel vorkommen nach interessanten Seiten, die ich verlinken kann. Ich schaue dabei mit Vorliebe auf die ersten Seiten von Google. Setze ich nun den Link, verbessere ich die Position des verlinkten Artikels zumindest minimal. Ich verfestige also die Position des verlinkten Artikels, allerdings ohne zu wissen, ob es nicht bessere Artikel gab, die eher zu meinem Artikel gepasst hätten. Ich bestätige also Google in seiner Meinung, dass es sich um den Beitrag, der durch seinen Algorithmus ausgewählt wurde um einen guten Beitrag handelt.
Die Filterbubble ist also schon da, auch ohne dass wir uns irgendwo einloggen und Profile über uns angelegt werden. Je stärker bestimmte Inhalte verlinkt werden, desto stärker werden andere Inhalte in den Long Tail verdrängt. Das ist der More-More-Effekt.
Weitere Tools verstärken die Filterbubble. Statt uns selber auf die Suche nach Inhalten zu begeben, verwenden wir Dienste wie paper.li, die uns die interessantesten Nachrichten zusammenstellen. Sie aggregieren und gewichten diese Nachrichten nach Likes und Re-Tweets und voila – wir haben den Google-Filter-Selbstverstärkungseffekt.
Der goldene Käfig von Facebook ist natürlich noch extremer. Bei Facebook kann man wenig machen, wenn man nicht eingeloggt ist. Für den energischen Facebooker existiert also nichts, was außerhalb der Gated Community von Facebook liegt bzw. nicht über Links reingekommen ist.
Der Serendipity-Effekt bleibt dabei zunehmend auf der Strecke. Das ist bedauerlich, weil In den hinteren Suchergebnissen so viel Potential steckt, das ungenutzt weil unbemerkt bleibt. Gerade dieser Effekt macht das Netz zu einem Quell kreativer Ideen. Liest man das, was alle anderen schon gelesen haben, hat man wahrscheinlich auch die gleichen Ideen, zumindest sinkt die Chance auf kreative neue Assoziationen.
Deswegen ist es auch so spannend, gut verlinkende Blogs zu lesen. Meiner Ansicht nach besteht eine der großen Stärken des Web darin, dass es weniger hierarchisch wie ein Buch sondern assoziativ wie ein Netz aufgebaut ist. Ich springe von Gedanken X zu Sache Y und schließe bei Z, wobei eine Verbindung geschaffen wird, die mir vorher nicht klar war. Auf jeden Fall kann ich sagen, dass es in einigen Blogs wesentlich interessantere Links gibt als man sie bei Google gefunden hätte.
Deswegen und um dem Filterbubble-Effekt zu entgehen empfehle ich jedem, der es nicht hören will, so viele interessante Blogs wie möglich in den RSS-Feed zu holen und nicht darauf zu vertrauen, dass Google, Twitter, Facebook oder ein anderer Dienst die passende Auswahl trifft.
Es ist kurios: die gleichen Leute, die sich darüber beschwert haben, welch starke Selektion die Massenmedien ausüben lassen nun andere Leute und Algoritmen darüber entscheiden, welche Informationen für sie wichtig sind.

Auf dem Weg zur barrierefreien Mobilität

Am 27.9.2011 war ich auf dem Forum Barrierefrei des Landesverbandes für körper- und mehrfachbehinderte Menschen NRW. Thema war der Aufbau eines Navigations- und Orientierungsmoduls für Behinderte.
Spannend war zu sehen, wie viel Arbeit schon erledigt wird. In Bonn selbst arbeitet die Behindertengemeinschaft Bonnan einer barrierefreien App.
Ausschnitt aus Wheelmap
Die Idee dahinter ist, eine Grundregel des Allgemeinen Gleichstellungsgesetzes umzusetzen: Um von Barrierefreiheit sprechen zu können, müssen Behinderte eine Aufgabe in der allgemein üblichen Weise, ohne fremde Hilfe und ohne besondere Erschwernis erledigen können.
Wer als Behinderter in eine fremde Stadt fährt, weiß, wie unmöglich das ist. Am schwierigsten ist es für Rollstuhlfahrer, sie müssen sich darauf verlassen können, dass Fahrstühle, barrierefreie Toiletten und ausreichend breite Zugänge vorhanden sind.
Eine zweite Schwierigkeit besteht darin, die Qualität der Daten zu beurteilen. Grundsätzlich müssen recht umfangreiche Checklisten abgehackt werden, um unterschiedlichen Behinderungen gerecht zu werden. Die Leute, die die Daten erheben, müssen entsprechend geschult werden, wer schon mal ein nettes Testverfahren wie den BITV-Test durchgeführt hat wird verstehen, warum. Für diese Aufgabe müssen Freiwillige gefunden werden, da sie ansonsten nicht bezahlbar wäre.
Eigentlich sehe ich hier die Regierung in der Pflicht. Wir haben offenbar genügend Ressourcen, um einen Zensus durchzuführen, wobei mehrere Millionen Leute befragt werden. Es kann also niemand behaupten, wir hätten nicht genügend Ressourcen dafür, Gebäude auf Barrierefreiheit zu prüfen.
Auf der anderen Seite stellt sich mir die Frage, ob die Daten tatsächlich qualitativ so gut sein müssen. Natürlich müssen bestimmte Voraussetzungen gegeben sein, damit ein Elektrorollstuhl sich angemessen bewegen kann. Abgesehen davon würde ich eher dahin tendieren, so wenige Daten wie möglich zu erheben. Schließlich kann es jederzeit zu einer baulichen Veränderung kommen. Das Rundumsorglos-Paket für Behinderte wird es nie geben. Und da ist eine vernünftige Balance zwischen Qualität und Quantität zu finden. Wenn die Daten zu schlecht sind, kann letzten Endes niemand etwas damit anfangen, weil unzuverlässige Anwendungen nicht eingesetzt werden. Sind die Daten anderseits valide, liegen aber für zu wenige Örtlichkeiten vor, werden sie ebenfalls von niemandem eingesetzt, weil mit hoher Wahrscheinlichkeit die Orte, die einen interessieren gerade nicht dabei sind.
Ich glaube im übrigen, dass die Behinderten es sich selbst zu schwer machen. Es ist zwar schön, dass Rollstuhlfahrer Wheelmap haben und Blinde DaTABuS, aber im Grunde tun wir uns keinen Gefallen damit. Nur wenige Organisationen, Privatunternehmen oder sonst wer wird hingehen und sich in vier verschiedene Datenbanken eintragen, vier Datensätze aktuell halten und vier Checklisten durchgehen, die alle das Gleiche, aber auf unterschiedliche Weise abfragen. Was macht übrigens der sehbehinderte Rollifahrer oder der Taubblinde? Sollen die vielleicht zwei Datenbanken durchgehen und versuchen, aus dem Querschnitt zu errechnen, ob sie da eine Chance haben? Das ist durchaus ernst gemeint: die Organisationen sollen ihre Daten einfach offen ins Netz stellen und interessierten Personen die Möglichkeit geben, daraus spannende und vielleicht nützliche Anwendungen zu bauen.
Zum Weiterlesen Barrierefreiheit von Shared Spaces

Excel – jede Zeile als eigene Seite ausdrucken

Selten kommt es vor, dass man Daten aus Excel ausdrucken möchte. Möchte man nur die Tabelle ausdrucken, muss lediglich die Seite korrekt eingerichtet werden. Anders sieht es aus, wenn man aus irgendeinem Grund jede Zeile der Tabelle auf einem eigenen Blatt ausdrucken möchte. Excel bietet dafür keine Funktion. Der eleganteste Weg wäre natürlich, ein kleines Skript in Visual Basic zu schreiben, dass kann aber nicht jeder – ich sowieso nicht.
Ein recht einfacher Weg führt über Word. Dort können wir die Funktion Seriendruck verwenden. Der Serienbrief ist normalerweise dafür gedacht, einen Standardbrief an viele Empfänger zu versenden, also nur die Adressdaten auszutauschen. Diese Daten werden normalerweise aus einer Datenbank oder Tabelle importiert und im Dokument angeordnet. Die Funktion kann aber auch dazu verwendet werden, beliebige Daten auszudrucken. Dazu gehen wir folgendermaßen vor:
Wir öffnen ein leeres Dokument in Word und starten den Assistenten für Seriendruck. Diesen finden wir unter Extras, in Word 2003 dort unter „Briefe und Sendungen“. Dort wählen wir „Serienbrieferstellung“. Anschließend öffnet sich der Aufgabenbereich, dort wählen wir Briefe und klicken auf „Weiter“. Wir verwenden das aktuelle Dokument und klicken auf „Weiter“. Auf der folgenden Seite wählen wir „Vorhandene Liste verwenden“ und suchen nach unser Excel-Tabelle.
Jetzt sagen wir zu allem „Ja“ und „Weiter“, bis sich das Dialogfeld und das Auswahlfeld für die Daten schließt. Anschließend können wir Daten einfügen, was wir auch machen, dazu wählen wir aus dem Aufgabenbereich die Option „Weitere Elemente“. Es öffnet sich ein Dialogfeld, wo wir die Spaltenköpfe unserer Tabelle lesen können. Hier klicken wir bei den Spalten, die wir eingefügt haben wollen auf „Einfügen“, diese erscheinen im Dokumentenfenster, sie sind grau unterlegt, da es sich um Datenfelder handelt. Anschließend klicken wir auf „Schließen“.
Jetzt wollen wir das Ganze mal anständig formatieren. Der Text, den wir jenseits der grauen Felder einfügen, wird auf jeder Seite des Dokumentes angezeigt. Diesen Text können wir natürlich auch formatieren. Mit Return oder Leerzeichen solltest du außerdem dafür sorgen, dass nicht alle Datenfelder zusammenkleben, achte dabei darauf, dass die Klammern zu den Datenfeldern gehören und nicht abgetrennt werden sollen. Im Aufgabenbereich kannst du zwischen Vorschau und Dokumentbearbeitungsansicht hin und her wechseln, bis du mit der Ansicht zufrieden bist.
Ich empfehle vor dem Ausdruck vieler Seiten ein testweise drüberschauen, da sich immer Fehler einschleichen können. Ein guter und einfacher Trick ist, das ganze Dokument zuerst als PDF auszudrucken. Dazu musst du natürlich ein Programm zur Erstellung von PDF-Dateien installiert haben, dass sich über den Druckerdialog der Textverarbeitung ansprechen lässt. Viel Erfolg.

Daten aus einem PDF in eine Excel-Tabelle übertragen

Leider kommt es recht häufig vor, dass Daten in einem PDF geliefert werden. Es ist leider kaum möglich, diese Daten einfach in eine Tabelle zu übertragen, um sauber mit ihnen arbeiten zu können. PDF ist eigentlich ein Format für den Druck und enthält deshalb kaum Strukturinformationen.

Ein recht einfacher Weg ist, die Daten in ein CSV-Format zu übertragen. Das klappt beispielsweise recht gut, wenn nach jedem Datum ein Zeilenumbruch vorhanden ist und jeder Datenabschnitt durch zwei Zeilenumbrüche gekennzeichnet ist. Zum Beispiel

Name: Mustermann
Vorname: Max
Telefon: 0221 000000

Name: Mustermann
Vorname: Erika
Telefon: 02106 00000

Um herauszufinden, ob das bei eurem Dokument der Fall ist, speichert ihr das PDF-Dokument über euer Leseprogramm im reinen Textformat txt. Der oben beschriebene Weg klappt auch, wenn statt einem Zeilenumbruch immer doppelte Leerzeichen oder etwas in der Art vorhanden ist.

In jeder Textverarbeitung kann man gezielt nach Absätzen oder ähnlichen Textformatierungen suchen. Über die Suchen-und-Ersetzen-Funktion kann man diese Absätze gezielt suchen und durch ein Semikolon ersetzen lassen.

Wichtig ist dabei, eventuell vorhandene Semikola vor dieser Aktion zu entfernen, damit diese nicht als Markierung einer Tabellenzelle gewertet werden. Sind die Semikola wichtig, müssen sie vorher maskiert werden.

Zunächst sollten wir nach doppelten Absätzen suchen und diese durch doppelte Semikola ersetzen. Dadurch vermeiden wir fehlerhafte Ersetzungen. Haben wir alle doppelten Zeilenumbrüche entfernt, suchen wir nach einfachen Zeilenumbrüchen und ersetzen diese jeweils durch ein Semikolon.

Das Resultat sollte so aussehen:

Name: Mustermann;Vorname: Max;Telefon: 0221 000000;;Name:Mustermann;Vorname: Erika;Telefon: 02106 00000

Ich empfehle hier das reine Textformat und kein RTF- oder sonstige Dateiformate zu verwenden, weil es da Probleme mit der Zeichencodierung oder sonstigen Sonderzeichen geben kann. Wir schließen also das Textdokument und ändern das Dateiformat von .txt. in .csv.

Wir könnten an dieser Stelle schon hingegen und die überflüssigen Inhalte aus den Zellen entfernen, um sie als Spaltennamen zu verwenden. Das kann aber auch in der Tabellenkalkulation erledigt werden. Das geschieht ebenfalls durch die Suchen-und-Ersetzen-Funktion, diesmal suchen wir zum Beispiel nach der exakten Zeichenkette „Vorname: “. Um Nacharbeiten zu vermeiden, solltet ihr darauf achten, in einem Schritt mit dem überflüssigen begriff auch die Leer- und Satzzeichen zu entfernen. Ansonsten kann es zu Problemen kommen, wenn ihr zum Beispiel eine Spalte nach Postleitzahlen oder Anfangsbuchstaben sortieren wollt. Achtet darauf, dass auch leere Werte in die Tabelle übernommen werden, ansonsten rutschen euch sämtliche Werte durcheinander und die Tabelle ist praktisch unbrauchbar.

Da die meisten PDF-Dateien nicht sauber strukturiert sind, werden hier einige Nacharbeiten nötig sein, dennoch hoffe ich, dass ihr durch die oben beschriebenen Schritte ein wenig Zeit spart. Viel Erfolg.