Welchen Screenreader benutzen Blinde?

Da ich häufiger gefragt werde, welcher Screenreader unter Blinden am verbreitesten ist, gehe ich hier gerne kurz darauf ein.
Offizielle Statistiken gibt es tatsächlich keine. Die einzige mir bekannte Erhebung ist jene von WebAIM. Sie ist aber nicht repräsentativ, weil sie vor allem den anglo-amerikanischen Sprachraum erreicht. Außerdem werden die Nutzer eines bestimmten Screenreaders von dessen Anbieter gezielt aufgefordert, an der Umfrage teilzunehmen. Bei ein paar tausend Antworten verzerrt das die Ergebnisse deutlich.
In Deutschland gibt es aktuell fünf große Systeme unter Windows: Jaws, NVDA, Window Eyes, Cobra und den Narrator, der aber erst seit Windows 10 mehr als rudimentär ist.
Daneben gibt es VoiceOver auf dem Mac, der unter Blinden wie es scheint ähnlich verbreitet ist wie unter Sehenden. Der Marktanteil liegt bei Blinden bei ca. 10 Prozent.
Unter Linux gibt es verschiedene Hilfstechnologien. Orca ist sicherlich der wichtigste, aber nicht der einzige Screenreader. Auch hier ist der Anteil der blinden Nutzern ähnlich wie unter Sehenden, also praktisch kaum vorhanden.
Übersichtlicher ist die Situation unter mobilen Betriebssystemen. Auf iOS gibt es nur VoiceOver. Auf Android gibt es TalkBack, Voiceview auf Amazon-Geräten sowie den Samsung-Screenreader auf Samsung-Geräten. TalkBack ist hier das einzige System, was konsequent weiter entwickelt wird umd am meisten genutzt wird. Deutsche Blinde sind fast ausschließlich iOS-Nutzer. Die Zahl Blinder, die TalkBack parallel mit iOS oder als einziges System verwenden, würde ich auf ein paar Hundert schätzen.
Auf dem Desktop hat es in den letzten Jahren fünf größere Umwälzungen gegeben:

  • Der Eintritt des Open-Source-Screenreaders NVDA auf der Windows-Plattform.
  • Das Aufkommen des Screenreaders VoiceOver auf dem Mac.
  • Das Kostenlos-Werden und anschließende Verschwinden von Window Eyes.
  • Die Pleite der Firma Baum und das damit verbundene vermutliche Ende von Cobra. Cobra hat einen recht erheblichen Marktanteil in Deutschland.
  • Das Aufkommen und die stetige Weiterentwicklung des Narrator unter Windows 10.

Das Ende von Window Eyes und Cobra hat dem ansonsten schwächelden Jaws vor allem im Bereich Arbeit wieder erhebliche Marktanteile gebracht. Da NVDA in Deutschland keinen kommerziellen Support anbietet, ist Jaws heute praktisch der einzige Screenreader im beruflichen Bereich in Deutschland.
Im privaten Bereich dürfte die Sache differenzierter aussehen: Jaws durch die Krankenkasse finanziert zu bekommen ist nach wie vor schwierig. Deshalb spielt NVDA hier eine größere Rolle.
Ich kenne bisher keinen Blinden, der Narrator als ersten oder einzigen Screenreader unter Windows 10 verwendet.
In absoluten Zahlen und system-unabhängig betrachtet ist VoiceOver der eindeutige Marktführer unter den Screenreadern. Für viele Blinde ist er das first und oft auch only device, wenn es um Technik- und Internetnutzung geht.
Auf dem Desktop dürften sich Jaws und NVDA ungefähr die Waage halten. Der Mac hat einen gewissen Marktanteil, spielt aber meines Erachtens keine Schlüsselrolle. Der Narrator könnte wichtiger werden, aber dafür braucht er noch einige größere Updates.
Wer also mit Screenreadern testen will, sollte VoiceOver auf iOS und NVDA unter Windows verwenden. Eine Jaws-Lizenz für Testzwecke zu kaufen halte ich für sinnfrei. Allerdings gibt es auch eine Jaws-Demo, die jeweils 30 Minuten lauffähig ist.
Generell nehmen die Unterschiede zwischen den einzelnen Screenreadern ab. Durch die neue Browser-Vielfalt wird es jedoch schwieriger, da es häufig auf die Kombination Browser und Screenreader ankommt.

Was sehen Blinde eigentlich?

Nichts, wird die volksmündliche Antwort lauten. Leider ist die Situation aber ein wenig komplizierter. In diesem Beitrag werden wir uns anschauen, was Blinde visuell wahrnehmen können.

Eine kleine Begriffskunde

Wie immer ist es sinnvoll, die Begriffe zu kennen:

  • Wir sprechen von vollblind, wenn jemand nichts oder so gut wie nichts sehen kann.
  • Gesetzlich blind sind Menschen, die einen bestimmten Sehrest unterschreiten. Das betrifft entweder die Sehschärfe, die im Visus angegeben wird. Oder die Größe des Gesichtsfeldes. Diese Gruppe wird als Sehrestler bezeichnet.

Beide genannten Gruppen sind im gesetzlichen Sinne blind. Davon abgrenzen können wir die hochgradig Sehbehinderten, die Sehbehinderten und natürlich die Sehenden. Letztere haben entweder keine oder zumindest nicht solche Sehprobleme, die sich nicht mit Brillen oder Kontaktlinsen ausgleichen lassen. Die Grenzen zwischen hochgradig sehbehindert und Sehrest-Blinden ist fließend. In der Regel arbeiten
hochgradig Sehbehinderte noch visuell am Computer und benutzen keinen Blindenstock. Die Sehrestler arbeiten in der Regel mit Screenreader und Braille und verwenden einen Blindenstock im Alltag. Doch gibt es hier keine absolute Regel.

Ich sehe was, was Du nicht siehst

Sehen ist die Verarbeitung von Licht. Entweder wird Licht ausgestrahlt, zum Beispiel von einem Bildschirm oder es wird reflektiert. Das war es schon, alles, was wir sehen, ist die Reflektion von Licht. Manchmal lohnt es sich, sich an diese einfache Tatsache zu erinnern.
Das Spektrum des Sehens unter Sehrestlern ist relativ groß. Was der Eine sieht, sieht der Andere nicht und umgekehrt. Wenn ein Sehender einem anderen Sehenden etwas zeigt, z.B. auf der Straße, kann er ziemlich sicher sein, dass der Andere es auch sehen wird. Unter Sehrestlern ist die Wahrscheinlichkeit, dass zwei Personen das Gleiche erkenne, relativ gering. In meiner Schulzeit konnte einer meiner Freunde Personen am Gesicht erkennen, aber keine Schwarzschrift lesen. Schwarzschrift nennen wir Blindgänger die gedruckte Schrift. Ich kann bis heute ein wenig Schwarzschrift lesen, wenn sie so groß wie eine Zeitungsüberschrift ist. Aber ich konnte in meinem ganzen Leben niemanden am Gesicht, der Kleidung oder am Gang erkennen.
Die Mess-Instrumente, die Augenärzte verwenden sind natürlich nicht auf Unsereins ausgelegt, sondern auf Normal-Sichtige. Ich weiß leider nicht, ob es spezielle Messmethoden für sehschwache Personen gibt oder ob solche Mess-Instrumente überhaupt sinnvoll wären.

Sehen mit dem ganzen Körper

Wer lediglich auf das Sehen achtet, verkennt viele andere Faktoren. Im Computerbereich würde man das integrierte Informationsverarbeitung nennen. Da ist natürlich das Gehör. Aber auch der haptische Kontakt zum Boden, der Geruchsinn. Der Geschmacksinn als fünfter Sinn ist an der Stelle nicht so wichtig. Sehende benutzen solche Faktoren oft unbewusst. Der Geruchssinn zum Beispiel funktioniert sehr stark intuitiv. Aber auch das Gehör spielt eine Rolle: Wem ist es noch nicht passiert, dass er das Auto hinter sich zuerst gehört hat und dann zur Seite sprang, ohne sich umzudrehen und zu gucken, ob es einen tatsächlich gleich überfährt?
Als weiterer Faktor kommen Gedächtnis und Erfahrung hinzu. Als kleines Kind bereits mussten wir lernen, visuelle und auditive Reize zu unterscheiden. In unserem Gedächtnis gibt es tausende Geräusche. Jeder erkennt zum Beispiel das charakteristische Geräusch eines entriegelnden Kofferraums, eines bremsenden Fahrrads oder eines tappenden Hundes, auch wenn wir kein Auto, kein Fahrrad und keinen Hund haben.
Als weiteren Faktor haben wir die Situationsabhängigkeit: An einer Straße dürfen wir mit anderen Gegenständen rechnen als im Park oder im Wald.
Und das Gedächtnis verrät uns, dass das Gelbe da vorne, wo wir jeden Tag vorbei gehen ein Briefkasten und keine gelbe Tonne ist. Grob geschätzt nutzen wir 90 Prozent unseres Lebens immer die gleichen Wege. Wenn jemand in unsere Wohnung spazieren und unsere Bücher umstellen würde, würden wir das sofort merken. Und zwar nicht, weil wir ein so ausgefeiltes Ordnungssystem haben, sondern weil uns das Muster der Aufstellung vertraut ist. Wenn aber etwas jeden Tag anders ist, wie die Autos, die an der Straße parken, achten wir in der Regel nicht darauf. Wenn wir wissen, was etwas ist, reichen auch sehr unscharfe Seheindrücke, um es zu erkennen bzw. Veränderungen zu bemerken.

Im Gegensatz zum Menschen, wir schauen mal von der künstlichen Intelligenz und Fuzzy Logic ab, versteht ein Computer nur ja oder nein. Er wird sich zwangsläufig entscheiden, ist es ein Mensch oder ein Laternenpfahl? Ein Mensch hingegen könnte schlussfolgern, das Objekt könnte ein Mensch sein, aber Menschen stehen normalerweise nicht stocksteif in der Gegend rum. Es wird also doch ein Pfahl sein. Befindet es sich hingegen mitten auf einem Bürgersteig, wird es wohl eher ein Mensch sein.

Fazit

Es ist also schlicht gesagt unmöglich, einem anderen Menschen exakt zu beschreiben, was man als Sehrestler wahrnimmt. Wir behelfen uns immer an Beispielen, die aber oft unzureichend sind. Deswegen dürft ihr auf die Frage: „Was siehst du eigentlich?“ nie eine klare Antwort von uns erwarten.
Das scheint die Frage zu sein, die Sehende am meisten verwirrt, wenn sie mit Sehrestlern zu tun haben. Leider ist das eine Frage, auf die es keine eindeutige Antwort gibt oder jemals geben wird.

Barrierefreies Web ist gutes Handwerk

Anlässlich des Global Accessibility Awareness Day am 17. Mai hatte ich verschiedene Tweets zum Thema barrierefreie Webgestaltung abgesetzt. Unter anderem schrieb ich sinngemäß: “Barrierefreie Webseiten sind keine Extra-Leistung, sondern gutes Handwerk. Hohe Preisaufschläge sind also nicht gerechtfertigt”. Für diese Aussage habe ich ein paar kritische Nachrichten bekommen. Deshalb möchte ich das kurz erklären.

Ein Button ist ein Button ist ein Button

Wenn etwas so aussieht wie ein Button und wenn es sich verhält wie ein Button, dann sollte es auch in HTML ein Button sein.
Kurz zur Erklärung: Man kann design-technisch etwas erstellen, was wie ein Button aussieht und so funktioniert, aber im Code einfach nur JavaScript ist, der hinter eine Grafik gelegt wurde, die wie ein Button aussieht. Warum macht man so was? Weil man entweder faul, doof oder beides ist. Der Aufwand, einen echten Button in HTML zu basteln ist exakt 0 Prozent höher als eine Grafik mit JavaScript zu unterlegen. Doof, weil man offensichtlich keine Ahnung hat, wie man vernünftigen Code schreibt und wahrscheinlich irgendeine Anwendung verwendet, mit der man sich die Elemente zusammenklickt. Ich als absoluter Laie wäre dazu in der Lage, so etwas in HTML anzulegen. Wer sich Webentwickler nennt, sollte das hinbekommen, das ist sozusagen das kleine Ein-Mal-Eins des Webdesigns.
Das Gleiche gilt natürlich für alle anderen Bereiche. Wer HTML und CSS ihrem Zweck gemäß einsetzt, hat bereits einen Großteil der Anforderungen von Barrierefreiheit erfüllt. Aber das ist nun wirklich kein Kunststück. Wer aber seine Website heute noch mit div id=”navigation” verschandelt, hat keine Ahnung von seinem Handwerk.
Nun kann man argumentieren, dass der Spaghetti-Code niemanden interessiert, schließlich soll es gut aussehen und funktionieren. Aber nein, es bringt massive Nachteile mit sich. Ein Programm kann hingehen und den Container “Content” in eine lesefreundliche Variante umwandeln. Google kann den Content sauber von der Navigation oder der Fußzeile unterscheiden. Wer also nicht sauber codet, verschlechtert neben der Barrierefreiheit unter anderem seine Position bei Google.
Und natürlich der Screen Reader: Er kann erkennen, dass etwas ein Button ist und der Blinde kann gezielt alle Buttons einer Website anspringen. “Anklickbar, anklickbar, anklickbar” hingegen ist für Blinde nicht hilfreich.
Umso schlimmer ist es, dass wir uns immer noch über solche Themen unterhalten müssen, dass wir immer noch auf nicht-gelabelte Formularelemente und ähnliche Dinge stoßen.

Barrierefreie Lösungen finden

Was ist aber mit komplexen dynamischen Anwendungen wie Kalender-Widgets oder Lightboxen.
Tatsächlich gibt es für die meisten komplexen Anwendungsfälle frei verfügbare Patterns oder Lösungen, die sich übernehmen oder zumindest nachbauen lassen. Es wäre heute also kein Problem mehr, dem Kunden barrierefreie Webseiten sozusagen unterzuschieben, ob er sie will oder nicht.
Eine barrierefreie Lösung zu recherchieren und einzubauen kostet eben so viel Zeit wie eine nicht-barrierefreie Lösung einzubauen.

Wann Kostenaufschläge gerechtfertigt sind

Natürlich gibt es noch weitere Anforderungen der Barrierefreiheit, die durchaus komplexer sind. Das Anpassen der Patterns an die eigenen Erfordernisse etwa erfordert zusätzlichen Aufwand, wenn sich der Entwickler einarbeiten muss. Doch müssen Patterns immer angepasst werden, etwa aus Design-Gründen.
Eine Ausnahme gilt auch dann, wenn externe Barrierefreiheits-Experten eingeschaltet werden. Die wollen natürlich separat bezahlt werden.
Eine weitere Ausnahme gilt dann, wenn spezifische Tests mit behinderten Menschen zusätzlich durchgeführt werden. Diese Tests sind aufwendig und teuer. Eventuell wird auch ein Honorar oder eine Aufwandsentschädigung an die Testpersonen gezahlt.
Zudem können im Rahmen der Barrierefreiheit zusätzliche Absprachen mit dem Auftraggeber notwendig sein. Es muss etwa ein Konsens darüber erreicht werden, welcher Standard erfüllt werden soll und welche zusätzlichen Anforderungen es gibt.
Über besondere Anforderungen wie Leichte Sprache oder Gebärdensprache spreche ich hier nicht. Hier sind die Kostenaufwände natürlich erheblich. Das hat aber mit der Web-Agentur nichts zu tun.
Doch für den ganz normalen Programmier-Alltag sind hohe Kostenaufschläge für Barrierefreiheit selten gerechtfertigt. Viele Diskussionen und Probleme würden sich erübrigen, wenn Web-Entwickler einfach sauberen und bestimmungsgemäßen Code schreiben würden. Analoges gilt für native Apps. Einfach die Guidelines der OS-Anbieter lesen und sich daran halten, das scheint so manchen Entwickler zu überfordern.

Barrierefreie Webseiten für Senioren

Durch die demografische Entwicklung wird die Barrierefreiheit digitaler Technik immer wichtiger. Warum das so ist und worauf es bei der Barrierefreiheit für ältere Menschen ankommt, erfahrt ihr in diesem Beitrag.
Senioren sind die am schnellsten wachsende Gruppe im Internet. Zum Einen natürlich, weil allmählich die erste Gruppe ins Alter kommt, für die ein Computer zum Alltag gehört. Senioren sind generell die am schnellsten wachsende Gruppe in der Gesellschaft.
Zum Anderen, weil Senioren tatsächlich die einzige Gruppe bilden, die noch nicht im Internet vertreten ist. Im Folgenden wollen wir uns ansehen, auf welche Probleme Senioren im Internet stoßen können.

Starke vs. schwache Behinderung

Latente Einschränkungen der Sinnesorgane und der Bewegungsfähigkeit, wie sie im Alter üblich sind können sich ganz anders auswirken als stärkere Behinderungen bei jüngeren Menschen. Geburtsbehinderte sind insofern im vorteil, dass sie sich in Bezug auf ihre Behinderung nie anpassen mussten. Wer blind zur Welt kommt, mag das nicht schön finden. Er musste aber nicht umlernen. Wer im Laufe seines Lebens behindert wird oder bei wem sich drastische Veränderungen ergeben, der muss sich anpassen. Dabei stehen die Chancen umso besser, je jünger die Person ist, dass sie diesen Anpassungsprozess hinbekommt.
Im alter hingegen kommen viele latente Einschränkungen oft zeitgleich zusammen. Die Person kann sich zwar anpassen, doch steht ihr weniger Zeit zur Verfügung, Strategien und den Umgang mit Hilfsmitteln zu erlernen. Hinzu kommen Faktoren wie soziale Isolation, finanzielle Armut, psychische Probleme, eine nicht angepasste Wohnsituation und vieles mehr, was sich zusätzlich negativ auf die Anpassungsfähigkeit auswirken kannn. Der wichtigste Faktor in unserem Zusammenhang ist aber die Kombination unterschiedlicher Einschränkungen. Wenn alle Sinne und die Physis, die Merkfähigkeit und die Belastbarkeit gleichzeitig gefordert sind, nun, das würde auch den Jüngsten unter uns überfordern.
Hinzu kommt, dass viele Einschränkungen gar nicht bemerkt oder falsch interpretiert werden. Es soll vorkommen, dass ein schlechtes Gehör mit einer Demenz verwechselt wird. Oder umgekehrt.
Natürlich gehe ich davon aus, wie die Situation heute zu sein scheint. Vieles spricht dafür, dass die heute 60- oder 50-jährigen einen anderen Habitus haben werden als die heutigen Senioren. Dennoch: die gesundheitlichen Einschränkungen werden auftreten. Gerade die Generation der Bildschirm-Arbeiter und Smartphone-Nutzer werden vielleicht sogar früher mit physischen Problemen zu kämpfen haben als die Generation der Körper-Arbeiter. Das bleibt abzuwarten.

Sehen

Sehen wir von den im Alter typischen Augenerkrankungen wie diabetische Retinopatie und AMD ab, spielt vor allem der Faktor Kurzsichtigkeit eine große Rolle. Durch die intensive Nutzung von Smartphones und Bildschirmen am Arbeitsplatz wird die Zahl der Betroffenen zunehmen.
Auch eine Kontrastschwäche ist im Alter üblich. Dadurch fällt es schwerer am Bildschirm zu arbeiten oder zu lesen. Gerade die kleinen Smartphones und auch kleine Tablets mit bescheidener Display-Qualität könnten ein Problem darstellen. Hier haben wir aber den Vorteil, dass die Pinch-to-Zoom-Geste relativ intuitiv ist und mobile Seiten eine starke vergrößerung ohne größere Probleme ermöglichen. Kontrast und schlechte Typographie sind ein anderes Thema.

Hören

Durch YouTube, Netflix und Co. gewinnt das Thema Hörqualität allmählich wieder an Bedeutung.
Das Differenzieren zwischen wichtigen und unwichtigen Geräuschen wird im Alter schwieriger. Oft haben wir einen Brei aus Stimme und Hintergrund-Sound. Gestern stand ich an einem nicht besonders vollen Leipziger Hauptbahnhof. Es gab ein permanentes lautes Geräusch wahrscheinlich von einem stehenden Zug. Dabei war es mir nicht möglich, die Durchsagen richtig zu verstehen. Ähnlich sieht es aus, wenn die Musik in einem Video zu laut ist, dann ist es schwierig, einen Sprecher zu verstehen.
Ich sehe generell zwei Möglichkeiten: Zum Einen könnte Stimme und Hintergrund seperat aufgenommen werden. Dann bliebe es dem Zuhörer überlassen, den Hintergrundsound leiser zu drehen. Dafür sind natürlich entsprechene Formate und Player erforderlich.
Die zweite Möglichkeit wären intelligente Player. Sie könnten die Stimme erkennen und sie verstärken. Entsprechende Programme gibt es bereits in Hörgeräten. Ob das übertragbar ist, weiß ich allerdings nicht.

Bewegung

Ein Thema, was bislang unterschätzt wird ist die Frage der Bewegungsfähigkeit. Zwar gibt es schon Hilfen im Smartphone. Doch sind schnelle oder filigrane Bewegungen mit zunehmendem Alter schwierig. Schon ein Doppeltipp oder eine Scrollbewegung sind eine Herausforderung.
Hier könnten alternative Eingabemethoden eine Lösung sein. Beispiel dafür ist die intelligente Spracheingabe wie bei Alexa oder Siri, also eine Spracheingabe, bei der keine oder nur wenige Befhele gelernt werden müssen. Ist die Scheu, mit dem Computer zu reden erst mal weg, gibt es wohl keinen einfacheren Zugang zu digitalen Systemen. Wünschenswert wäre, dass sich diese Systeme weiter verbreiten und komplexere Interaktionen wie das Ausfüllen von Formularen ermöglichen. Die Sprachausgabe könnte die Frage vorlesen und die Spracheingabe würde die Antwort verarbeiten und weitergeben. Eventuell lassen sich die Web-Interfaces entsprechend anpassen. Es muss allerdings sehr viel einfacher werden, Schreibfehler zu vermeiden und zu korrigieren.

Gedächnis

Sehen wir einmal von Erkrankungen wie Demenz ab, lässt die Fähigkeit, sich Informationen zu merken im Alter merklich nach, ohne dass eine Erkrankung vorliegen muss. Das Gedächnis ist fürs Internet extrem wichtig: Welchen Link habe ich schon angeklickt, welche Informationen standen im ersten Teil des Textes, was soll ich noch mal bereit legen, wenn ich dieses Formular innerhalb von zwei Minuten ausfüllen muss? Vor allem das Kurzzeit-Gedächnnis ist gefordert.
Einige Sachen gehören schon seit Jahrzehnten zum Alltag: Besuchte Links haben eine andere Farbe als nicht-besuchte Links. Zwischen-Überschriften erleichtern das Überfliegen und Einprägen des Textes. Timeouts sollten ohnehin so gestaltet sein, dass sie niemanden unter Stress setzen. Weitere Hilfen müssen wohl noch entwickelt werden.

Informationsarchitektur

Eines der großen Probleme sehe ich heute und in Zukunft in der sehr komplexen Informationsarchitektur gerade öffentlicher Seiten. Als Normalsterbliche haben wir in der Regel mit den lokalen Behörden zu tun. Sie sind am langsamsten, wenn es um die Umsetzung aktueller Entwicklungen geht. Schaut euch einfach mal die Zahl auf Smartphones benutzbarer Städteportale an. Das ein Großteil des privaten Internetverkehrs heute über Smartphones läuft, scheint bei den Städten noch nicht angekommen zu sein.
Wenn aber ältere Menschen hauptsächlich über Tablets ans Internet herangeführt werden, sind sie damit noch stärker überfordert als wir. Wir alte Hasen schauen uns das Unglück gar nicht an, sondern suchen über Google und hüpfen zumindest zwei Klicks näher an das, was wir benötigen. Doch wer neu im Internet ist, dem sind solche und andere Tricks vielleicht nicht bekannt.
Deshalb muss die Informationsarchitektur von Websites radikal vereinfacht werden.
Optimistisch geschätzt wird auch das eGovernment in den nächsten 30 Jahren in Deutschland eine wachsende Rolle spielen. Der Alptraum vieler Blinder könnte wahrwerden: Ellenlange Webformulare und wenn man es abschicken will, müssen noch drei Captchas gelöst werden, vielleicht möchte ja ein Bot Blindengeld beantragen.
Auch hier ist das Thema radikale Vereinfachung: Formulare werden auf mehrere Seiten segmentiert, nur wirklich relevante Informationen werden abgefragt, ein Wechsel zwischen den unterschiedlichen Segmenten ist ohne Datenverrlust möglich, Inkonsistenzen und Fehleingaben werden sofort gekennzeichnet. Die Logik ist simpel und bestechend und gilt wenn überhaupt hier: Jede Minute, die in die Optimierung gesteckt wird spart ca. 1000 Minuten Arbeitszeit auf beiden Seiten. Wünschenswert wäre eine bundesweite Lösung, dann könnten entsprechend mehr Ressourcen in die Optimierung gesteckt werden. Zudem erleichtert ein einheitliches Informationsdesign das Handling unterschiedlicher Formulare. Schon gut, ich träume weiter.

Integrierte Hilfen gewinnen an Bedeutung

Es ist als positiv zu bewerten, dass alle großen Systeme das Thema Barrierefreiheit in ihren System behandeln. Apple ist hier neben Linux sicherlich Pionier. Microsoft und Google ziehen inzwischen nach. So gibt es in MacOS, Windows, Android, iOS und Linux mittlerweile eine große Bandbreite an Hilfen für Sehbehinderte, Hörbehinderte und Bewegungs-Behinderte. Es fehlen noch Hilfen für Menschen mit Gedächtnisproblemen, aber vielleicht kommt das ja noch.
Am meisten profitieren davon Menshen, die keinen Zugang zu professioneller Hilfstechnik haben oder brauchen. Viele Leute zögern, sich Hilfsmittel anzuschaffen oder wissen schlicht nicht, dass es sie gibt. Es gibt speziell das Problem, dass immer mehr Hilfsmittel entwickelt werden und die Krankenkasse immer weniger bezahlt bzw. eine sowjetisch anmutende Bearbeitungszeit eingeführt hat.
Zumindest bei der Nutzung digitaler Technik profitieren daher die älteren Leute davon, dass die Hilfen schon im System integriert, relativ leicht zu konfigurieren und zu nutzen sind. Der Narrator unter Windows 10 zum Beispiel, der mich ansonsten nicht überzeugt, hat eine für untrainierte Ohren gut verständliche Stimme sowie ein visuelles Menü. Damit ist er für Sehbehinderte leichter nutzbar und die Schwelle ist deutlich geringer als bei NVDA oder Jaws mit seinem verschachtelten Konfigurationsmenü aus der “Wir packen mal alles irgendwo hin, wo Platz ist”-Hölle. Windows hat schon länger einen Assistenten, der die Konfiguration der Bedienungshilfen erleichtert. Hilfstechnik muss insgesamt wesentlich einfacher nutzbar werden.

Künstliche Intelligenz und Barrierefreiheit

Vorneweg: Aufgrund der DSGVO habe ich die Kommentar-Funktion vorübergehend abgestellt, also nicht wundern.
In den letzten Jahren feiert die künstliche Intelligenz-Forschung ein großes Revival und wahrscheinlich ihren endgültigen Einzug in den Mainstream. Warum das auch für behinderte Menschen gut ist, erfahrt ihr in diesem Beitrag.

Künstliche Intelligenz – und ich kann selbst entscheiden

Barrierefreiheit konsequent umgesetzt erhöht die Kosten oft erheblich. Wer schon einmal eine mittelgroße Website in Leichte Sprache übersetzen lassen wollte, weiß sicher, was ich meine. Von Gebärdensprache sprechen wir erst gar nicht.
Das schränkt aber auch die Wahlfreiheit behinderter Menschen ein. Wer auf Gebärdensprache angewiesen ist, muss sich mit den wenigen vorhandenen Angeboten begnügen oder einen Gebärdendolmetscher engagieren. Es ist aber ein Gebot der Demokratie und der Inklusion, auch solche Gruppen zu unterstützen.
Andererseits werden die Übersetzungsprogramme immer leistungsfähiger. Während die Qualität dieser Programme vor allem von Rechenpower und Mustererkennung abhängig war, kommt immer stärker die KI ins Spiel. Sie kann Zusammenhänge und Muster deutlich besser erkennen als rein statistisch arbeitende Algorithmen. Neuronale Netze können trainiert werden und lernen dazu. Sie werden mit der Zeit immer besser.
An anderer Stelle hatte ich schon ausgeführt, welche Möglichkeiten die KI bieten würde, um die Leistungsfähigkeit von Screenreadern zu verbessern.

Bildbeschreibungen

Es gibt bereits Tools, die automatische Bildbeschreibungen erzeugen. Solche Tools werden etwa von Facebook dazu verwendet, um Bildbeschreibungen automatisch zu ergänzen. Auch im aktuellen MS Office sollen solche Werkzeuge vorhanden sein.
Was die Tools derzeit noch ausspielen ist manchmal brauchbar und manchmal nicht. Doch werden die Algorithmen stetig besser.
Während einzelne Bilder sich noch recht gut von Menschen beschreiben lassen, wird es schwierig, wenn es um tausende von Bildern geht. Das ist zum Beispiel für Unternehmen interessant, die viele Bilder beschreiben lassen wollen, etwa im eCommerce. Oder für Bilddatenbanken. Vernünftige Bildbeschreibungen zu einem akzeptablen Preis zu erhalten ist schwierig. Ein ausreichend gut trainierter Algorithmus macht das im Handumdrehen.
Der Vorteil für Blinde und Sehbehinderte ist, dass sie Bildbeschreibungen in ganz unterschiedlicher Ausführlichkeit erhalten könnten. Für die Einen reicht “Schwarzer Turnschuh” vollkommen aus. Andere wollen vielleicht wissen, welche Muster vorhanden sind, welcher Schwarz-Ton und so weiter.

Spracherkennung und automatische Beschreibungen

Eine Achilles-Ferse von Apple ist die im Vergleich schlechte Spracherkennung. Versucht einmal, etwas Englisches wie einen Songtitel zu diktieren. Auch in diesem Bereich könnte die KI deutliche Fortschritte bringen.
Das hieße zum Beispiel dass Audio- und Video-Inhalte deutlich schneller und günstiger in Text transkribiert werden könnten. Sogar Untertitel für Gehörlose sind denkbar, wenn sich die Erkennung von Geräuschen auch so gut entwickelt.
Ich könnte mir sogar vorstellen, dass es irgendwann automatische Audiodeskriptionen gibt. Bis dahin ist es aber sicher noch ein längerer Weg.

Automatisches Tagging von Dokumenten

Im Internet liegen Millionen nicht-barrierefreier Dokumente, vor allem PDF-Dateien. Bestehende und neue Dokumente barrierefrei zu machen, wie es etwa von der neuen EU-Richtlinie gefordert wird, ist weder personell noch finanziell machbar. Der Aufwand ist zu groß und selbst wenn es finanzierbar wäre, es gibt gar nicht genügend qualifizierte Personen für diese Aufgabe.
Eine Lösung wäre, die Dokumente automatisch barrierefrei zu machen. Musterkennung von Text-Elementen ist heute keine große Herausforderung mehr, ebenso ist die automatische Beschreibung von Bildern und Grafiken schon mit heutiger Technik machbar. Sind die Dokumente innerhalb einer Organisation nach einer bestimmten visuellen Struktur aufgebaut, könnte ein Algorithmus, der entsprechend trainiert wurde das mit einer akzeptablen Fehlertoleranz problemlos bewerkstelligen.

Mehr Kontrolle für den User notwendig

Solche Beispiele ließen sich endlos aneinander reihen. SeeingAI etwa von Microsoft kann Gegenstände oder Umgebungen erkennen und beschreiben. Die Möglichkeiten, die es in einer nicht allzu fernen Zukunft geben könnte, vermögen wir uns heute noch nicht vorzustellen.
Ein Problem besteht allerdings darin, dass diese Programme allesamt in der Hand der großen Player sind. Von Open Source in der KI habe ich bisher nicht gehört.
Das heißt, diese Tools können nur in geschlossenen Umgebungen verwendet werden. Möchte ich einen Alternativtext zu einem Bild, soll ich es erst mal bei Facebook hochladen. Für Untertitel lade ich das Video bei YouTube hoch. Mal abgesehen von Datenschutz und mangelndem Komfort schränkt das die Möglichkeit der Selbstbestimmung doch drastisch ein.
Interessant wird die KI, wenn ihre Kernfunktionen unabhängig von einer bestimmten Plattform bereit stehen. Ich möchte etwa jede beliebige Seite in Leichte Sprache übersetzen oder mir von einem beliebigen Bild einen Alternativtext erstellen lassen, ohne Copy-Paste oder Hick-Hack mit einem Datensammler. Erst dann kann die KI für uns ihre volle Wirkung entfalten.

Welchen Browser verwenden Blinde?

Es ist gar nicht so lange her, dass Blinde im Grunde nur einen Browser auf dem Desktop benutzen konnte. Die Frage hieß Jaws/Internet Explorer oder NVDA/Firefox. Heute hat sich die Situation stark verändert. Da ich mich mit Jaws seit der Version 11 nicht mehr auskenne, beziehen sich alle folgenden Aussagen nur auf NVDA.

Die neue Browser-Vielfalt

NVDA kann schon seit längerem mit anderen Browsern zusammenarbeiten: Edge funktioniert prinzipiell, ist aber nicht wirklich komfortabel. Gleiches gilt für den Internet Explorer.
Nach der Veröffentlichung von Firefox Quantum haben sich viele Blinde nach Alternativen umgesehen. Quantum macht im Zusammenspiel mit NVDA nach wie vor Probleme und eine Lösung zeichnet sich nicht ab. Gerade komplexe, aber auch einfache Seiten machen mit Firefox Quantum keinen Spaß mehr.
Dabei machen sowohl Google Chrome als auch Opera eine recht gute Figur. Beide funktionieren zumindest was das Surfen angeht recht gut. Die Interaktion mit komplexen Inhalten wie Formularen habe ich bisher nicht intensiv getestet.
Ich bin aber deshalb neugierig geworden und habe alternative Browser auf iPhone und Android ausprobiert. Und was soll ich sagen? Auf dem iPhone funktionieren Firefox, Chrome und Opera Mini sehr gut und sind teils schneller als Safari. Nicht falsch verstehen, alle Browser haben ihre Macken, etwa unbeschriftete Buttons und nervige Meldunge. Doch im großen und Ganzen funktionieren sie gut. Safari ist gerade bei komplexen Websites für meinen Geschmack zu langsam.
Auf Android habe ich nicht so intensiv getestet, aber auch hier funktionieren Firefox und Opera prinzipiell mit TalkBack.

Der meistgenutzte Browser unter Blinden dürfte der Safari auf dem iPhone oder iPad sein. Die Zahl blinder iPhone-Nutzer ist recht hoch und die meisten bevorzugen den integrierten Browser.
Auf dem Desktop dominieren Firefox und Internet Explorer. Nimmt man den Safari auf dem Mac dazuk, dürften fast 100 Prozent der blinden User erfasst sein.

Fazit: Mehrere Browser

Es ist natürlich eine gute Nachricht für uns, nicht für Entwickler. Niemand könnte heute eine Website mit allen denkbaren Kombinationen aus Betriebssystem, Screenreader und Browser mit ihren unterschiedlichen Versionen testen. Aber dafür gibts ja die Webstandards.
Für uns ist es gut, dass wir jetzt die Wahlfreiheit haben. Der Trend geht meines Erachtens dahin, dass wir uns jeweils den besten – sprich schnellsten oder am besten bedienbaren – Browser für die jeweilige Anwendung suchen. Umfangreiche Websites mit Opera, Formulare ausfüllen mit Firefox und so weiter. Ich kann die Blinden nur ermutigen, auch andere Browser intensiv zu testen.
Interessant ist in diesem Zusammenhang auch, dass manche Dinge in einer bestimmten technischen Kombination, also Browser X und Screenreader Y funktionieren und in anderen nicht. Das liegt ein Stück weit am unterschiedlichen Umgang mit Webtechniken. Es lohnt sich also auch deshalb, unterschiedliche Browser auszuprobieren, wenn etwas nicht funktioniert.

Lange Texte barrierefrei anbieten

Zu einem der wichtigsten Komponenten der Text-Verständlichkeit gehört die Textlänge. Sehbehinderte, Lese-Anfänger und Lese-Unerfahrene sowie Menschen mit Gedächtnis- und Aufmerksamkeitsstörungen mögen keine langen Text-Wüsten.
Kurze Texte gehören im Internet- und vor allem im Smartphone-Zeitalter ohnehin zum guten Ton. Dabei ist Kürze kein Wert an sich. Es geht vielmehr darum, sich auf die jeweils relevanten Informationen zu beschränken und alles Unwichtige wegzulassen.
Nun ist es aber nicht immer machbar, einen Text zu kürzen. Wir wollen uns in diesem Beitrag ansehen, welche Alternativen es zum langen Text auf einer Webseite gibt.

Mehrere Unterseiten

Die einfachste Lösung ist, einen Text auf mehrere Unterseiten zu verteilen.
Aus Lesersicht ist das die schlechteste Lösung. Scrollen ist den meisten Menschen lieber als klicken. Die Wahrscheinlichkeit, dass jemand aussteigt ist an der Stelle, wo er weiter klicken sollte am höchsten.
Sucht man nach einer bestimmten Information, muss man sich durch im schlimmsten Fall mehr als drei Seiten durchblättern. Das macht heute noch kaum jemand.
Blinde müssen sich bei jedem Seitenaufruf neu orientieren. Bei schlecht strukturierten Webseiten ist das schwierig.

Verlinktes Inhaltsverzeichnis

Selten benötigt man alle Informationen, die in einem langen Text enthalten sind. Die Wikipedia hat dieses Problem gelöst, indem sie dem Text ein verlinktes Inhaltsverzeichnis voranstellt. Man kann zwischen Textstelle und Inhaltsverzeichnis mittels seiteninterner Links hin und herspringen.

Das Akkordeon

Eine Variante des verlinkten Inhaltsverzeichnisses, die man immer häufiger sieht ist das Akkordeon. Dabei bekommt man alle Überschriften des Textes angezeigt. Bei einem Klick auf eine Überschrift klappt der darunterliegende Text-Abschnitt aus.
Diese Variante ist für Blinde generell nutzbar. Wichtig ist, dass die ausklappbaren Elemente für den Screenreader als anklickbar erkennbar sind. Ansonsten wundert sich der Blinde, warum er lauter Überschriften, aber keine zugehörigen Infos findet. Und natürlich sollte der jeweils ausgeklappte Text-Abschnitt für den Blinden lesbar sein. Auch für alle anderen Nutzer sollte sichtbar sein, dass etwas anklickbar ist.
Ein Streitpunkt ist, ob ein Ausschnitt ausgeklappt bleiben sollte, wenn man einen anderen Abschnitt anklickt. Ich halte das generell für sinnvoll, weil es sein kann, dass man sich mehrere Abschnitte parallel ansehen oder Informationen abgleichen möchte.

Welche Variante ist wann sinnvoll?

Das Verteilen vieler kurzer Texte auf mehrere Unterseiten ist heute nicht mehr zeitgemäß. Niemand hat ein Interesse daran, sorgfältig verstreute Informationen zusammen zu puzzeln.
Das verlinkte Inhaltsverzeichnis bietet sich an, wenn Texte gerne überflogen werden. Außerdem ist es sinnvoll, wenn sich jemand wahrscheinlich mehrere Teile des Textes anschauen wird. Auch bei stark verschachtelten Texten wie etwa bei langen Wikipedia-Artikeln erscheint das Inhaltsverzeichnis sinnvoll. Das Akkordeon ist meines Erachtens nur dann sinnvoll, wenn die einzelnen Text-Abschnitte nicht zu umfangreich sind.
Das Akkordeon-Prinzip bietet sich an, wenn ein Text nicht nach einer bestimmten Informationshierarchie aufgebaut ist. Das heißt, man muss nicht einen bestimmten Abschnitt gelesen haben, um einen bestimmten späteren Abschnitt zu verstehe. Sind bestimmte Informationen in jedem Fall notwendig, sollten sie vorangestellt und immer ohne Klick sichtbar sein.
Gerade für die ellenlangen FAQs bietet sich das Akkordeon an. Es kommt selten vor, dass man sich alle Fragen und Antworten durchlesen muss oder möchte.
Ist die Wahrscheinlichkeit groß, dass der Leser den gesamten Text lesen wird, etwa bei Unterhaltungstexten, sollte er vollständig auf einer Seite sein. Ein verlinktes Inhaltsverzeichnis stört im Grunde niemanden, ist aber tatsächlich erst notwendig, wenn der Text überlang ist. Wenn also die Wahrscheinlichkeit, dass der Text in einem Rutsch durchgelesen wird eher gering ist. Außerdem ist ein verlinktes Inhaltsverzeichnis vor allem sinnvoll, wenn die Text-Überschriften, aus denen es generiert wird selbst erklärend sind. In Unterhaltungstexten werden eher Teaser-Überschriften eingesetzt, die nicht selbst-erklärend sind.

Lohnt sich ein Besuch auf der SightCity?

Soeben bin ich von der SightCity 2018 zurückgekehrt. Ich war jetzt zum dritten Mal in sechs Jahren da. Für mich ist es hauptsächlich eine Möglichkeit der Kontaktpflege. Dennoch möchte ich hier ein kurzes Fazit ziehen.

Wenige Innovationen

Während es in anderen Branchen zyklisch neue Entwicklungen gibt, tut sich in der Hilfsmittelbranche relativ wenig. Weder beim Preis noch bei der Technik gibt es viel Neues zu entdecken. Hier ein paar Sachen, die ich entdeckt habe.
Eine wirklich coole Sache ist der Orbit Reader, dessen erste Charge jetzt in den USA verkauft wurde. Ich habe ihn kurz in der Hand gehabt, er ist leicht, die Braille-Darstellung fühlt sich gut an und die Brailletastatur ist gut nutzbar. Ich hoffe, dass er bald in Deutschland verfügbar sein wird.
Der Hersteller American Printing House entwickelt parallel ein mobiles Display, welches auch Vektorgrafiken darstellen können soll. Leider wird es vermutlich mindestens 5000 US-Dollar kosten, also für Privatpersonen unerschwinglich. Andererseits wird es immer noch deutlich günstiger sein als alles, was wir derzeit Vergleichbares haben. Schließlich kosten konventionelle Braillezeilen mit 80 darstellbaren Zeichen nach wie vor rund 10.000 €.
Ein ähnliches Konzept verfolgt das Gerät tactonom. Das Gerät kann, wenn ich es recht verstanden habe, auch Rastergrafiken darstellen. In jedem Fall kann es auch Grafiken oder Tabellen aus Excel darstellen. Leider ist es nicht mobil wie das Gerät von APH. Derzeit ist das Gerät nur ein Prototyp.
Gerne hätte ich mir auch das Canute angesehen. Dabei handelt es sich ebenfalls um ein großflächiges Braille-Display, das relativ günstig sein soll. Der Anbieter war nicht als Außsteller präsent, sondern ist über die Messe gewandert. Leider habe ich ihn nicht erwischt. Aber zumindest im Bereich Braille scheint sich nach rund 20 Jahren Stillstand etwas zu tun.

Wenig innovative Messe

Aber nicht nur die Aussteller, auch die Messe selbst ist wenig innovativ. Der Ausstellungsplatz ist eindeutig zu klein und für Blinde ungeeignet, die allein unterwegs sind. Man kommt sich ständig in die Quere, weil die Durchgänge zu schmal sind. Es gab auch einige Rollstuhlfahrer, die kaum durch die Massen durchkommen konnten.
Überhaupt wird recht wenig für Blinde getan. Wie treffe ich denn andere Blinde, die ich kenne, wenn ich nicht weiß, dass sie da sind? Erkennen kann ich sie nur per Zufall. Warum schafft die SightCity nicht eine Möglichkeit, sich digital zu vernetzen?
Ich musste zwei Mal hingucken, um zu sehen, dass das Vortragsprogramm tatsächlich aktuell war. Es hätte Copy-Paste aus 2017 sein können. Da hat der übliche Verdächtige mindestens zum 4. Mal gezeigt, die Blinde iPhones nutzen. Das ist bestimmt super-spannend für die Blinden, VoiceOver gibts ja erst seit neun Jahren. Der Rest kam mir auch fatal bekannt vor. Im Grunde will man nichts Neues, scheint mir. Ich habe mehrfach Vorschläge für Vorträge eingereicht, und man fannd sie keiner Antwort würdig. Das nennt man wohl Öffentlichkeitsarbeit.
Überhaupt scheint es keine Öffentlichkeitsarbeit zu geben. Social Media? Fehlanzeige. Ein Twitter-Account oder einen offiziellen Hash-Tag sucht man vergeblich. Die Aussteller denken sich einfach selber einen aus. Dadurch gehen die schönen Möglichkeiten der Vernetzung verloren, die das Internet bieten würde.

Innovationen finden woanders statt

Im Grunde hat sich ein großes Paralleluniversum entwickelt. Google, Microsoft und natürlich Apple sind die größten Anbieter von Computer-Hilfsmitteln, kommen aber auf der SightCity nicht vor. Die Hersteller von Apps wie Blindsquare, SeeingAI und so weiter kommen auf der SightCity nicht vor. Dabei werden Tablets und Smartphones heute von vielen Menschen stärker genutzt als Personalcomputer.
Daneben hat sich die Maker-Szene mit 3D-Druck und ähnlichen Techniken etabliert. Auch hier passiert unheimlich viel, etwa in den Blindenschulen aber auch außerhalb. Auch das kommt auf der SightCity nicht vor.
NVDA, sicherlich der bedeutenste PC-Screenreader neben Jaws in Deutschland, ihr habts erraten, kommt auf der SightCity nicht vor. Könnte es sein, dass die Organisatoren im Tiefschlaf liegen?

SightCity lohnt sich nicht

Als Fazit muss ich sagen, dass sich die SightCity nicht wirklich lohnt. Zumindest nicht jedes Jahr. Die Messe muss wesentlich moderner, blindengerechter und auch mutiger werden, was das Rahmenprogramm angeht.

Fahrradfahrer und Blinde – eine fast unendliche Liebesgeschichte

Angeblich soll es ja einen epischen Kampf zwischen Blinden und Fahrradfahrern geben, so ähnlich wie zwischen Highlander und dem anderen Highlander. In Wirklichkeit sind Blinde und Fahrradfahrer die besten Buddies. Deswegen möchte ich hier mit einigen Mythen bei den Fahrradfahrern aufräumen, bevor wir anfangen, uns gegenseitig die Köpfe abzuschlagen.

Der Bürgersteig gehört den Fahrradfahrern

Fahrradfahrer wundern sich oft, warum so viele Leute auf ihrem Fahrradweg, volksmündlich als Bürgersteig bezeichnet, herumlaufen. Als tolerante Menschen klingeln sie einfach so lange, bis diese Unbefugten vor Schreck umfallen. Weil Blinde bekanntermaßen nicht sehen, klingelt man einfach besonders laut und oft, damit sie das noch besser hören.
Da der Bürgersteig den Fahrradfahrern gehört, ist es nur natürlich, dass sie ihr Fahrrad dort abstellen. Es sollte so stehen, dass niemand, der breiter ist als 10 Zentimeter daran vorbeikommt, ohne auf die Straße zu gehen. Damit wird das Fahrrad besser belüftet. Wen stört es, wenn Rollstuhlfahrer nicht vorbei können, Blinde am Lenker hängenbleiben, über das Vorderrad stolpern oder Kinderwagen auf die Straße ausweichen müssen. Das trainiert doch die Gelenke.

Eine Haaresbreite Abstand reicht

Blinde lieben es, wenn Fahrradfahrer auf lautlosen Rädern einen Zentimeter an ihrer Schulter vorbei rasen. Aber warum gehen diese doofen Blinden nicht straight gerade aus, sondern weichen ab und zu nach links oder rechts ab? Haben die keine Augen im Hinterkopf oder zumindest Blinker am Allerwertesten, damit man sieht, welche Richtung sie als Nächstes einschlagen wollen?
Genauso super finden es Blinde, wenn man eine Handbreit an der Spitze ihres Blindenstocks vorbeifährt. Auch Blinden-Führhunde wissen das zu schätzen. Der Schreck bringt Herrchen und Hündchen den heiß begehrten Adrenalinstoß. Wer braucht da noch Kaffee?
Niemand kann von Fahrradfahrern erwarten, dass sie langsamer fahren, ausweichen, stehen bleiben oder gar kommunizieren.

  1. Sind Fahrradfahrer stumm und wir wissen ja, wie schwierig es ist, Gebärdendolmetscher zu bekommen, vor allem welche, die auf dem Gepäckträger Platz nehmen wollen.
  2. Haben es Fahrradfahrer immer eilig. Nicht auszudenken, was passiert, wenn man die ersten 60 Sekunden von den Simpsons verpasst.

Fazit: Blinde lieben Fahrradfahrer

Ja, ich bekenne es öffentlich: wir lieben Fahrradfahrer. Sie sorgen für den Adrenalinkick am Morgen, halten unsere Reflexe frisch und sorgen dafür, das unser Gehör nicht verkümmert.
War dieser Beitrag eigentlich ironisch gemeint? Vielleicht.

Endlich – CAPTCHAs werden zum sinnvollen Spam-Test

Wer kennt das nicht, tanzende Buchstaben vor buntem Hintergrund erhöhen seit Jahren den Knobelspaß im Internet. Ganze Familienabende sollen schon mit dem Lösen der bunten Bildchen verbracht worden sein. Wer braucht da noch memory oder Wetten dass…? Und auch wenn man nicht zur erhofften E-Mail-Adrese, zum Kauf des Tickets oder zum Gewinn des iPhone niX kam, die sinnfreien Zeichencodes aus Bild oder Ton waren doch immer unterhaltsam. Vor allem Blinde und Schwerhörige haben sich ordentlich amüsiert, indem sie entnervt ihren PC kurz und klein schlugen.
Doch nun ist Schluss mit Lustig, wie Blind-Text aus verlässlicher Quelle erfuhr. Auch den Captcha-Anbietern ist nämlich nach Milliarden Dollar teuren Studien und Billionen falscher Eingaben durch Menschen aufgegangen, dass automatische Bots besser in der Lage sind, Captchas zu lösen als Menschen. Die fixen Jungs aus Silicon Valley haben sich deshalb überlegt, den Anti-Spam-Mechanismus einfach umzukehren. Künftig heißt es: Wenn Du das lesen respektive verstehen kannst, bist Du ein Bot. Dann gibts keine kostenlose E-Mail-Adresse, keine Nackedei-Bildchen und kein iPhone niX. Nur, wer den Code falsch eingibt – also richtig – ähm, also ihr wisst schon, bekommt den heißen Preis.
Blind-Text sagt: Bravo Jungs! Es kann nur noch einige Jahrzehnte dauern, bis man im Valley kapiert, was Farbkontraste, benannte Schaltflächen und Labels für Formulare bedeuten. Aber wie wir sehen, zahlt sich Geduld aus.

Training, Schulung und Beratung