Archiv der Kategorie: Blinde & Sehbehinderte

Wie sieht der Alltag für Blinde und Sehbehinderte aus?

Was sehen Blinde eigentlich?

Nichts, wird die volksmündliche Antwort lauten. Leider ist die Situation aber ein wenig komplizierter. In diesem Beitrag werden wir uns anschauen, was Blinde visuell wahrnehmen können.

Eine kleine Begriffskunde

Wie immer ist es sinnvoll, die Begriffe zu kennen:

  • Wir sprechen von vollblind, wenn jemand nichts oder so gut wie nichts sehen kann.
  • Gesetzlich blind sind Menschen, die einen bestimmten Sehrest unterschreiten. Das betrifft entweder die Sehschärfe, die im Visus angegeben wird. Oder die Größe des Gesichtsfeldes. Diese Gruppe wird als Sehrestler bezeichnet.

Beide genannten Gruppen sind im gesetzlichen Sinne blind. Davon abgrenzen können wir die hochgradig Sehbehinderten, die Sehbehinderten und natürlich die Sehenden. Letztere haben entweder keine oder zumindest nicht solche Sehprobleme, die sich nicht mit Brillen oder Kontaktlinsen ausgleichen lassen. Die Grenzen zwischen hochgradig sehbehindert und Sehrest-Blinden ist fließend. In der Regel arbeiten
hochgradig Sehbehinderte noch visuell am Computer und benutzen keinen Blindenstock. Die Sehrestler arbeiten in der Regel mit Screenreader und Braille und verwenden einen Blindenstock im Alltag. Doch gibt es hier keine absolute Regel.

Ich sehe was, was Du nicht siehst

Sehen ist die Verarbeitung von Licht. Entweder wird Licht ausgestrahlt, zum Beispiel von einem Bildschirm oder es wird reflektiert. Das war es schon, alles, was wir sehen, ist die Reflektion von Licht. Manchmal lohnt es sich, sich an diese einfache Tatsache zu erinnern.
Das Spektrum des Sehens unter Sehrestlern ist relativ groß. Was der Eine sieht, sieht der Andere nicht und umgekehrt. Wenn ein Sehender einem anderen Sehenden etwas zeigt, z.B. auf der Straße, kann er ziemlich sicher sein, dass der Andere es auch sehen wird. Unter Sehrestlern ist die Wahrscheinlichkeit, dass zwei Personen das Gleiche erkenne, relativ gering. In meiner Schulzeit konnte einer meiner Freunde Personen am Gesicht erkennen, aber keine Schwarzschrift lesen. Schwarzschrift nennen wir Blindgänger die gedruckte Schrift. Ich kann bis heute ein wenig Schwarzschrift lesen, wenn sie so groß wie eine Zeitungsüberschrift ist. Aber ich konnte in meinem ganzen Leben niemanden am Gesicht, der Kleidung oder am Gang erkennen.
Die Mess-Instrumente, die Augenärzte verwenden sind natürlich nicht auf Unsereins ausgelegt, sondern auf Normal-Sichtige. Ich weiß leider nicht, ob es spezielle Messmethoden für sehschwache Personen gibt oder ob solche Mess-Instrumente überhaupt sinnvoll wären.

Sehen mit dem ganzen Körper

Wer lediglich auf das Sehen achtet, verkennt viele andere Faktoren. Im Computerbereich würde man das integrierte Informationsverarbeitung nennen. Da ist natürlich das Gehör. Aber auch der haptische Kontakt zum Boden, der Geruchsinn. Der Geschmacksinn als fünfter Sinn ist an der Stelle nicht so wichtig. Sehende benutzen solche Faktoren oft unbewusst. Der Geruchssinn zum Beispiel funktioniert sehr stark intuitiv. Aber auch das Gehör spielt eine Rolle: Wem ist es noch nicht passiert, dass er das Auto hinter sich zuerst gehört hat und dann zur Seite sprang, ohne sich umzudrehen und zu gucken, ob es einen tatsächlich gleich überfährt?
Als weiterer Faktor kommen Gedächtnis und Erfahrung hinzu. Als kleines Kind bereits mussten wir lernen, visuelle und auditive Reize zu unterscheiden. In unserem Gedächtnis gibt es tausende Geräusche. Jeder erkennt zum Beispiel das charakteristische Geräusch eines entriegelnden Kofferraums, eines bremsenden Fahrrads oder eines tappenden Hundes, auch wenn wir kein Auto, kein Fahrrad und keinen Hund haben.
Als weiteren Faktor haben wir die Situationsabhängigkeit: An einer Straße dürfen wir mit anderen Gegenständen rechnen als im Park oder im Wald.
Und das Gedächtnis verrät uns, dass das Gelbe da vorne, wo wir jeden Tag vorbei gehen ein Briefkasten und keine gelbe Tonne ist. Grob geschätzt nutzen wir 90 Prozent unseres Lebens immer die gleichen Wege. Wenn jemand in unsere Wohnung spazieren und unsere Bücher umstellen würde, würden wir das sofort merken. Und zwar nicht, weil wir ein so ausgefeiltes Ordnungssystem haben, sondern weil uns das Muster der Aufstellung vertraut ist. Wenn aber etwas jeden Tag anders ist, wie die Autos, die an der Straße parken, achten wir in der Regel nicht darauf. Wenn wir wissen, was etwas ist, reichen auch sehr unscharfe Seheindrücke, um es zu erkennen bzw. Veränderungen zu bemerken.

Im Gegensatz zum Menschen, wir schauen mal von der künstlichen Intelligenz und Fuzzy Logic ab, versteht ein Computer nur ja oder nein. Er wird sich zwangsläufig entscheiden, ist es ein Mensch oder ein Laternenpfahl? Ein Mensch hingegen könnte schlussfolgern, das Objekt könnte ein Mensch sein, aber Menschen stehen normalerweise nicht stocksteif in der Gegend rum. Es wird also doch ein Pfahl sein. Befindet es sich hingegen mitten auf einem Bürgersteig, wird es wohl eher ein Mensch sein.

Fazit

Es ist also schlicht gesagt unmöglich, einem anderen Menschen exakt zu beschreiben, was man als Sehrestler wahrnimmt. Wir behelfen uns immer an Beispielen, die aber oft unzureichend sind. Deswegen dürft ihr auf die Frage: „Was siehst du eigentlich?“ nie eine klare Antwort von uns erwarten.
Das scheint die Frage zu sein, die Sehende am meisten verwirrt, wenn sie mit Sehrestlern zu tun haben. Leider ist das eine Frage, auf die es keine eindeutige Antwort gibt oder jemals geben wird.

Lohnt sich ein Besuch auf der SightCity?

Soeben bin ich von der SightCity 2018 zurückgekehrt. Ich war jetzt zum dritten Mal in sechs Jahren da. Für mich ist es hauptsächlich eine Möglichkeit der Kontaktpflege. Dennoch möchte ich hier ein kurzes Fazit ziehen.

Wenige Innovationen

Während es in anderen Branchen zyklisch neue Entwicklungen gibt, tut sich in der Hilfsmittelbranche relativ wenig. Weder beim Preis noch bei der Technik gibt es viel Neues zu entdecken. Hier ein paar Sachen, die ich entdeckt habe.
Eine wirklich coole Sache ist der Orbit Reader, dessen erste Charge jetzt in den USA verkauft wurde. Ich habe ihn kurz in der Hand gehabt, er ist leicht, die Braille-Darstellung fühlt sich gut an und die Brailletastatur ist gut nutzbar. Ich hoffe, dass er bald in Deutschland verfügbar sein wird.
Der Hersteller American Printing House entwickelt parallel ein mobiles Display, welches auch Vektorgrafiken darstellen können soll. Leider wird es vermutlich mindestens 5000 US-Dollar kosten, also für Privatpersonen unerschwinglich. Andererseits wird es immer noch deutlich günstiger sein als alles, was wir derzeit Vergleichbares haben. Schließlich kosten konventionelle Braillezeilen mit 80 darstellbaren Zeichen nach wie vor rund 10.000 €.
Ein ähnliches Konzept verfolgt das Gerät tactonom. Das Gerät kann, wenn ich es recht verstanden habe, auch Rastergrafiken darstellen. In jedem Fall kann es auch Grafiken oder Tabellen aus Excel darstellen. Leider ist es nicht mobil wie das Gerät von APH. Derzeit ist das Gerät nur ein Prototyp.
Gerne hätte ich mir auch das Canute angesehen. Dabei handelt es sich ebenfalls um ein großflächiges Braille-Display, das relativ günstig sein soll. Der Anbieter war nicht als Außsteller präsent, sondern ist über die Messe gewandert. Leider habe ich ihn nicht erwischt. Aber zumindest im Bereich Braille scheint sich nach rund 20 Jahren Stillstand etwas zu tun.

Wenig innovative Messe

Aber nicht nur die Aussteller, auch die Messe selbst ist wenig innovativ. Der Ausstellungsplatz ist eindeutig zu klein und für Blinde ungeeignet, die allein unterwegs sind. Man kommt sich ständig in die Quere, weil die Durchgänge zu schmal sind. Es gab auch einige Rollstuhlfahrer, die kaum durch die Massen durchkommen konnten.
Überhaupt wird recht wenig für Blinde getan. Wie treffe ich denn andere Blinde, die ich kenne, wenn ich nicht weiß, dass sie da sind? Erkennen kann ich sie nur per Zufall. Warum schafft die SightCity nicht eine Möglichkeit, sich digital zu vernetzen?
Ich musste zwei Mal hingucken, um zu sehen, dass das Vortragsprogramm tatsächlich aktuell war. Es hätte Copy-Paste aus 2017 sein können. Da hat der übliche Verdächtige mindestens zum 4. Mal gezeigt, die Blinde iPhones nutzen. Das ist bestimmt super-spannend für die Blinden, VoiceOver gibts ja erst seit neun Jahren. Der Rest kam mir auch fatal bekannt vor. Im Grunde will man nichts Neues, scheint mir. Ich habe mehrfach Vorschläge für Vorträge eingereicht, und man fannd sie keiner Antwort würdig. Das nennt man wohl Öffentlichkeitsarbeit.
Überhaupt scheint es keine Öffentlichkeitsarbeit zu geben. Social Media? Fehlanzeige. Ein Twitter-Account oder einen offiziellen Hash-Tag sucht man vergeblich. Die Aussteller denken sich einfach selber einen aus. Dadurch gehen die schönen Möglichkeiten der Vernetzung verloren, die das Internet bieten würde.

Innovationen finden woanders statt

Im Grunde hat sich ein großes Paralleluniversum entwickelt. Google, Microsoft und natürlich Apple sind die größten Anbieter von Computer-Hilfsmitteln, kommen aber auf der SightCity nicht vor. Die Hersteller von Apps wie Blindsquare, SeeingAI und so weiter kommen auf der SightCity nicht vor. Dabei werden Tablets und Smartphones heute von vielen Menschen stärker genutzt als Personalcomputer.
Daneben hat sich die Maker-Szene mit 3D-Druck und ähnlichen Techniken etabliert. Auch hier passiert unheimlich viel, etwa in den Blindenschulen aber auch außerhalb. Auch das kommt auf der SightCity nicht vor.
NVDA, sicherlich der bedeutenste PC-Screenreader neben Jaws in Deutschland, ihr habts erraten, kommt auf der SightCity nicht vor. Könnte es sein, dass die Organisatoren im Tiefschlaf liegen?

SightCity lohnt sich nicht

Als Fazit muss ich sagen, dass sich die SightCity nicht wirklich lohnt. Zumindest nicht jedes Jahr. Die Messe muss wesentlich moderner, blindengerechter und auch mutiger werden, was das Rahmenprogramm angeht.

Fahrradfahrer und Blinde – eine fast unendliche Liebesgeschichte

Angeblich soll es ja einen epischen Kampf zwischen Blinden und Fahrradfahrern geben, so ähnlich wie zwischen Highlander und dem anderen Highlander. In Wirklichkeit sind Blinde und Fahrradfahrer die besten Buddies. Deswegen möchte ich hier mit einigen Mythen bei den Fahrradfahrern aufräumen, bevor wir anfangen, uns gegenseitig die Köpfe abzuschlagen.

Der Bürgersteig gehört den Fahrradfahrern

Fahrradfahrer wundern sich oft, warum so viele Leute auf ihrem Fahrradweg, volksmündlich als Bürgersteig bezeichnet, herumlaufen. Als tolerante Menschen klingeln sie einfach so lange, bis diese Unbefugten vor Schreck umfallen. Weil Blinde bekanntermaßen nicht sehen, klingelt man einfach besonders laut und oft, damit sie das noch besser hören.
Da der Bürgersteig den Fahrradfahrern gehört, ist es nur natürlich, dass sie ihr Fahrrad dort abstellen. Es sollte so stehen, dass niemand, der breiter ist als 10 Zentimeter daran vorbeikommt, ohne auf die Straße zu gehen. Damit wird das Fahrrad besser belüftet. Wen stört es, wenn Rollstuhlfahrer nicht vorbei können, Blinde am Lenker hängenbleiben, über das Vorderrad stolpern oder Kinderwagen auf die Straße ausweichen müssen. Das trainiert doch die Gelenke.

Eine Haaresbreite Abstand reicht

Blinde lieben es, wenn Fahrradfahrer auf lautlosen Rädern einen Zentimeter an ihrer Schulter vorbei rasen. Aber warum gehen diese doofen Blinden nicht straight gerade aus, sondern weichen ab und zu nach links oder rechts ab? Haben die keine Augen im Hinterkopf oder zumindest Blinker am Allerwertesten, damit man sieht, welche Richtung sie als Nächstes einschlagen wollen?
Genauso super finden es Blinde, wenn man eine Handbreit an der Spitze ihres Blindenstocks vorbeifährt. Auch Blinden-Führhunde wissen das zu schätzen. Der Schreck bringt Herrchen und Hündchen den heiß begehrten Adrenalinstoß. Wer braucht da noch Kaffee?
Niemand kann von Fahrradfahrern erwarten, dass sie langsamer fahren, ausweichen, stehen bleiben oder gar kommunizieren.

  1. Sind Fahrradfahrer stumm und wir wissen ja, wie schwierig es ist, Gebärdendolmetscher zu bekommen, vor allem welche, die auf dem Gepäckträger Platz nehmen wollen.
  2. Haben es Fahrradfahrer immer eilig. Nicht auszudenken, was passiert, wenn man die ersten 60 Sekunden von den Simpsons verpasst.

Fazit: Blinde lieben Fahrradfahrer

Ja, ich bekenne es öffentlich: wir lieben Fahrradfahrer. Sie sorgen für den Adrenalinkick am Morgen, halten unsere Reflexe frisch und sorgen dafür, das unser Gehör nicht verkümmert.
War dieser Beitrag eigentlich ironisch gemeint? Vielleicht.

Was bringen eigentlich Bildbeschreibungen für Blinde?

In meinen Workshops zum barrierefreien Internet habe ich einen Extra-Abschnitt zum Thema Bildbeschreibungen für blinde und sehbehinderte Menschen. Fast immer werde ich gefragt, ob für Blinde die Inhalte von Bildern überhaupt interessant sind. Die Frage ist berechtigt. Wie soll ein Blinder zum Beispiel wissen, wie ein Vulkan, eine Herde Elefanten oder der Sternenhimmel aussehen? Hier kommt die Antwort.

Arten von blindheit

Generell können wir für unsere Zwecke drei Gruppen von Blinden unterscheiden:

  • die Blinden mit Sehrest
  • die Vollblinden, die noch visuelle Erinnerungen haben
  • die Vollblinden, die keine visuellen Erinnerungen haben

Bei den Sehrestlern ist der Sehrest sehr unterschiedlich ausgeprägt. Ich setze einmal voraus, dass noch einzelne Objekte unterschieden werden können. In diesem Fall haben sie zumindest von lebensnahen Objekten wie etwa Autos, Bäumen oder Elefanten eine klare visuelle Vorstellung. Das sind alles Objekte, die man nicht ohne Weiteres durch Abtasten in ihrer Gesamtheit erfassen kann. Schwierig kann es bei nicht-lebensnahen Objekten oder Verhältnissen kommen, da diese visuell komplexer sind: Vulkanausbrüche, eine elefantenherde oder die Mondlandung zum Beispiel.
Ähnliches gilt für die Vollblinden, die sich ihre visuellen Erinnerungen erhalten haben. Die Zahl der visuellen Eindrücke hängt ein wenig vom Alter ab. Doch im Allgemeinen kann man sagen, dass ein Jugendlicher in Natura, über Bücher, Illustrierte oder über das Fernsehen das Meiste gesehen hat, was es für einen Menschen aus seinem Kulturkreis zu sehen gibt. Auch wenn es Blinde wie John Hull gibt, die ihre visuellen Eindrücke komplett vergessen haben, ist das eher die Ausnahme. Es gibt auch Blinde, die sich ihr visuelles Vorstellungsvermögen vollständig erhalten haben wie etwa Zoltan Torey. Der Neurologe Oliver Sacks hat das in einem Essay sehr schön zusammengefasst.
Kommen wir also zur dritten Gruppe, den Vollblinden, die nie visuelle Eindrücke sammeln konnten.

Die Welt zum Anfassen

Die Sache ist wiederum recht einfach, wenn es um lebensnahe Objekte geht. Zum einen gibt es natürlich von fast allem eine Spielzeug-Version, die im Prinzip wie das Original aussieht: Es gibt Mini-Bäume, Mini-Hubschrauber, Mini-Autos und Mini-Häuser. Das ist also einfach.
Weiterhin gibt es Tastbücher. Sie enthalten fühlbare Modelle von Tieren oder Landschaften. Die gibt es meines Wissens auch für sehende Kinder.
Mittlerweile haben sich auch Tastmodelle etabliert. Sie sind wesentlich günstiger geworden, etwa durch die Möglichkeiten des 3D-Drucks. Im Unterricht für blinde Kinder sind sie fest etabliert. Das erinnert mich an meinen alten Chemielehrer von der Blindenschule in Marburg. Er hat sich unglaublich viel Mühe gegeben, tastbare Modelle von Atomen und deren Bestandteilen herzustellen, zu einer Zeit, wo diese Modelle noch wesentlich schwieriger in der Anfertigung waren.

Die erlesene Welt

Nun gibt es aber Dinge, die sich wesentlich schwieriger tastbar machen lassen. Kommen wir zum Vulkanausbruch zurück. Der lässt sich sicher irgendwie nachstellen. Aber ein entsprechendes Modell wäre dann doch wesentlich aufwendiger in der Herstellung.
Doch wofür gibt es die Literatur? Ich nenne Geschichten gerne das inklusivste Medium. Sie müssen in der Regel ohne Bilder auskommen. deshalb muss alles, was in einer Geschichte vorkommt mit Worten beschrieben werden. “Der Vulkan brach aus” wird dabei niemandes Phantasie anstacheln. Die glühende Lava, die sich über die Berghänge ergießt hingegen schon.
Da wir alle mehr oder weniger mit Geschichten aufwachsen, gehören solche Ereignisse, auch wenn wir sie nie selbst erlebt haben also zu unserem kollektiven Erfahrungsschatz. Die meisten Vollblinden dürften deshalb eine recht lebendige Vorstellung davon haben, wie ein Vulkanausbruch aussieht. Wir können uns sogar Sachen vorstellen, die es nicht gibt wie Drachen, Trolle und den Weltfrieden.
Gleiches gilt für eher abstrakte Sachverhalte: Niemand wird literarisch die Form eines Ferraris beschreiben, der Autor kann davon ausgehen, dass die meisten Leser wissen, wie so ein Sportwagen aussieht. Doch steht der Ferrari nicht nur für eine teure Automarke. Er ist ein Symbol für Reichtum, Sportlichkeit, Schnelligkeit und was auch immer man noch damit assoziiert. Und diese Assoziationen sind den Blinden natürlich auch aus Geschichten bekannt. Ich könnte eine Harley Davidson nicht vom nächstbesten Elektroroller unterscheiden. Ich weiß aber, welchen Kult manche Leute um die Harley machen. Und woher? Natürlich aus unzähligen Filem, Büchern und Geschichten. Und deshalb macht es natürlich einen Unterschied, ob auf dem Bild einfach nur ein Motorad oder eine Harley zu sehen ist.

Bildschirm-Lesegerät im Eigenbau

Ich bin ja ein Freund einfacher und alltagstauglicher Lösungen. Hilfsmittel sind in der Regel teuer und unpraktisch. Heute erzähle ich euch, wie ihr das iPhone oder ein anderes Smartphone in ein einfaches Bildschirm-Lesegerät umwandeln könnt.
Ein Bildschirm-Lesegerät ist ein Gerät, mit dem Sehbehinderte sich Texte elektronisch vergrößert anzeigen lassen können. In der Regel besteht es aus einer Kamera-Einheit, einem Wagen, auf dem die Texte unter der Kamera bewegt werden sowie einem Bildschirm, auf dem die vergrößerten Inhalte ausgegeben werden. Zudem gibt es neben der Vergrößerungsfunktion die Möglichkeit, die Farbkontraste einzustellen.
Wir brauchen – Überraschung ein iPhone. Es geht auch jedes andere Gerät, das über eine gute Kamera und integrierte Beleuchtung verfügt. Web-Cams scheiden aus, da sie keine eigene Beleuchtung mitbringen. Gebraucht wird außerdem ein möglichst schwenkbarer Halter für das Lesegerät, etwa eine Handy- oder Tablethalterung mit Schwanenhals. Wichtig ist, dass die Halterung die Kamera und den Blitz nicht verdeckt.
Das Gerät wird also wie gehabt in die Halterung eingespannt und über dem Lesestück positioniert. Da sich das Gerät mit der Halterung verschieben lässt, brauchen wir keinen beweglichen Wagen für das Lesegut, wie es bei Bildschirm-Lesegeräten üblich ist.
Als Lese-App wird die integrierte Kamera genutzt. Für die Beleuchtung schalten wir die Taschenlampe des iPhones ein. Mit den Filtern der Kamera-App können wir auch beeinflussen, wie das Bild dargestellt wird. Es gibt etwa einen Schwarz-Weiß-Filter, der die Farben reduziert und so Fließtext besser erkennbar macht.
Mit entsprechenden Komponenten lässt sich das Bild natürlich auch auf einen größeren Monitor übertragen. Da die iPhones in der Regel die bessere Kamera haben, lässt sich das Lesegut auch auf ein iPad übertragen, das hat ein größeres Display.
Cool wären Filter oder eigene Apps, mit denen sich der Schrift-Kontrast noch besser anpassen lässt. Die App könnte zum Beispiel auch automatisch Text erkennen und ihn noch schärfer stellen. Wenn man ohnehin schlecht lesbaren Text hat, hilft die Vergrößerung oft nicht weiter, weil sie auch die Unschärfe vergrößert.
Doppelt cool wäre eine Anwendung, die Text auch von nicht-flachen Elementen wie Dosen so erscheinen lassen könnte, als ob es sich um eine normale Papierseite handeln würde, also quasi die Krümmung entfernen. Das ist nämlich eines der Haupt-Ärgernisse, zu kleiner Text auf einer ungeraden Oberfläche mit schlechtem Kontrast.

Android für Blinde – der Einstieg

Android mausert sich langsam zu einer guten Alternative zu iOS. In diesem Beitrag möchte ich wechselwilligen Blinden eine kleine Hilfe geben.
Zwar ist VoiceOver sauberer implementiert und es gibt mehr barrierefreie Apps für Blinde im Apple-Universum. Doch es bleibt der hohe Anschaffungspreis, die Probleme eines geschlossenen Systems und die ziemlich unverschämten Preise für simpelstes Zubehör.
Nebenbei bemerkt hat VoiceOver auch seine Macken, die es seit Jahren mitschleppt. Dazu gehört, dass der Cursor häufig auf das erste Element zurückspringt, obwohl man bereits ein anderes Element fokussiert hat.
Dennoch möchte ich Android nur fortgeschrittenen Nutzern empfehlen. Es gibt Macken, die man kennen muss, um mit ihnen umzugehen. Gerade im Alltag, wenn man unterwegs ist will man, dass das Gerät einfach funktioniert und sich nicht intensiver damit beschäftigen.

Empfehlenswerte Geräte

Wer mit einem Android-Gerät liebäugelt, sollte nicht das billigste nehmen. Die Performance des Geräts sowie die Qualität des Touchscreens – sprich die Berührungsempfindlichkeit – macht relativ viel aus, für Blinde sowieso. Es macht keinen Sinn, ein 100-Euro-Handy mit einem 600-Euro-Iphone zu vergleichen.
Ein Vorteil von Android ist, dass der Screenreader Talkback unabhängig vom Betriebssystem aktualisiert werden kann. Das heißt, selbst bei einem veralteten Android kann Talkback noch eine Zeitlang upgedatet werden. Bei iOS sind VoiceOver-Updates an das Betriebssystem gebunden. Mein iPhone 5 c erhält keine Updates für iOS mehr, ebenso ergeht es VoiceOver.
Dennoch empfehle ich dringend ein Gerät, welches mindestens zwei Jahre Updates erhält. Derzeit versprechen das vor allem die Geräte, die von Google selbst angeboten werden. Daneben verspricht Motorola für die Moto-Reihe Updates. HDM hat die Markenrechte an Nokias Smartphone-Sparte und bietet mit den Geräten Nokia 3, 5, 6 und 8 teils sehr preiswerte Geräte und verspricht zeitnahe Updates. Die letztgenannten scheinen mir deshalb am empfehlenswertesten.
Bezüglich der Samsung-Geräte wird unterschiedliches berichtet. Samsungs eigener Screenreader scheint einige Vorzüge zu haben, wird aber alles in allem nicht so dynamisch weiterentwickelt wie TalkBack.
Dringend abraten möchte ich vom Amazon Fire-Tablet. Ich hatte hier den 7-Zöller aus 2016 in Gebrauch mit einem veralteten Android 5.1.1, einem miserablen Screenreader und einer schlechten Performanz. Amazon mag Stärken haben, doch zählt Barrierefreiheit nicht dazu. Zählt man die ganzen Beschränkungen des Systems dazu.

Talkback Einschalten

Leider gibt es bei Android keine einheitliche Möglichkeit, um Talkback beim ersten Gerätestart zu aktivieren. Am häufigsten ist, zwei Finger auf den Screen zu legen und zu warten, bis Talkback gestartet ist.
Es kann passieren, dass Talkback auf Englisch redet, aber die Oberfläche Deutsch ist. Das war bei meinem Motorola G2 der Fall. Wegen solcher Probleme empfehle ich, Talkback mithilfe eines sehenden einzurichten, bis alles eingerichtet ist und das Gerät auf Deutsch quatscht. Ist das Gerät einmal eingerichtet, sollte TalkBack automatisch Deutsch sprechen, ansonsten geht einmal in die Stimm-Einstellungen.
Bei TalkBack gibt es ein Lernprogramm für die Gesten. Dies kann man am Anfang durchlaufen, kann es aber auch später durchführen.
Die Erkundung des Bildschirms erfolgt ebenso wie beim iPhone durch einfaches Streichen über den Bildschirm. Der Aufbau entspricht dem iPhone: Oben die Statuszeile, darunter die Apps, unten das Dock mit den Apps, die auf jeder Site angezeigt werden, darunter die Schaltflächen für zurück, Startseite und der App-Switcher.
Mit einem Wisch von links nach rechts wechselt ihr zwischen einzelnen Apps, Buttons und anderen Elementen.
Mit einem Wisch von oben nach unten oder von unten nach oben wechselt man die Lese-Einheit, ähnlich wie beim iPhone der Rotor.
Die Talkback-Einstellungen erreicht man am schnellsten über das globale Kontextmenü mit der L-Geste, den Finger von oben nach unten und nach rechts ziehen. Dort findet man auch wichtige Befehle wie von oben an lesen oder vom nächsten Element an lesen. Nebenbei gesagt finde ich das einsteigerfreundlicher als bei iOS, wo es solche visuellen Menüs kaum gibt. Geübte Nutzer werden aber eine Geste für solche häufig gebrauchten Aktionen vorziehen. Das lässt sich in TalkBack in den Einstellungen selbst konfigurieren.
Die Mainstream-Apps wie Google Maps, WhatsApp und Facebook sind ähnlich nutzbar wie bei iOS. Generell findet man auch bei Apps, die eigentlich barrierefrei sein sollten bei Android häufiger unbenannte Elemente. Ob das an Android oder an der Unachtsamkeit der Entwickler liegt, kann ich nicht sagen. Auch blindenspezifische Apps wie Blindsquare oder Ariadne sind eher bei iOS zu finden. Dennoch ist die Auswahl an Hilfs-Apps auch bei Android nicht schlecht: Es gibt Via opta NAV, Farberkennungs-Apps oder die DZB-App der Hörbücherei zur Ausleihe von Hörbüchern. Sicherlich wird Microsoft seine App Seeing AI auch für Android bereit stellen. Wer auf solche Apps angewiesen ist, sollte prüfen, ob es bei Android brauchbare Alternativen gibt.
Mit der kostenlosen App Audex lassen sich Buttons beschriften. Diese Beschriftungen können online zur Verfügung gestellt werden, so dass sie auch anderen blinden Android-Nutzern zur Verfügung stehen. Vielleicht ist das auch eine schnelle Möglichkeit für Entwickler, ihre App kurzfristig barrierefrei zu machen.
Mit der App BrailleBack kann eine Bluetooth-Braillezeile gekoppelt werden. Meine Braillezeile wurde auf Anhieb erkannt.

Informationsquellen zu Android für Blinde

Google stellt mittlerweile ausführliche Informationen zu TalkBack auf Deutsch bereit.
Es gibt eine deutschsprachige Android-Mailingliste sowie diverse WhatsApp-Gruppen. Wer Englisch kann, sollte sich die Mailingliste “EyesFree” anschauen, sie dreht sich um TalkBack. Zu beachten ist allerdings, dass diese Mailingliste sehr aktiv ist, manche mögen das ja nicht.

Blinde und Emojis

In letzter Zeit wurde ich öfter gefragt, wie Blinde mit Emojis umgehen. Kriegen sie das überhaupt mit, wenn jemand diese bunten Symbole verwendet? Und verwenden sie sie selbst? Die Antwort ist ein klares Jein.

Das Smartphone

Emojis hätten sich wohl ohne Smartphone nicht wirklich durchgesetzt. Niemand würde sich eine zweite Tastatur mit lustigen Bildchen auf den Schreibtisch stellen. Auf dem Handy kann man im Prinzip beliebig viele unterschiedliche Tastaturen bereit stellen.
Zudem bringen die Emojis einen Gefühlszustand sehr schnell auf den Punkt. Für Sehende sind sie intuitiver als Emoticons oder Kürzel wie LOL und ROFL. Da das Tippen von Text auf dem Handy kein Spaß ist, haben sich Emojis hier schnell durchgesetzt.
Sie dominieren vor allem in sozialen Netzwerken und in Chat-Apps wie WhatsApp. Dort werden sie auch von Blinden eingesetzt. Das ginge natürlich nicht, wenn sie nicht auch vorgelesen würden.
Die Emojis werden teils exzessiv beschrieben:
„Klatschende Hand mit heller Hautfarbe“
„Gesicht mit Brille und Hasenzähnen“
„Lächelndes Gesicht mit zusammengekniffenen Augen“
Bei den in iOS und Android integrierten Emoji-Tastaturen werden zu den einzelnen Emojis vorgelesen. Bei Emojis, die mit anderen Tastaturen stammen, kann es sein, dass sie nicht vorgelesen werden.

Desktop

Auf dem Desktop sieht die Sache ein wenig anders aus. Der Screenreader NVDA ignoriert Emojis standardmäßig. Es gibt aber ein kostenloses Addon, welches die Beschreibungen vorlesen kann.
Jaws 18 – also die aktuelle Version – liest ebenfalls die Beschreibungen vor.
Bei VoiceOver auf dem Mac ist mir die Situation nicht bekannt. Ich gehe aber davon aus, dass Mac-VoiceOver die Beschreibungen ebenso vorliest wie iOS-VoiceOver, alles Andere würde mich doch sehr wundern.

Wo kommen die Beschreibungen her?

Wichtig zu wissen ist, dass die Beschreibungen vom Unicode-Konsortium stammen und damit quasi allgemeinen Charakter haben. Weder Apple noch Google denken sich die Beschreibungen selbst aus. Das ist für uns Blinde insofern wichtig, dass wir system-übergreifend die gleichen Beschreibungen bekommen.
Das heißt aber auch, dass Emojis, die nicht Teil des Unicode-Standards sind auch nicht beschrieben werden. Man kann zwar in den Tastaturen Beschreibungen hinterlegen. Diese werden aber nicht vorgelesen, wenn die Emojis ins Textfeld eingefügt werden. Der Empfänger kriegt sie schon gar nicht vorgelesen, selbst wenn er die gleiche Tastatur wie der Absender installiert hat. So etwas wie einen Alternativtext für Emojis gibt es nicht.
Wenn ihr mit Blinden kommuniziert, solltet ihr vor allem die Häufung von Emojis vermeiden. Ihr habt die Beschreibungen oben gesehen. Stellt euch vor, ihr kriegt so etwas zehn oder 20 Mal innerhalb einer Nachricht vorgelesen. Die Nachricht wird künstlich aufgebläht und für uns ist es schwierig, solche Texte zu überspringen. Generell spricht aber nichts gegen deren Einsatz in der privaten Kommunikation.

Warum Blinde gerne schreiben

Vor einiger Zeit schrieb ich den Beitrag Warum Blinde gerne lesen fürs Aktion-Mensch-Blog. Kerngedanke war damals, dass das Lesen uns die Welt auf eine Art zugänglich macht, wie sie Radio und Film nicht vermögen. Das Radio lässt in der Regel bewusst eine Dimension weg bzw. versucht sie durch Geräusche zu vermitteln. Das ist einfach unzureichend, wenn einem das wichtig ist. Das Fernsehen – nun ja, das Fernsehen ist der Phantasiekiller Nummer 1. Ich bin kein Fernseh-Verächter, aber vor allem fiktionale Stoffe nehmen dem Zuschauer sämtliche Arbeit ab. Selbst beim Computerspiel müssen wir noch ein wenig tun und mitdenken. Auch komplexere Stoffe wie die Sopranos oder Breaking Bad ändern nichts daran.
Doch Blinde lesen nicht nur gern, sie schreiben auch gern. In meiner Blogliste zähle ich inzwischen über 20 deutsprachige Blogs von Blinden. Blautor ist ein Projekt, bei dem blinde Autoren ihre Stoffe zum Besten geben.
Im Musik-Genre sind Blinde deutlich prominenter vertreten. Erfolgreiche blinde Schriftsteller gibt es hingegen Wenige. Wir schauen jetzt einmal ab von nicht-fiktionalen Stoffen wie Autobiographien, davon gibt es reichlich. Sie sind aber in der Regel von einem Ghost-Writer geschrieben.
Es ist vor allem die Lust, schreibend die Welt zu erkunden. Ein Schriftsteller, der seine Charaktäre ernst nimmt ist gezwungen, sich in deren Situation zu versetzen. Tut man das nicht, kommen nur platte oder klischee-hafte Charaktäre heraus. Nur Schauspieler sind noch stärker gezwungen, sich in die Rolle einer anderen Person zu versetzen.
Ich behaupte einmal, niemand beobachtet seine Umgebung stärker als ein Schriftsteller. Er sammelt Details von Landschaften und Personen, um sie eventuell eines Tages zu verarbeiten.
Für Blinde ist das besonders spannend, weil sie auf diese Weise noch stärker gezwungen sind, sich mit der Welt der sehenden zu beschäftigen. Zwar kann ich mir ein Buch vorstellen, dass nur über Blinde und deren Wahrnehmung handelt. Das würde aber wohl die meisten Sehenden und Blinden schnell langweilen. Ein bisschen Futter brauchen wir für unsere Phantasie schon.
Wenn wir also als Blinde einen sehenden Charakter, Landschaften und Szenerien entwerfen und wenn wir darin gut sein wollen, müssen wir uns damit beschäftigen, wie Sehende die Sache sehen. Ich habe dadurch erst verstanden, wie wichtig Mimik und Gestik für Sehende sind. Und wie viel eigentlich passiv wahrgenommen wird. Wir Blinde können uns nicht vorstellen, wie es ist, einen Raum zu betreten und in einer Sekunde tausende von Details zu erfassen und das ohne Mühe. Und was Sehende alles damit assozieren. Sie fühlen sich sofort wohl oder unwohl. Sie können ersten Kontakt mit einer Person aufnehmen. Sie können die Stimmung der Personen an deren Körperhaltung und Mimik erfassen. Und viele, viele weitere Sachen, die wir uns mühsam ertasten oder erhören müssen oder die für uns gar nicht zugänglich sind.
Ich glaube, dass ist der Grund, warum viele Blinde gerne schreiben. Wahrscheinlich haben viele Blinde eine Geschichte in der Schublade liegen, die nie jemand zu Gesicht bekommen hat. Ich möchte euch ermutigen, die mal zu veröffentlichen. Es mus auch nicht unbeding fiktionaler Stoff sein. Und perfekt muss es sowieso nicht sein.
Die Frage, warum Blinde gerne nonfiktionale Texte schreiben, darf jetzt jemand Anderes beantworten.

Warum Blinde ihre Sprachausgabe so schnell einstellen

Bei meinen Workshops lasse ich den Screenreader im Hintergrund laufen. Zum Einen möchte ich natürlich wissen, bei welcher Folie ich gerade bin. Zum Anderen ist das auch für die Teilnehmer spannend zu sehen, wie Blinde überhaupt am Computer arbeiten können. Fast immer werde ich gefragt, warum ich die Sprachausgabe so schnell eingestellt habe. Hier also die ultimative Antwort.

Was zum Lesen

Sehende Leser lesen in der Regel mit einer Geschwindigkeit von 200 bis 300 Wörtern. Es gibt hier deutliche Ausreißer nach oben und unten. Funktionale Analphabeten lesen deutlich langsamer. Erfahrene Leser wie Journalisten oder Professoren lesen deutlich schneller.
Im Allgemeinen sagt man, dass man mindestens 150 Wörter pro Minute lesen können muss, um sinnerfassend zu lesen. 150 Wörter entspricht der durchschnittlichen Sprech- und Vorlese-Geschwindigkeit.
Daran seht ihr, dass die Lesegeschwindigkeit deutlich schneller ist als die Sprechgeschwindigkeit. Die meisten von uns würden uns langweilen, wenn wir einen Text selbst in der Geschwindigkeit lesen, wie wir ihn vorlesen würden.
Blinden geht es dabei nicht anders. Sobald sie ein bißchen Erfahrung mit dem Computer haben, schalten sie die Standardeinstellung ihrer Sprachausgabe hoch. Das müssen nicht unbedingt 100 Prozent sein wie bei mir, aber ich kenne keinen erfahrenen Nutzer, der seine Sprachausgabe in der für Menschen üblichen Sprechgeschwindigkeit ablaufen lässt.
Zu meinen Kassetten-Zeiten – das sind diese Plastikdinger, in denen sich so ein komisches Band dreht – hatte ich einen Kassettenrekorder, mit dem ich die Abspielgeschwindigkeit steuern konnte. Ich habe mir einen Spaß daraus gemacht, meine Musik wie Micky Mouse klingen zu lassen. Für die Hörbücher war das auch ganz praktisch. Viele Sprecher sind relativ langsam und monoton, so dass auch der spannenste Stoff einschläfernd wirken kann. Ich behaupte mal, man kann fast jedes Hörbuch um 20 – 30 Prozent schneller abspielen lassen, ohne dass der Unterschied den Hörer stört oder wirklich auffällt. So kann man aus einem zehnstündigen Hörbuch ein siebenstündiges machen. Viele Apps wie Audible unterstützen das schnellere Abspielen. Wahrscheinlich, damit man schneller mit dem einen Hörbuch fertig ist und sich schnell ein neues kauft.
Bei der Sprachausgabe sieht die Sache noch ein wenig besser aus. Auch die besten Sprecher haben unsauberkeiten beim Vorlesen. Die Veränderung der Stimmlage und Betonung ist ein störender Faktor, wenn es vor allem um Information geht und ich den Text möglichst schnell lesen will. Zudem modulieren die Sprecher ja selbst die Vorlesegeschwindigkeit.
Bei 50 Prozent Tempoerhöhung ist bei den meisten menschlichen Sprechern Schluss. Danach kann man den Sprecher zwar noch verstehen, muss sich aber enorm konzentrieren. Und viel geht auch verloren, wenn man kurz abgelenkt ist.
Deshalb und auch wegen dem Komfort lese ich Sachbücher lieber mit dem Screenreader am PC. Es kommt – so meine Theorie – für gewöhnte Screenreadernutzer dem visuellen recht nah, zumindest wesentlich näher als dem Hören von Hörbüchern.

Bekannte Infos ausblenden

Eine der nervtötesten Sachen für einen blinden Computernutzer ist es, sich Informationen anhören zu müssen, die er bereits hat. Zum Beispiel suche ich eine bestimmte Information in einer Tabelle. Ein Sehender überfliegt Spalten und Zeilen ohne große Probleme. Ein Blinder muss sich im schlimmsten Fall alle Werte einer Spalte oder Zeile vorlesen lassen. Wobei der Screenreader noch dazwischen funkt, weil er bei jeder Zelle nicht nur den Wert vorliest, sondern auch die Position der Zelle und die Überschrift des Bereichs. Dann wird also aus “13 Prozent”:
“Spalte 13, Zeile 9 Wahlergebnis 2013 13 Prozent”. Und bis man die Zelle gefunden hat, muss man sich das einige Male anhören. Das ist keine Barriere, aber es nervt natürlich. Und wenn man es sich anhören muss, dann soll es bitte so schnell wie möglich vorbei sein.
Selbiges gilt für viele Bereiche. Klar möchte ich wissen, dass es eine Überschrift, ein Menü, eine Checkbox etc. ist. Aber bitte nicht in alltäglicher Sprechgeschwindigkeit. Ich würde echt wahnsinnig werden, wenn ich mir das alles im Detail anhören müsste.

Gedächtnis und Mustererkennung

Last not least wissen wir ja schon, was da steht. Meine Präsentationen habe ich schon tausend mal gehalten. Da ich weiß, was auf der Folie steht, reichen mir oft die ersten zwei Wörter aus dem Titel, um den Rest aus meinem Gedächtnis zu ergänzen.
Der Kontext hilft uns dabei, wichtige Informationen zu filtern. Wenn ich höre “Bahnchef” wird das nächste Wort wahrscheinlich “Grube” lauten. Deswegen wünschen sich Blinde auch, dass Ämter und Geschäftsführer niemals wechseln. Sie müssen sich dann immer umgewöhnen. Kleiner Scherz am Rande.
Auch die Mustererkennung hilft uns natürlich. Texte und Webseiten sind häufig nach einem bestimmten Schema aufgebaut. Typisch ist z.B. Navigation, Suchfeld, Inhalt, dritte Spalte und Fußzeile. Ohne dieses Schema müssten wir uns jede Website neu aneignen. Die Navigationspunkte sind auch noch in der Regel auf vielen Websites ähnlich bekannt. Ich ernte bei meinen Screenreader-Demos immer große Lacher, wenn ich auf irgend ein Wort stoße, was ich nicht kenne und das der Runde kund tue.

Und Braille?

Versteht mich nicht falsch: Braille ist sicher eine gute Sache. Und wenn man geübt ist, kann man sicherlich 100 Wörter pro Minute schaffen. Gerade für strukturierte Infos wie Tabellen wäre ein flächiges Brailledisplay eine Riesen-Erleichterung. Aber gerade für Vielleser wie mich sind 100 Wörter pro Minute zu wenig. Zumal ich an diese Geschwindigkeit nicht heran komme und es wahrscheinlich auch nie schaffen werde. Ich bin bei ca. 60 Wörtern pro Minute, was mich schon viel Übung gekostet hat.
Als Blinder ist man bei vielen Arbeitsgelegenheiten ohnehin schon langsamer. Da muss ich mir dieses Paket nicht auch noch aufbürden.

Wie mache ich eine Audiodeskription – eine Anleitung

Es scheint derzeit keine Anleitung zur Erstellung von Audiodeskriptionen im Internet zu geben. Zumindest bin ich via Google nicht fündig geworden. Wenn ihr bessere Anleitungen habt, könnt ihr mir das gerne per Kommentar oder Mail mitteilen.

Diese Anleitung stammt aus meinem Buch, wo ich die Leser sieze. Also nicht wundern.

Was ist die Audiodeskription?

Die Audiodeskription ist eine akustische Beschreibung von visuellen Inhalten. Sie wird in Videos eingesetzt, damit Blinde verstehen, worum es in dem Film geht.
Die AD wird vor allem für Videos benötigt, die einen geringen Sprachanteil haben. Das ist auch wichtig, da die Beschreibung in den Teilen des Filmes untergebracht wird, in denen nicht gesprochen wird.
Planen Sie bereits bei der Konzeption des Filmes genügend Zeit für die AD ein. Hat das Video einen hohen Sprach- und Aktionsanteil, wird nicht mehr genügend Zeit für eine AD vorhanden sein.
Die Soundqualität der AD sollte der Soundqualität des Films entsprechen.

Die ersten Schritte

Eine AD lässt sich mit jeder Audio-Schnittsoftware erstellen. Folgendes Vorgehen erscheint sinnvoll:

  1. Prüfen Sie zunächst, ob eine AD notwendig und möglich ist. Bei Videos mit hohem Sprachanteil fehlt einfach die nötige Pause, um eine AD unterzubringen. Sie ist aber auch in solchen Fällen nicht nötig.
  2. Halten Sie die Szenen fest, die beschrieben werden müssen, verwenden Sie am besten eine Stoppuhr, um die Länge der nutzbaren Passagen zu messen. Wichtige Informationen sind auch Namen gezeigter Personen oder Orte, sowie alle visuell relevanten Informationen, die nicht vom Sprecher vermittelt werden.
  3. Schreiben Sie die Texte für die Audiodeskription. Wie alle Texte müssen diese sorgfältig redigiert werden. Die AD soll nicht werten, sondern objektiv beschreiben. Schreiben Sie also nicht
    “Die fröhliche Gruppe schaut in die Kamera.”
    Schreiben Sie lieber:
    “Die Gruppe schaut lachend in die Kamera.”
  4. Ist der Text geschrieben, müssen die einzelnen Passagen eingesprochen werden. Verwenden Sie eine Aufnahmetechnik, die der Aufnahmequalität des Videos entspricht. Ist die AD verrauscht und der Clip nicht, wirkt das ein wenig merkwürdig. Der Sprecher sollte neutral und langsam sprechen. Faktoren wie die Abspielgeschwindigkeit können hinterher noch überarbeitet werden. Der Sprecher kann sich an den Off-Sprechern in den typischen Fernseh-Dokumentationen orientieren. Er ist ein neutraler Erzähler und nicht Teil des Filmgeschehens. Er beschreibt das zu Sehende und wertet nicht.
  5. Im letzten Schritt müssen die eingesprochenen Passagen mit dem Film synchronisiert werden.

Die meisten Videobearbeitungsprogramme erlauben das Arbeiten mit mehreren Tonspuren. Mehr ist auch nicht notwendig, um eine AD mit dem Film zusammenzufügen. Die Lautstärke der Videospur wird an den Stellen reduziert, an der die AudioDeskription eingefügt wird. Es muss sicher gestellt werden, dass der Sprecher gut zu verstehen ist und keine akustisch wichtigen Informationen des Videos übertönt werden.

Was gehört in die AudioDeskription und was nicht

Es ist natürlich nicht möglich, alle visuellen Informationen in der AD unterzubringen. Bei einem typischen Whodunit -Krimi sollen die Zuschauer herausfinden, wer der Täter ist. Dazu müssen Blinde alle Informationen zur Verfügung gestellt bekommen, die auch sehende Zuschauer zum Mitraten erhalten.
Eine Möglichkeit, Schlüsselinformationen für die AD zu erhalten ist auch das Drehbuch. Was für einen Film besonders wichtig ist, wird auch im Drehbuch notiert.
Hören Sie sich einmal den Film ohne Bild an, dann bekommen Sie ein Gefühl dafür, welche Informationen für den Zuhörer wichtig sind.
Zudem sollten Sie sich einen Clip mit Audiodeskription ansehen, um ein Gefühl dafür zu bekommen, wie so etwas aussieht. Der Tatort zum Beispiel wird regelmäßig mit Audiodeskription ausgestrahlt.

Feedback einholen

Last not least können Sie versuchen, einen blinden Testhörer zu gewinnen, der Ihnen Feedback zur Audiodeskription geben kann. Das sollte passieren, bevor Sie die Audiodeskription einsprechen, damit Sie die Arbeit nicht doppelt machen müssen.
Vergessen Sie aber nicht: Der Blinde kann nur beurteilen, ob der Text der AudioDeskription in Ordnung ist. Da er den Film selbst nicht sehen kann, ist er darauf angewiesen, dass Sie gute Arbeit machen.

Zum Weiterlesen