Schlagwort-Archive: Sprachausgabe

Access News vom 29. Juli 2010 – stumme Spracheingabe

Futurezone stellt eine Technik vor, in der Computer über lautloses Sprechen gesteuert werden können. Das Interface arbeitet über Impulse der Muskulatur, das nennt sich Elektromyographie. Diese Impulse werden zu den entsprechenden Lauten umgerechnet. Die Technologie steckt noch in den Kinderschuhen, hat aber nach der Forscherin Tanja Schulz hohes Potential:

Schultz: Eine der Möglichkeiten ist, Menschen, die krankheitsbedingt nicht mehr sprechen können, eine Stimme zu geben, beispielsweise Kehlkopfkrebspatienten und Menschen, die Probleme mit ihren Stimmbändern haben. Wenn man das Signal über die Muskelaktivität abgreift, kann man ihnen über die lautlose Spracherkennung und anschließende Sprachsynthese die Sprache zurückgeben. Das ist ein großes Anwendungsfeld.

Eine weitere Anwendung bietet die Verbindung von Spracherkennung und Sprachübersetzung. Formuliert man lautlos einen Satz in seiner Muttersprache, erkennt
ihn das System und übersetzt ihn in eine andere Sprache. So könnte man mühelos eine Fremdsprache sprechen, ohne sie zu beherrschen. Quelle

W3C testet mit einem Klick

Das W3C bietet jetzt alle seine Validierungsdienste aus einer Hand an. Damit lassen sich in einem Schritt HTML, CSS, eine mobile Version und der RSS-Feed auf einmal testen. Die einzelnen Validatoren stehen aber weiterhin zur Verfügung.

224 Websites wollen eine BIENE

Zugänglichkeit könnte doch noch ein Mainstream-Thema werden: 118 der 224 eingereichten Websites stammen aus der freien Wirtschaft, also von Einrichtungen, die nicht zur Barrierefreiheit verpflichtet sind.

Dies und das

Nach Hyperkontext verarbeiten nur Screenreader Sprachauszeichnungen. Ich hatte in einem Beitrag geschrieben, dass ich Sprachauszeichnung für überflüssig halte, was allerdings meine persönliche Meinung ist und nicht repräsentativ sein muss.
Die FAZ schwärmt für eine Spracherkennungsapp für iPad und iPhone. Anbieter ist Nuance, der Entwickler von Dragon NaturallySpeaking für den PC. Das könnte vor allem für Menschen interessant sein, die Probleme mit der Touchscreen-Eingabe haben. Wenn die Geräte einmal leistungsfähiger sein werden, dürfte das der erste Schritt zur Sprachsteuerung werden, was für viele Menschen mit motorischen oder anderen körperlichen Einschränkungen interessant werden könnte.

Screen-Reader-Fun oder wie ich lernte, Reed zu lieben

Reed ist ein Plappermaul. Stundenlang kann er reden in einem Tempo, das andere Leute zum Wahnsinn treiben würde. Gut, dass Reed kein Mensch ist;-)

Reed ist die Stimme meiner Sprachausgabe. Eine Sprachausgabe gibt den Inhalt des Bildschirms als Sprache aus. Man kann deutlich erkennen, dass hier kein Mensch redet, obwohl die Qualität der Sprache unglaublich gut ist. Dazu muss man die alten Sprachausgaben kennen, die oft Worte schlecht ausgesprochen und Betonungen falsch gesetzt hatten.

Einige Bahnhofe setzen ja ähnliche Systeme ein, der Bahnhof Siegburg etwa sagt Züge auf diese Weise an. Da hört man deutlich, dass es sich dabei nicht um einen Menschen handelt, weil Sprachpausen falsch gesetzt, Worte falsch ausgesprochen oder betont werden. Sie ist allerdings deutlicher als manch menschlicher Ansager. Am Kölner Hauptbahnhof hört man recht oft undeutliche Durchsagen, was allerdings auch an der Qualität der Anlage liegen kann.

Doch auch Reed hat seine Schwächen: Ähnlich wie bei der Rechtschreibkorrektur hat man den Eindruck, er würde neue Wörter erfinden. Wenn er Google wie Google und nicht wie Gugel ausspricht, kann man sich noch daran gewöhnen. Was aber soll Kanzenungleichheit bedeuten?

Ich bekam einen Lachanfall, als ich nach Jahren herausfand, dass Kanzenungleichheit eigentlich „Chancenungleichheit“ bedeuten sollte! Das ist deshalb seltsam, weil Reed das Wort Chance korrekt wie Schonze aussprechen kann.

Ein anderes Rätsel konnte ich bisher nicht lösen, in Webseiten liest er gerne etwas, was wie Grafik Cedak klingt. Irgendwas osteuropäisches? Falls die Sprachausgabe sich auch bei E-Book-Readern durchsetzt, werden sich vermutlich sehr viel mehr Leute sich an die Nutzung dieser künstlichen Systeme gewöhnen.

Hilfstechnik

Eine sehr kleine Einführung.

Die wichigste Software für den Blinden ist die Sprachausgabe. Sie basiert in der Regel auf Phonemen, das heisst auf Lauten, die synthetisch oder durch natürliche Sprecher aufgezeichnet worden und dann in Echtzeit aneinadergereiht werden. Das klingt dann so ähnlich wie menschliche Sprache, wobei der Unterschied noch immer eklatant ist. Es klingt ein wenig nach Roboter, wobei sich schon einiges getan hat. Die Software kann mittlerweile richtig betonen, wenn sie sich an Satzzeichen orientiert. Es treten aber manchmal kuriose Aussprachefehler auf, wo man sich fragt, was dieses Wort eigentlich bedeuten soll. ViaVoice sagt z. B. gerne Kanzenungleichheit. Und meint Chancenungleichheit. Das Wort Chance kann es aber korrekt – sprich französisch Schonze aussprechen.

Die Sprachausgabe erhält ihre Informationen über den Screenreader, dieser ist also die Schnittstelle zwischen Computersoftware und Sprachausgabe. Der Screenreader liest die Fenster-Informationen aus. Er kann aber praktisch nur Text und bezeichnete Graphiken erkennen. Bilder analysieren kann er nicht, erst recht keine Videos oder Animationen.

Der Screenreader dint auch als Schnittstelle zur Braillezeile. Die Braillezeile ist die Ausgabe für die Braille- oder Punktschrift.
Daneben gibt es diverse Zoomsoftware, die Ausschnitte eines Bildschirms vergößern kann.
Diese Software kann man übrigens kostenlos testen. Die bekanntesten Produkte sind Jaws und Zoomtext, jeweils in Demos erhältlich. Jaws ist zumindest für Sehende kaum zu bedienen, diese Software gehört zu den wenigen Programmen überhaupt, die von Blinden logischerweise besser bedient werden können, da sie vollständig tastaturgesteuert ist.
Bleibt noch zu sagen, dass Soft- und Hardware extrem teuer sind.