Es ist schwierig, sich diesen Satz in traurigem Ton vorzustellen: "Wir haben keine Hausaufgaben auf." Und doch kann Jan-Oliver Wülfing die Aussage in dieser Emotion abspielen. Oder verärgert oder – passender – glücklich. Glücklich, traurig, verärgert: Diese Gemütszustände hat Wülfing seinem Rechner bereits beigebracht. "Aber es sollen natürlich noch mehr werden", sagt der 41-jährige Doktorand des Lehrstuhls für Multimodale Mensch-Technik-Interaktion der Universität Augsburg. Er entwickelt eine Kommunikationshilfe für Menschen mit Sprechbehinderung, die nicht nur Schrift verbalisieren, sondern auch Gefühle zeigen kann.
"Ein solches Gerät gibt es bislang noch nicht", sagt Wülfing. "Bisher klingen die synthetischen Computerstimmen digitaler Kommunikationshilfen immer gleich – egal, ob sie etwas Fröhliches, Fieses oder Frustriertes ausdrücken. Es war wohl einfach niemand bereit, Geld für entsprechende Projekte lockerzumachen."
An wen richtet sich das Programm?
Wülfing kann sich seine Forschung nur deshalb erlauben, weil er vom Bundesarbeitsministerium im Rahmen des "PROMI"-Programms gefördert wird. Die Abkürzung steht für "Promovieren mit Behinderung". Wülfing sitzt wegen einer infantilen Zerebralparese im Rollstuhl. "Ich bin das, was man landläufig einen Spastiker nennt", erklärt er.
"Ich habe bei der Geburt zu wenig Sauerstoff bekommen." Die Folgen: Sprechfähigkeit und Feinmotorik sind eingeschränkt. Dabei kann man sich mit Wülfing sehr wohl ganz normal unterhalten. Man muss nur manchmal nachfragen, wenn ihm ein ausgesprochenes Wort etwas zu undeutlich geraten ist. Wülfing zählt sich deshalb selbst nicht zur Zielgruppe seiner Computertechnik. Diese besteht vielmehr aus Menschen, die sich verbal überhaupt nicht mitteilen können.
Mithilfe seines Programms können sie das, was sie sagen wollen, stattdessen in den Rechner eintippen. "Auch eine Eingabe über eine augengesteuerte Tastatur ist denkbar", fügt Wülfing hinzu. "Diese Praxis wäre etwas für sogenannte Locked-in- oder auch andere Patienten, die von ihrem Körper nur noch die Augen bewegen können." Das, was in den Computer eingegeben wird, lässt sich von selbem dann hörbar in Worte fassen – und gleichzeitig in eine gewünschte Emotion.
Eine riesige Datenbank mit viel Gesprächsstoff
Die Handhabe ist also ziemlich einfach – die Programmierung dahinter allerdings nicht. "Es gibt ja sehr viele verschiedene Gefühle, und die jeweilige Tonlage dazu hat immer einen gewissen Facettenreichtum, aber keine Regelhaftigkeit", erklärt Wülfing. Außerdem baue er eine große Datenbank an Beispielsätzen zu einzelnen Themenbereichen wie Schule, Essen oder Familie auf, um künftigen Nutzern den Umgang mit dem Programm zu erleichtern. Zu diesen vorgefertigten Phrasen gehört etwa der Satz mit den Hausaufgaben.
Rund 100.000 Menschen in Deutschland könnten von seiner Entwicklung profitieren, schätzt Wülfing, beispielsweise Schlaganfall-Patienten. Ihnen will der Doktorand mit seinem Projekt gleich zweifach zu mehr Teilhabe an der Gesellschaft verhelfen. "Erstens können sich nicht sprechende Leute dank meiner Entwicklung emotional äußern, also 'normal', das heißt wie jeder andere Mensch auch – denn jeder bringt beim Reden unwillkürlich Gefühle mit über die Lippen", sagt der Computerlinguist.
"Zweitens können sie sich dadurch besser mit Nichtbehinderten unterhalten. Das zumindest ist die Hypothese meiner Doktorarbeit: dass die Unterhaltungen dank der Emotionswiedergabe länger und lebhafter werden als sie es aktuell bei Gesprächen mit monotonen Computerstimmen sind." Dies führe dann zu einem größeren Interesse am Gesagten und so zu einem Barriereabbau zwischen behinderten und nicht eingeschränkten Menschen.
Wie lange Wülfing für sein Forschungsprojekt noch braucht, kann er nicht sagen. Er ist aber optimistisch, dass seine Kommunikationshilfe in den nächsten ein, zwei Jahren auch außerhalb der Uni einsatzbereit sein wird. Zuversicht – auch so ein Gefühl, das Wülfing seinem Programm noch beibringen könnte.