Sensoren, die Gedanken direkt aus dem Gehirn eines Epilepsie-Patienten in gesprochene Worte umwandeln. Detektoren, die Muskelaktivitäten messen und darüber lautlose Kommunikation ermöglichen. Was klingt wie Science Fiction, ist Gegenstand aktueller kognitiver Forschung. Über die Chancen, die in medizinischer und gesellschaftlicher Hinsicht in diesen Entwicklungen liegen, sprach der Deutsche Ethikrat am Donnerstag in einer öffentlichen Anhörung.
Risiken im Blick
Auch die Risiken haben die Forscher im Blick. Menschen, die nicht mehr sprechen können, wieder eine Stimme geben, oder auch weniger Lärmbelästigung durch Telefonieren im Zug: durchaus erstrebenswerte Ziele. Tanja Schultz, Professorin für Kognitive Systeme an der Universität Bremen, forscht an entsprechenden Möglichkeiten im Bereich der Künstlichen Intelligenz (KI).
Vielen Menschen, sagt sie, sei nicht klar, wie stark Sensoren schon heute im Alltag präsent sind: in Smartphones und Navigationsgeräten, aber auch InEar-Kopfhörern, neuartigen Hörgeräten oder Gadgets wie dem "Echo-Loop" von Amazon. Welche Daten über Bewegungen und soziale Kontakte des Nutzers wem auf welchem Weg zur Verfügung stehen, sei oft intransparent, kritisiert Schultz.
Für die Wissenschaftler sei es eine Herausforderung, Systeme wie Sprachprothesen technisch stabil zu gestalten, aber auch so, dass sie den Grundrechten entsprechen. Allerdings könne die Forschung nicht kontrollieren, was große Unternehmen aus diesen Entwicklungen machten. Oder auch Regierungen: Schultz verweist etwa auf Versuche chinesischer Behören, in Fabriken sogenanntes Brain-Scanning durchzuführen. "Wir können nicht verhindern, wofür Künstliche Intelligenz alles eingesetzt wird", sagt die Wissenschaftlerin.
Auch Stefan Remy, Neurobiologe in Magdeburg, beschreibt einen Zwiespalt. Schon heute verbesserten KI-Anwendungen die Lebensqualität von Parkinson-Patienten, erklärt er. In dem Hype um derartige Möglichkeiten sehe er jedoch eine Gefahr: So könnte sogenanntes Human Enhancement wohlhabenden Gruppen vorbehalten bleiben. Auch würden momentan grundlegende wissenschaftliche Prinzipien in Frage gestellt - durch das, was Remy einen "technologiebegründeten Machbarkeitsanspruch" nennt. So strebe man etwa danach, das Gehirn auszulesen, ohne zu verstehen, wie es funktioniert.
Verunsicherung wegen künstlicher Intelligenz
Der Erfolg gebe dieser Sichtweise bisweilen recht, sagt Remy. Zugleich gehe es vielen Konzernen - und Geldgebern - aber eben nicht allein um die Heilung von Krankheiten, sondern um eine möglichst breite Anwendung bestimmter Angebote. Aufgabe der Wissenschaft sei es, diese Risiken im Blick zu haben und die Bevölkerung darüber aufzuklären.
Viele Menschen blickten verunsichert auf KI, sagt auch Ulrike von Luxburg. Es brauche daher mehr Regulierung von staatlicher Seite und mehr Transparenz, betont die Tübinger Professorin für Theorie des Maschinellen Lernens. Entscheidend sei die Frage, welche Anwendungen die Gesellschaft nutzen wolle - und wie diese ausgestaltet seien.
Diese Frage stellt sich nicht nur im medizinischen Bereich. Automatische Textanalyse führt bisweilen Stereotype weiter, Algorithmen sortieren Nachrichten vor, die Polizei in den USA setzte bereits Programme ein, die die Wahrscheinlichkeit einer erneuten Straftat von Gefängnisinsassen beurteilen sollen. "Das geht zu weit", sagt von Luxburg. "Ein Algorithmus kann nicht darüber entscheiden, ob jemand ins Gefängnis geht."
Häufig laute die Frage in der öffentlichen Diskussion: "Wie kommt Ethik in die KI?", hat die Wissenschaftlerin beobachtet. "Aber KI kann nicht perfekt werden." Insofern müsse die Frage, was technisch überhaupt möglich sei, stärker in den Fokus rücken: "Denn nicht alles, was ethisch wünschenswert ist, ist technisch umsetzbar."
Auch Menschen haben Vorurteile, treffen falsche Entscheidungen oder handeln unethisch. Dennoch trage jeder Verantwortung, der ein neues System in die Welt hineinsetze, mahnt der Tübinger Informatiker Matthias Bethge. Schon bei der Grundlagenforschung müsse man sich fragen, welche positiven und negativen Effekte wahrscheinlich sind.
"Jede Anwendung hat Auswirkungen auf unsere Lebenswirklichkeit", betont Bethge.