Ethikratsvorsitzender nennt Risiken Künstlicher Intelligenz

"Roboter dürfen Menschen nicht beherrschen"

Zwei Tage konferiert die Bundesregierung in Nürnberg zu digitalen Innovationen und Künstlicher Intelligenz. Der Theologe und Vorsitzende des Deutschen Ethikrats, Peter Dabrock, pocht auf ethisch programmierte smarte Maschinen.

Der humanoide Roboter Pepper  / © Julian Stratenschulte (dpa)
Der humanoide Roboter Pepper / © Julian Stratenschulte ( dpa )

KNA: Herr Professor Dabrock, Routenplaner, Online-Dolmetscher, virtuelle Assistenten wie Alexa und Siri oder die medizinische Diagnostik - Künstliche Intelligenz (KI) scheint allgegenwärtig. Wird unser Leben bald größtenteils von Maschinen bestimmt?

Peter Dabrock: Ohne mich als Prophet inszenieren zu wollen, wage ich die These: Dieser Trend ist nicht mehr rückgängig zu machen. Die Entwicklung findet weltweit statt. Und das bedeutet: Die Entscheidung, wie das KI-Zeitalter gestaltet wird, wird vorwiegend nicht in Deutschland gefällt.

Ethik-Professor Peter Dabrock  / © Uwe Zucchi (dpa)
Ethik-Professor Peter Dabrock / © Uwe Zucchi ( dpa )

KNA: Noch programmieren Menschen die Maschinen - wird es eines Tages umgekehrt sein: Die Maschine beherrscht den Menschen?

Dabrock: Der Einsatz von Technik bringt immer Gewinne und Verluste mit sich. Wir müssen allerdings darauf achten, dass diese Gewinne und Verluste bestimmte Grenzen nicht überschreiten. In manchen Bereichen werden uns Maschinen Freiheitsgewinne bescheren, in anderen Bereichen Freiheitseinschränkungen. 

Man sollte nicht den Eindruck erwecken, wir könnten allein durch Regulierung bestimmte Herausforderungen der Digitalisierung an den Einzelnen und die Gesellschaft in den Griff bekommen. Dazu braucht es mehr. 

Und am Ende muss der Mensch im Mittelpunkt stehen. Roboter oder KI-Maschinen dürfen ihn nicht direkt, aber auch nicht indirekt beherrschen.

KNA: Aber wie verhindern wir das?

Dabrock: Indem wir uns bei der Programmierung der Künstlichen Intelligenz oder dem Trainieren der smarten Maschinen von ethischen Grundsätzen leiten lassen.

KNA: Und das ist möglich?

Dabrock: Zu behaupten, ethisch zu programmieren ginge nicht, hieße im Grunde, dass wir gänzlich die Finger von solchen smarten Maschinen lassen. Denn in jede Programmierung, ob sie sich explizit 'ethisch' nennt oder nicht, fließen - auch moralische - Vorannahmen der Programmierer ein. 

Dann ist es doch sinnvoll, dass diese Annahmen erstens offen gelegt werden und dass zweitens die Programmierung bestimmte allgemeine Rechtsregeln zu beachten hat. Beispielsweise beim sogenannten autonomen Fahrzeug: 'Menschenleben haben bei einer Kollision Vorrang vor anderen Lebewesen' oder 'Keine diskriminierenden Maßstäbe dürfen die Programmierung leiten'.

Drittens sollte es die Möglichkeit geben, in einem solchen Rahmen moralische Präferenzen zu artikulieren. Nochmals am Beispiel der autonomen Fahrzeuge: Muss man nicht darüber nachdenken, ob es nicht auch die Möglichkeit geben sollte, sein Auto so zu programmieren, dass in dem äußerst seltenen Fall einer tragischen Dilemma-Situation ein Selbst- einem Fremdopfer vorgezogen wird? Vorausgesetzt ist dann aber, dass im Fahrzeug niemand uninformiert mitfährt.

KNA: Wie aber kommt die KI zu ihren Entscheidungen? Warum empfiehlt sie dem einen Kunden Versicherungstarif A, dem anderen Tarif B? Wie kann der Arzt sicher sein, dass die maschinell erstellte Behandlungsempfehlung wirklich die beste ist? Wie findet die Drohne ihre Ziele, die sie bekämpft?

Dabrock: Die große Herausforderung besteht darin, dass sich die exakten Auswahlschritte, insbesondere bei den smarten Maschinen, nicht nachvollziehen lassen. Auch wenn das so ist, haben zwei Grundsätze zu gelten: Zum einen müssen Organisationen oder auch Privatpersonen, die solche KI-basierten Maschinen nutzen, Transparenz walten lassen, welche Kriterien in die Berechnung eingeflossen sind. 

Zum anderen darf sich niemand herausreden, dass er keine Verantwortung für eine Entscheidung habe, sondern die Maschine. Am Ende muss immer eine menschliche oder juristische Person haften, wenn etwas schiefläuft. Ob ein menschlicher Fehler oder eine Maschine das verursacht hat, ist egal.

KNA: KI-Systeme benötigen für ihre Berechnungen erhebliche Datenmengen - auch über Personen. Wie wird hier der Schutz persönlicher Daten gewährt?

Dabrock: Der verantwortliche Umgang mit Daten ist eine Schlüsselfrage des 21. Jahrhunderts. Aber auch da müssen wir ehrlich sein. Wir können nicht die Prinzipien des alten Datenschutzes wie Datensparsamkeit, Zweckbindung und informierte Einwilligung wie eine Monstranz vor uns hertragen und gleichzeitig alle Vorteile der Maschinen und Systeme, die riesige Daten benötigen, nutzen wollen.

Deshalb hat der Deutsche Ethikrat vor einem Jahr eine Stellungnahme veröffentlicht, in der er einen Paradigmenwechsel vom Datenschutz zur Datensouveränität vorschlägt. Konkret heißt dies: Wir wollen weiter die informationelle Selbstbestimmung wahren, aber diese nicht mit einer Einwilligung abgegeben haben, sondern die Kontrollhoheit über die Weitergabe persönlicher Daten wahren. Dazu gibt es spannende technische und administrative Modelle. Das geht. 

Und solche Chancen zeigen: Das Datensubjekt muss sich nicht einfach verkaufen. Die Politik muss dann aber auch wollen, dass der Einzelne Herr seiner Daten bleibt und solche Initiativen unterstützen.

Das Interview führte Stefanie Ball.

Was ist Künstliche Intelligenz?

Der Begriff Künstliche Intelligenz (KI) wurde vor mehr als 60 Jahren geprägt durch den US-Informatiker John McCarthy. Er stellte einen Antrag für ein Forschungsprojekt zu Maschinen, die Schach spielten, mathematische Probleme lösten und selbstständig lernten. Im Sommer 1956 stellte er seine Erkenntnisse anderen Wissenschaftlern vor. Der britische Mathematiker Alan Turing hatte sechs Jahre zuvor bereits den "Turing Test" entwickelt, der bestimmen kann, ob das Gegenüber ein Mensch ist oder eine Maschine, die sich als Mensch ausgibt.

Symbolbild Künstliche Intelligenz / © maxuser (shutterstock)
Symbolbild Künstliche Intelligenz / © maxuser ( shutterstock )
Quelle:
KNA