KNA: Was kann man sich unter "Maschinenethik" vorstellen?
Lukas Brand (Theologe am Lehrstuhl für Philosophisch-Theologische Grenzfragen der Ruhr-Universität Bochum): In der Regel beschäftigen wir uns bei Themen von Moral und Ethik mit Handlungen und Entscheidungen von Menschen. Zugleich gestehen wir Maschinen mehr Autonomie zu. Das bekannteste Beispiel ist das autonome Fahren. Technische Geräte bewegen sich selbstständig durch den Alltag - und werden auch auf moralische Probleme stoßen, die sie lösen müssen. Die Maschinenethik beschäftigt sich mit der Frage, ob das möglich ist: Kann man Maschinen so programmieren, dass sie ein moralisches Dilemma lösen, etwa nach vorgegebenen Algorithmen? Oder gibt es sonst einen Weg, moralische Überzeugungen und ethische Theorien auf die Maschine zu übertragen?
KNA: Wird das Ihrer Einschätzung nach möglich sein?
Brand: In der Rechtsprechung kennen wir bereits institutionelle Persönlichkeiten: Nicht eine Einzelperson wird für eine Tat verantwortlich gemacht wird, sondern Konzerne oder Unternehmen. Aus rechtlicher Perspektive wäre es sicher auch möglich, eine Art künstliche Person einzuführen. Ich glaube auch, dass sich die Sprache verändern wird.
KNA: Inwiefern?
Brand: Eines Tages wird man sagen: "Das autonom fahrende Auto hat sich entschieden, das und das zu tun." Oder: "Der Pflegeroboter hat das und das gemacht." Wir beobachten das bereits bei technischen Geräten, etwa Sprachassistenten. Im vergangenen Jahr hat Alexa in den USA mehr aus Versehen haufenweise Puppenhäuser bestellt - niemand hat gesagt, die Anwenderin habe einen technischen Assistenten bestellt, um mit seiner Hilfe Puppenhäuser zu bestellen. Wir sagen: "Alexa hat das gemacht." Aber die ethische Theorie hinkt dieser Sprachwirklichkeit hinterher.
KNA: Wo sehen Sie Grenzen bei der Maschinenethik?
Brand: Bisher haben wir noch keinen Weg gefunden, unsere moralischen Überzeugungen in diese System zu übertragen. Das hat unterschiedliche Gründe: Zum einen sind wir uns nicht einig, wie das aussehen sollte, zum anderen stößt es an praktische Grenzen. Bisher funktionieren Systeme wie Alexa nur in einem begrenzten Rahmen. Aber langfristig wird sich das ändern - und darauf sollten wir vorbereitet sein.
KNA: Im Vorwort Ihres Buches "Künstliche Tugend" heißt es, religiös geprägten Menschenbilder würden sich stark verändern. Wieso?
Brand: Wir glauben zwar nicht, dass eine Maschine eine Seele hat. Aber wenn wir akzeptieren, dass Maschinen moralische Probleme lösen müssen, diese Probleme selbst wahrnehmen und in ihren Entscheidungen fehlbar sein könnten - dann wären sie eines Tages vielleicht auch heilsbedürftig.
KNA: Das klingt ein wenig nach Science-Fiction.
Brand: Im ersten Moment, ja. Aber wenn sich Maschinen langfristig in ihrem Verhalten und vielleicht sogar in ihrem Äußeren nicht mehr von uns unterscheiden, dann können wir nur noch Vermutungen darüber anstellen, wie sie sich in ihrem Wesen von uns Menschen unterscheiden. Dann werden die Übergänge fließender - bis zu dem Punkt, an dem wir sagen, die Maschinen unterscheiden sich nur noch dadurch von uns, dass wir auf Kohlenstoff basieren und sie auf Silicium. Theologisch betrachtet wird die ganze Schöpfung gerettet, nicht nur die Menschen. Insofern kann man durchaus fragen, ob auch künstliche Agenten ihres Heils verlustig werden können.
KNA: Können Sie das näher erklären?
Brand: In der jüdischen Mystik gibt es die Sage vom Golem. Der Prager Rabbi Löw baut aus Lehm einen Diener, der vor dem Sabbat stets wieder in Lehm verwandelt werden muss, damit er nicht gegen die Sabbatruhe verstößt. Eines Tages vergisst der Rabbi diesen Schritt, und der Golem zerstört das Haus des Rabbiners - weil er meint: Auch ich verdiene die Sabbatruhe. Dieses künstliche Geschöpf, das nur mittelbar von Gott geschaffen wurde, fällt also unter Gottes Gebot - und fordert ein, entsprechend behandelt zu werden. Darin kann man einen Hinweis erkennen, wie wir mit unseren Geschöpfen oder mit der Kreation solcher Geschöpfe umgehen sollten.
KNA: Oft geht es um Risiken von Künstlicher Intelligenz. Wo sehen Sie Chancen?
Brand: Die Sorge von der Superintelligenz, die uns überflügelt und die Weltherrschaft an sich reißt, die gibt es. Aber wenn wir tatsächlich einmal eine solche Maschine haben, dann lernen nicht nur wir, sondern vielleicht auch die Maschinen den Wert der Diversität stärker zu schätzen.
KNA: Manche fürchten auch eine Art allwissende Künstliche Intelligenz, die bisweilen mit Gott verglichen wird. Ein passender Vergleich?
Brand: Künstlich intelligente Systeme werden mit unseren Daten gespeist und vergessen nichts. Ethisch interessant ist wiederum die Frage, ob sie die Fähigkeit zur Vergebung haben. Denn das ist entscheidend am christlichen Gottesbild: die Erlösung durch Jesus Christus. Was bedeutet das für die Konstruktion von Maschinen? Sollen wir ein Recht auf Vergessen in ihre Wissensspeicher einbauen? Oder wissen sie ewig, was ich falsch gemacht habe? Darin liegt übrigens auch eine Chance, unser Gottesbild in der heutigen Zeit zu erhellen.
KNA: Ist das Thema bei den Kirchen präsent genug?
Brand: Ich würde nicht sagen, dass Künstliche Intelligenz ein Gegenstand der kirchlichen Lehre werden müsste. Ich befasse mich damit, weil ich glaube, dass unser christliches Welt- und Menschenbild viel dazu beitragen kann, wie wir diese Systeme gestalten. Aber es gibt witzige Entwicklungen, die mit Religion zu tun haben, zum Beispiel hat auf einem evangelischen Kirchentag ein Roboter den Segen gespendet. Seit Jahren diskutieren wir darüber, ob der Segen des Papstes, Urbi und Orbi, über Twitter, Funk und Fernsehen verbreitet werden kann. Bislang können in der katholischen Kirche nur Männer zu Priestern geweiht werden - aber vielleicht hält eines Tages ein Roboter einen evangelischen Gottesdienst ab. Diese Entwicklungen werfen ein neues Licht auf bekannte Fragen.
Das Interview führte Paula Konersmann.