DOMRADIO.DE: Müssen Sie sich nicht auch mit der Möglichkeit auseinandersetzen, dass Studierende an der Universität Arbeiten einreichen, die von der Künstlichen Intelligenz "ChatGPT" verfasst wurden? Wie bewerten Sie das?
Andreas Büsch (Leiter der Clearingstelle Medienkompetenz der Deutschen Bischofskonferenz): Bis "ChatGPT" uns wirklich Arbeiten, die wir nicht sofort als von ihr generiert identifizieren würden, vorlegt, ist es noch ein weiterer Weg. Das größte Problem sind die fehlenden Quellen, beziehungsweise dass Programme wie "ChatGPT" Dinge berichten, die so ganz offensichtlich nicht stimmen können.
Aber ich würde es mal offensiv andersherum sehen wollen. Der Student, die Studentin, die nicht auf die Idee kommt, sich zumindest mal für die Gliederungspunkte zu einer Fragestellung an ein System wie "ChatGPT" zu wenden und zu schauen, was das vorschlägt, ist vermutlich eher schlecht beraten.
Es sollte darum gehen, dass wir in unserem Fall den Studierenden, aber prinzipiell natürlich allen Menschen, die kritische Kompetenz vermitteln, diese Systeme als sinnvolle Werkzeuge zu nutzen und nicht jedes Ergebnis einfach hinzunehmen.
DOMRADIO.DE: Aber auch Künstliche Intelligenz ist lernfähig. Da kann in Zukunft noch was ganz anderes kommen, oder?
Büsch: Da passiert gerade schon wieder mehr. Wir alle haben ab Ende letzten Jahres mit "ChatGPT" in der dritten Version rumspielen dürfen. Ich finde, dass war ein genialer Schachzug von OpenAI , das inzwischen von Microsoft übernommen wurde. Denn so kriege ich ein System unter die Leute, und alle Menschen können sich ein Bild davon machen.
Inzwischen gibt es schon "ChatGPT" in der vierten Version, das man kaufen muss. Google hat ein Konkurrenzprodukt am Start. Elon Musk hat vor einigen Tagen eine Konkurrenzfirma gegründet, mit der er nach eigenen Aussagen Jagd auf "ChatGPT" machen will.
Diese Systeme werden sicherlich weiterentwickelt werden und da ist noch jede Menge möglich. Gerade die vierte Version von "ChatGPT" ist jetzt multimodal, das heißt, ich kann da nicht mehr nur mit Texten arbeiten, sondern ich kann auch mit Bildern und Bewegtbild arbeiten.
Da wird es spannend. Zuletzt wurde das angebliche Foto von der Verhaftung Donald Trumps veröffentlicht. Bisweilen sind noch kleine Fehler drin, die die Fälschung auffliegen lassen.
Aber auch da werden die Systeme besser und es wird immer schwieriger, ohne forensische Kenntnisse zu merken, wann mir da eine Falschinformationen visuell, textlich oder auf andere Weise untergejubelt wird. Das, finde ich, ist eine ernste Herausforderung.
DOMRADIO.DE: Die auch die Politik mit auf den Plan ruft. Es gibt Forderungen, das Ganze zu regulieren, zuletzt von Bundesinnenministerin Nancy Faeser. Zu Recht und möglich?
Büsch: Absolut notwendig und richtig. Es gab vor kurzem einen offenen Brief von mehreren Tausend Menschen, darunter auch so illustre Namen wie Elon Musk und Yuval Harari, die ein KI-Moratorium gefordert haben. Das halte ich für ziemlich illusionär und auch ein bisschen geschichtsvergessen. Immerhin hat die EU schon 2019 Vorschläge zu ethischen Leitlinien für KI vorgelegt.
Im April 2021 gab es einen Vorschlag für eine Verordnung des Europaparlaments zu KI, die Ende letzten Jahres durch den Ministerrat durch ist. Jetzt steht noch die Abstimmung mit dem Parlament aus. Das wird wohl noch etwas dauern.
Aber ja, wir brauchen Regulierungen dafür, was zum Beispiel im Bereich von Hochrisiko-KI-Systemen der Fall ist. "ChatGPT" ist das eine, aber KI wird zum Beispiel auch in der Wehrtechnik eingesetzt. Ein "Future Combat Air System", was EU-weit entwickelt wird, geht mit KI-gesteuerten Waffensystemen ins Spiel. Da wird es ganz schnell sehr spannend, wenn KI letztlich letale Entscheidungen treffen kann.
DOMRADIO.DE: Aber was hilft es, wenn wir in Deutschland eine Regulierung finden, aber insgesamt über ein weltweites Problem sprechen?
Büsch: Das ist tatsächlich ein sehr begrenzter Blick. Wenn wir meinen, da überhaupt irgendein Thema im Kontext von Internet, Digitalität oder so mit nationaler Gesetzgebung und Regulierung in den Griff bekommen zu wollen, kann das meines Erachtens nur in einer abgestimmten überstaatlichen Form – idealerweise weltweit – funktionieren. Alles andere ist illusorisch.
Bei anderen Themen ist das bekannt, wenn zum Beispiel Betreiber auf Server außerhalb der EU umziehen und unsere Rechtsprechung nicht mehr greift.
DOMRADIO.DE: In Goethes Zauberlehrling heißt es: "Die ich rief, die Geister, werd ich nun nicht los". Welche Rolle spielt dieser Gedanke vom Menschen, der sich ja zum Schöpfer aufschwingt und dabei die Kontrolle verliert, gerade auch aus christlicher Perspektive?
Büsch: Das ist eine spannende Frage, mit der wir uns als Publizistische Kommission der Deutschen Bischofskonferenz auch in einem Thesenpapier auseinandergesetzt haben. Das kann man online nachlesen. "Technik im Dienst des geistbegabten und selbstbewussten Menschen" heißt die Überschrift. Da, wo Menschen tatsächlich auf die Hybris verfallen und sich einen Golem schaffen, wird es gefährlich. Auch Transhumanismus erteilt dieses Papier eine deutliche Absage, jenseits von medizinisch notwendigen Optimierungen oder Eingriffen.
Tatsächlich aber ist diese Idee, dass wir irgendwann von Maschinen unterjocht werden, ein sehr bekannter Topos in Science Fiction-Literatur und -Filmen. Von der Realität ist sie aber nach allem, was ich von Informatikerinnen und Informatikern gelernt habe, noch sehr weit entfernt.
Wir haben es letztlich mit strunz-dummen Systemen zu tun. Auch "ChatGPT" hat überhaupt keine Ahnung, was es uns da ausspuckt, sondern da agieren sehr komplexe Algorithmen, sehr tief vernetzt auf großen Datenmengen mit Wahrscheinlichkeiten, aber nicht mit einer Idee, einer Kreativität, an eine Fragestellung ranzugehen, wie Menschen das tun.
DOMRADIO.DE: Nur anders als den Prager Golem, den Sie eben ins Gespräch gebracht haben, ist das Stoppen natürlich ein bisschen schwieriger. Einfach nur das Papier aus dem Mund reißen, geht bei der KI irgendwann nicht mehr.
Büsch: Das geht definitiv nicht. Und wir kennen auch den schönen Satz: "Was gedacht werden kann, wird irgendwann gedacht werden. Und was gemacht werden kann, wird auch irgendwann gemacht werden."
Daher kommt auch meine kritische Sicht auf eine Forderung nach einem Moratorium. Es wird immer irgendein Unternehmen oder irgendeinen Staat geben, der die Entwicklung vorantreibt. Dann ist es nur gut, wenn wir uns vorher umfassend auf Spielregeln verständigt haben, was zulässig ist und was nicht.
Das Interview führte Bernd Hamer.