Eine Künstliche Intelligenz als Gesprächspartnerin gegen Einsamkeit ist aus Sicht der Ethikerin Eva Weber-Guskar nicht empfehlenswert. Wenn etwa ein Chatbot wie ChatGPT zum ständigen Begleiter oder sogar Lebenspartner gemacht werde, "kann die Unterscheidung von Fiktion und Realität verschwimmen – und das führt natürlich zu Problemen im Alltag mit anderen Menschen", sagte die Philosophin im Interview der "Süddeutschen Zeitung" (Samstag).
Dialog-Training auf dem Bildschirm
"Es mag Umstände geben, in denen ich lieber Realitätsverlust hinnehme, anstatt unter Einsamkeit zu leiden. Aber meiner Ansicht nach gibt es eine bessere Möglichkeit", führte Weber-Guskar aus. So könnten mit einer KI als Dialogpartnerin bestimmte Kommunikationsformen geübt werden, um Schüchternheit vor dem Gespräch mit echten Menschen abzubauen. "Das heißt, ich stelle mir hinter dem Avatar auf dem Bildschirm keine Person vor, wie meine menschlichen Gegenüber es sind, sondern ich sehe, dass es eine neue Art von Dialogpartner gibt. Mit dem ich ernsthafte Gespräche führen kann, in denen das Gegenüber auf meine Interessen eingeht."
Die Ethikerin, die an der Universität Bochum lehrt, hat sich in ihrem jüngst veröffentlichten Buch "Gefühle der Zukunft. Wie wir mit emotionaler KI unser Leben verändern" mit der emotionalen Auswirkung der KI-Nutzung auf das menschliche Leben auseinandergesetzt. Sie warnt davor, die Systeme zu vermenschlichen: "Die KI beherrscht erstaunliche Dinge, die hilfreich sein können, aber sie ist eben nur ein Dialogpartner. Hinter dem System steckt kein Bewusstsein, kein Denken, keine Gefühle oder moralische Verantwortung."
KI in der Pflege? Ja, aber...
Gleichzeitig mahnte sie eine zurückhaltende Nutzung von KI etwa in der Pflege an. Wenn Roboter kurzzeitig genutzt würden, um damit Menschen in Pflegeheimen zu unterhalten, sei das in Ordnung, so die Ethikerin. "Aber wenn man den Pflegebedürftigen einen Roboter an die Seite stellen will, der die ganze Zeit auf sie aufpasst, der sich angeblich um sie 'sorgen' würde und dann auch noch menschliche Züge hat, dann finde ich das problematisch." Zentrale Aspekte der Pflege, wie das Zeigen von Mitgefühl, könnten von einer KI nicht geleistet werden.