Ob Christ:innen sich fürchten müssen, wenn Künstliche Intelligenz (KI) theologische Texte produziert? Michael Winklmann schreibt darüber, was KI kann und was nicht.
Künstliche Intelligenz ist eine Herausforderung für die Theologie, weil sie die Dynamik der digitalen Welt mit dem Blick auf den gesellschaftlichen Wandel abwägt. Eine große Herausforderung für die Theologie ist der Spagat zwischen menschlichem und technischem Wissen.
Spätestens seitdem selbstfahrende Autos in greifbare Nähe gerückt sind, ist klar: Künstliche Intelligenz ist eine Herausforderung für die Theologie. Die theologische Ethik beschäftigt sich intensiv mit der Bewertung dieser Technologie, die jetzt schon in vielen alltäglichen Kontexten mit Menschen interagiert. Darum soll es hier aber nicht gehen. Lesen Sie den ersten Absatz dieses Textes noch einmal. Fällt Ihnen etwas auf? Vielleicht wundern Sie sich darüber, dass er in einer anderen Schriftart gesetzt ist. Vielleicht können Sie dem formulierten Gedankengang nicht ganz folgen. Vielleicht machen Sie aber auch keine nennenswerte Beobachtung.
Fällt Ihnen etwas auf?
Ich muss Ihnen ein Geständnis machen: Ich bin nicht der Verfasser dieses Absatzes. Kein Mensch hat ihn geschrieben. Er wurde von einer Künstlichen Intelligenz generiert, die ich mit allen Texten, die im Oktober 2021 auf feinschwarz.net zu finden waren, gefüttert habe (weitere Informationen). Ausgehend von diesen Texten hat die KI gelernt, Texte im Stil von feinschwarz zu produzieren. In diesem Text werden noch weitere KI-generierte Textbausteine auftauchen, die ebenfalls typografisch gekennzeichnet werden.
Künstliche Intelligenz ist heute dazu in der Lage, Texte zu verfassen, die von Lai:innen nicht von „menschlichen“ Texten zu unterscheiden sind. GPT-3 (Generative Pre-Training), ein Deep-Learning-Sprachmodell der kalifornischen Firma OpenAI verfasste im September 2020 beispielsweise einen Zeitungsartikel, der im britischen Guardian veröffentlicht wurde. Sein Titel lautete: „A robot wrote this entire article. Are you scared yet, human?“
Die Textproduktion funktioniert dabei zusammengefasst – und damit sehr vereinfacht – nach dem Wahrscheinlichkeitsprinzip. In der Trainingsphase wird das Modell mit gigantischen Textmengen gefüttert, von der Nachrichtenmeldung über ein Kochrezept bis zum Wikipedia-Artikel kann hier alles dabei sein.1 Wenn das Modell Texte generieren soll, erhält es einen Textanfang, z.B. einen Satz und berechnet nun, welches Wort wahrscheinlich als Nächstes kommt, dann welches Wort danach kommt usw. Mittlerweile verfügen solche Sprachmodelle sogar über eine Art Arbeitsgedächtnis.
Textproduktion nach dem Wahrscheinlichkeitsprinzip
Die immer besser werdenden Formulierungsfähigkeiten von KI stellen alle Textwissenschaften, besonders aber die Theologie vor eine große Herausforderung. Sie müssen sich wieder mit der Haltung auseinandersetzen, die Roland Barthes schon 1968 provokant in die These vom „Tod des Autors“ verpackt hat. Kurz gesagt ging es ihm darum, den Sinn eines Textes nicht mehr ausschließlich mit der Intention der Autor:in gleichzusetzen. Das war eine Kampfansage an die auch heute noch nicht ganz aus dem Deutschunterricht verschwundene Frage „Was hat die Autor:in sich dabei gedacht?“
50 Jahre später leuchtet uns durchaus ein, dass es für das sinnstiftende Moment, das Texte für uns haben können, nicht so wichtig ist, wer sie geschrieben hat. Für die Theologie aber, in der die Echtheit von Jesusworten erforscht wird, in der ganze Generationen von Theolog:innen sich an den Texten berühmter Theolog:innen abarbeiten – eben weil sie von diesen Theolog:innen geschrieben wurden – ist die Frage aber nicht so einfach.
Der Sinn eines Textes ist es, das eigene Denken und Handeln zu reflektieren, schreibt meine KI und spricht dabei den Autor:innen von (theologischen) Texten eine hohe Relevanz zu. Sie schreibt auch: Theologische Erkenntnis ist ja kein abstraktes Gebilde, sondern ein philosophischer Prozess, ein Prozess der Reflexion und streift damit die zentrale Frage, die wir uns – um ein Beispiel zu nennen – angesichts der Möglichkeit KI-generierter Predigten stellen müssen: Kann eine KI theologische Erkenntnis produzieren, wenn sie mit unzähligen Texten gefüttert wurde, in denen Menschen ihre Erfahrungen mit Gott wissenschaftlich reflektieren? Ist es problematisch, wenn sich Menschen von solchen Texten angesprochen werden, wenn sie Sinn aus ihnen ziehen?
Kann eine KI theologische Erkenntnis produzieren?
Diese Frage ist nicht einfach zu beantworten. Welche Implikationen mit ihr verbunden sind, kann aber durch ein kleines Gedankenexperiment deutlich werden: Sie sitzen im Sonntagsgottesdienst und lauschen der Predigt. Macht es für Sie einen Unterschied, ob der Pfarrer eine am Samstagabend selbst verfasste Predigt vorträgt oder ob er einen Predigtvorschlag aus der einschlägigen Zeitschrift „Der Prediger und Katechet“ verliest?
Textproduktion mit Hilfe Künstlicher Intelligenz steht – gerade was den Bereich der Theologie angeht – noch am Anfang. Ihr unterlaufen Fehler, die Expert:innen sofort entlarven können. Randal Reed, ein us-amerikanischer Religionswissenschaftler, hat beispielsweise herausgefunden, dass in KI-generierten Texten Bibelstellen „erfunden“ werden. In einem der Texte war von 1Petr 9 die Rede, obwohl der erste Petrusbrief nur 5 Kapitel hat.2
Bibelstellen „erfunden“
Dieser amüsante Fehler zeigt: Theolog:innen müssen sich keine Sorgen machen, sondern können die Herausforderung durch KI-generierte Texte selbstbewusst annehmen und eventuell sogar nach Anwendungsfällen suchen, in denen diese Technologie die Theologie weiterbringen kann. Ein Desiderat zeichnet sich jetzt schon ab: Die Fähigkeit, KI-generierte (religiöse) Medien von Menschengemachtem zu unterscheiden, wird ein wichtiger Teil religiöser Kompetenz werden. Und wenn Christ:innen diese Fähigkeit besitzen, dann ist eine KI-generierte Predigt nicht mehr der Untergang des Abendlandes.
Die experimentelle KI, die für diesen Text trainiert wurde, kann hier getestet werden: https://github.com/MichaelWinklmann/AI_Theology/blob/main/Feinschwarz_KI.ipynb Klicken Sie dazu auf .
___
Dr. Michael Winklmann ist Referent für Programmentwicklung in Studium und Lehre an der Katholischen Universität Eichstätt-Ingolstadt.
Bild: Markus Winkler / unsplash.com
Vgl. zum Thema auch:
- Das Textkorpus zum Training solcher Modelle besteht fast immer aus online abrufbaren Texten. Deren Nutzung ist mittlerweile juristisch geklärt. Für Deutschland regelt z.B. das Urheberrechtsgesetz in §60d, dass Text Data Mining zu Forschungszwecken erlaubt ist. ↩
- Vgl. Reed, R. (2021) The theology of GPT-2: Religion and artificial intelligence. Religion Compass, e12422. https://doi.org/10.1111/rec3.12422 ↩