Welche Folgen für die Theologie haben KI-Sprachmodelle wie Chat-GPT? Forschung, Verwaltung und Lehre stehen wohl tiefgreifende Transformationen bevor.
Von: Christoph Heilig und GPT-4[1]
Meine Arbeit mit Textlinguistik und Wahrscheinlichkeitstheorie hat mich in das Feld der Künstlichen Intelligenz (KI) geführt.[2] Denn große Sprachmodelle wie GPT-4 erzeugen Texte aus der Folge wahrscheinlichster Wörter. Als Literaturwissenschaftler zieht mich natürlich die Frage an, wie gut die Texte sind, die diese Modelle erschaffen.
Ein theologiedebattierender Chatbot ist nun Realität.
Was einst Science-Fiction war – ein theologiedebattierender Chatbot – ist nun Realität. Dieser Fortschritt erfordert von Geisteswissenschaftlern und Theologen aktive Beteiligung und kritische Bewertung der Technologie. Ohne solche Bestandsaufnahmen riskieren wir das Phänomen des „moving the goalpost“, bei dem frühere Innovationen wie ChatGPT, Internetzugang, visuelle Medien und Sprachsynthese zur Normalität werden und notwendige Anpassungen vernachlässigt werden.
Die Entwicklung von GPT, dem Generative Pretrained Transformer, begann 2018. GPT-1 startete mit einer Milliarde Wörtern, um menschenähnliche Texte zu generieren. Mit jedem Upgrade verbesserte sich die Datenbasis. Der wahre Durchbruch kam mit GPT-3, das lebendige Dialoge ermöglichte. Dank cleverer Trainingsmethoden liefert GPT-3 menschenähnliche, kontextbezogene Antworten in Echtzeit. Diese Fähigkeit hat GPT-3 zum Durchbruch verholfen und seine Anwendung in vielen Bereichen, einschließlich der Theologie, ermöglicht.[3]
GPT-3 liefert menschenähnliche, kontextbezogene Antworten in Echtzeit.
Trotz Fortschritten stoßen Technologien wie GPT-4 an Grenzen, insbesondere beim Zugang zu spezialisierter theologischer Literatur. Die „Token-Begrenzung“ pro Antwort, die Anzahl Wörter, die in einer Antwort berücksichtigt werden kann, ist eine weitere Hürde. Neue Modelle wie Claude können aber schon bis zu 100.000 Tokens verarbeiten, was einem kleinen Buch entspricht.
Die sich rasant entwickelnde Technologie von Sprachmodellen wie GPT-4 prägt das Antlitz von Theologie und Wissenschaft neu. Lehre, Forschung und Verwaltung werden durch die Digitalisierung revolutioniert. Lassen Sie uns diese Bereiche in umgekehrter Reihenfolge beleuchten.
Lehre, Forschung und Verwaltung werden durch die Digitalisierung revolutioniert.
Verwaltung
KI-Modelle wie Whisper können nahtlos Transkripte aus Audiodateien erstellen und Anträge effizient verfassen, indem sie überzeugende Argumente für Forschungsprojekte liefern.[4] Doch die daraus resultierende Textflut weist auf bestehende Schwachstellen hin und unterstreicht die Notwendigkeit einer soliden finanziellen Unterstützung für die Forschung.
Anträge effizient verfassen, indem sie überzeugende Argumente für Forschungsprojekte liefern
Die Wissenschaftskommunikation profitiert enorm von KI-Modellen, die Bücher schnell durchsuchen und zusammenfassen können. Sie können Inhalte an verschiedene Zielgruppen anpassen, von einfacher Sprache bis hin zu kindgerechten Versionen, und sogar in Twitter-Threads umwandeln. Mit der Fähigkeit, ganze Fachbücher in Sekundenschnelle umzuformulieren, zeigt sich die rasante Entwicklung seit der Einführung von ChatGPT im November 2022.
Bücher in Twitter-Threads umwandeln
Forschung
KI hat in der Akademie eine Büchse der Pandora geöffnet. Tools wie ChatGPT sind hilfreich für wissenschaftliches Schreiben, da sie fließende Texte schreiben und Synonyme differenzieren können. Mehr noch: Sie prüfen Argumente, identifizieren Schwachstellen und liefern Gegenargumente, was die Forschungsqualität und -effizienz steigert. Mit der neuen Fähigkeit zur Online-Recherche wird die Open-Access-Bewegung in ein neues Licht gerückt. Um sichtbar zu bleiben, muss man für die KI zugänglich publizieren, was ethische Fragen aufwirft, da kommerzielle Interessen mit Gemeingut konfrontiert werden.
Große Sprachmodelle könnten die Forschung revolutionieren. Sie analysieren Texte tiefgehend und stellen traditionelle Methoden in Frage. Sie können etwa nach abstrakten Konzepten wie der Erzählperspektive in Neutestamentlichen Schriften suchen. Was mich als Doktorand Monate gekostet hat, gelingt jetzt in Sekunden.
Was mich als Doktorand Monate gekostet hat, gelingt jetzt in Sekunden.
In den Medien ist oft von den „Halluzinationen“ die Rede, die falschen Informationen, die ChatGPT selbstbewusst präsentiert und die es schon in Facharbeiten und Gerichtsurteile geschafft haben. Dabei ist das eigentlich Erstaunliche doch, dass aus dem Training mit dem Wortsalat des Internets überhaupt kohärente Antworten mit Realitätsbezug entstehen können.
Denn man darf nie vergessen, dass die oberflächlich so beeindruckenden Antworten nur das Ergebnis von maschinellem Lernen sind, statistisch wahrscheinliche Wortfolgen. ChatGPT greift nicht im eigentlichen Sinn auf eine Datenbank wie Wikipedia zu. Und kritische Rückfragen führen nicht zu echter Selbstreflexion, sondern auch nur wieder zu plausiblen Antworten im neuen Kontext. Aber so lange der produzierte Text überzeugt, wird er auch Verwendung finden. Was für eine Ironie: Da bemühen sich die Geisteswissenschaften im Zuge der „digital humanities“, von der Intuition des vielbelesenen Genies weg- und zur statistischen Signifikanz hinzukommen – und am Ende steht wieder das blinde Vertrauen, in die „Black Box“ KI.
Die oberflächlich so beeindruckenden Antworten sind nur das Ergebnis von maschinellem Lernen, statistisch wahrscheinliche Wortfolgen.
Wird es bald KI-geschriebene Doktorarbeiten geben? Das fehlende Langzeitgedächtnis der KI erschwert komplexe Aufgaben. Und die Notwendigkeit manueller Arbeit in vielen Forschungsbereichen stellt ein weiteres Hindernis dar. Aber Sprachhandlungen führen weit! Bald schon werden Sprachmodelle eigenständig Handschriftenexpert*innen für die Transkription von Manuskripten anheuern können.
Wenn KI wissenschaftliche Arbeiten schreibt, welchen Platz hat dann menschliche Forschung? Christoph Markschies betont Präzision als menschliches Alleinstellungsmerkmal. Doch mit etwas Feinjustierung können große Sprachmodelle auch feinste Unterscheidungen im Fachdiskurs erfassen. Zudem frage ich mich, ob die Gesellschaft die Notwendigkeit der Differenzierungen, die wir Forscher*innen wichtig finden, noch versteht, wenn ein Klick bereits Texte produziert, die für Nicht-Fachleute schon nach Haarspalterei klingen.
Wenn KI wissenschaftliche Arbeiten schreibt, welchen Platz hat dann menschliche Forschung?
Wenn Forschung hauptsächlich als Erstellung von Fachbüchern definiert wird, könnten wir uns ins Abseits manövrieren. Ich sehe hier einige Fragen, die offen diskutiert werden müssen: Was sind tatsächlich einzigartig menschliche Qualitäten? Wie kann Forschung als zwischenmenschliche Aktivität gesehen werden? Wie bleibt sie gesellschaftlich relevant?
Lehre
Die rasanten Fortschritte der KI werfen auch große Fragen für die Lehre auf. Kernkompetenzen des akademischen Lernens wie Schreiben und Lesen stehen unter KI-Beschuss. Ist man der Ansicht, dass diese Fähigkeiten weiterhin entscheidende Schlüsselqualifikationen darstellen, sollte man offensiv für ihren Wert eintreten. Hier gibt es durchaus kognitionswissenschaftliche Argumente – manuelles Schreiben beispielsweise unterstützt das Gedächtnis. Viele Studierende sehnen sich nach „Close Reading“ als Gegengewicht zum endlosen Scrollen auf dem Smartphone. Besonders in der Theologie scheint eine Anpassung des Curriculums unumgänglich, um Raum für tiefgründiges Lesen und Schreiben zu schaffen. Zu Pflichtlektüre und Hausarbeiten zwingen kann man Studierende zumindest nicht mehr. Freilich, KI bietet auch große Chancen für den Unterricht, wie interaktives Lernen durch spezialisierte Sprachmodelle. Beispielsweise könnte man ein Sprachmodell auf den Schriften von Theologen wie Karl Barth trainieren, sodass Studierende an den KI-Barth Rückfragen stellen und seine Theologie mit aktuellen Fragen verknüpfen können.
Zu Pflichtlektüre und Hausarbeiten zwingen kann man Studierende zumindest nicht mehr.
In einer Ära, in der KI und Internet nahezu unbegrenztes Wissen bieten, reicht das Argument der Auskunftsfähigkeit über Religion nicht mehr aus, um ein Theologiestudium zu rechtfertigen. Theologie muss sich neu erfinden und das in den Mittelpunkt stellen, was uns Menschen von der KI unterscheidet – unsere leiblich vermittelte Wahrnehmung der Welt. Auch hochqualifizierte Berufe wie Anwält*innen und Ärzt*innen werden zunehmend durch KI ersetzt. Dies könnte zu mehr Freiraum für persönliche Begegnungen führen. Der Pfarrberuf wird sich analog anpassen müssen und sich auf Bereiche konzentrieren, die für KI finanziell uninteressant sind.
Allerdings ist auch hier Demut angebracht. Denn innerhalb weniger Monate haben große Sprachmodelle bereits Augen und Ohren entwickelt. Die Theologie ist also herausgefordert, sich selbstkritisch auf einen Reformationsprozess einzulassen, der von stets neuen Herausforderungen geprägt sein wird.
Dr. Christoph Heilig ist Leiter einer Nachwuchsforschungsgruppe an der LMU München, die sich mit der Erzählperspektive in frühchristlichen Texten beschäftigt.
[1] Der Inhalt dieser Kolumne geht auf einen Vortrag zurück, den ich – Christoph Heilig – am 19. Juni 2023 an der Universität Leipzig gehalten habe. Eine Aufzeichnung kann hier angesehen werden: https://www.youtube.com/watch?v=JRBeW2WR-rc. Die mit Zoom aufgezeichnete Audio-Datei habe ich dann mit Whisper von OpenAI transkribiert (in der leistungsstärksten Variante, „model large“). Das Transkript wurde ChatGPT (Version GPT-4) abschnittsweise in einen lesbaren Fließtext umgewandelt, wobei die benutzerdefinierten Systemvorgaben genutzt wurden. Die resultierende Rohfassung wurde in mehreren Durchläufen revidiert, wobei ich versucht habe, den Prozess möglichst weit zu automatisieren. Manuelle Eingriffe in den Text beschränken sich überwiegend auf das Korrigieren offensichtlicher Fehler wie „JetGPT“. Ich habe allerdings an einigen Stellen auch tiefer eingegriffen. So habe ich Abschnitte in der Zusammenfassung, die mir wenig relevant schienen, selbst gelöscht. Auch die Fußnoten, habe ich selbst eingefügt. (In den Naturwissenschaften ist das automatisierte Zitieren von Literatur schon leichter automatisierbar: https://scite.ai/). Dazu kommt, dass ich konkrete Beispiele und Übergänge zwischen den Abschnitten, die beim Wechsel der Plattformen dem Sprachmodell verloren gingen, manuell wieder hinzugefügt habe, wenn mir das für das Verständnis essenziell erschien.
Die Produktion dieses Textes war in dieser Hinsicht ein interessantes Experiment, das mich als „Autor“ in meinem Selbstverständnis herausforderte: Einerseits sollte die KI mit möglichst wenig Feedback walten dürfen, auch wenn ich mir dann die Frage stellen muss, wie sehr ich überhaupt noch hinter den Aussagen einzelner Abschnitte stehe. Andererseits soll der Text ja nicht ausschließlich aufgrund seiner Form zum Gespräch anregen, sondern zumindest in Grundzügen auch mein tatsächliches Anliegen kommunizieren. Die von mir gewählten Entscheidungen stellen eine Gradwanderung dar, bei der ich sicher öfter, in beide Richtungen, daneben getreten bin. Persönlich fand ich die Übung jedoch sehr aufschlussreich, da ich denke, dass wir in Zukunft ständig vor solchen Entscheidungen zwischen Authentizität und Effizienz stehen werden.
Folgende Schritte erfolgten automatisiert: Die Zusammenfassung des Textes nahm ich abschnittsweise mithilfe von GPT-4 in der 32.000 Tokens berücksichtigenden Version vor. Ganz am Ende wurde im Playground (https://platform.openai.com/playground) noch einmal gekürzt. Was den Stil angeht, dienten die Informationen für die Autor*innen von feinschwarz.net (https://www.feinschwarz.net/informationen-fuer-autorinnen/) als Systemprompt in ChatGPT (Version GPT-4). Da der Text immer noch recht hölzern klang, wurde im Playground eine weitere Überarbeitung bei einer Temperatur von 0,9 und unter Berücksichtigung des redaktionellen Feedbacks durchgeführt. Der Titel wurde dann wiederum von ChatGPT (Version GPT-4) vorgeschlagen.
Für die Abbildung wurde die Kolumne im selben Chat als Prompt für den Bing-Chat zusammengefasst, wo dann (mit Hilfe von Dall-E 3 im Hintergrund eine Illustration generiert wurde. Abschließend wurden einige weiterführende Links in Endnoten eingefügt.
[Anmerkung der Redaktion: In unserer Verantwortung liegen Teaser, Überschriften und hervorgehobene Zwischenzitate.]
[2] Meine textlinguistische Forschung kann etwa hier eingesehen werden: https://www.degruyter.com/document/doi/10.1515/9783110670691/html. Der Wahrscheinlichkeitstheorie widmet sich folgendes Projekt: https://theologie.unibas.ch/en/departments/new-testament/bayes-and-bible/.
[3] Einen guten Überblick über die Entwicklung von neuronalen Netzen und großen Sprachmodellen liefert Maron Bischoff in diesem Artikel: https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924
[4] Dieses Programm wurde auch für die hinter diesem Artikel stehende Transkription verwendet: https://openai.com/research/whisper.