Warum braucht die evangelische Kirche eine eigene KI?
Die Landeskirchen Bayerns und des Rheinlands entwickeln zusammen mit der EKD eine eigene KI-Plattform: »ELOKI« steht für »Evangelisch. Lernend. Offen. KI.« Ziel ist ein sicherer, datenschutzkonformer und kircheneigener KI-Dienst. Im Interview erläutert Projektkoordinator Jens Palkowitsch-Kühl die technischen Hintergründe und die Herausforderungen bei der Entwicklung.
(Foto: Montage fxn, Bildquellen De an Sun auf Unsplash und Vladimir Soares auf Unsplash)
**Frage: Herr Palkowitsch-Kühl, warum braucht die Kirche ein eigenes KI-System?**
**Palkowitsch-Kühl:** Wir haben uns die vielen Angebote auf dem Markt angeschaut und haben nicht die Funktionen und Möglichkeiten gefunden, die wir gerne hätten. Wir wollen kein fertiges Produkt von der Stange, sondern mitgestalten nach unseren Wünschen. Zum einen wollen wir eine gewisse Kontrolle über unser System: über die Modelle, über die Daten, die wir verarbeiten, und darüber, auf welchen Servern sie verarbeitet werden. Dann ist uns der Aspekt der Offenheit wichtig: Wenn wir jetzt Geld investieren, sollen nicht nur wir etwas davon haben, sondern auch andere – also der Open-Source-Gedanke. Und es war uns wichtig, an der Entwicklung mitarbeiten zu können.
Zur Person: Dr. Jens Palkowitsch-Kühl vereint wissenschaftliche Expertise aus der Lehrkräfteausbildung mit praktischer Erfahrung in der kirchlichen Jugend- und Bildungsarbeit. Er ist derzeit Referent für digitale Bildung am RPZ Heilsbronn und E-Learning-Koordinator der Evangelisch-Lutherischen Kirche in Bayern, wo er die konzeptionelle Entwicklung der KI-Strategie der ELKB sowie die digitale Transformation in der Kirche vorantreibt.
**Frage: Wie soll ELOKI eingesetzt werden? Nur für interne Zwecke, oder kommt man damit auch öffentlich in Kontakt, etwa in der Seelsorge oder Beratung?**
**Palkowitsch-Kühl:** Zunächst als internes System für alle, die in der Kirche mitarbeiten, hauptamtlich und ehrenamtlich. Später kann man schon an Anwendungen in der Beratung denken, aber eher nicht in der Seelsorge. Das System soll beispielsweise Mitarbeitende unterstützen bei Verwaltungsvorgängen. Und es soll beim Wissensmanagement helfen. Es ist ja ein großes Problem, dass wir in der Kirche viele Wissensträgerinnen und -träger haben, aber nicht immer gute Konzepte, wie wir dieses Wissen systematisieren, bewahren und nutzbar machen. Was genau das System leisten soll, entwickeln wir gemeinsam mit den Nutzenden. Jetzt in der Pilotphase können die Menschen, die es ausprobieren, in einem Freitextfeld eingeben, wofür sie das System nutzen wollen. Das werten wir aus und klären mit dem Datenschutz die Risikoklassen, die damit verbunden sind.
**Frage: Welche Anwendungsszenarien wurden genannt?**
**Palkowitsch-Kühl:** Sehr häufig geht es um Ideengenerierung. Etwa Unterstützung bei der Workshopplanung im Bildungsbereich. Ein großes Feld ist auch Textgenerierung und Textgestaltung, also etwa einen Fließtext in Stichpunkte gliedern oder einen Text in einfache Sprache übersetzen.
**Frage: Gibt es auch theologische Szenarien? Etwa die Pfarrerin, die die KI fragt, was sie am kommenden Sonntag predigen könnte?**
**Palkowitsch-Kühl:** Das wurde ganz wenig genannt. Der Schwerpunkt lag tatsächlich in der Unterstützung bei Verwaltungstätigkeiten. Da zeigt sich dann, wo der Schuh im Pfarrberuf wirklich drückt, während Kerntätigkeiten wie Predigt und Seelsorge zu den Dingen gehören, die Pfarrpersonen auch gerne machen – und dann Chancen sehen, durch eine Entlastung durch KI dafür mehr Zeit zu haben. Für das Szenario »Predigtvorbereitung« gibt es auch jetzt schon durch Vorlagen, Literatur und Themenbörsen gute Unterstützung, das trägt wohl auch dazu bei, dass da eher selten nach der KI gefragt wird.
**Frage: Die EKD hat auf ihrer Synode gerade beschlossen, die Erprobung und Entwicklung eines KI-Liturgie-Tools anzugehen. Ist das dann nach Ihren Erhebungen völlig vorbei an den Bedürfnissen der Leute?**
**Palkowitsch-Kühl:** Das kann ich nicht sicher sagen. Es kann sein, dass wir mit unseren Erhebungen im aktuellen Stadium vor allem Leute erreicht haben, die im Verwaltungsbereich tätig sind oder Bedarf haben. Sicherlich ist die Unterstützung der KI bei Liturgien aber auch eher technisch zu sehen, als theologisch. Daher passen die Erhebungen ganz gut zueinander. Wir stehen mit der EKD auch gut in Kontakt.
**Frage: ELOKI soll »kirchliche Werte« beachten. Was heißt das konkret? Was macht ELOKI anders als andere KIs?**
**Palkowitsch-Kühl:** Wir geben in den System-Prompts spezifischere Anweisungen. Da stehen wir aber noch in der Diskussion, wie das genau austariert werden muss. Was sind überhaupt »kirchliche Werte« genau? In bestehenden Systemen gibt es schon einen Bestand an allgemeinen normativen Vorstellungen, etwa was Menschenrechte sind. Anthropic spricht beispielsweise von »Constitutional AI« und meint damit die Vorgabe, alle Ausgaben an ihrem Modell von Menschenrechten zu messen.
**Frage: Haben Sie schon erste Ideen, wie man einer KI ein christliches Wertegerüst nahebringt? Es wird ja wohl kaum reichen zu sagen **»**Hier ist Luthers _Kleiner Katechismus_ , halt dich dran**«**.**
**Palkowitsch-Kühl:** Da wir zunächst bestehende KI-Modelle nutzen, können wir auf Ebene der Trainingsdaten nichts steuern. Wir werden wahrscheinlich ähnlich vorgehen wie Anthropic und das System seine Ausgaben am christlichen Menschenbild messen lassen. Dafür gibt es aber noch keine fertige Lösung, das müssen wir Schritt für Schritt evaluieren und weiterentwickeln, bis dann am Ende Filter und Pipelines stehen, die die Ausgaben in unserem Sinn filtern. Wir stehen dafür in einem ständigen interdisziplinären Dialog.
**Frage: Wie funktioniert ELOKI technisch?**
**Palkowitsch-Kühl:** Wir nutzen OpenWebUI als Interface und Backend. Damit kann man über Schnittstellen verschiedene KI-Modelle einbauen und darauf aufbauen ein Custom GPT gewissermaßen aus den verschiedenen Zutaten zusammenstellen. Momentan haben wir als Modelle Google Gemma 3, Modelle von Mistral und demnächst auch gpt-oss-120b von OpenAI eingebunden. Je nach Tätigkeit wählt man dann das richtige Modell: Braucht es zum Beispiel ein Reasoning-Modell, das komplexe Fragen schrittweise löst, oder braucht es ein multimodales Modell, das auch mit Bildern arbeiten kann. Die Grundmodelle versehen wir mit Parametern: Welche Tonalität soll die Ausgabe haben, welche Varianz ist in den Antworten, wie kreativ oder unkreativ soll die KI vorgehen. Vieles wird über den schon erwähnten System-Prompt gesteuert. Dann schließen wir noch Wissensdatenbanken und Wissensquellen an und definieren, auf was mit welcher Priorität davon zurückgegriffen werden soll. Am Ende gibt es die Möglichkeiten, Tools und Actions einzubinden, etwa um abzustecken, welche aktuellen Daten und Quellen verwendet werden können.
**Frage: Mit Google, OpenAI und Mistral haben Sie eine große Bandbreite, aber mehrheitlich US-amerikanische Modelle. Konnten Sie bei der Auswahl der verwendeten Modelle überhaupt ethische Anforderungen stellen? Selbst bei der Minimalanforderung »im europäischen Rechtsrahmen entwickelt« bleibt ja eigentlich nur Mistral über.**
**Palkowitsch-Kühl:** Der Markt ist tatsächlich begrenzt. Es wäre uns schon am liebsten gewesen, dass wir ausschließlich europäische Modelle verwenden. Aber unser System muss auch wettbewerbsfähig sein. Wir können kein System anbieten, das zwar unsere ethischen Ansprüche perfekt erfüllt, aber dann viel schlechter ist als das, was auf dem Markt ist. Damit würden wir nur Leute wieder in die Schatten-IT treiben. Wir müssen also abwägen und aus dem tatsächlich Verfügbaren das auswählen, was vertretbar ist. Wir denken derzeit über Prüfkriterien nach, die von einem Gremium an die Modelle angelegt werden, aber aber hier stehen wir noch am Anfang.
**Frage: Welche rechtlichen Rahmenbedingungen sind für Sie wichtig?**
**Palkowitsch-Kühl:** Generell wollen wir die Daten in Europa verarbeiten, damit wir uns im Rahmen bewegen können, der von der DSGVO und dem kirchlichen Datenschutz sowie von der KI-Verordnung vorgegeben wird. Das können wir sehr gut mit unserem technischen Partner abbilden, dem Kirchlichen Rechenzentrum Südwestdeutschland. Eine anspruchsvolle Frage ist die Abgrenzung von Rollen und Verantwortlichkeit: Wer ist im Sinne der KI-Verordnung bei unserem System Anbieter, wer Betreiber? Wie ist die datenschutzrechtliche Verantwortlichkeit auf die einzelnen Beteiligten verteilt? Wie gehen wir damit um, wenn sensible Daten in die KI eingegeben werden? Die größte rechtliche Herausforderung momentan ist aber die Websuche, die wir an unser KI-System anbinden wollen.
**Frage: Weil der Markt da von nichteuropäischen Anbietern dominiert ist?**
**Palkowitsch-Kühl:** Es gibt europäische Anbieter von Schnittstellen, mit denen wir auch im Gespräch sind. Der Suchindex Staan etwa. Dahinter steckt ein französischer Anbieter, und in diesem Jahr läuft das auch noch nur auf Französisch. Da müsste also momentan das KI-Modell erst ins Französische übersetzen und später wieder zurück. Bei der Suche sind wir noch ganz am Anfang der Testphase. Was da praktikabel ist und inwiefern es möglich ist, ohne Google und Bing auszukommen, muss sich noch zeigen.
**Frage: Entstehen durch das eigene kirchliche Datenschutzrecht zusätzliche Herausforderungen?**
**Palkowitsch-Kühl:** Das ist mit der Novelle sehr viel einfacher geworden. Der Verzicht auf die Unterwerfungsklausel bei Auftragsverarbeitungsverträgen erspart uns sehr viel Arbeit. Ansonsten sind wir noch nicht auf Punkte gestoßen, wo das DSG-EKD andere Anforderungen an KI-Systeme stellt als die DSGVO.
**Frage: Dasnovellierte DSG-EKD hat nun auch die Regelungen zur automatisierten Entscheidungsfindung aus der DSGVO übernommen. Spielt das für Sie eine Rolle?**
**Palkowitsch-Kühl:** Nein – weil wir ohnehin von Anfang an automatisierte Entscheidungsfindung ausgeschlossen haben. Wir setzen auf den Human-in-the-loop-Ansatz, der auch in den verschiedenen Verträgen und Nutzungsbedingungen auf den einzelnen beteiligten Ebenen festgehalten wird. Im nächsten Jahr soll noch eine Dienstvereinbarung in der bayerischen Landeskirche dazu kommen. Da geht es dann auch um die von der KI-Verordnung vorgesehene Kompetenzvermittlung.
**Frage: Welche Kompetenzen halten Sie für besonders wichtig?**
**Palkowitsch-Kühl:** Es besteht immer die Gefahr, dass der KI zu stark vertraut wird. Bei unserer Kompetenzvermittlung muss daher im Mittelpunkt stehen, dass KIs keine Wahrheitsmaschinen sind, sondern Wahrscheinlichkeitsmaschinen. Das muss man vermitteln, damit keine überzogenen Erwartungen an eine KI gestellt werden, und damit die Ergebnisse kritisch reflektiert werden.
* teilen
* teilen
* teilen
* teilen
* teilen
* teilen
* teilen
* E-Mail
*