Was der AI Act für evangelische Organisationen bedeutet
Die Digitalisierung macht auch vor kirchlichen Türen nicht halt. ChatGPT, automatisierte Übersetzungen für Gottesdienste und KI-gestützte Verwaltungssysteme sind teilweise bereits Realität in Gemeinden und diakonischen Einrichtungen. Doch seit Februar 2025 gelten mit dem EU AI Act neue rechtliche Rahmenbedingungen, die auch für kirchliche Organisationen relevant sind. Ein Überblick über die wichtigsten Änderungen und praktischen Auswirkungen.
Der AI Act: Ein risikobasierter Ansatz
Die EU-Verordnung zur Regulierung künstlicher Intelligenz kategorisiert KI-Systeme nach ihrem Risikopotenzial. Für kirchliche Anwendungen sind besonders drei Kategorien relevant:
- Systeme mit begrenztem Risiko wie einfache Chatbots für die Gemeindearbeit, solche mit
- systemischem Risiko wie die bekannten Allzweck-KI-Systeme ChatGPT oder Claude, und
- Hochrisiko-Anwendungen, die etwa bei der Bewertung von Bildungsmaßnahmen in diakonischen Einrichtungen zum Einsatz kommen könnten.
Die gute Nachricht: Viele alltägliche KI-Anwendungen fallen in die Kategorie "minimales Risiko" und unterliegen keinen besonderen rechtlichen Anforderungen. Der Spamfilter im E-Mail-System oder einfache Übersetzungstools gehören dazu. Anders sieht es bei komplexeren Anwendungen aus.
Schulungspflicht: Neue Verantwortung für Kirchenleitungen
Eine der wichtigsten Neuerungen betrifft die seit Februar 2025 bestehende Schulungspflicht. Personal, das mit KI arbeitet, muss entsprechend geschult werden. Dies umfasst technische, rechtliche und ethische Aspekte. Für Kirchengemeinden bedeutet das: Wer einen KI-basierten Chatbot für die Gemeindearbeit einsetzt oder regelmäßig mit generativer KI arbeitet, muss seine Mitarbeitenden entsprechend qualifizieren.
Diese Schulungen sollten nicht als lästige Pflicht verstanden werden, sondern als Chance für einen bewussten und verantwortungsvollen Umgang mit der Technologie. Gerade in kirchlichen Kontexten, wo Vertrauen und ethische Grundsätze eine zentrale Rolle spielen, ist eine fundierte Auseinandersetzung mit den Möglichkeiten und Grenzen von KI unerlässlich.
Aktuell (Stand Juni 2025) gibt es aber weder festgeschriebene Curricula, Zertifizierungen oder Prüfungsvorgaben. Aus dieser Perspektive ist also noch Entspannung angesagt. Allerdings machen Schulungen über die Notwendigkeit hinaus natürlich sehr viel Sinn und sollten unbedingt umgesetzt werden.
Praktische Anwendungsfelder und ihre Bewertung
Ein einfacher Supportbot für die Gemeinde-Website, der häufige Fragen zu Gottesdienstzeiten oder Anmeldeverfahren beantwortet, fällt unter die Kategorie "begrenztes Risiko". Hier ist vor allem Transparenz gefordert: Besucher müssen erkennen können, dass sie mit einem KI-System interagieren. Ein deutlicher Hinweis wie "Ich bin ein KI-basierter Assistent" reicht meist aus.
Komplexer wird es bei KI-Tutoren oder Study Buddies in diakonischen Bildungseinrichtungen. Auch hier gelten Transparenzpflichten, zusätzlich müssen aber Datenschutzbestimmungen besonders sorgfältig beachtet werden. Die Verarbeitung von Lernerdaten erfordert eine explizite und informierte Einwilligung der Betroffenen.
Besonders sensibel sind automatisierte Bewertungssysteme, etwa für Prüfungen in kirchlichen Bildungseinrichtungen. Diese fallen unter die Hochrisiko-Kategorie und erfordern umfassende Sicherheitsmaßnahmen, menschliche Aufsicht und transparente Entscheidungsprozesse.
Datenschutz und Urheberrecht: Besondere Herausforderungen
Der kirchliche Datenschutz bleibt auch im KI-Kontext relevant. Kirchliche Organisationen müssen besonders darauf achten, dass personenbezogene Daten nicht ungewollt an KI-Systeme weitergegeben werden. Dies betrifft sowohl die Eingabe sensibler Informationen in Chatbots als auch die Verarbeitung von Mitgliederdaten durch KI-Systeme.
Ein praktisches Beispiel: Wenn Mitarbeitende ChatGPT nutzen, um Texte für den Gemeindebrief zu überarbeiten, sollten sie keine Namen oder andere personenbezogene Informationen in ihre Anfragen einbeziehen. Technische Lösungen wie Inputfilter können hier präventiv wirken.
Beim Urheberrecht entstehen neue Grauzonen. KI-generierte Inhalte unterliegen grundsätzlich nicht dem Urheberrechtsschutz, da sie keine "persönliche geistige Schöpfung eines Menschen" darstellen. Problematisch wird es jedoch, wenn urheberrechtlich geschützte Inhalte erkennbar in den KI-Ergebnissen auftauchen oder wenn solche Inhalte als Prompts verwendet werden.
Absicherungsstrategien für kirchliche Organisationen
Eine wirksame Absicherung erfolgt auf mehreren Ebenen. Technisch können Input- und Outputfilter verhindern, dass sensible Daten in KI-Systeme gelangen oder problematische Inhalte generiert werden. Organisatorisch braucht es klare Compliance-Regelungen und regelmäßige Schulungen.
Vertraglich sollten kirchliche Organisationen darauf achten, dass KI-Anbieter ihre Daten nicht für das Training eigener Modelle verwenden. Die Weitergabe an Dritte sollte grundsätzlich untersagt werden. Klare Haftungsregelungen und Vertragsstrafen bieten zusätzliche Sicherheit.
Ethische Dimensionen: Mehr als nur Compliance
Für kirchliche Organisationen geht es beim Umgang mit KI um mehr als rechtliche Compliance. Die Technologie wirft grundsätzliche ethische Fragen auf: Wie gehen wir mit algorithmischen Verzerrungen um? Welche Rolle spielt menschliche Verantwortung bei automatisierten Entscheidungen? Wie bewahren wir die persönliche Begegnung in einer zunehmend digitalisierten Welt?
Diese Fragen sollten in den Schulungen und im organisatorischen Umgang mit KI eine zentrale Rolle spielen. Der AI Act bietet einen rechtlichen Rahmen, aber die ethische Reflexion muss darüber hinausgehen.
Praktische Empfehlungen für den Alltag
Beginnen Sie mit einer Bestandsaufnahme: Welche KI-Systeme werden bereits in Ihrer Organisation eingesetzt? Wie sind diese nach dem AI Act zu klassifizieren? Entwickeln Sie anschließend ein Schulungskonzept, das sowohl technische als auch ethische Aspekte abdeckt.
Schaffen Sie klare Richtlinien für den Umgang mit KI-Tools. Definieren Sie, welche Informationen nicht in externe Systeme eingegeben werden dürfen und wie mit KI-generierten Inhalten umzugehen ist. Kennzeichnen Sie KI-erstellte Inhalte transparent.
Bleiben Sie am Ball: Der rechtliche Rahmen entwickelt sich weiter, neue Leitlinien und Durchführungsgesetze werden folgen. Eine kontinuierliche Beobachtung der Entwicklungen ist daher unerlässlich.
Fazit: Chancen verantwortungsvoll nutzen
Der AI Act bedeutet nicht das Ende der KI-Nutzung in kirchlichen Organisationen. Vielmehr schafft er einen verlässlichen rechtlichen Rahmen für den verantwortungsvollen Umgang mit der Technologie. Kirchliche Organisationen, die bereits heute auf Transparenz, Datenschutz und ethische Grundsätze achten, sind gut aufgestellt für die neuen Anforderungen.
Die Technologie bietet erhebliche Potenziale für die kirchliche Arbeit: von der Entlastung bei Routineaufgaben über neue Formen der Kommunikation bis hin zu innovativen Bildungsangeboten. Entscheidend ist, dass diese Möglichkeiten im Einklang mit christlichen Werten und unter Beachtung der rechtlichen Vorgaben genutzt werden. Der AI Act kann dabei als Leitplanke dienen, nicht als Hürde.
CustomGPTs erstellen
CustomGPTs für den kirchlichen Alltag
Erhalten Sie einen Einblick
Förderanträge stellen - KI unterstützt
7 Schritte zu besseren Anträgen und Dokumentationen
Hilfe durch künstliche Intelligenz
Spendenkampagnen mit KI planen
Nutzen Sie KI für bessere Kampagnen!
Über die notwendigen Schritte