top of page

KI-Weiterbildungspflicht im Sozialbereich: Warum „ein bisschen ChatGPT“ nicht mehr reicht?

  • Autorenbild: INNSEL
    INNSEL
  • 18. Nov.
  • 7 Min. Lesezeit

Auf dem Bild sind vier Menschen in einem warm beleuchteten Raum zu sehen, zwei davon in Rollstühlen. Sie arbeiten konzentriert mit leuchtenden, transparenten Tablets, während im Hintergrund ein großes, futuristisches Kopfprofil aus technischen Bauteilen mit der Aufschrift „AI“ erscheint. Am oberen Bildrand steht bogenförmig der Text „KI-Weiterbildungspflicht: Was soziale Organisationen jetzt brauchen“, unten links ist das INNSEL-Logo platziert, unten rechts der Hinweis „KI-generiert mit Grok“. Das Bild wurde vollständig mit Künstlicher Intelligenz erzeugt.

Stell dir eine ganz normale Situation in deiner Einrichtung vor: Jemand lässt sich von ChatGPT beim Elternbrief helfen, ein*e Kolleg*in nutzt ein KI-Tool für die Dienstplanung, im Hintergrund läuft eine Software, die Bewerbungen vorsortiert. Alles ganz pragmatisch, alles „nur schnell nebenher“.

Genau hier hat sich seit 2025 etwas Grundlegendes verändert: Mit dem EU AI Act haben soziale Unternehmen nicht mehr nur eine moralische, sondern auch eine rechtliche Verantwortung, dafür zu sorgen, dass Mitarbeitende, die mit KI arbeiten, ausreichend qualifiziert sind. KI-Kompetenz ist damit kein „Nice to have“ mehr, sondern Teil professioneller Standards, ähnlich wie Datenschutz oder Kinderschutz.

Für Träger, Verbände, Kitas, Einrichtungen der Kinder- und Jugendhilfe, Offene Kinder- und Jugendarbeit oder andere Sozialunternehmen heißt das: Wer KI einsetzt, muss seine Mitarbeitenden schulen: fachlich, rechtlich und ethisch reflektiert.


Was der EU AI Act für soziale Organisationen bedeutet


Der EU AI Act ist die erste umfassende KI-Verordnung weltweit. Ein zentraler Gedanke dahinter: Menschen, die mit KI-Systemen arbeiten, sollen verstehen, was sie da tun und welche Folgen das für andere haben kann.

Betroffen sind nicht nur Technologieunternehmen oder Konzerne. Auch kleinere Träger*innen, Vereine, kirchliche Einrichtungen oder soziale Betriebe sind Teil dieser Verantwortung, sobald sie KI-gestützte Systeme nutzen. Das kann eine Fachsoftware mit automatisierten Auswertungen sein, eine Bewerbungsplattform, die Lebensläufe vorsortiert, oder eben der „schnelle Griff“ zu ChatGPT am Schreibtisch.

„Wir nutzen doch gar keine KI“ stellt sich bei genauerem Hinsehen oft als Illusion heraus: Viele Standardprogramme bringen längst KI-Funktionen mit, sie sind nur nicht immer sichtbar gekennzeichnet. Genau deshalb fordert die Verordnung, dass Organisationen sich einen Überblick verschaffen und ihre Mitarbeitenden entsprechend schulen.

Wichtig dabei: Niemand verlangt, dass pädagogische Fachkräfte zu Programmierer*innen werden. Aber es wird erwartet, dass Menschen, die mit KI arbeiten, ein Mindestmaß an Verständnis dafür haben, wie diese Systeme funktionieren, welche Risiken sie mitbringen und wie sie rechtlich und ethisch einzuordnen sind.


Was „KI-Kompetenz“ im Sozialbereich wirklich meint


Im Alltag hören wir oft zwei Reflexe: „Das ist doch eher was für die IT“ und: „Ich habe keine Lust, jetzt auch noch Informatik zu lernen“.

Beides greift zu kurz. KI-Kompetenz bedeutet im Sozialbereich vor allem, entscheidungsfähig zu sein.

Für pädagogische Fachkräfte heißt das zum Beispiel: zu verstehen, dass KI-Modelle mit riesigen Datenmengen trainiert werden, dass sie Vermutungen berechnen und keine „Wahrheiten“ ausspucken, und dass sie nicht neutral sind, sondern vorhandene gesellschaftliche Vorurteile widerspiegeln können. Wer mit Kindern, Jugendlichen, Familien oder Klient*innen arbeitet, braucht ein Gespür dafür, wo KI unterstützend wirken kann und wo Technik in schützenswerte Beziehungsräume eindringt.

Für Verwaltung und Leitung kommen andere Fragen dazu: Welche Systeme setzen wir eigentlich ein? Welche Daten werden wohin übertragen? Wie verhält sich der Einsatz von KI zu Datenschutz, zu unseren Schutzkonzepten, zu unseren fachlichen Leitbildern? Welche Risiken wollen wir eingehen und welche ausdrücklich nicht?

Führungskräfte tragen zusätzlich die Aufgabe, aus all dem eine Linie zu entwickeln: eine Organisation braucht mehr als einen „KI-Workshop“. Sie braucht eine Idee davon, wie sie mit digitalen Technologien grundsätzlich umgehen möchte, mit Blick auf Mitarbeitende, Zielgruppen, Reputation und Qualität.

Am Ende geht es um drei einfache, aber anspruchsvolle Bewegungen: verstehen, was KI tut; reflektieren, was das für Menschen in verletzlichen Lebenslagen bedeutet; und aktiv gestalten, wie Technik eingesetzt wird oder eben bewusst draußen bleibt.


Besondere Spannungsfelder in der Sozialwirtschaft


Soziale Organisationen arbeiten mit Menschen, die häufig nicht nur Kund*innen oder Nutzer*innen sind, sondern in Abhängigkeits- und Machtverhältnissen stehen: Kinder, Jugendliche, Bewohner*innen, Ratsuchende, Patient*innen, Menschen in Krisen. Das macht den Einsatz von KI hier besonders sensibel.

KI kann entlasten: Dokumentation, Berichte, Formulare, Anträge, all das sind Bereiche, in denen sinnvolle Unterstützung möglich ist. Gleichzeitig kann genau dort Vertrauen verloren gehen, wenn unklar bleibt, welche Daten verarbeitet werden oder wie mit sensiblen Informationen umgegangen wird.

KI kann Entscheidungen vorbereiten, etwa bei Bewerbungen oder beim Matching von Angeboten und Zielgruppen. Aber wenn die zugrundeliegenden Daten verzerrt sind, werden Diskriminierungen verstärkt statt abgebaut. Und KI kann die Illusion erzeugen, komplexe soziale Situationen ließen sich technisch „sortieren“ eine gefährliche Vorstellung in einem Feld, das von Beziehungsarbeit, Aushandlung und Ambivalenz lebt.

Deshalb ist die Weiterbildungspflicht im Sozialbereich nicht einfach eine weitere Formalie. Sie ist eine Einladung (und ein Druckmittel), sich ehrlich damit auseinanderzusetzen, wie viel Technik wir in unsere fachlichen Räume lassen wollen und zu welchen Bedingungen.


Gute KI-Schulung: nicht nur Tools, sondern Haltung


Wenn von KI-Schulung die Rede ist, geht es oft um Tools: „Wie nutze ich ChatGPT effizient?“, „Welche Programme sparen Zeit?“ Für soziale Organisationen greifen solche Zugänge zu kurz.

Sinnvolle Qualifizierung verbindet drei Ebenen:


  • Verstehen: Grundlagen von KI, typische Funktionsweisen, Risiken und Grenzen, in einer Sprache, die auch Menschen ohne Technik-Hintergrund mitnimmt.

  • Einordnen: Rechtliche Rahmenbedingungen (EU AI Act, Datenschutz) und ethische Fragen, nicht als trockene Pflicht, sondern als Teil professioneller Verantwortung.

  • Anwenden und Aushandeln: Konkrete Szenarien aus dem eigenen Alltag, Diskussionen im Team, gemeinsame Entscheidungen: Was passt zu uns, zu unseren Zielgruppen, zu unserem Auftrag?


Gute Schulungen setzen nicht voraus, dass alle „digital fit“ sind. Im Gegenteil: Sie schaffen Räume, in denen Unsicherheiten ausgesprochen werden dürfen, in denen Fragen erlaubt sind und in denen auch Skepsis Platz hat.

Und sie enden nicht bei der Folie, sondern münden in etwas Greifbares: interne Leitlinien, einfache Regeln, Zuständigkeiten, Checklisten. Also in Strukturen, die im Alltag tragen.


Vom Einführungsworkshop zur KI-Strategie


Wer die Weiterbildungspflicht ernst nimmt, wird schnell merken: Ein einmaliger Termin reicht nicht. Es braucht Bewegung in der Organisation.

Ein sinnvoller Einstieg kann sein, zunächst eine Art „KI-Landkarte“ zu zeichnen: Wo taucht KI bei uns bereits auf, in Programmen, Prozessen, in der spontanen Nutzung durch Mitarbeitende? Daraus lässt sich ableiten, wer welche Inhalte braucht: vielleicht eine grundlegende Einführung für alle und vertiefende Formate für Leitung, Datenschutz, Qualitätsmanagement oder bestimmte Fachbereiche.

Parallel lohnt sich die Frage, wie KI-Themen mit bereits bestehenden Prozessen verknüpft werden können: mit Schutzkonzepten, mit digitalen Strategien, mit Personalentwicklung oder auch mit Beschaffungsprozessen. So wird Weiterbildung nicht zum Zusatzstapel, sondern Teil dessen, was ohnehin bearbeitet wird.

Wichtig ist auch die Dokumentation: Wer wurde zu welchen Inhalten geschult, welche Vereinbarungen wurden getroffen, welche Verantwortlichkeiten festgelegt? Hier geht es nicht nur um mögliche Prüfungen, sondern auch um Transparenz innerhalb der Organisation.


Warum aktuelle KI-Forschung den Weiterbildungsbedarf im Sozialbereich unterstreicht


Spannend wird es, wenn wir uns nicht nur auf Bauchgefühle, sondern auf Daten verlassen. Eine aktuelle Studie von OpenAI mit dem Titel „How People Use ChatGPT“ (Chatterji et al., 2025) hat Millionen von ChatGPT-Nachrichten ausgewertet und untersucht, wofür Menschen KI im Alltag und im Beruf tatsächlich einsetzen. cdn.openai.com Das Bild, das daraus entsteht, passt erschreckend gut zu unserem Arbeitsalltag in sozialen Organisationen.

Erstens zeigt die Studie: KI ist längst kein Nischenthema mehr. Menschen aus ganz unterschiedlichen Berufen nutzen ChatGPT regelmäßig, nicht nur in der Tech-Branche, sondern auch in Bildungs-, Gesundheits- und anderen personenbezogenen Feldern. KI ist bereits Teil der alltäglichen Arbeitsrealität, egal ob es dazu schon eine Digitalstrategie oder Dienstanweisung gibt. cdn.openai.com


Zweitens wird deutlich, wo KI am häufigsten eingesetzt wird:


  • für Informationssuche und -aufbereitung,

  • für Entscheidungsunterstützung

  • und vor allem für Schreibaufgaben: E-Mails, Protokolle, Berichte, Konzepte, Zusammenfassungen.


Die Autor*innen zeigen, dass fast 80 % der Nutzung in die Bereiche „Practical Guidance“, „Seeking Information“ und „Writing“ fallen, mit einem starken Übergewicht beim Schreiben im beruflichen Kontext. cdn.openai.com Das ist genau der Bereich, der in der Sozialen Arbeit, in Kitas, Schulen, Offener Kinder- und Jugendarbeit oder Hilfen zur Erziehung ohnehin schon zeitintensiv ist. KI wird hier nicht primär als „Automatisierungsmaschine“ genutzt, sondern als Co-Pilot für Nachdenken, Strukturierung und professionelle Kommunikation.


Drittens hebt die Studie die Bedeutung von Bildung und Lernen hervor: Rund ein Zehntel aller Nachrichten lässt sich dem Bereich Tutoring und Teaching zuordnen, Menschen lassen sich Inhalte erklären, holen sich Beispiele und Unterstützung beim Verstehen komplexer Themen. cdn.openai.com Jugendliche, Studierende und Fachkräfte nutzen KI also längst als Lernumgebung. Wenn wir diesen Raum pädagogisch nicht begleiten, überlassen wir ihn sich selbst und den Logiken kommerzieller Plattformen.

Für soziale Organisationen folgt daraus eine klare Konsequenz: Wenn KI in genau den Bereichen genutzt wird, in denen es um Verantwortung, Macht, Entscheidungen und den Schutz von Menschen geht, dann reicht es nicht, „mal einen Vortrag gehört zu haben“. Es braucht systematische, praxisnahe Weiterbildung, von den technischen Grundlagen über ethische und rechtliche Fragen (z. B. DSGVO, EU AI Act, Schutzkonzepte) bis hin zur konkreten Anwendung im Teamalltag.


Quelle: Chatterji, A., Cunningham, T., Deming, D., Hitzig, Z., Ong, C., Shan, C. & Wadman, K. (2025): How People Use ChatGPT. OpenAI Economic Research Working Paper, 15.09.2025. Online unter: cdn.openai.com/pdf/a253471f-8260-40c6-a2cc-aa93fe9f142e/economic-research-chatgpt-usage-paper.pdf cdn.openai.com

Wo INNSEL ansetzt: Digital.Basics & KI.Basics


Genau an dieser Schnittstelle arbeitet INNSEL.

Mit Digital.Basics richten wir uns an Menschen, die im beruflichen Kontext wenig oder unsichere Erfahrungen mit digitalen Medien haben. Häufig sind das Fachkräfte, die ihre pädagogische Rolle gut im Griff haben, denen aber das digitale Feld fremd oder unangenehm erscheint. In Digital.Basics schaffen wir einen Raum, in dem Grundlagen geklärt, Begriffe sortiert und erste Schritte gegangen werden können, ohne Überforderung, ohne Tech-Sprech, ohne Herablassung. Es geht um digitale Basiskompetenzen im Kontext Sozialer Arbeit und Pädagogik: Was ist wirklich relevant? Welche Tools helfen mir? Wo bleiben meine Professionalität und meine Haltung der Maßstab?

Darauf aufbauend verstehen wir KI.Basics ganz bewusst als Inhouse-Angebot für ganze Teams und Organisationen. Wir kommen in die Einrichtung, vor Ort oder online und arbeiten mit euch als Team. KI.Basics verbindet eine verständliche Einführung in KI und die relevanten rechtlichen Rahmenbedingungen mit eurem konkreten Alltag: Dokumentation, Elternkommunikation, Jugendarbeit, Beratung, Verwaltung, Bewerbungen, Schutzkonzepte.

Wir schauen uns gemeinsam an, wo Technologien bei euch bereits im Einsatz sind, welche Spannungsfelder sich ergeben und was das für eure Zielgruppen bedeutet. Und wir begleiten euch dabei, eine eigene Position zu erarbeiten: Welche Nutzung von KI passt zu eurer Organisation? Welche Daten sind tabu? Welche roten Linien wollt ihr ziehen? Wer ist im Haus wofür verantwortlich?

So wird aus der abstrakten „Weiterbildungspflicht“ ein Prozess, der eure Qualität stärkt: fachlich, organisatorisch und politisch.


Fazit: Pflicht als Chance


Die KI-Weiterbildungspflicht ist gekommen, um zu bleiben. Man kann sie als weitere regulatorische Zumutung sehen oder als Anlass, sich Fragen zu stellen, die ohnehin längst im Raum stehen: Wie wollen wir in Zukunft arbeiten? Welchen Platz geben wir Technik in unseren Beziehungen? Und was schulden wir den Menschen, mit denen wir arbeiten?

Für uns bei INNSEL ist klar: KI im Sozialbereich ist kein reines Technikthema. Es ist eine Frage von Haltung, Verantwortung und Schutz.

Kommentare


bottom of page