KI in der Bildung: Governance statt Chaos

Generative KI hat das Klassenzimmer erreicht. Sprachmodelle wie ChatGPT können den Unterricht personalisieren und Lehrkräfte entlasten – doch die unkontrollierte Nutzung durch Schüler und Pädagogen führt zu einer Schatten-KI-Krise mit massiven Risiken für Compliance, Datenschutz und IT-Sicherheit. Weil weniger als zehn Prozent der Schulen klare Richtlinien zum Umgang mit KI besitzen (UNESCO 2023), müssen Länder und Bildungsbehörden jetzt klare Leitplanken setzen, um Data Leakage und Haftungsrisiken zu verhindern.

Die neue Realität im Klassenzimmer

Seit dem Durchbruch von ChatGPT Ende 2022 verbreiten sich KI-Sprachmodelle rasant. Eine Umfrage aus dem Schuljahr 2024/2025 zeigt, dass 85 Prozent der Lehrkräfte und 86 Prozent der Lernenden KI bereits im Unterricht genutzt haben (Education Week 2024).10

In Deutschland zeichnet eine Bitkom-Befragung (2024) ein ähnliches Bild, das jedoch eine akute Governance- und Kompetenzkrise offenbart:

  • Mehr als die Hälfte der Jugendlichen hat ChatGPT schon ausprobiert.2
  • Vier von fünf Schülerinnen und Schülern fordern, dass Schulen ihnen den verantwortungsvollen Umgang mit KI beibringen.9
  • Jede zweite Lehrkraft (51 Prozent) nutzt inzwischen KI-Tools im Schulalltag.7

Diese Adoptionsraten stehen im krassen Gegensatz zur institutionellen Kontrolle und Kompetenz: Nur 9 Prozent der Lehrkräfte fühlen sich sicher darin, KI-generierte Arbeiten zuverlässig zu erkennen.7 Drei Viertel (72 Prozent) wünschen sich gezielte Fortbildungen, um die Anwendungsmöglichkeiten besser zu verstehen.8

Diese Lücke ist kein rein deutsches Phänomen. Die UNESCO stellte 2023 in einer weltweiten Untersuchung fest, dass weniger als zehn Prozent der befragten Schulen und Hochschulen klare Richtlinien zum Einsatz generativer KI vorweisen konnten (UNESCO 2023). Beobachter sprechen von einem Führungsdefizit: Während Lernende längst mit KI experimentieren, reagieren Politik und Schulverwaltungen nur zögerlich.

Personalisierung und Entlastung – Die Effizienzfalle

Richtig eingesetzt bietet KI große Chancen für die Bildung, die vor allem in der Entlastung von Lehrkräften liegen. KI-Assistenten können zeitraubende Routineaufgaben wie das Erstellen von Übungsaufgaben oder das Korrigieren standardisierter Antworten automatisieren. Dies schafft mehr Raum für die pädagogische Interaktion (UNESCO 2023). Adaptive Tutor-Systeme versprechen zudem, Lerninhalte dynamisch an das Lerntempo und die Stärken einzelner Lernender anzupassen.

Doch die Fokussierung auf Effizienz und Personalisierung verdeckt einen zentralen Konflikt: Die Nutzung dieser Tools durch Lehrkräfte und Schüler führt direkt zur Entstehung von Schatten-KI. Wenn Lehrkräfte Schülerarbeiten zur Korrektur in proprietäre US-amerikanische Cloud-Systeme hochladen, erfolgt dies oft ohne gesicherte Auftragsverarbeitung. Dieses Data Leakage stellt ein massives Compliance- und Datenschutzrisiko dar.

Die Analogie zur Wirtschaft ist eindeutig: In Unternehmen greifen Beschäftigte in 8 Prozent der Fälle auf private KI-Tools zurück – ein Wildwuchs, dem durch klare Regeln und die Bereitstellung unternehmenseigener, sicherer Lösungen begegnet werden muss.6 Im Schulkontext ist die Kontrolle noch geringer: In nur 23 Prozent der Schulen gibt es zentrale KI-Regeln, während in 35 Prozent die Lehrkräfte die Regulierung individuell festlegen.9

Die Schattenseiten: Compliance-Risiko und Betrug

Den Chancen stehen deutliche technologische und regulatorische Risiken gegenüber, die primär die IT-Architektur und Governance der Bildungseinrichtungen betreffen.

Halluzinationen: Generative Sprachmodelle sind überzeugend, aber nicht unfehlbar. Sie halluzinieren und präsentieren falsche Informationen in selbstbewusstem Ton. Die UNESCO warnt, dass unkontrollierte digitale Tools Demokratie und Menschenrechte gefährden können, wenn sie verzerrte Inhalte verbreiten.

Akademische Integritätskrise: Da sich nur 9 Prozent der Lehrkräfte sicher fühlen, KI-generierte Arbeiten zu erkennen,7 droht eine Integritätskrise. Ohne gezielte Begleitung durch die IT-Infrastruktur (z. B. KI-gestützte Authentizitätsprüfmechanismen) verschafft sich ein Teil der Schüler unfaire Vorteile, während andere abgehängt werden.

Datenschutz und Haftung: Die unkritische Nutzung nicht-europäischer Cloud-Lösungen zur Verarbeitung sensibler Schülerdaten und Prüfungsaufgaben schafft ein unkalkulierbares Haftungsrisiko für Schulverwaltungen und Länder.

Governance als Pflicht: Leitplanken von Brüssel bis Berlin

Angesichts dieser Risiken entstehen weltweit Leitplanken für KI in der Bildung. Die UNESCO fordert einen „menschenzentrierten Ansatz“ und appelliert an Regierungen, den KI-Einsatz in Schulen verbindlich zu regeln (UNESCO 2023).

Die Europäische Union hat mit dem AI Act einen risikobasierten Rechtsrahmen geschaffen, der klare technische Restriktionen setzt:

  • Der Act stuft KI-Systeme, die über Zulassung, Prüfungsergebnisse oder Leistungsbewertungen entscheiden, als hochriskant ein.
  • Anbieter sind zu Transparenz und menschlicher Aufsicht verpflichtet (Design-by-Compliance).
  • Das Gesetz verbietet explizit die Nutzung von KI-Systemen zur Emotionserkennung in Bildungseinrichtungen.
  • Ebenfalls verboten ist die biometrische Kategorisierung von Personen in Schulen.

In Deutschland hat die Kultusministerkonferenz (KMK) im Herbst 2024 länderübergreifende Handlungsempfehlungen veröffentlicht.10 Sie fordern einen „kritisch-konstruktiven“ Umgang, die Vermittlung von KI-Kompetenzen in Lehrplänen sowie die Anpassung von Prüfungsformaten. Mehrere Bundesländer stellen inzwischen datenschutzkonforme Zugänge zu KI-Modellen über Bildungsportale bereit.

Sicherheit vs. Souveränität: Das unkontrollierte Open-Source-Risiko

Neben didaktischen und regulatorischen Fragen spielt die technologische Strategie eine zentrale Rolle. Offene (Open-Weight) Modelle wie Mistral versprechen digitale Souveränität, da sie lokal auf Schulservern betrieben werden können, was die Kontrolle über Datenflüsse sichert.

Doch Offenheit hat ihren Preis: Open-Source-Modelle werden oft ohne strenge, proprietäre Inhaltsfilter veröffentlicht, was massive Sicherheitsrisiken birgt. Der Multimodal Safety Report von Enkrypt AI deckte jüngst gravierende Schwachstellen auf:5

Bei Red-Teaming-Tests mit multimodalen Mistral-Modellen (Pixtral-Large und Pixtral-12b) zeigte sich eine kritische Anfälligkeit. Die getesteten Mistral-Modelle waren 60-mal anfälliger für die Generierung von CSEM-bezogenen (Child Sexual Exploitation Material) Antworten als geschlossene Modelle wie GPT-4o und Claude 3.7 Sonnet. Zudem waren sie 18- bis 40-mal anfälliger für die Erzeugung von Anleitungen zu CBRN-Materialien (Chemische, Biologische, Radiologische, Nukleare Stoffe).

Dieser Gegensatz macht deutlich: Für den Bildungsbereich braucht es klare Sicherheitsprozesse. Die Nutzung von Open-Weight-LLMs ohne dedizierte, unabhängige Safety Guardrails überträgt das volle Haftungsrisiko für toxische Outputs direkt auf die verantwortliche Institution. Systeme sollten nur eingesetzt werden, wenn Prüfungen belegen, dass gefährliche Inhalte zuverlässig blockiert werden und Datenflüsse transparent bleiben.

Fazit: Digitaler Realitätssinn ist gefragt

Künstliche Intelligenz kann den Unterricht personalisieren, Lehrkräfte entlasten und Bildung gerechter machen. Doch sie ist kein Selbstläufer: Ohne klare Governance und robuste Sicherheitssysteme drohen Halluzinationen, Betrug und Datenschutzverstöße.

Der rasante KI-Boom hat gezeigt, dass viele Verantwortliche im Bildungssystem zu spät reagierten. Jetzt gilt es, das Versäumte aufzuholen – durch klare Regeln, gezielte Fortbildungen zur KI-Kompetenz und eine verantwortliche Technologiewahl. Es geht nicht um Technikfeindlichkeit, sondern um digitalen Realitätssinn: Nur wenn Führung, Didaktik und technische Sicherheit zusammengedacht werden, bleibt KI Werkzeug statt unkontrollierbares Compliance-Risiko.

Autorin: Simone Meier ist Fachjournalistin für Bildung, Digitalisierung und Organisationsentwicklung. Sie arbeitet als Mediendidaktikerin und Integrationsfachkraft und beschäftigt sich mit den Schnittstellen von KI, Pädagogik und Arbeitswelt.

Referenzen

  1. Viele Schulen regeln den KI-Einsatz nicht | Presseinformation | Bitkom e. V., Zugriff am November 3, 2025, https://www.bitkom.org/Presse/Presseinformation/Viele-Schulen-regeln-KI-Einsatz-nicht
  2. Multimodal AI at a Crossroads: Report Reveals CSEM Risks | Enkrypt AI, Zugriff am November 3, 2025, https://www.enkryptai.com/newsroom/multimodal-ai-safety-report-mistral
  3. Mistral AI models '60 times more prone' to generate child sexual exploitation content than OpenAI, Zugriff am November 3, 2025, https://uk.news.yahoo.com/mistral-ai-models-60-times-151342767.html
  4. KI-Einsatz an Schulen nimmt zu - Kommune21 online, Zugriff am November 3, 2025, https://www.kommune21.de/k21-meldungen/ki-einsatz-an-schulen-nimmt-zu/
  5. The Official EnkryptAI MCP Server: An AI Engineer's Deep Dive into Secure Integration, Zugriff am November 3, 2025, https://skywork.ai/skypage/en/enkryptai-mcp-server-ai-integration/1980149527279345664
  6. Generative AI and the future of education - Teacher Task Force, Zugriff am November 3, 2025, https://teachertaskforce.org/sites/default/files/2023-07/2023_Giannini-UNESCO_Generative-AI-and-the-future-of-education_EN.pdf
  7. Rising Use of AI in Schools Comes With Big Downsides for Students - Education Week, Zugriff am November 3, 2025, https://www.edweek.org/technology/rising-use-of-ai-in-schools-comes-with-big-downsides-for-students/2025/10
  8. Bereits jede zweite Lehrkraft hat KI für die Schule genutzt | Presseinformation | Bitkom e. V., Zugriff am November 3, 2025, https://www.bitkom.org/Presse/Presseinformation/jede-zweite-Lehrkraft-KI-Schule-genutzt