...

Künstliche Intelligenz verändert unsere Gesellschaft spürbar. In der Erwachsenenbildung sind digitale Lernplattformen, automatisierte Übersetzungen, adaptive Lernsysteme oder Chatbots längst keine Zukunftsmusik mehr. Mit dem AI Act der Europäischen Union treten nun auch rechtliche Vorgaben in Kraft, die den verantwortungsvollen Umgang mit KI sichern sollen. Eine spannende Frage stellt sich dabei: 

Brauchen wir künftig KI-Beauftragte in Bildungseinrichtungen?

KI-Bild zeigt Mann vor Bildschirm

Was steckt hinter dem AI Act?

Der AI Act ist die erste umfassende europäische Verordnung zur Regulierung von Künstlicher Intelligenz. Er wurde 2024 beschlossen und wird in den kommenden Jahren Schritt für Schritt wirksam. Ziel ist es, die Sicherheit von KI-Systemen zu gewährleisten, Grundrechte zu schützen und gleichzeitig Innovation zu fördern.

 

Das Gesetz unterscheidet zwischen verschiedenen Risikostufen:

  • Anwendungen mit minimalem Risiko, wie KI in Videospielen oder Spamfiltern, benötigen keine besonderen Vorgaben.

  • Systeme mit begrenztem Risiko, wie Chatbots, unterliegen einer Transparenzpflicht. Nutzer*innen müssen wissen, dass sie mit KI interagieren.

  • Hochrisiko-Anwendungen, etwa für Prüfungen, Bewertungen oder den Zugang zu Bildungsangeboten, müssen strengen Auflagen folgen. Dazu gehören Sicherheitsstandards, eine saubere Datenbasis, lückenlose Dokumentation und menschliche Aufsicht.

  • Verboten sind Anwendungen, die Menschen manipulieren oder zu einer sozialen Bewertung eingesetzt werden.

Gerade für die Erwachsenenbildung ist wichtig: Bildungsträger, die Hochrisiko-Systeme einsetzen, müssen sicherstellen, dass Mitarbeitende geschult sind und den sicheren Umgang mit KI beherrschen. Wenngleich PLATIVIO keine Hochrisiko-Systeme über KI einsetzt, sind wir der Gesetzgebung bereits einen Schritt voraus und haben eine*n KI-Beauftragte*n etabliert.

Warum könnte es KI-Beauftragte brauchen?

Wenn Lernprozesse durch KI gesteuert oder Prüfungen automatisiert bewertet werden, geht es um weit mehr als technische Spielereien. Dann stehen Fairness, Transparenz und Qualität im Mittelpunkt. Genau hier könnte ein*e KI-Beauftragte*r eine Schlüsselrolle einnehmen – ähnlich wie es heute bereits Datenschutzbeauftragte gibt.

Typische Aufgaben eines KI-Beauftragten

  • Überprüfung, ob eingesetzte Tools rechtlichen Vorgaben entsprechen

  • Sicherstellung von Transparenz für Lernende und Lehrende

  • Erkennen und Minimieren von Risiken wie Diskriminierung oder fehlerhaften Bewertungen

  • Beratung und Schnittstellenfunktion zwischen IT, Datenschutz, Lehrenden und Leitung

  • Organisation von Schulungen, um digitale Kompetenzen im Team zu stärken

Umsetzung in der Praxis

  • Was bedeutet das konkret?

    1. Kennzeichnung, wenn KI im Einsatz ist

    2. Einhaltung des Datenschutzes nach DSGVO

    3. Dokumentation aller KI-gestützten Prozesse

    4. Regelmäßige Überprüfung der Qualität

    5. Schulung der Mitarbeitenden

    Ein Beispiel: Eine Volkshochschule setzt ein System ein, das offene Prüfungsfragen automatisch bewertet. Da dies als Hochrisiko-Anwendung gilt, muss gewährleistet sein, dass die Bewertung nachvollziehbar und diskriminierungsfrei erfolgt. Lehrkräfte müssen die Ergebnisse kritisch prüfen können, Lernende müssen wissen, dass eine KI die Erstbewertung vornimmt, und eine menschliche Kontrolle ist unverzichtbar. Der oder die*der KI-Beauftragte übernimmt hier die Rolle, all diese Vorgaben zu überwachen und zu dokumentieren.

Chancen für die Erwachsenenbildung

Richtig eingesetzt, kann ein*e KI-Beauftragte*r nicht nur Risiken minimieren, sondern auch Vertrauen aufbauen. So wird es möglich, KI gezielt für die Personalisierung von Lernprozessen, für Barrierefreiheit oder für organisatorische Unterstützung einzusetzen.

Noch besteht keine gesetzliche Pflicht, eine Person offiziell mit dieser Rolle zu betrauen. Doch der AI Act macht deutlich, dass in Zukunft ein neues Berufsfeld entstehen könnte. Besonders in der Erwachsenenbildung ist Transparenz entscheidend – und genau dafür könnten KI-Beauftragte sorgen.

Skip to content