Künstliche Intelligenz verändert unsere Gesellschaft spürbar. In der Erwachsenenbildung sind digitale Lernplattformen, automatisierte Übersetzungen, adaptive Lernsysteme oder Chatbots längst keine Zukunftsmusik mehr. Mit dem AI Act der Europäischen Union treten nun auch rechtliche Vorgaben in Kraft, die den verantwortungsvollen Umgang mit KI sichern sollen. Eine spannende Frage stellt sich dabei:
Brauchen wir künftig KI-Beauftragte in Bildungseinrichtungen?
Was steckt hinter dem AI Act?
Der AI Act ist die erste umfassende europäische Verordnung zur Regulierung von Künstlicher Intelligenz. Er wurde 2024 beschlossen und wird in den kommenden Jahren Schritt für Schritt wirksam. Ziel ist es, die Sicherheit von KI-Systemen zu gewährleisten, Grundrechte zu schützen und gleichzeitig Innovation zu fördern.
Das Gesetz unterscheidet zwischen verschiedenen Risikostufen:
-
Anwendungen mit minimalem Risiko, wie KI in Videospielen oder Spamfiltern, benötigen keine besonderen Vorgaben.
-
Systeme mit begrenztem Risiko, wie Chatbots, unterliegen einer Transparenzpflicht. Nutzer*innen müssen wissen, dass sie mit KI interagieren.
-
Hochrisiko-Anwendungen, etwa für Prüfungen, Bewertungen oder den Zugang zu Bildungsangeboten, müssen strengen Auflagen folgen. Dazu gehören Sicherheitsstandards, eine saubere Datenbasis, lückenlose Dokumentation und menschliche Aufsicht.
-
Verboten sind Anwendungen, die Menschen manipulieren oder zu einer sozialen Bewertung eingesetzt werden.
Gerade für die Erwachsenenbildung ist wichtig: Bildungsträger, die Hochrisiko-Systeme einsetzen, müssen sicherstellen, dass Mitarbeitende geschult sind und den sicheren Umgang mit KI beherrschen. Wenngleich PLATIVIO keine Hochrisiko-Systeme über KI einsetzt, sind wir der Gesetzgebung bereits einen Schritt voraus und haben eine*n KI-Beauftragte*n etabliert.
Warum könnte es KI-Beauftragte brauchen?
Wenn Lernprozesse durch KI gesteuert oder Prüfungen automatisiert bewertet werden, geht es um weit mehr als technische Spielereien. Dann stehen Fairness, Transparenz und Qualität im Mittelpunkt. Genau hier könnte ein*e KI-Beauftragte*r eine Schlüsselrolle einnehmen – ähnlich wie es heute bereits Datenschutzbeauftragte gibt.
Typische Aufgaben eines KI-Beauftragten
Überprüfung, ob eingesetzte Tools rechtlichen Vorgaben entsprechen
Sicherstellung von Transparenz für Lernende und Lehrende
Erkennen und Minimieren von Risiken wie Diskriminierung oder fehlerhaften Bewertungen
Beratung und Schnittstellenfunktion zwischen IT, Datenschutz, Lehrenden und Leitung
Organisation von Schulungen, um digitale Kompetenzen im Team zu stärken
Umsetzung in der Praxis
Was bedeutet das konkret?
Kennzeichnung, wenn KI im Einsatz ist
Einhaltung des Datenschutzes nach DSGVO
Dokumentation aller KI-gestützten Prozesse
Regelmäßige Überprüfung der Qualität
Schulung der Mitarbeitenden
Ein Beispiel: Eine Volkshochschule setzt ein System ein, das offene Prüfungsfragen automatisch bewertet. Da dies als Hochrisiko-Anwendung gilt, muss gewährleistet sein, dass die Bewertung nachvollziehbar und diskriminierungsfrei erfolgt. Lehrkräfte müssen die Ergebnisse kritisch prüfen können, Lernende müssen wissen, dass eine KI die Erstbewertung vornimmt, und eine menschliche Kontrolle ist unverzichtbar. Der oder die*der KI-Beauftragte übernimmt hier die Rolle, all diese Vorgaben zu überwachen und zu dokumentieren.
Chancen für die Erwachsenenbildung
Richtig eingesetzt, kann ein*e KI-Beauftragte*r nicht nur Risiken minimieren, sondern auch Vertrauen aufbauen. So wird es möglich, KI gezielt für die Personalisierung von Lernprozessen, für Barrierefreiheit oder für organisatorische Unterstützung einzusetzen.
Noch besteht keine gesetzliche Pflicht, eine Person offiziell mit dieser Rolle zu betrauen. Doch der AI Act macht deutlich, dass in Zukunft ein neues Berufsfeld entstehen könnte. Besonders in der Erwachsenenbildung ist Transparenz entscheidend – und genau dafür könnten KI-Beauftragte sorgen.