OMG, der EU AI Act kommt – was sich für Schule, Uni und Menschen ändern soll

OMG, der EU AI Act kommt - was sich für Schule, Uni und Menschen ändern soll

Der EU AI Act ist das erste umfassende KI-Gesetz weltweit, und ab August 2026 greift der Großteil seiner Vorschriften. Wer jetzt an Konzernpflichten und Compliance-Abteilungen denkt, liegt nicht falsch. Aber die Verordnung betrifft auch Schüler, Studenten, Lehrkräfte und alle, die im Alltag mit künstlicher Intelligenz zu tun haben. Nur redet darüber kaum jemand.

Gute Absichten, fragwürdige Umsetzung, null Praxiserfahrung. Die EU in drei Wörtern.

Was der EU AI Act regeln will

Die Verordnung (EU) 2024/1689 sortiert KI-Systeme nach dem Risiko, das sie für Grundrechte und Sicherheit darstellen. Drei Stufen gibt es: verboten, hochriskant und alles andere. Verbotene Systeme sind seit Februar 2025 tabu. Die Regeln für sogenannte Allzweck-KI-Modelle wie ChatGPT, Claude oder Gemini gelten seit August 2025. Der große Rest, vor allem die strengen Pflichten für Hochrisiko-Systeme und die Transparenzregeln, wird am 2. August 2026 scharf geschaltet.

In Deutschland setzt das KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG) die Verordnung um. Das Bundeskabinett hat den Entwurf im Februar 2026 beschlossen, die Bundesnetzagentur wird zentrale Aufsichtsbehörde. Das Gesetz muss noch durch Bundestag und Bundesrat. Vier Monate vor dem Stichtag.

Dass die EU selbst schon nachbessert, bevor die Hauptregeln überhaupt greifen, sagt eigentlich alles. Ende 2025 wurde ein digitales Omnibus-Paket vorgeschlagen, das Pflichten entschärfen, Fristen verlängern und Erleichterungen für kleinere Unternehmen schaffen soll. Über 40 CEOs europäischer Konzerne, darunter Siemens, Airbus und Mercedes-Benz, hatten zuvor in einem offenen Brief eine zweijährige Aussetzung wesentlicher Pflichten gefordert. Man beschließt ein Gesetz, merkt, dass es nicht funktioniert, und bastelt ein Korrekturpaket, bevor die Tinte trocken ist. Wer bei so etwas »europaweiten Gestaltungswillen« sieht, hat eine erstaunliche Fantasie.

Diese KI-Systeme sind jetzt verboten

Einige Anwendungen hält die EU für so gefährlich, dass sie komplett untersagt werden. Seit dem 2. Februar 2025 ist Schluss mit KI-gestütztem Social Scoring, also der Bewertung von Menschen anhand ihres sozialen Verhaltens. Ebenfalls verboten: KI, die gezielt menschliches Verhalten manipuliert, etwa durch unterschwellige Techniken, die eine Person nicht durchschauen kann.

Für Schulen und Universitäten besonders relevant: Emotionserkennung in Bildungseinrichtungen ist verboten. Kein System darf aus Mimik, Stimme oder Körperhaltung von Schülern oder Studenten Emotionen ableiten. Einzige Ausnahme: medizinische oder sicherheitsrelevante Gründe. Wer trotzdem solche Systeme einsetzt, riskiert Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes.

Das klingt nach einem Szenario, das weit weg ist. Aber Proctoring-Software, die Prüflinge per Webcam überwacht und verdächtiges Verhalten meldet, existiert bereits. Solche Systeme bewegen sich jetzt auf sehr dünnem Eis.

Gegen Social Scoring hat im Übrigen niemand etwas. Das Problem liegt woanders. Während die EU verbietet, skalieren die USA und China ihre KI-Systeme weiter. Europäische Verbote gelten nur in Europa. Was global passiert, interessiert die Verordnung nicht.

EU AI Act und Bildung: Warum Schule und Uni als hochriskant gelten

Der gesamte Bildungssektor wird im EU AI Act als Hochrisiko-Bereich eingestuft. Das betrifft nicht jede Nutzung von KI im Unterricht, sondern ganz bestimmte Anwendungen. Konkret fallen darunter KI-Systeme, die über den Zugang zu Bildungseinrichtungen entscheiden, Lernergebnisse beurteilen, das angemessene Bildungsniveau einer Person bewerten oder Prüfungsbetrug überwachen.

Wer solche Systeme einsetzt, muss ab August 2026 strenge Auflagen erfüllen: ein dokumentiertes Risikomanagement, nachweislich vorurteilsfreie Trainingsdaten, vollständige Transparenz über die Entscheidungslogik und vor allem eine wirksame menschliche Aufsicht. Eine Lehrkraft darf sich nicht blind auf eine KI-Bewertung verlassen, sie muss die Entscheidung jederzeit nachvollziehen und korrigieren können.

Das bedeutet im Kern: Wenn eine Software darüber mitentscheidet, ob jemand eine Prüfung besteht, einen Studienplatz bekommt oder in einen bestimmten Kurs eingestuft wird, gelten die härtesten Regeln des Gesetzes. Ein KI-System in der Bildung ist dann kein harmloses Werkzeug mehr, sondern ein reguliertes Produkt mit Zulassungspflicht.

Klingt vernünftig. In der Praxis ist es fragwürdig. Schulen, die kein funktionierendes WLAN haben, sollen jetzt ein dokumentiertes Risikomanagement für KI-Systeme führen. Vorurteilsfreie Trainingsdaten nachweisen, obwohl die meisten Lehrkräfte nicht wissen, was Trainingsdaten sind. Das erinnert an das Lieferkettengesetz, das Unternehmen für Zustände haftbar macht, die sie nicht kontrollieren können. Dort hat es Mittelständler in die Knie gezwungen. Hier wird es Schulen dazu bringen, KI schlicht nicht einzusetzen, weil der bürokratische Aufwand jede Innovation erwürgt.

Und genau das ist das eigentliche Problem. Viele Schulen sind jetzt schon am Limit. Schüler nutzen KI längst, die Lehrer kämpfen mit maroder Infrastruktur und übervollen Klassen. KI wäre für diese Schulen eine echte Chance: individuelle Förderung, Entlastung bei Routineaufgaben, Differenzierung im Unterricht. Wer ihnen ausgerechnet jetzt die neuen technischen Möglichkeiten nimmt, verschlechtert die Lage. Nicht schützen, sondern abhängen, das ist das wahrscheinliche Ergebnis dieser Regulierung für den Bildungssektor.

Was sich für Schüler und Studenten ändert

Für Schüler und Studenten ändert sich zunächst wenig an der täglichen Nutzung. Wer ChatGPT für Hausaufgaben oder zum Lernen verwendet, darf das weiterhin. Der EU AI Act richtet sich an Anbieter und Betreiber von KI-Systemen, nicht an Endnutzer. Niemand wird bestraft, weil er einen Chatbot benutzt.

Trotzdem verändert sich etwas. Ab August 2026 müssen KI-Anbieter offenlegen, wenn man mit einem KI-System interagiert. Wer mit einem Chatbot spricht, muss darüber informiert werden. KI-generierte Bilder, Videos und Audiodateien müssen maschinenlesbar gekennzeichnet sein. Die Idee dahinter: Niemand soll unwissentlich mit einer Maschine kommunizieren oder KI-generierte Inhalte für menschengemachte halten.

Für Studenten an Hochschulen wird das womöglich konkreter spürbar. Wenn die Uni ein KI-System zur Plagiatserkennung einsetzt, das gleichzeitig Prüfungsbetrug überwacht, fällt dieses System unter die Hochrisiko-Kategorie. Die Hochschule muss dann transparent machen, wie das System funktioniert und welche Daten es verarbeitet. Studenten haben damit erstmals einen rechtlichen Hebel, um die Funktionsweise solcher Systeme zu hinterfragen.

Das ist im Prinzip eine gute Sache. Plagiatserkennung per KI ist nachweislich fehleranfällig, produziert falsch-positive Ergebnisse und trifft besonders Nicht-Muttersprachler. Dass Studenten künftig nachfragen dürfen, wie so ein System tickt, ist überfällig. Ob Hochschulen das dann auch tatsächlich beantworten können, steht auf einem anderen Blatt.

Was sich für Lehrkräfte ändert

Lehrkräfte sind doppelt betroffen. Einerseits als Nutzer von KI-Tools für Unterrichtsvorbereitung und Korrektur. Andererseits als Verantwortliche, die sicherstellen müssen, dass der KI-Einsatz an ihrer Schule den Regeln entspricht.

Der EU AI Act schreibt seit Februar 2025 eine KI-Kompetenzpflicht vor. Artikel 4 der Verordnung verlangt, dass alle Personen, die mit KI-Systemen arbeiten, ein ausreichendes Maß an KI-Kompetenz besitzen. Das betrifft Lehrkräfte direkt. Schulträger und Landesbehörden sind in der Pflicht, entsprechende Fortbildungen anzubieten.

Die Pflicht steht im Gesetz. Die Fortbildungen existieren weitgehend nicht. Die meisten Bundesländer haben nicht einmal definiert, was »KI-Kompetenz« für Lehrkräfte konkret bedeuten soll. Das Gesetz verlangt etwas, das die zuständigen Stellen noch nicht liefern können. Und die Schulen stehen dazwischen.

In der Praxis heißt das: Wer ein KI-gestütztes Bewertungstool nutzt, muss verstehen, was es tut und wo seine Grenzen liegen. Ein Lehrer, der eine KI-generierte Note ungeprüft übernimmt, handelt nicht nur pädagogisch fragwürdig, sondern bewegt sich ab August 2026 auch rechtlich in einem Graubereich. Das Gesetz bestraft nicht die Lehrkraft, aber es macht den Schulträger haftbar. Der wiederum wird das Risiko scheuen und im Zweifel KI-Tools ganz verbieten. Auch eine Form von Innovation.

Kennzeichnungspflicht: Was Privatpersonen wissen sollten

Für alle, die KI im Alltag nutzen, bringt der EU AI Act vor allem eines: mehr Transparenz. Ab August 2026 gilt eine verbindliche Kennzeichnungspflicht für KI-generierte Inhalte. Das betrifft Texte, Bilder, Audio und Video. Die Kennzeichnung muss maschinenlesbar sein, also nicht nur ein kleiner Hinweis im Kleingedruckten, sondern technisch nachvollziehbar eingebettet.

Allerdings gibt es eine wichtige Einschränkung. Wenn KI nur als Werkzeug dient und ein Mensch die kreative Kontrolle behält, also bei Formulierungshilfen, Übersetzungen oder technischer Bildoptimierung, entfällt die Kennzeichnungspflicht in vielen Fällen. Die Grenze verläuft dort, wo die KI den Inhalt im Wesentlichen selbst erzeugt.

Für Privatpersonen als Konsumenten klingt das plausibel. Wer einen Nachrichtenartikel liest, ein Bild in sozialen Medien sieht oder eine Sprachnachricht hört, soll erkennen können, ob KI im Spiel war.

Ob das in der Praxis funktioniert, ist eine andere Frage. Das Gesetz tritt in vier Monaten in Kraft. Die technischen Standards für die maschinenlesbare Kennzeichnung werden gerade erst entwickelt. Kein fertiges Verfahren, kein einheitliches Format, keine getestete Infrastruktur. Aber die Regeln haben wir schon mal. Die EU reguliert zuerst und klärt die Details später. Das war bei der DSGVO nicht anders, und dort funktionieren die Cookie-Banner bis heute nicht so, wie es gedacht war.

Wie funktioniert die Durchsetzung?

Das Gesetz sieht empfindliche Strafen vor. Bei Verstößen gegen die Hochrisiko-Pflichten drohen bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes. Bei verbotenen KI-Praktiken steigt die Obergrenze auf 35 Millionen Euro oder 7%. In Deutschland wird die Bundesnetzagentur als zentrale Marktüberwachungsbehörde zuständig sein.

Wird. Denn das nationale Durchführungsgesetz liegt noch im parlamentarischen Verfahren. Die Bundesnetzagentur muss Personal aufbauen, Expertise entwickeln und Prüfverfahren definieren, die es bisher nicht gibt. Wer soll dort Hochrisiko-KI-Systeme bewerten, die vom Bildungsbereich über Personalmanagement bis zur Kreditvergabe reichen? Die Behörde reguliert bislang Telekommunikation und Energie. KI ist ein anderes Feld.

Die Bußgelder richten sich an Anbieter und Betreiber, nicht an Privatpersonen. Wer als Schüler einen KI-generierten Aufsatz einreicht, begeht keinen Verstoß gegen den EU AI Act. Das bleibt eine Frage der jeweiligen Prüfungsordnung, nicht des EU-Rechts.

Was der EU AI Act nicht regelt

Das Gesetz setzt einen Rahmen. Es regelt nicht, ob Schulen KI einsetzen sollen oder nicht. Es sagt nichts darüber, ob Studenten ChatGPT in Hausarbeiten verwenden dürfen, was ja auch noch schöner wäre. Es definiert nicht, was guter KI-Unterricht ist. Diese Fragen bleiben bei den Bundesländern, den Hochschulen und letztlich bei den einzelnen Lehrkräften.

Was der EU AI Act tut: Er versucht rote Linien zu ziehen bei Manipulation, Überwachung und intransparenter Entscheidungsfindung. Er verlangt, dass Hochrisiko-Systeme nachvollziehbar und überprüfbar sind. Und er gibt Menschen das Recht zu erfahren, wenn sie es mit einer KI zu tun haben.

Die Kehrseite wird gern verschwiegen. Europa hat kein einziges KI-Unternehmen von Weltrang hervorgebracht, reguliert aber als Erster. Die Compliance-Kosten treffen vor allem europäische Startups und den Mittelstand, während US-Konzerne die Auflagen aus der Portokasse bezahlen. KI-Anbieter könnten den EU-Markt mit abgespeckten Versionen bedienen oder ihn schlicht meiden. Bei der DSGVO ist genau das passiert: Dienste, die anderswo selbstverständlich sind, funktionieren in Europa nicht oder nur eingeschränkt. Wer glaubt, dass Regulierung allein einen technologischen Rückstand ausgleicht, hat die letzten zehn Jahre nicht aufgepasst.

Politiker, die KI regulieren, nutzen sie in der Regel nicht. Sie verstehen weder die Technologie noch die Geschwindigkeit, mit der sie sich verändert. Der EU AI Act wurde verhandelt, als GPT-3.5 aktuell war. Inzwischen sind wir bei GPT-4o, Claude Opus und Gemini 2.5. Das Gesetz reguliert eine Welt, die es so nicht mehr gibt. Und bis die Durchsetzung greift, wird sich die Technologie erneut verändert haben.

Das ist weniger als manche sich erhoffen und mehr als andere befürchten. Ob die Verordnung tatsächlich hält, was sie verspricht, wird sich erst zeigen, wenn die Regeln ab August 2026 in der Praxis ankommen. Die Phase der bloßen Ankündigungen ist jedenfalls vorbei.

Quellen und Daten

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage

Bist du bereit für mehr?