Image

Der AI Act: Schulungspflicht und andere Vorgaben

Ob Chatbot oder Gesichtserkennung: Künstliche Intelligenz ist kein rechtsfreier Raum mehr. Die neue EU-Verordnung definiert Pflichten, Risiken und Schutzmaßnahmen. Was Unternehmen jetzt wissen und tun müssen – kompakt zusammengefasst.

  • advomare
  • 27.05.2025
  • Zuletzt aktualisiert am: 27.05.2025

Das Wichtigste auf einen Blick

  • Der EU AI Act ist die erste umfassende Verordnung zur Regulierung von Künstlicher Intelligenz mit dem Ziel, Grundrechte, Demokratie und Sicherheit in der EU zu schützen.
  • Die KI-Verordnung unterscheidet zwischen keinem, begrenztem, hohem und verbotenem Risiko – je nach Klassifizierung gelten unterschiedliche Anforderungen oder sogar Einsatzverbote.
  • Seit Februar 2025 müssen Unternehmen ihre Mitarbeitenden, die mit KI arbeiten, verpflichtend schulen – je nach Rolle und Verantwortung mit spezifischen Inhalten.
  • Verstöße gegen die Anforderungen können nicht direkt mit Bußgeldern belegt sein, führen aber zu erheblichen Haftungsrisiken bei falscher Anwendung von KI.



Sie brauchen Unterstützung bei der Umsetzung des AI Acts?

Wir sind ihr Ansprechpartner. Kontaktieren Sie uns gerne für ein kostenfreies telefonisches Erstgespräch!

Jetzt Anliegen beschreiben


1. Der AI Act: Ganz allgemein!

Was ist der EU AI Act?

Der Artificial Intelligence Act der EU oder auch europäische KI-Verordnung ist die weltweit erste Regulation von KI. Der AI Act soll die Nutzung Künstlicher Intelligenz in der EU regeln.

Die Verordnung verfolgt das Ziel, dass Grundrechte, Demokratie, Rechtsstaatlichkeit und Sicherheit vor Hochrisiko-KIs geschützt werden.

Der EU AI Act umfasst die Pflichten für die Entwicklung und Anwendung künstlicher Intelligenz. Dazu werden die KI-Systeme in verschiedene Risikostufen eingeteilt.

Die KI-Verordnung trat im August 2024 in Kraft und seit Februar 2025 müssen Unternehmen bereits bestimmte Pflichten erfüllen, wie z. B. die Schulungspflicht für Mitarbeitende.


Warum ist die KI-Verordnung wichtig?

KI hat einen großen Nutzen in vielen Lebensbereichen, aber die Algorithmen dahinter sind oft intransparent und auch aktuell sind KI-Systeme immer noch fehleranfällig. Auch die Anwendung von KI ist noch risikoreich, z. B. bei der Verarbeitung von Daten wie persönliche Interessen, Kreditvergabe, Gesundheit oder auch autonomes Fahren.

Es braucht also einen verantwortungsvollen und sicheren Umgang mit AI. Dafür hat die EU mit der KI-Verordnung einen rechtlichen Rahmen geschaffen.


Die Risikoklassifizierung von KI

Künstliche Intelligenz wird in der Verordnung in verschiedenen Risikoklassen eingestuft – je höher das Risiko, desto strenger sind die Auflagen bis hin zum Verbot.

  • Kein Risiko: Diese KI-Systeme bewegen sich außerhalb der anderen Risikoklassen. Hier sieht der Gesetzgeber keine Probleme.
  • Begrenztes Risiko: Hierunter fallen z. B. Chatbots, generative KI, Emotionserkennungssysteme bzw. Systeme zur biometrischen Kategorisierung oder Deepfake-Technologien. Bei KIs in dieser Risikoklasse müssen entsprechende Informationen an die Nutzer:innen gegeben werden. Diese dienen der Risikominimierung sowie der Erfüllung bestimmter Transparenzpflichten durch den AI Act.
  • Hohes Risiko: An solche Systeme richtet sich der Kern des AI Act. Hier gelten weitreichende Pflichten für Anbieter, Betreiber und weitere Akteure. Zur Kategorisierung als Hochrisiko-KI braucht es ein mehrstufiges Verfahren: Ist die KI ein sicherheitsrelevantes Bauteil eines Produkts? Wird das System in kritischer Infrastruktur verwendet? Wird die KI im Personalwesen eingesetzt? Hat die KI Zugang zu wichtigen öffentlichen oder privaten Dienstleistungen, z. B. Prüfung der Kreditwürdigkeit?
  • Verbotene Praktiken: Hier ist der Einsatz bestimmter Systeme gänzlich verboten, da sie besonders in die Grundrechte eingreifen und schweren Schaden verursachen können. Das sind unter anderem: unterschwellige, manipulative Techniken, Systeme, die die Schwachstellen von Personen ausnutzen aufgrund von z. B. Alter, Behinderung, wirtschaftlicher oder sozialer Situation, die Nutzung von KI zur sozialen Bewertung, die Vorhersage künftiger Straftaten nur auf Basis von Profiling, Systeme zur Gesichtserkennung oder Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen


Infografik zur Risikoklassifizierung nach AI Act und KI-Verordnung mit Ampelsystem zur Einstufung von KI-Systemen in verbotene, Hochrisiko-, begrenzte und risikofreie Kategorien.


2. Die Schulungspflicht in der KI-Verordnung

Art. 4 AI Act

Die Schulungspflicht zur KI wird im Art. 4 des AI Act geregelt:

Aus dem AI ACT:
Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach bestem Wissen und Gewissen sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ausreichende KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Aus- und Weiterbildung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, berücksichtigt werden.

Art. 4 AI Act


Doch was bedeutet das genau?

Mitarbeitende von Unternehmen, die KI-Systeme entwickeln, aber auch einsetzen, müssen ausreichend über KI informiert werden. Die Unternehmen haben daher die Pflicht, dass die Mitarbeitenden, die diese Systeme entwickeln, betreiben oder nutzen, gut über KI geschult werden. Dabei gilt es, das technische Wissen, Erfahrung, Ausbildung und Training sowie den Kontext, in dem die KI genutzt wird, entsprechend zu berücksichtigen

Seit Februar 2025 müssen Unternehmen die Schulungspflicht umsetzen.


Inhalte der KI Schulungen

Welche Inhalte konkret umgesetzt werden müssen, hängt von den individuellen Bedürfnissen im Unternehmen ab und auch welche Mitarbeitergruppe wie geschult werden muss. Einige Kernthemenbereiche sollten aber auf jeden Fall berücksichtigt werden:

  • Grundlagen: Definition, Funktion, Anwendungsbereiche, Unterschiede zwischen maschinellem Lernen, neuronalen Netzen und anderer KI
  • Rechtlicher Rahmen: EU AI Act und nationale Regelungen, DSGVO im Zusammenhang mit KI, Haftung
  • Ethische und gesellschaftliche Themen: Bias (Vorurteile) und Diskriminierung, Transparenz, Verantwortung des Unternehmens
  • Technische Kompetenz: Datenanalyse, maschinelles Lernen, Verständnis von Algorithmen und Datenverarbeitung, Umgang mit Tools und Plattformen
  • Risikomanagement: Erkennen und Einschätzen möglicher Risiken, Maßnahmen zur Einschränkung von Fehlern und Missbrauch, Monitoring und Überprüfung


Call-to-Action: Sie nutzen KI in Ihrem Unternehmen? Wir helfen Ihnen die Nutzung rechtssicher zu gestalten und den AI Act richtig umzusetzen!


Wen betrifft die Schulungspflicht?

Wie in Art. 4 der KI-Verordnung beschrieben, trifft diese Schulungspflicht alle Unternehmen, die KI-Systeme entwickeln, betreiben und/oder nutzen.

Besonders der Begriff „betreiben“ ist sehr niedrigschwellig aufzufassen und kann so gut wie alle Arbeitgeber:innen betreffen – sobald KI eingesetzt wird, gilt man als „Betreiber“ (Art. 3 AI Act).

Auf Mitarbeiterebene sind die Ausmaße der Schulungen entsprechend zu beachten:

Entwickler:innen: detaillierte Schulungen zu technischen und ethischen Anforderungen
Führungskräfte: Compliance, Verantwortlichkeit und Risikomanagement
Mitarbeitende, die KI nutzen: Grundlagenschulung
Datenschutz- und Compliance-Beauftragte: spezielle Schulungen


Wie soll man die Schulungspflicht umsetzen?

Wie genau die Schulungspflicht umzusetzen ist, ist nicht konkret definiert. Der AI Act gibt keine direkten Umsetzungsmaßnahmen vor.

Der Branchenverband bitkom hat eine Herangehensweise empfohlen. 

  1. Analyse: Welche KI-Systeme werden wie genutzt/entwickelt/betrieben und welche Risiken bestehen? Wer arbeitet mit den Systemen? Welches Wissen, welche Kenntnis ist bereits vorhanden?
  2. Entwicklung zielorientierter Trainings- oder Schulungskonzepte: Grundlagenschulung, fachspezifische Schulung, Auffrischungskurse. Was gebraucht wird, wird je nach Ergebnis der Analyse entschieden (die Schulungen können intern, extern oder aber auch über eLearning, Whitepaper etc. erfolgen).
  3. Einrichtung einer Ansprechstelle: KI-Beauftragte  oder Team ernennen, dass Sie dabei unterstützt, die Schulungen umzusetzen und ggf. Fragen zu klären. Diese Ansprechpartner sind auch verantwortlich für die Einhaltung der notwendigen Standards.


Call-to-Action: Sie nutzen KI in Ihrem Unternehmen? Wir helfen Ihnen die Nutzung rechtssicher zu gestalten und den AI Act richtig umzusetzen!


Dokumentationspflichten

Im AI Act gibt es keine festgelegten Dokumentationspflichten oder eine Nachweispflicht, aber trotzdem sollten Inhalt, Umfang und eine Teilnahmebestätigung festgehalten werden. So kann man im Falle einer Kontrolle durch die Aufsichtsbehörde nachweisen, dass die Schulungspflicht eingehalten wurde und auch die eigenen Haftungsrisiken minimieren.


3. Umsetzung des EU AI Act: So können Anwält:innen helfen

Was passiert, wenn ich die Schulungspflicht nicht umsetze?

Prinzipiell wird ein Verstoß gegen die Schulungspflicht nicht mit einem Bußgeld geahndet, aber durch z. B. die falsche Nutzung Künstlicher Intelligenz oder Fehler bei der Entwicklung dieser können Schäden entstehen, für die das Unternehmen dann haften muss.

Aktuell wird noch an einer genauen Leitlinie gearbeitet.


Wie kann advomare helfen?

Da die Umsetzung der KI-Schulungspflicht nicht eindeutig definiert ist, braucht es nicht zwingend anwaltliche Hilfe. Allerdings betrifft die Nutzung von KI im Unternehmen auch Bereiche wie Datenschutz, Compliance oder Persönlichkeitsrechte, die sich schnell auch in wichtige Rechtsfragen wandeln können. Daher gilt es bei den Schulungen auch diese Themen zu beachten. Eine rechtlich genaue Analyse der Schulungsbedarfe ist hier also zu empfehlen und am besten durch Anwält:innen im Bereich IT-Recht prüfen zu lassen

Wir bei advomare unterstützen Sie bei der Umsetzung des AI Act – als Expert:innen im Bereich IT-Recht, Datenschutz und Persönlichkeitsrecht können wir Ihnen genau sagen, wen Sie wie im Umgang mit AI schulen müssen.

Kontaktieren Sie uns gerne mit Ihren Fragen. In einem kostenfreien telefonischen Erstgespräch geben wir Ihnen einen Überblick über die erforderlichen Maßnahmen und anfallende Kosten.


Sie brauchen Unterstützung bei der Umsetzung des AI Acts?

Wir sind ihr Ansprechpartner. Kontaktieren Sie uns gerne für ein kostenfreies telefonisches Erstgespräch!

Jetzt Anliegen beschreiben


4. FAQ zum AI Act der EU

Was regelt die KI-Verordnung?

Die KI-Verordnung,  oder AI Act genannt, regelt die Nutzung von künstlicher Intelligenz in der EU. Der AI Act definiert Pflichten für Anbieter:innen und Nutzer:innen und soll die Risiken für Sicherheit und Grundrechte verringern.


Welche Kritik gibt es am AI Act der EU?

Vor dem Inkrafttreten des AI Act 2024 wurden auch einige kritische Stimmen laut.
Dabei stand die Sorge, dass man den Anschluss im Rennen um KI-Entwicklung gegen China und die USA verliert, im Vordergrund. 
Kritisiert wurde außerdem die große Unklarheit bei der Umsetzung der Vorgaben durch fehlende Richtlinien und Hilfestellungen.


Wann tritt der EU AI Act in Kraft?

In Kraft getreten ist der EU AI Act am 1. August 2024. Es gibt noch bestimmte Fristen, bis wann welche Punkte der Verordnung umgesetzt werden müssen:
Ab Februar 2025 müssen bestimmte Pflichten von Unternehmen, z. B. die Schulungspflicht, umgesetzt werden.
Ab dem 1. August 2026 greift das Gesetz dann in Gänze.


Welche KI-Systeme sind im AI Act verboten?

Der AI Act verbietet KI-Systeme, die ein zu hohes Risiko darstellen, also ein erhebliches Potenzial für Schaden haben. Dazu zählen insbesondere Systeme, die: 
– Menschen manipulieren oder ihre Schwachstellen ausnutzen
– Menschen anhand ihrer persönlichen Eigenschaften bewerten oder klassifizieren
– das Risiko einer Straftat vorhersagen
– die Fähigkeit einer Person, eine fundierte Entscheidung zu treffen, deutlich beeinträchtigen
– die Sicherheit oder Grundrechte gefährden

(Bild: Frank H. – stock.adobe.com)