Das europäische KI-Gesetz ist die weltweit erste umfassende Regulierung für künstliche Intelligenz. Seit August 2024 schrittweise in Kraft getreten, legt es strenge Verpflichtungen für Unternehmen fest, die KI-Systeme in der EU nutzen oder einsetzen. Hier erfahren Sie, was Sie wissen müssen, um konform zu sein.
Die Europäische Union hat in der Regulierung von KI einen weltweiten Vorsprung erzielt. Das KI-Gesetz schafft einen risikobasierten Rechtsrahmen, der alle Unternehmen betrifft – nicht nur die Tech-Giganten. Egal, ob Sie ChatGPT für Ihre E-Mails verwenden oder Ihre eigenen Modelle entwickeln, Sie sind betroffen.
Die 4 Risikostufen des KI-Gesetzes
Das KI-Gesetz klassifiziert KI-Systeme in 4 Kategorien je nach Risikostufe. Je höher das Risiko, desto strenger die Verpflichtungen.
| Stufe | Beispiele | Verpflichtungen |
|---|---|---|
| Inakzeptables Risiko | Social Scoring, unterschwellige Manipulation | VERBOTEN |
| Hohes Risiko | Personalwesen, Kredit-Scoring, Gesundheit, Justiz | Strikte Compliance erforderlich |
| Begrenztes Risiko | Chatbots, Deepfakes | Transparenz erforderlich |
| Minimales Risiko | Spamfilter, Videospiele | Keine spezifischen Verpflichtungen |
Risikoklassifizierung nach dem KI-Gesetz
Welche Systeme bergen ein hohes Risiko?
- Personalbeschaffung und Personalwesen: Lebenslauf-Screening, Kandidatenbewertung, Einstellungsentscheidungen
- Kredit und Versicherung: Kredit-Scoring, Risikobewertung
- Bildung: Automatische Benotung, Studienberatung
- Gesundheit: Assistierte Diagnose, Priorisierung der Versorgung
- Justiz: Rückfallrisikoanalyse, Verwaltungsentscheidungen
- Kritische Infrastrukturen: Transport, Energie, Telekommunikation
Zeitplan für das Inkrafttreten
| Datum | Verpflichtung |
|---|---|
| Februar 2025 | Verbot inakzeptabler Praktiken |
| August 2025 | Verpflichtungen für GPAI-Modelle (ChatGPT, Claude...) |
| August 2026 | Alle anderen Verpflichtungen (hohes Risiko...) |
| August 2027 | Verpflichtungen für eingebettete Systeme |
Zeitplan für die Einhaltung des KI-Gesetzes
Verpflichtungen für Hochrisiko-Systeme
Als Hochrisiko eingestufte Systeme müssen vor ihrer Markteinführung strenge Anforderungen erfüllen:
- Risikomanagement: Dokumentierte Risikobewertung und -minderung
- Datenqualität: Nachvollziehbare und nicht diskriminierende Trainingsdaten
- Technische Dokumentation: Spezifikationen, Leistung, dokumentierte Einschränkungen
- Protokollierung: Betriebsprotokolle für Audits
- Transparenz: Klare Informationen für Benutzer
- Menschliche Aufsicht: Obligatorische menschliche Kontrolle über Entscheidungen
- Robustheit: Sicherheits- und Zuverlässigkeitstests
Wie erreicht man Compliance?
Schritt 1: Inventarisierung Ihrer KI-Systeme
Beginnen Sie damit, alle in Ihrem Unternehmen verwendeten KI-Systeme aufzulisten – einschließlich Online-Software und externer Dienste wie ChatGPT, Claude oder spezifische Geschäftstools.
Schritt 2: Risikoklassifizierung
Bestimmen Sie für jedes System seine Risikokategorie. Achtung: Die Nutzung bestimmt das Risiko, nicht das Tool. ChatGPT zum Verfassen von E-Mails = minimales Risiko. ChatGPT zum Sortieren von Lebensläufen = hohes Risiko.
Schritt 3: Compliance-Umsetzung
Bereiten Sie für Hochrisiko-Systeme die erforderliche Dokumentation vor, implementieren Sie Kontrollen und schulen Sie Ihre Teams. Spezielle Tools wie eyreACT können einen Teil dieses Prozesses automatisieren.
Sanktionen bei Nichteinhaltung
Die im KI-Gesetz vorgesehenen Bußgelder sind erheblich und proportional zum Umsatz:
- Verbotene Praktiken: Bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes
- Nichteinhaltung von Hochrisiko-Systemen: Bis zu 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes
- Falsche Angaben: Bis zu 7,5 Mio. EUR oder 1 % des weltweiten Jahresumsatzes
Auswirkungen auf KI-Anbieter ([OpenAI](/de/unternehmen/openai), [Anthropic](/de/unternehmen/anthropic), [Google](/de/unternehmen/google)...)
Anbieter von Basissystemen (GPAI) wie ChatGPT, Claude und Gemini haben seit August 2025 spezifische Verpflichtungen:
- Vollständige technische Dokumentation des Modells
- Einhaltung des Urheberrechts bei Trainingsdaten
- Bewertung und Minderung systemischer Risiken
- Sicherheitstests (Red-Teaming)
FAQ: Häufig gestellte Fragen zum KI-Gesetz
Ressourcen und Tools
KI-Regulierungs-Watch
Verfolgen Sie die Entwicklung des KI-Gesetzes und der europäischen KI-Regulierungen.
Kein Spam. Abmeldung mit 1 Klick.


