Die digitale Transformation schreitet voran, und Künstliche Intelligenz (KI) spielt dabei eine immer wichtigere Rolle. Mit dem AI Act hat die EU nun erstmals einen umfassenden Rechtsrahmen geschaffen, der den Einsatz dieser Zukunftstechnologie reguliert. Wir erklären, was der neue AI Act für Ihr Unternehmen bedeutet und wie Sie sich optimal darauf vorbereiten.
Was ist der AI Act?
Der AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI. Die EU-Kommission hat die Verordnung am 1. August 2024 verabschiedet, und sie wird ab Februar 2025 schrittweise in Kraft treten. Besonders wichtig für Unternehmen: Die Regelungen betreffen nicht nur KI-Entwickler, sondern auch alle gewerblichen Nutzer von KI-Systemen.
Das Risiko-basierte System
Der AI Act führt ein abgestuftes Regulierungssystem ein. Je höher das potenzielle Risiko einer KI-Anwendung, desto strenger die Anforderungen. Für Unternehmen bedeutet das:
Verbotene KI-Anwendungen
Ab Februar 2025 sind bestimmte KI-Systeme grundsätzlich nicht mehr erlaubt:
- Biometrische Echtzeit-Identifizierung im öffentlichen Raum
- Systeme zur Manipulation menschlichen Verhaltens
- KI-gestützte Social Scoring Systeme
Hochrisiko-Systeme
Besondere Aufmerksamkeit gilt KI-Systemen im Personalbereich, die häufig als hochriskant eingestuft werden. Dies betrifft vor allem Recruiting-Software, die Bewerbungen automatisch filtert oder bewertet, KI-gestützte Leistungsbewertungssysteme sowie Systeme zur automatisierten Personalplanung und -einsatz.
Auch Tools zur Überwachung oder Analyse von Mitarbeiterverhalten fallen in diese Kategorie. Im Bereich der betrieblichen Aus- und Weiterbildung gelten ebenfalls verschärfte Regeln, insbesondere für Systeme zur automatischen Bewertung von Prüfungen, zur KI-gestützten Lernfortschrittskontrolle sowie für Tools zur Erkennung von Täuschungsversuchen.
Standardanwendungen und generative KI
Gute Nachricht für Nutzer von ChatGPT, Midjourney und Co.: Diese Systeme fallen meist in die Kategorie mit minimalem Risiko. Hier müssen Sie lediglich grundlegende Transparenzanforderungen erfüllen, etwa die Kennzeichnung KI-generierter Inhalte.
Pflichten bei Hochrisiko-Systemen
Der Einsatz von Hochrisiko-KI-Systemen bringt Verpflichtungen mit sich. Im Mittelpunkt steht ein kontinuierliches Risikomanagement, das potenzielle Risiken frühzeitig erkennt und minimiert. Unternehmen müssen dabei alle Systemprozesse lückenlos dokumentieren und regelmäßig die Genauigkeit ihrer Systeme überprüfen. Besonders wichtig ist auch die Überwachung möglicher Verzerrungen in den Ergebnissen.
Betroffene Personen müssen stets klar über den Einsatz von KI-Systemen informiert werden. Dabei gilt der Grundsatz der menschlichen Kontrolle: Automatisierte Entscheidungen dürfen nicht ohne menschliche Kontroll- und Eingriffsmöglichkeit getroffen werden. Die Systeme müssen kontinuierlich überwacht und verbessert werden, um eine hohe Qualität und Fairness der Ergebnisse sicherzustellen.
Zeitplan und Sanktionen
Die Umsetzung erfolgt schrittweise:
- Februar 2025: Verbot bestimmter KI-Anwendungen
- August 2025: Transparenzpflichten für generative KI
- August 2026: Vollständige Anwendung
- Übergangszeit von 36 Monaten für bestehende Hochrisikosysteme
Bei Verstößen drohen empfindliche Strafen:
- Bis zu 35 Mio. Euro oder 7% des Jahresumsatzes für verbotene Systeme
- Bis zu 15 Mio. Euro oder 3% bei anderen Verstößen
- Bis zu 7,5 Mio. Euro oder 1,5% bei Falschangaben
Chancen der KI-Regulierung nutzen
Die neue KI-Verordnung mag komplex erscheinen, bietet aber auch Chancen. Nutzen Sie die Zeit bis zum Inkrafttreten, um Ihre KI-Systeme zukunftssicher aufzustellen. Eine frühzeitige Anpassung hilft nicht nur, Bußgelder zu vermeiden, sondern schafft auch Vertrauen bei Mitarbeitern und Kunden.
Bildquelle: Bild generiert mit DALL·E