Der EU AI Act ist ein umfassendes Gesetz zur Regulierung Künstlicher Intelligenz (KI) in der Europäischen Union. Er wurde am 12. Juli 2024 im Amtsblatt der EU veröffentlicht und tritt am 1. August 2024 in Kraft. Die Bestimmungen des Gesetzes werden ab dem 2. August 2026 wirksam, mit einigen spezifischen Regelungen, die früher greifen.
Worum geht es beim EU AI Act¹? Das Gesetz hat weitreichende Auswirkungen auf Unternehmen, die KI-Technologien entwickeln, KI einsetzen oder KI vertreiben. Der AI Act teilt KI-Systeme in drei Risikoklassen ein und definiert spezifische Anforderungen und Verpflichtungen für jede Klasse.
Einteilung in Risikoklassen
- Unacceptable Risk (Unvertretbares Risiko):
- Systeme, die eine unannehmbare Bedrohung für Sicherheit und Rechte darstellen, sind verboten. Dazu gehören beispielsweise Social Scoring durch Regierungen und Systeme, die Menschen manipulieren oder ausnutzen.
- High Risk (Hohes Risiko):
- Diese Systeme unterliegen strengen Anforderungen. Beispiele sind KI-Anwendungen in kritischen Infrastrukturen, Bildung, Arbeitsverwaltung, Strafverfolgung und Grenzkontrollen. Unternehmen müssen hier umfassende Risikoanalysen durchführen, Datenqualität gewährleisten und Dokumentations- sowie Transparenzpflichten erfüllen.
- Limited Risk (Begrenztes Risiko):
- Systeme in dieser Kategorie müssen grundlegende Transparenzanforderungen erfüllen. Nutzer müssen beispielsweise darüber informiert werden, wenn sie mit einer KI interagieren.
Seiteninhalt:
Wichtige Informationen für Unternehmer
- Compliance und Risikoanalyse:
- Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen sicherstellen, dass diese den festgelegten Sicherheits- und Transparenzstandards entsprechen. Dies beinhaltet regelmäßige Überprüfungen und Anpassungen der Systeme.
- Dokumentationspflichten:
- Für Hochrisiko-KI-Systeme sind umfangreiche Dokumentationen erforderlich, die die Konformität mit den Vorschriften belegen. Dazu gehören technische Dokumentationen, Protokolle der Risikomanagementsysteme und Transparenzberichte.
- Datenqualität und -Governance:
- Unternehmen müssen sicherstellen, dass die Daten, die zur Entwicklung und zum Training von KI-Systemen verwendet werden, von hoher Qualität, repräsentativ und frei von Verzerrungen sind.
- Transparenz und Aufklärung:
- Nutzer von KI-Systemen müssen über deren Einsatz und Funktionsweise informiert werden. Dies umfasst sowohl Endverbraucher als auch Mitarbeiter in Unternehmen.
- Setzen Sie Tools wie Chat GPT oder KI Sora ein? Dann sind Sie ebenso betroffen, wie im Falle von KI Buchhaltung.
Zahlen, Fakten, Bußgelder
- Bußgelder: Bei Nichteinhaltung des AI Acts drohen erhebliche Strafen. Diese können bis zu 6 % des weltweiten Jahresumsatzes des Unternehmens betragen oder 30 Millionen Euro, je nachdem, welcher Betrag höher ist.
- Umsetzungskosten: Die Implementierung der neuen Anforderungen kann für Unternehmen kostenintensiv sein. Schätzungen zufolge könnten große Unternehmen mehrere Millionen Euro in Compliance-Maßnahmen investieren müssen, während kleinere Unternehmen mit hohen fünfstelligen Beträgen rechnen sollten.
- Marktpotenzial: Trotz der strengen Regulierung bietet der AI Act auch Chancen. Unternehmen, die KI-Systeme konform entwickeln, können einen Wettbewerbsvorteil erlangen und Vertrauen bei Kunden und Geschäftspartnern stärken.
Handlungsempfehlungen
- Frühzeitige Evaluierung: Unternehmen sollten frühzeitig ihre KI-Systeme evaluieren und gegebenenfalls Anpassungen vornehmen, um den neuen Vorschriften zu entsprechen.
- Schulung und Sensibilisierung: Mitarbeiter sollten über die neuen Anforderungen und deren Auswirkungen auf die Unternehmensprozesse informiert und geschult werden.
- Externe Beratung: Die Komplexität der neuen Vorschriften macht es sinnvoll, externe Experten hinzuzuziehen, die bei der Implementierung der Compliance-Maßnahmen unterstützen können.
Der EU AI Act und Bürokratieabbau: Ein Spannungsfeld
Der EU AI Act, der im August 2024 in Kraft tritt und ab August 2026 wirksam wird, stellt einen umfassenden Regulierungsrahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union dar. Während die primären Ziele des AI Acts darin bestehen, Sicherheit, Transparenz und ethische Standards für KI-Systeme zu gewährleisten, wirft die Einführung dieses Gesetzes auch Fragen zur Bürokratie und zu den administrativen Belastungen auf, die damit verbunden sind.
Die EU weitet mit dem EU AI Act die Bürokratie aus und bremst die Entwicklung von Unternehmen. Konkret bedeutet dies:
- Erhöhung der administrativen Last: Die umfangreichen Dokumentations- und Berichtspflichten, die der AI Act mit sich bringt, erhöhen den bürokratischen Aufwand für Unternehmen erheblich. Unternehmen müssen technische Dokumentationen erstellen, Risikobewertungen durchführen und Compliance-Berichte einreichen.
- Notwendigkeit zusätzlicher Ressourcen: Um den Anforderungen des AI Acts gerecht zu werden, müssen Unternehmen möglicherweise zusätzliche Ressourcen in Form von Personal und Technologie bereitstellen. Dies kann insbesondere für kleine und mittlere Unternehmen (KMUs) eine erhebliche Belastung darstellen.
Mit dem AI Act verfolgt die EU das Ziel, die Nutzung von KI sicherer und transparenter zu gestalten. Unternehmen müssen sich auf diese Veränderungen einstellen und die notwendigen Maßnahmen ergreifen, um den neuen Anforderungen gerecht zu werden. Dies bietet nicht nur rechtliche Sicherheit, sondern auch die Möglichkeit, durch verantwortungsvollen Einsatz von KI das Vertrauen von Kunden und Geschäftspartnern zu stärken.