Risikobasierter Ansatz
Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien: Unannehmbares Risiko (verboten), Hohes Risiko (strenge Regulierung), Begrenztes Risiko (Transparenzpflichten) und Minimales Risiko (keine spezifischen Pflichten). Die Einstufung bestimmt die Compliance-Anforderungen.
Hochrisiko-KI-Systeme
Hochrisiko-KI-Systeme umfassen unter anderem: biometrische Identifikation, kritische Infrastruktur, Bildung und Berufsausbildung, Beschäftigung und Personalmanagement, Kreditwürdigkeit und Versicherungen, Strafverfolgung sowie Migration und Asyl. Für diese Systeme gelten strenge Anforderungen an Risikomanagement, Datenqualität, Dokumentation, Transparenz und menschliche Aufsicht.
Relevanz für die Schweiz
Schweizer Unternehmen sind betroffen, wenn sie KI-Systeme in der EU anbieten oder einsetzen, KI-generierte Ergebnisse in der EU verwendet werden, oder sie als Anbieter, Händler oder Betreiber von KI-Systemen im EU-Markt fungieren. Der extraterritoriale Geltungsbereich ähnelt der DSGVO.
Zeitplan & Fristen
Der EU AI Act trat im August 2024 in Kraft. Die Verbote für KI-Systeme mit unannehmbarem Risiko gelten ab Februar 2025. Anforderungen für Hochrisiko-KI-Systeme und allgemeine KI-Modelle gelten ab August 2025 bzw. August 2026. Unternehmen sollten jetzt mit der Vorbereitung beginnen.
Unsere unterstützung
Wir unterstuetzen Sie bei der Risikoklassifizierung Ihrer KI-Systeme, der Erstellung der erforderlichen Dokumentation, der Implementierung konformer KI-Architekturen und der Vorbereitung auf Audits und Zertifizierungen. Unsere Experten verbinden technisches KI-Know-how mit regulatorischem Fachwissen.