Wo findet das Gesetz über Künstliche Intelligenz Anwendung?
Das Gesetz über Künstliche Intelligenz (AI Act) gilt für alle Anbieter von KI-Systemen, einschließlich Unternehmen, die KI-Systeme entwickeln, um sie auf den Markt zu bringen oder in Betrieb zu nehmen. Es betrifft auch Importeure und Händler von KI-Systemen, die innerhalb der Europäischen Union verwendet werden.
Welche Risikoklassen gelten für Künstliche Intelligenz?
Der AI Act basiert auf einem risikobasierten Ansatz. Je nach Risikostufe gelten unterschiedliche Anforderungen.
- Unzulässiges Risiko: KI-Systeme, die die Rechte von Menschen verletzen könnten, sind verboten. Dazu gehören Systeme, die das Verhalten von Menschen manipulieren oder deren Schwächen – etwa Alter oder Behinderung – ausnutzen. Ebenfalls untersagt sind Systeme, die Emotionen am Arbeitsplatz erkennen oder Menschen in Echtzeit kategorisieren.
- Hohes Risiko: Solche Systeme müssen strenge Anforderungen erfüllen, um Risiken zu minimieren. Dazu gehören die Verwendung hochwertiger Daten, die Dokumentation ihrer Funktionsweise, transparente Erklärungen, menschliche Aufsicht sowie Robustheit, Genauigkeit und Sicherheit. Beispiele sind KI-Systeme in kritischen Infrastrukturen wie Energieversorgung, Transport, Medizinprodukte oder Systeme, die über Bildung oder Beschäftigung entscheiden.
- Begrenztes Risiko: Unternehmen müssen sicherstellen, dass KI-Systeme, die direkt mit Menschen interagieren – etwa Chatbots – deutlich machen, dass es sich um Maschinen handelt. Wer KI zur Erstellung von Deepfake-Videos nutzt, muss offenlegen, dass die Inhalte künstlich erzeugt wurden.
- Geringes Risiko: Für diese Systeme, etwa KI in Videospielen oder E-Mail-Filtern, gelten keine strengen Vorschriften. Dennoch können Unternehmen freiwillig bewährte Praktiken befolgen.
Vollständiger Text des AI Act: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf