Gdzie ma zastosowanie ustawa o sztucznej inteligencji?

Ustawa o sztucznej inteligencji ma zastosowanie do wszystkich dostawców systemów sztucznej inteligencji, w tym firm opracowujących systemy sztucznej inteligencji w celu wprowadzenia ich do obrotu lub oddania do użytku. Ustawa ta ma również zastosowanie do importerów i dystrybutorów systemów wykorzystujących AI w Unii Europejskiej.

Jakie są klasy ryzyka związane ze sztuczną inteligencją?

Ustawa o sztucznej inteligencji opiera się na podejściu opartym na ryzyku, więc różne wymogi mogą być stosowane w zależności od poziomu ryzyka.

  • Niedopuszczalne ryzyko. Mogą naruszać prawa ludzi i są niedozwolone. Na przykład sztuczna inteligencja, która zmienia zachowanie ludzi lub wykorzystuje ich słabości, takie jak wiek lub niepełnosprawność, jest zakazana. Inne zakazane SI obejmują systemy, które rozpoznają emocje w pracy lub etykietują ludzi w czasie rzeczywistym.
  • Wysokie ryzyko. Systemy te muszą przestrzegać ścisłych zasad, aby obniżyć ryzyko. Zasady te obejmują korzystanie z dobrych danych, prowadzenie rejestrów tego, co robią, jasne wyjaśnianie, jak działają, sprawdzanie ich przez ludzi oraz bycie bardzo silnym, dokładnym i bezpiecznym. Przykłady takich systemów AI wysokiego ryzyka obejmują ważne systemy, takie jak elektrownie i systemy transportowe, urządzenia medyczne oraz systemy decydujące o szkole i pracy.
  • Ograniczone ryzyko. Firmy muszą upewnić się, że systemy sztucznej inteligencji, które bezpośrednio rozmawiają z ludźmi, takie jak chatboty, informują użytkowników, że rozmawiają z maszyną. Ponadto ci, którzy używają sztucznej inteligencji do tworzenia filmów deepfake, muszą powiedzieć, że filmy są fałszywe.
  • Niskie ryzyko. Nie ma ścisłych zasad dotyczących tego rodzaju sztucznej inteligencji, takich jak sztuczna inteligencja w grach wideo lub filtrach poczty e-mail. Ale firmy mogą nadal przestrzegać pewnych dobrych zasad, jeśli chcą.

AI ACT: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf