W dniu 13 marca 2024 r. Parlament Europejski ostatecznie przyjął ustawę o sztucznej inteligencji (zwaną ustawą o sztucznej inteligencji). To pierwsze na świecie kompleksowe horyzontalne ramy prawne dotyczące sztucznej inteligencji. W akcie tym zaproponowano ogólnounijne zasady dotyczące przejrzystości, jakości danych, nadzoru ludzkiego i odpowiedzialności. Ustawa o sztucznej inteligencji będzie miała ogromny wpływ na znaczną liczbę firm z branży MedTech.
Gdzie ma zastosowanie ustawa o sztucznej inteligencji?
Ustawa o sztucznej inteligencji ma zastosowanie do wszystkich dostawców systemów sztucznej inteligencji, w tym firm opracowujących systemy sztucznej inteligencji w celu wprowadzenia ich do obrotu lub oddania do użytku. Ustawa ta ma również zastosowanie do importerów i dystrybutorów systemów wykorzystujących AI w Unii Europejskiej.
Jakie są klasy ryzyka związane ze sztuczną inteligencją?
Ustawa o sztucznej inteligencji opiera się na podejściu opartym na ryzyku, więc różne wymogi mogą być stosowane w zależności od poziomu ryzyka.
- Niedopuszczalne ryzyko. Mogą naruszać prawa ludzi i są niedozwolone. Na przykład sztuczna inteligencja, która zmienia zachowanie ludzi lub wykorzystuje ich słabości, takie jak wiek lub niepełnosprawność, jest zakazana. Inne zakazane SI obejmują systemy, które rozpoznają emocje w pracy lub etykietują ludzi w czasie rzeczywistym.
- Wysokie ryzyko. Systemy te muszą przestrzegać ścisłych zasad, aby obniżyć ryzyko. Zasady te obejmują korzystanie z dobrych danych, prowadzenie rejestrów tego, co robią, jasne wyjaśnianie, jak działają, sprawdzanie ich przez ludzi oraz bycie bardzo silnym, dokładnym i bezpiecznym. Przykłady takich systemów AI wysokiego ryzyka obejmują ważne systemy, takie jak elektrownie i systemy transportowe, urządzenia medyczne oraz systemy decydujące o szkole i pracy.
- Ograniczone ryzyko. Firmy muszą upewnić się, że systemy sztucznej inteligencji, które bezpośrednio rozmawiają z ludźmi, takie jak chatboty, informują użytkowników, że rozmawiają z maszyną. Ponadto ci, którzy używają sztucznej inteligencji do tworzenia filmów deepfake, muszą powiedzieć, że filmy są fałszywe.
- Niskie ryzyko. Nie ma ścisłych zasad dotyczących tego rodzaju sztucznej inteligencji, takich jak sztuczna inteligencja w grach wideo lub filtrach poczty e-mail. Ale firmy mogą nadal przestrzegać pewnych dobrych zasad, jeśli chcą.
AI ACT: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf