Australijski regulator TGA wydał nowe wytyczne dla producentów oprogramowania medycznego (SaMD), ze szczególnym uwzględnieniem sztucznej inteligencji i algorytmów adaptacyjnych. Dokument wskazuje, jakie wymagania dotyczą dokumentacji, walidacji i cyberbezpieczeństwa. To lektura obowiązkowa dla firm planujących globalną ekspansję.
29 sierpnia 2025 r. Therapeutic Goods Administration (TGA) opublikowała szczegółowy przewodnik wyjaśniający wymagania regulacyjne wobec oprogramowania pełniącego funkcję wyrobu medycznego (Software as a Medical Device – SaMD). Dokument ten stanowi odpowiedź na dynamiczny rozwój aplikacji mobilnych, systemów chmurowych i sztucznej inteligencji wykorzystywanych w diagnostyce, monitorowaniu pacjentów oraz terapii.
Australijski regulator podkreśla, że choć SaMD otwiera nowe możliwości w ochronie zdrowia, to niesie ze sobą również istotne ryzyka – od błędów algorytmicznych po problemy z bezpieczeństwem danych. Nowy przewodnik ma zapewnić producentom jasne kryteria kwalifikacji i klasyfikacji, zbieżne z podejściem przyjętym w UE (MDR/IVDR) i przez FDA w Stanach Zjednoczonych.
Klasyfikacja i kwalifikacja SaMD TGA
Dokument TGA precyzuje, że każde oprogramowanie posiadające przeznaczenie medyczne (intended purpose) podlega regulacjom analogicznie do sprzętu. W przewodniku wskazano liczne przykłady:
- aplikacje mobilne służące do analizy obrazów medycznych,
- systemy wspomagające decyzje kliniczne (CDSS),
- algorytmy AI oceniające ryzyko wystąpienia choroby w populacjach pacjentów.
Kluczowym kryterium pozostaje intended purpose zdefiniowane przez producenta, a nie platforma techniczna czy sposób dostarczania oprogramowania. To oznacza, że zarówno aplikacja w telefonie, jak i rozwiązanie w chmurze, podlegają tym samym wymogom, jeśli realizują funkcję medyczną.
Wyjątki i wyłączenia
TGA, podobnie jak MDR, wyłącza spod regulacji oprogramowanie przeznaczone wyłącznie do celów:
- ogólnego stylu życia (np. liczniki kroków, aplikacje wellness),
- edukacyjnych i informacyjnych,
- wspierających organizację pracy w placówkach medycznych, jeśli nie mają bezpośredniego zastosowania diagnostycznego lub terapeutycznego.
Jednak granice te bywają płynne – przykładowo aplikacja monitorująca sen może być traktowana jako SaMD, jeśli dostarcza danych służących rozpoznaniu zaburzeń oddechowych.
Sztuczna inteligencja i adaptacyjne algorytmy
Nowy przewodnik szeroko omawia również kwestie związane z AI i uczeniem maszynowym. TGA wskazuje trzy obszary wymagające szczególnej uwagi producentów:
- Walidacja i testowanie – algorytmy muszą być oceniane pod kątem dokładności i powtarzalności w różnych populacjach pacjentów.
- Zmiany i aktualizacje – każda znacząca modyfikacja modelu AI (np. ponowne trenowanie na nowych danych) może być uznana za „significant change” wymagającą ponownej oceny zgodności.
- Bezpieczeństwo cybernetyczne – oprogramowanie musi być odporne na ataki typu data poisoning czy manipulacje wejściami, które mogłyby prowadzić do błędnych wyników diagnostycznych.
Wymogi dokumentacyjne i ocena zgodności
Przewodnik podkreśla konieczność prowadzenia kompletnej dokumentacji technicznej obejmującej:
- opis przeznaczenia wyrobu i grupy docelowej pacjentów,
- szczegółowy opis algorytmów i danych treningowych,
- analizę ryzyka zgodnie z ISO 14971,
- plan monitorowania po wprowadzeniu do obrotu (PMS), w tym ciągłe gromadzenie danych z użytkowania.
Producent musi także zapewnić zgodność interfejsu użytkownika z zasadami ergonomii i bezpieczeństwa, aby zminimalizować ryzyko błędów w obsłudze.
Harmonizacja międzynarodowa
TGA deklaruje ścisłą współpracę z regulatorami w UE i USA w celu wypracowania spójnych standardów. Dzięki temu producenci mogą oczekiwać większej przewidywalności procesu oceny i możliwość szerszego wykorzystania istniejących danych klinicznych i technicznych w różnych jurysdykcjach.
Co to oznacza dla producentów
Nowy przewodnik TGA jest praktycznym narzędziem dla firm rozwijających SaMD i AI w medycynie. Daje jasne wskazówki dotyczące dokumentacji, zarządzania zmianami i oceny bezpieczeństwa. Jednocześnie podkreśla, że odpowiedzialność za bezpieczeństwo i skuteczność algorytmów spoczywa zawsze na producencie, niezależnie od tego, czy korzysta on z gotowych modeli, czy tworzy własne rozwiązania.
Wnioski są jednoznaczne: rynek cyfrowych wyrobów medycznych będzie nadal dynamicznie rósł, ale tylko ci producenci, którzy od początku uwzględnią wymagania regulacyjne w cyklu życia oprogramowania, będą w stanie skutecznie konkurować i zapewnić pacjentom bezpieczne rozwiązania.