Generatywna AI w medycynie wyprzedza regulatorów

Artykuł Regulatory Science Innovation for Generative AI and Large Language Models in Health and Medicine autorstwa Jasmine C. L. Ong i współautorów pokazuje, że obecny system regulacji wyrobów medycznych nie jest przystosowany do technologii, które uczą się i zmieniają po wdrożeniu do praktyki klinicznej. Generatywna sztuczna inteligencja oraz duże modele językowe nie działają jak klasyczne urządzenia – ich zachowanie ewoluuje w czasie, co podważa sens jednorazowej certyfikacji.

Autorzy zwracają uwagę, że modele wykorzystywane do analizy dokumentacji medycznej, interpretacji obrazów czy wsparcia decyzji klinicznych mogą z czasem generować inne rekomendacje niż w momencie dopuszczenia do użytku. To rodzi fundamentalne pytania o bezpieczeństwo pacjentów i odpowiedzialność prawną lekarzy korzystających z narzędzi, których działania nie są w pełni przewidywalne.

W publikacji podkreślono również ryzyko globalnej fragmentacji regulacyjnej. Jeśli FDA, EMA i inne agencje będą rozwijać rozbieżne podejścia do AI, producenci i systemy ochrony zdrowia zostaną zmuszeni do funkcjonowania w sprzecznych ramach prawnych. Zdaniem autorów konieczna jest harmonizacja międzynarodowa oraz przejście na model nadzoru ciągłego, w którym algorytmy są monitorowane w realnych warunkach klinicznych, podobnie jak leki w fazie IV badań.

Tekst Ong i współautorów jasno pokazuje, że przyszłość AI w medycynie nie zależy wyłącznie od jakości algorytmów, lecz od zdolności regulatorów do stworzenia ram, które nadążą za technologią uczącą się w czasie rzeczywistym.

Źródło: npj Digital Medicine, 2025
Opracowanie redakcyjne: Debaty Zdrowie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *