FDA prosi o uwagi ws. monitorowania AI w realnym świecie

FDA otworzyła szerokie konsultacje publiczne dotyczące metod monitorowania działania AI-wspomaganych wyrobów medycznych w realnych warunkach klinicznych. To jeden z najbardziej znaczących kroków w kierunku globalnego standardu „AI-postmarket surveillance”, kluczowego dla bezpieczeństwa pacjentów korzystających z dynamicznych modeli AI.

W komunikacie Digital Health Center of Excellence FDA wskazuje, że aktualne modele AI — w przeciwieństwie do klasycznych wyrobów medycznych — zmieniają swoje zachowanie po wdrożeniu, ponieważ pracują na danych generowanych w nowych populacjach pacjentów i w innych przepływach pracy klinicznej.
https://www.fda.gov/medical-devices/digital-health-center-excellence/request-public-comment-measuring-and-evaluating-artificial-intelligence-enabled-medical-device

Agencja zwraca uwagę na trzy kluczowe problemy:
1️⃣ Model drift — stopniowe pogarszanie dokładności, gdy populacja lub dane odbiegają od warunków treningowych.
2️⃣ Performance decay — spadek skuteczności AI w czasie, gdy procedury kliniczne lub standardy diagnostyczne ulegają zmianie.
3️⃣ Bias i safety signals — nieprzewidziane błędy w wyniku różnic demograficznych lub zbyt małej reprezentacji grup klinicznych.

FDA chce stworzyć katalog metod, które pozwolą producentom, placówkom i regulatorom systematycznie mierzyć działanie AI po wdrożeniu, w tym:
• wskaźniki jakości predykcji,
• narzędzia do wykrywania driftu,
• walidację na danych reprezentatywnych dla nowych populacji,
• procedury obowiązkowego raportowania błędów.

Dlaczego to ważne? (implikacje regulacyjne)

• To pierwszy krok do wprowadzenia globalnego standardu nadzoru nad AI w medycynie — który prawdopodobnie stanie się wzorcem także dla UE (rozporządzenia wykonawcze do AI Act).
• Producenci wyrobów medycznych będą musieli przygotować ciągłe plany nadzoru, a nie jednorazowe badania kliniczne.
• Szpitale staną się odpowiedzialne za część monitoringu — w tym za zgłaszanie driftu lub nieprawidłowości.

Ryzyka i wyzwania

• Możliwość nałożenia nowych obowiązków na placówki (weryfikacja modeli AI w różnych populacjach lokalnych).
• Konieczność dokumentowania i archiwizacji wyników AI dla celów audytowych.
• Wzrost kosztów zgodności (compliance) dla producentów wyrobów medycznych.

Zalecenia dla odbiorców

Placówki medyczne: rozpocząć tworzenie „AI-QA workflows” — ścieżek oceny jakości modeli po wdrożeniu.
Firmy medtech: przygotować plany post-market monitoring oparte na real-world evidence i narzędziach drift detection.
Działy prawne i regulatorzy: śledzić konsultacje FDA, bo podobne wymogi mogą pojawić się w UE w ramach AI Act 2026–2027.

Źródło: U.S. FDA — Digital Health Center of Excellence, „Request for Public Comment on Measuring and Evaluating Artificial Intelligence-Enabled Medical Devices”, 2025
Opracowanie redakcyjne: Debaty Zdrowie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *