Prawo. Stosuje się...

Sztuczna inteligencja w medycynie: część 2, Systemy wysokiego ryzyka.

Dane osobowe, Dokumentacja, Praktyka lekarska, Prawo farmaceutyczne, sztuczna inteligencja, Zakłady lecznicze

Sztuczna inteligencja w medycynie. Systemy wysokiego ryzyka.

W moim artykule z listopada 2024 rozpocząłem nakreślanie perspektywy, jaka roztacza się w branży medycznej w związku z unijnym AI Act, czyli Rozporządzeniem o Sztucznej Inteligencji (Artificial inteligence Act). Pokazałem tam jaka jest podstawowa definicja sztucznej inteligencji, kiedy o SI należy mówić, a kiedy wypadałoby powiedzieć raczej o systemie eksperckim czy ekspertowym. Wskazywałem też na sytuacje, w których sztuczna inteligencja może wchodzić do medycyny. Dzisiaj opowiemy więcej o tym jak od strony prawnej wygląda klasyfikacja systemów sztucznej inteligencji, jak klasyfikowane są systemy obecne w medycynie oraz co z tego wynika.

Unijny Akt o Sztucznej Inteligencji wprowadza czteropoziomową klasyfikację systemów sztucznej inteligencji opartą wyłącznie na kryterium poziomu ryzyka jakie te systemy mogą stwarzać dla użytkowników i społeczeństwa. Klasyfikacja obejmuje systemy AI o ryzyku: niedopuszczalnym, wysokim, ograniczonym i minimalnym.

Co do zasady przy klasyfikowaniu systemów AI do poszczególnych kategorii brane są pod uwagę możliwości wywierania niepożądanego wpływu na prawa podstawowe UE do których należą w szczególności prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz prawo do niedyskryminacji.

Systemy sztucznej inteligencji o ograniczonym i minimalnym ryzyku odgrywają istotną rolę w dynamicznym rozwoju technologii, oferując liczne możliwości bez nadmiernego obciążania dostawców wymaganiami prawnymi. Dla tych kategorii ryzyka AI Act przewiduje uproszczone podejście, w którym kluczowym elementem jest zapewnienie użytkownikom jasnych i zrozumiałych informacji na temat działania, celów oraz potencjalnych ograniczeń takich systemów.

Niestety jednak, jeśli chodzi o branżę medyczną gros z dostępnych i potencjalnie użytecznych systemów sztucznej inteligencji nie należy do tych dwóch kategorii, ale do kategorii ostatniej z dopuszczalnych, to jest do kategorii systemów wysokiego ryzyka.

Trzeba jednak od razu zaznaczyć, że rozporządzenie nie wrzuca do tej kategorii ryzyka całej AI wykorzystywanej w branży medycznej. Rozporządzenie wskazuje, że co do zasady do kategorii wysokiego ryzyka wchodzą wyroby podlegające harmonizacji na podstawie istniejących przepisów prawa UE, a zatem wchodzą w tę kategorię wyroby medyczne, których obrót i wprowadzanie na rynek UE są regulowane przez:

  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG (w skrócie MDR),
  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych do diagnostyki in vitro oraz uchylenia dyrektywy 98/79/WE i decyzji Komisji 2010/227/UE (w skrócie IVDR),

W obu przypadkach chodzi o takie wyroby medyczne, które są zintegrowane z systemami AI, oraz o same systemy AI, które są do tych wyrobów dodawane i mogą funkcjonować w obrocie samodzielnie.

Dodatkowo, zgodnie z załącznikiem III do Rozporządzenia AI Act, do kategorii wysokiego ryzyka należeć będą także systemy AI, które służą do:

  • oceny kwalifikowalności osób fizycznych do podstawowych świadczeń opieki zdrowotnej, oraz do przyznawania, ograniczania, odwoływania lub żądania zwrotu takich świadczeń,
  • oceny i klasyfikacji zgłoszeń alarmowych dotyczących pomocy medycznej,
  • oceny stanu zdrowia pacjentów,

Warto podkreślić znaczenie tych właśnie kategorii systemów AI obecnych w medycynie, ponieważ, zasadniczo nie były one do tej pory objęte szczególnymi regulacjami unijnymi. Inaczej zatem, niż w przypadku wyrobów medycznych, te systemy nie będą podlegały kontroli zgodności przez pryzmat żadnego innego szczególnego aktu regulacyjnego (może z wyjątkiem RODO, które raczej będzie oddziaływać na każdy z tych rodzajów systemów).

Powyżej wskazałem na te kategorie systemów AI, które klasyfikowane są jako systemy wysokiego ryzyka, które jednoznacznie kojarzyć się muszą z funkcjonowaniem podmiotów leczniczych. Dodatkowo trzeba pamiętać, że szereg kolejnych rodzajów systemów AI jest klasyfikowanych do tej kategorii, również takich, które mogą być z powodzeniem stosowane w branży medycznej (np. Systemy AI powiązane z biometrią).

Systemy AI wysokiego ryzyka muszą spełniać najbardziej rygorystyczne wymogi zgodności, które obejmują zarządzanie ryzykiem, zarządzanie jakością, zapewnienie przejrzystości, zabezpieczenie danych oraz nadzór nad całym cyklem życia produktu. Regulacje i zobowiązania uczestników rynku mają za zadanie zapewnić odpowiedni poziom usług z zakresu ochrony zdrowia, oraz jednocześnie mogą budować zaufanie do stosowania sztucznej inteligencji w tak wrażliwej branży, jaką jest medycyna.

O tych szczegółowych obowiązkach jakie nakładane są na uczestników obrotu w branży medycznej w związku z AI Act opowiemy przy innej okazji.

Radosław Owczarkowski

Ukończył aplikację w Okręgowej Izbie Radców Prawnych we Wrocławiu. Praktykę zawodową rozpoczął w rodzinnej Kancelarii Radcy Prawnego Grzegorza Owczarkowskiego w Bolesławcu obsługując przedsiębiorstwa produkcyjne i usługowe, doradzając w sprawach z zakresu krajowego i wspólnotowego prawa pracy. Świadczył usługi prawne na rzecz podmiotów z sektora IT oraz e-commerce.