Prawo. Stosuje się...

Kodeks Etyki Lekarskiej o sztucznej inteligencji.

Odpowiedzialność, Praktyka lekarska, Prawo medyczne, sztuczna inteligencja

Samorząd lekarski wprowadził nowy Kodeks Etyki Lekarskiej, który obowiązuje od 1 stycznia 2025 roku. Nowelizacja została uchwalona podczas Nadzwyczajnego XVI Krajowego Zjazdu Lekarzy w maju 2024 roku. Zmiany obowiązują od 1 stycznia 2025 roku i mają różnorodny charakter. Jedną z istotnych nowości jest uregulowanie etycznego aspektu korzystania przez lekarzy ze sztucznej inteligencji w procesie diagnostycznym i terapeutycznym.

Przypomnę, że na temat sztucznej inteligencji w medycynie opublikowałem wcześniej kilka artykułów na łamach PPMed:

W dotychczasowych publikacjach zwracałem uwagę, że oprogramowanie oparte na sztucznej inteligencji jest już z powodzeniem stosowane w medycynie, m.in. we wczesnym wykrywaniu symptomów chorobowych oraz wsparciu analizy badań obrazowych, takich jak RTG, tomografia komputerowa czy rezonans magnetyczny. Podkreślałem również znaczenie Rozporządzenia Parlamentu Europejskiego i Rady UE w sprawie sztucznej inteligencji, uchwalonego w 2024 roku. Z tych regulacji wynikają konkretne oczekiwania wobec lekarzy korzystających w praktyce z oprogramowania AI, które samorząd lekarski ujął w nowelizowanym Kodeksie Etyki Lekarskiej.

Zgodnie z art. 12 KEL lekarz może wykorzystywać algorytmy sztucznej inteligencji w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym, pod warunkiem spełnienia kilku obowiązków. Po pierwsze, system AI musi posiadać odpowiednie certyfikaty. Po drugie, pacjent powinien zostać poinformowany o zastosowaniu algorytmu SI w procesie leczniczym lub terapeutycznym i wyrazić na to świadomą zgodę. Co najważniejsze, ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz.

Rozwijając kwestię certyfikacji, o której wspomina przepis KEL, należy zauważyć, że zgodnie z unijnym rozporządzeniem certyfikacja nie będzie dotyczyła systemów o ograniczonym lub niskim ryzyku. Takie systemy w medycynie będą jednak rzadkością. Można do nich zaliczyć np. aplikacje do porządkowania dokumentacji medycznej lub chatboty przeprowadzające wstępne wywiady z pacjentami.

W przypadku systemów AI wysokiego ryzyka certyfikacja będzie zwykle odbywać się równolegle z procedurą dopuszczania na rynek urządzeń medycznych, w których takie aplikacje są zintegrowane. Korzystanie z aplikacji wysokiego ryzyka, które nie są częścią certyfikowanych urządzeń specjalistycznych, będzie należało do rzadkości. Jeśli jednak takie sytuacje będą miały miejsce, lekarz – zarówno na mocy prawa, jak i regulacji samorządowych – jest zobowiązany do zapewnienia odpowiednich certyfikatów dla takich aplikacji lub korzystania wyłącznie z oprogramowania certyfikowanego.

Radosław Owczarkowski

Ukończył aplikację w Okręgowej Izbie Radców Prawnych we Wrocławiu. Praktykę zawodową rozpoczął w rodzinnej Kancelarii Radcy Prawnego Grzegorza Owczarkowskiego w Bolesławcu obsługując przedsiębiorstwa produkcyjne i usługowe, doradzając w sprawach z zakresu krajowego i wspólnotowego prawa pracy. Świadczył usługi prawne na rzecz podmiotów z sektora IT oraz e-commerce.