Sztuczna inteligencja w medycynie.
Oprogramowanie oparte o sztuczną inteligencję już jest w medycynie i działa. Na przykład wspiera radiologów w czynnościach związanych z opisem badań obrazowych, takich jak RTG, tomografia komputerowa i rezonans magnetyczny. Jest przydatna także w okulistyce, gdzie zaprzęgnięta w analizę obrazów dna oka umożliwia bardzo precyzyjną analizę możliwości przyszłych degeneracji samego narządu wzroku, jak również innych istotnych schorzeń. Generalnie, jak w wielu innych dziedzinach życia i gospodarki sztuczna inteligencja wiąże się z wieloma niesamowitymi możliwościami zupełnie nie do wiary jeszcze całkiem niedawno, ale też wynika z niej szereg problemów, które trzeba przewidywać i o których trzeba myśleć.
Oczywiście na łamach PPMed zajmujemy się pograniczem prawa i medycyny i nie inaczej będzie także w kwestii sztucznej inteligencji. Jest to zagadnienie, któremu poświęcimy pewnie nie jeden i nie dwa artykuły, bo zagadnień prawnych związanych z możliwościami wykorzystywania AI w medycynie jest widocznych na horyzoncie całkiem dużo, a pewnie będzie ich się pojawiało jeszcze więcej, bo im dalej w las, tym więcej drzew.
W tym artykule zaczniemy od podstaw, czyli odpowiedzi na pytanie na czym dzisiaj opiera się prawo w zakresie AI w Unii Europejskiej? Spróbujemy także zarysować niektóre problemy prawne związane ze stosowaniem AI w praktyce leczniczej.
AI w UE
Unia europejska, jak to ma w zwyczaju, przoduje w legislacji Obecnie szczyci się tym, że jako pierwsza uchwaliła akt prawny kompleksowo poświęcony zagadnieniu stosowania sztucznej inteligencji w szeroko rozumianym obrocie gospodarczym. Mowa jest tutaj o Rozporządzeniu Parlamentu i Rady UE o sztucznej inteligencji (Rozporządzenie o SI, AI act lub Artificial inteligence Act), który został uchwalony przez parlament UE w dniu 13 marca 2024 roku, wszedł w życie z dniem 1 sierpnia 2024 r, a którego początek stosowania jest rozciągnięty w czasie i generalnie datowany jest na lata 2025 – 2026.
Rozporządzenie o sztucznej inteligencji określa, między innymi definicje sztucznej inteligencji, oraz wskazuje kilka poziomów ryzyka związanego z działaniem systemów sztucznej inteligencji.
Rozporządzenie wprowadza bardzo szeroką definicje SI, a dokładnie „systemu SI”, zgodnie z którym, system SI jest to system oparty na działaniu maszyny, który może wykazywać autonomię, i który generuje określone treści. Zatem zgodnie z tą definicją kluczowy jest właśnie element autonomii, czyli samodzielności, oderwania od woli człowieka, który dany system uruchamia czy też z niego korzysta. Z motywu nr 12 do Rozporządzenia wynika szerszy kontekst bardzo lakonicznie sformułowanej w Rozporządzeniu definicji systemu AI. Z treści tego motywu można wywnioskować, że unijny prawodawca buduje swoją definicję sztucznej inteligencji w opozycji do programów, będących prostszymi systemami eksperckimi (obecnymi wokół nas, w tym również w medycynie od wielu już lat). Stwierdza on, że pojęcie „systemu sztucznej inteligencji” musi wskazywać na cechy wyróżniające je od prostszych tradycyjnych systemów oprogramowania i nie powinno obejmować systemów opartych na zasadach określonych wyłącznie przez osoby fizyczne w celu automatycznego wykonywania operacji. Kluczową cechą systemów AI, zdaniem legislatora, jest zatem ich zdolność do wnioskowania wykraczająca poza podstawowe przetwarzanie danych. Ta zdolność odnosi się do procesu uzyskiwania wyników, takich jak przewidywania, treść, zalecenia lub decyzje, oraz do zdolności systemów sztucznej inteligencji do wyprowadzania modeli lub algorytmów na podstawie dostępnych danych wejściowych. Zdolność ta obejmuje także uczenie się w zakresie wyprowadzania wniosków.
Zatem, lekarz, który korzysta w swojej praktyce z aplikacji kalkulatora BMI lub kalkulatora oceny ryzyka sercowo-naczyniowego niekoniecznie od razu podpada pod przepisy dotyczące sztucznej inteligencji. Rzecz w tym, że proste narzędzie statystyczne czy obliczeniowe nie wyprowadza wniosków z danych, a jedynie ma pomóc lekarzowi wyprowadzić jego własne wnioski.
Na jakie problemy prawne związane z AI w medycynie trzeba zwrócić uwagę?
Jest ich sporo. W tym miejscu zasygnalizuję tylko kilka najbardziej doniosłych.
- Odpowiedzialność prawna. Błędy diagnostyczne lub terapeutyczne: Jeśli SI postawi błędną diagnozę lub zaproponuje niewłaściwe leczenie, może dojść do szkody na zdrowiu pacjenta. Powstaje pytanie: kto ponosi odpowiedzialność? Twórca oprogramowania, instytucja medyczna, lekarz, czy użytkownik SI.
- Ryzyko braku transparentności i wyjaśnialności decyzji diagnostycznych i terapeutycznych. W wielu branżach systemy SI mogą być konstruowane w taki sposób, że trudno jest dociec po fakcie jakie przesłanki zdecydowały o podjęciu przez system określonej decyzji (efekt tzw. black box’a). W medycynie koniecznie trzeba takich sytuacji unikać.
- Prywatność i ochrona danych osobowych. Systemy SI w medycynie wymagają dostępu do ogromnych ilości danych pacjentów, ponieważ muszą one być trenowane na prawdziwych danych w tym celu, aby mogły działać lepiej i skuteczniej. Tymczasem dane te, dane indywidualnych pacjentów agregowane w przeróżnych systemach są zwykle danymi wrażliwymi i powinny być szczególnie chronione (m.in. Rozporządzenie RODO).
Wprowadzenie sztucznej inteligencji do medycyny otwiera ogromne możliwości, ale jednocześnie stawia przed systemami prawnymi i etycznymi nowe wyzwania. Unijne przepisy próbują stawić czoła tym problemom i wskazują pewne rozwiązania, ale kluczowym będzie, jak zwykle w tego typu sytuacjach, praktyka stosowania istniejącego prawa. Na etapie wdrożeń systemów AI do organizacji na pewno niezbędnym stanie się współdziałanie lekarzy, prawników, inżynierów i etyków, aby technologia mogła służyć ludziom w sposób odpowiedzialny i bezpieczny..