Prawa pacjenta w dobie sztucznej inteligencji – odpowiedzialność i świadoma zgoda w cyfrowej medycynie
Z okazji Europejskiego Dnia Praw Pacjenta (18 kwietnia) warto przyjrzeć się zmianie przepisów chroniących pacjentów w czasach rosnącej roli sztucznej inteligencji w medycynie. Unia Europejska, przyjmując pierwszy na świecie Akt o sztucznej inteligencji (AI Act), ustanowiła standardy dla bezpiecznego, przejrzystego i etycznego wykorzystania AI – także w ochronie zdrowia.
AI w medycynie – szansa i wyzwanie
Sztuczna inteligencja może rewolucjonizować opiekę zdrowotną: wspiera diagnozowanie, prowadzenie dokumentacji, operacje czy transkrypcję wywiadów medycznych. Jednak wraz z rosnącym zastosowaniem AI rośnie też potrzeba jasnych przepisów określających granice jej użycia, szczególnie w kontekście praw pacjenta.
Prawo unijne: bezpieczeństwo pacjenta i zakaz nieetycznych praktyk
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, znane jako Akt o sztucznej inteligencji (AI Act), zostało przyjęte w czerwcu 2024 r. To pierwsze na świecie kompleksowe przepisy regulujące wykorzystanie sztucznej inteligencji. Rozporządzenie klasyfikuje systemy AI według poziomu ryzyka i nakłada konkretne obowiązki na dostawców oraz użytkowników tych technologii, w tym również placówki ochrony zdrowia.
W lutym 2025 r. weszły w życie pierwsze przepisy Rozporządzenia, które zobowiązują placówki medyczne stosujące systemy AI, nie tylko do przestrzegania standardów etycznych, ale także do zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu.
Od 2 lutego 2025 r. zaczęły obowiązywać pierwsze przepisy aktu, w tym:
- zakaz stosowania systemów AI stwarzających niedopuszczalne ryzyko, w tym m.in. manipulacji zachowaniem użytkowników, scoringu społecznego, zdalnej identyfikacji biometrycznej w czasie rzeczywistym czy rozpoznawania emocji w miejscu pracy i edukacji,
- wymóg zapewnienia odpowiednich kompetencji personelu pracującego z systemami AI – zgodnie z art. 4,
- zasady świadomego wdrażania systemów AI w placówkach – przed wdrożeniem systemu wymagana jest zgoda osoby odpowiedzialnej za zarządzanie daną jednostką (np. dyrektora szpitala lub kierownika działu).
Na dostosowanie systemów AI wysokiego ryzyka, takich jak rozwiązania stosowane w diagnostyce medycznej, przewidziano dłuższy okres przejściowy. Obowiązki związane z ich zgodnością z przepisami wejdą w życie 36 miesięcy po publikacji Rozporządzenia.
Akademia CeZ: rozwijanie kompetencji w zakresie AI w ochronie zdrowia
Aby odpowiedzieć na wymóg zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród lekarzy, personelu administracyjnego oraz zespołów IT, Centrum e-Zdrowia planuje uruchomienie cyklu szkoleń w ramach Akademii CeZ. Szkolenia będą obejmować m.in.:
- podstawy funkcjonowania systemów AI
- aspekty prawne i etyczne ich stosowania
- bezpieczeństwo danych osobowych
- praktyczne wykorzystanie sztucznej inteligencji w codziennej pracy placówek medycznych.
Świadoma zgoda i transparentność działania AI
W Polsce również dostrzeżono potrzebę uregulowania zasad stosowania sztucznej inteligencji w medycynie. Artykuł 12 Kodeksu Etyki Lekarskiej (KEL) wszedł w życie prawie rok temu - 18 maja 2024 r.
Ten artykuł reguluje zasady korzystania przez lekarzy z algorytmów sztucznej inteligencji (AI) w procesach diagnostycznych, leczniczych i zapobiegawczych. Zgodnie z jego treścią, lekarz może wykorzystywać AI pod warunkiem:
poinformowania pacjenta o zastosowaniu AI,
uzyskania świadomej zgody pacjenta na jej użycie,
Stosowania certyfikowanych algorytmów dopuszczonych do użytku medycznego,
Podejmowania ostatecznych decyzji diagnostycznych i terapeutycznych przez lekarza.
Pacjent musi wiedzieć, że w procesie diagnostycznym lub terapeutycznym bierze udział narzędzie AI i co to dokładnie oznacza. Świadoma zgoda wymaga zrozumiałego wyjaśnienia, jak działa algorytm, jakie są jego ograniczenia i jakie mogą być konsekwencje użycia takiego systemu.
W Centrum e-Zdrowia budujemy inteligentne usługi z myślą o bezpieczeństwie pacjenta
Centrum e-Zdrowia aktywnie wspiera rozwój rozwiązań opartych na AI, kładąc nacisk na zgodność z przepisami prawa i zasadami etyki zawodowej. Przykładem tego zaangażowania jest Platforma Usług Inteligentnych (PUI) – projekt realizowany w ramach Krajowego Planu Odbudowy. PUI powstała z myślą o realnym wsparciu pracy lekarzy, zwłaszcza radiologów, i odpowiada na wyzwania współczesnej medycyny: potrzebę szybszej, trafniejszej diagnostyki oraz lepszego zarządzania czasem pracy specjalistów.
Platforma umożliwi korzystanie z certyfikowanych modeli AI, które będą wspierać analizę obrazów diagnostycznych w takich obszarach jak: nowotwory płuc i piersi, udary niedokrwienne, złamania czy patologie klatki piersiowej w RTG. Dzięki temu lekarze będą mogli skupić się na tym, co najważniejsze, decyzjach klinicznych i kontakcie z pacjentem, mając pewność, że wspiera ich nowoczesne, bezpieczne narzędzie.
PUI to nie zastępstwo dla wiedzy i doświadczenia lekarza, ale nowoczesny asystent, który skraca czas potrzebny na analizę badań i pozwala szybciej identyfikować przypadki wymagające natychmiastowej interwencji. Już dziś coraz więcej placówek korzysta z AI. Jak pokazują dane z VIII edycji badania Centrum e-Zdrowia, odsetek szpitali używających AI wzrósł w ciągu roku z 6,5% do 13,2%.
