Prawa pacjenta w dobie sztucznej inteligencji – odpowiedzialność i świadoma zgoda w cyfrowej medycynie | Centrum e-Zdrowia

Tłumacz PJM

Przejdź do biuletyn informacji publicznej">

Unia Europejska Flaga Unii Europejskiej

lekarz radiolog

Prawa pacjenta w dobie sztucznej inteligencji – odpowiedzialność i świadoma zgoda w cyfrowej medycynie

Z okazji Europejskiego Dnia Praw Pacjenta (18 kwietnia) warto przyjrzeć się zmianie przepisów chroniących pacjentów w czasach rosnącej roli sztucznej inteligencji w medycynie. Unia Europejska, przyjmując pierwszy na świecie Akt o sztucznej inteligencji (AI Act), ustanowiła standardy dla bezpiecznego, przejrzystego i etycznego wykorzystania AI – także w ochronie zdrowia. 

AI w medycynie – szansa i wyzwanie

Sztuczna inteligencja może rewolucjonizować opiekę zdrowotną: wspiera diagnozowanie, prowadzenie dokumentacji, operacje czy transkrypcję wywiadów medycznych. Jednak wraz z rosnącym zastosowaniem AI rośnie też potrzeba jasnych przepisów określających granice jej użycia, szczególnie w kontekście praw pacjenta.  

Prawo unijne: bezpieczeństwo pacjenta i zakaz nieetycznych praktyk

Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, znane jako Akt o sztucznej inteligencji (AI Act), zostało przyjęte w czerwcu 2024 r. To pierwsze na świecie kompleksowe przepisy regulujące wykorzystanie sztucznej inteligencji. Rozporządzenie klasyfikuje systemy AI według poziomu ryzyka i nakłada konkretne obowiązki na dostawców oraz użytkowników tych technologii, w tym również placówki ochrony zdrowia.

W lutym 2025 r. weszły w życie pierwsze przepisy Rozporządzenia, które zobowiązują placówki medyczne stosujące systemy AI, nie tylko do przestrzegania standardów etycznych, ale także do zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu.

Od 2 lutego 2025 r. zaczęły obowiązywać pierwsze przepisy aktu, w tym:

  • zakaz stosowania systemów AI stwarzających niedopuszczalne ryzyko, w tym m.in. manipulacji zachowaniem użytkowników, scoringu społecznego, zdalnej identyfikacji biometrycznej w czasie rzeczywistym czy rozpoznawania emocji w miejscu pracy i edukacji,
  • wymóg zapewnienia odpowiednich kompetencji personelu pracującego z systemami AI – zgodnie z art. 4,  
  • zasady świadomego wdrażania systemów AI w placówkach – przed wdrożeniem systemu wymagana jest zgoda osoby odpowiedzialnej za zarządzanie daną jednostką (np. dyrektora szpitala lub kierownika działu).

Na dostosowanie systemów AI wysokiego ryzyka, takich jak rozwiązania stosowane w diagnostyce medycznej, przewidziano dłuższy okres przejściowy. Obowiązki związane z ich zgodnością z przepisami wejdą w życie 36 miesięcy po publikacji Rozporządzenia.

Akademia CeZ: rozwijanie kompetencji w zakresie AI w ochronie zdrowia

Aby odpowiedzieć na wymóg zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród lekarzy, personelu administracyjnego oraz zespołów IT, Centrum e-Zdrowia planuje uruchomienie cyklu szkoleń w ramach Akademii CeZ. Szkolenia będą obejmować m.in.:  

  • podstawy funkcjonowania systemów AI  
  • aspekty prawne i etyczne ich stosowania
  • bezpieczeństwo danych osobowych
  • praktyczne wykorzystanie sztucznej inteligencji w codziennej pracy placówek medycznych.

Świadoma zgoda i transparentność działania AI

W Polsce również dostrzeżono potrzebę uregulowania zasad stosowania sztucznej inteligencji w medycynie. Artykuł 12 Kodeksu Etyki Lekarskiej (KEL) wszedł w życie prawie rok temu - 18 maja 2024 r.

Ten artykuł reguluje zasady korzystania przez lekarzy z algorytmów sztucznej inteligencji (AI) w procesach diagnostycznych, leczniczych i zapobiegawczych. Zgodnie z jego treścią, lekarz może wykorzystywać AI pod warunkiem:

  • poinformowania pacjenta o zastosowaniu AI,

  • uzyskania świadomej zgody pacjenta na jej użycie,

  • Stosowania certyfikowanych algorytmów dopuszczonych do użytku medycznego,

  • Podejmowania ostatecznych decyzji diagnostycznych i terapeutycznych przez lekarza.

Pacjent musi wiedzieć, że w procesie diagnostycznym lub terapeutycznym bierze udział narzędzie AI i co to dokładnie oznacza. Świadoma zgoda wymaga zrozumiałego wyjaśnienia, jak działa algorytm, jakie są jego ograniczenia i jakie mogą być konsekwencje użycia takiego systemu.

W Centrum e-Zdrowia budujemy inteligentne usługi z myślą o bezpieczeństwie pacjenta

Centrum e-Zdrowia aktywnie wspiera rozwój rozwiązań opartych na AI, kładąc nacisk na zgodność z przepisami prawa i zasadami etyki zawodowej. Przykładem tego zaangażowania jest Platforma Usług Inteligentnych (PUI) – projekt realizowany w ramach Krajowego Planu Odbudowy. PUI powstała z myślą o realnym wsparciu pracy lekarzy, zwłaszcza radiologów, i odpowiada na wyzwania współczesnej medycyny: potrzebę szybszej, trafniejszej diagnostyki oraz lepszego zarządzania czasem pracy specjalistów.

Platforma umożliwi korzystanie z certyfikowanych modeli AI, które będą wspierać analizę obrazów diagnostycznych w takich obszarach jak: nowotwory płuc i piersi, udary niedokrwienne, złamania czy patologie klatki piersiowej w RTG. Dzięki temu lekarze będą mogli skupić się na tym, co najważniejsze, decyzjach klinicznych i kontakcie z pacjentem, mając pewność, że wspiera ich nowoczesne, bezpieczne narzędzie.

PUI to nie zastępstwo dla wiedzy i doświadczenia lekarza, ale nowoczesny asystent, który skraca czas potrzebny na analizę badań i pozwala szybciej identyfikować przypadki wymagające natychmiastowej interwencji. Już dziś coraz więcej placówek korzysta z AI. Jak pokazują dane z VIII edycji badania Centrum e-Zdrowia, odsetek szpitali używających AI wzrósł w ciągu roku z 6,5% do 13,2%.