fot. freepik/pressfoto

Czy można stosować sztuczną inteligencję w leczeniu pacjentów?

Przepisy prawa nie zakazują stosowania sztucznej inteligencji w procesie leczenia pacjenta – podkreślił rzecznik praw pacjenta Bartłomiej Chmielowiec. Zwrócił uwagę, że lekarz udzielający pacjentowi świadczeń zdrowotnych jest odpowiedzialny za postawienie diagnozy, wdrożone leczenia i nadzór nad nim i nad stanem zdrowia pacjenta.

Naczelna Izba Lekarska pod koniec maja znowelizowała Kodeks Etyki Lekarskiej. Dodano w nim m.in. art. 12 mówiący, że „Lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji”.

Wykorzystanie algorytmów sztucznej inteligencji (AI) jest możliwe przy spełnieniu 4 warunków: poinformowania pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja; uzyskania świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym; zastosowania algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty, a także podjęcia ostatecznej decyzji diagnostycznej i terapeutycznej zawsze przez lekarza.

>>> Sztuczna inteligencja wydaje się bardziej moralna od ludzi

Rzecznik praw pacjenta Bartłomiej Chmielowiec, pytany przez PAP o wykorzystanie przez lekarzy AI w kontekście praw pacjenta przypomniał, że prawa pacjenta wynikają przede wszystkim z ustawy z 6 listopada 2008 r. o prawach pacjenta i Rzeczniku Praw Pacjenta, natomiast obowiązki każdego lekarza i lekarza dentysty oraz zasady wykonywania zawodu zostały uregulowane w ustawie z dnia 5 grudnia 1996 r. o zawodach lekarza i lekarza dentysty.

„Przepisy powyższych aktów prawnych zobowiązują przede wszystkim do udzielania świadczeń zdrowotnych zgodnych z aktualną wiedzą medyczną oraz z należytą starannością. Przepisy prawa nie zakazują stosowania sztucznej inteligencji w procesie leczenia pacjenta” – zaznaczył.

Rzecznik Praw Pacjenta ocenił, że „AI wspiera personel medyczny w trakcie udzielania świadczeń zdrowotnych, tym niemniej za organizację bezpiecznych warunków leczenia odpowiada podmiot udzielający świadczeń zdrowotnych, a za postawienie diagnozy, wdrożone leczenia i nadzór nad nim oraz stanem zdrowia pacjenta – lekarz udzielający pacjentowi świadczeń zdrowotnych, niezależnie od metod użytych w toku i na potrzeby tego procesu”.

Zauważył, że istotne w zakresie omawianej sprawy są dwa kolejne prawa pacjenta – do informacji oraz do wyrażenia zgody na udzielenie świadczeń zdrowotnych.

pl.freepik.com//freepik

Chmielowiec przypomniał, że pacjent ma prawo do wyrażenia zgody na badanie i leczenie, po uzyskaniu informacji o stanie swojego zdrowia, rozpoznaniu, proponowanych oraz możliwych metod diagnostycznych i leczniczych, dających się przewidzieć następstwach ich zastosowania albo zaniechania, wynikach leczenia oraz rokowaniu.

„Jeżeli zatem w danej metodzie diagnostycznej zastosowano mechanizmy sztucznej inteligencji należy o tym pacjenta poinformować i udzielić mu wyjaśnień w tym zakresie w ramach posiadanej wiedzy” – dodał.

Konieczność rozwoju sztucznej inteligencji w medycynie zauważył resort zdrowia. Pod koniec czerwca podczas posiedzenia sejmowej podkomisji stałej do spraw organizacji ochrony zdrowia zastępca dyrektora departamentu innowacji w MZ Hubert Życiński przekazał, że przewidywane jest powstanie co najmniej dwóch usług opartych na sztucznej inteligencji – pierwsze z narzędzi ma wspomagać analizę stanu zdrowia pacjenta, drugie wspomagać decyzje diagnostyczne i kliniczne. „Jedno z tych narzędzi będzie kierowane bezpośrednio do pacjentów, drugie do kadry medycznej” – uszczegółowił.

>>> Hiroszima: sztuczna inteligencja i etyka tematem międzyreligijnej konferencji

Na początku 2024 roku Światowa Organizacja Zdrowia (WHO) zaktualizowała wytyczne dotyczące wykorzystania AI w ochronie zdrowia publikując raport „Etyka i zarządzanie sztuczną inteligencją w służbie zdrowia: wytyczne dotyczące dużych modeli multimodalnych”. W dokumencie przedstawiono 40 zaleceń, które powinny wziąć pod uwagę rządy, firmy technologiczne oraz podmioty świadczące opiekę zdrowotną, aby zapewnić odpowiednie wykorzystanie dużych modeli multimodalnych (LMMs) w celu promowania zdrowia i ochrony zdrowia populacji.

LMM to typ generatywnej sztucznej inteligencji (AI), który, jak wskazał WHO, ma potencjał poprawy opieki zdrowotnej. W ocenie WHO sztuczna inteligencja w ochronie zdrowia może znaleźć zastosowanie m.in. w diagnostyce i opiece klinicznej, zadaniach administracyjnych, kształceniu kadr medycznych czy badaniach naukowych i rozwoju leków. 

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze