Obrazek poglądowy/fot. PAP/EPA/RITCHIE B. TONGO

Sztuczna inteligencja oceni, kto powinien się urodzić, a kto nie. I nie powie dlaczego 

Może się okazać, że na rękach będziemy nosić zegarki, które będą na bieżąco sprawdzać stan naszego ciała i wskazywać, czy czasem nie powinniśmy udać się do lekarza. O szansach i zagrożeniach z AI (także o tym czy można się w sztucznej inteligencji… zakochać) rozprawiano podczas jednego z paneli w ramach sympozjum dotyczącego encykliki Evangelium vitae Jana Pawła II. 

26 i 27 lutego w Kazimierzu Biskupim odbywało się 25. Sympozjum Teologiczno-Familiologiczne pt. Encyklika „Evangelium Vitae” 1995-2025. Aktualizacja problematyki i współczesne wyzwania. Mnie najbardziej interesowały wykłady dotyczące sztucznej inteligencji oraz szans i zagrożeń w jej stosowaniu w świetle powyższej encykliki Jana Pawła II. Oczywiście papież nie był wówczas świadomy, że w drugiej dekadzie XX w. pojawi się AI w obecnej formie, lecz – jak wskazywali paneliści – wskazania zawarte w tym dokumencie można zastosować do interpretacji zjawisk nieobecnych w czasie, gdy on powstawał. Obok informacji zawartych w wybranych konferencjach i wniosków prelegentów, będę zamieszczał również własne spostrzeżenia – nie jest to zatem przegląd wypowiedzi i opinii uczestników sympozjum, lecz moje refleksje na ich podstawie. 

AI i planowanie rodziny 

Sztuczna inteligencja może być wykorzystywana w regulacji poczęć, w selekcji embrionów w procedurze in-vitro, może wspomagać w opiece prenatalnej i paliatywnej, a jednocześnie można jej używać w tych dziedzinach do aborcji i eutanazji. O szansach i zagrożeniach związanych ze sztuczną inteligencją we wspomnianych obszarach mówił kl. Mateusz Dańczak MSF.  

fot. Piotr Ewertowski/misyjne.pl

Prelegent zauważył, że w Indiach Chatbot AI działa już jako cyfrowy doradca w sprawie seksualności i kontroli urodzin. AI wykorzystuje się również w systemach monitorowania płodności. Uznaje się to już w wielu krajach jako jedną z metod planowania rodziny. System analizuje dane kobiety i wskazuje konkretne dni płodne i niepłodne. – AI może analizować dane demograficzne i prognozować trendy populacyjne – zauważa Mateusz Dańczak MSF. Może to pomagać rządom we wdrażaniu polityk planowania rodziny, co oczywiście stanowi pewne zagrożenie. Przy pomocy sztucznej inteligencji państwo może chcieć kontrolować populację, zachęcając czy nawet zmuszając do ograniczania liczby potomstwa. Jan Paweł II w Evangelium vitae oczywiście podkreślał niemoralność tego typu „mentalności antykoncepcyjnej”. Pójdźmy jednak jeszcze głębiej. Dany rząd mógłby chcieć ograniczyć liczbę potomstwa na przykład wśród ludzi ubogich lub o określonym kolorze skóry, a promować dzietność wśród tych, których uznaje za „lepszych”. 

Jakimi kryteriami kieruje się AI? 

Kolejny problem stanowi fakt, że sposób „myślenia” AI jest dla nas tajemnicą. Używając sztucznej inteligencji zazwyczaj nie wiemy, jakimi kryteriami kieruje się ona, gdy wybiera, selekcjonuje i oznacza dane. W tym wypadku to już nie określone rządy mogą chcieć intencjonalnie ograniczać określoną populacje, lecz właśnie sztuczna inteligencja może to robić z powodów, które nie będą nam znane. Widać to wyraźnie na przykładzie procedury in-vitro. Dotąd embriolodzy dokonywali selekcji i tworzyli ranking embrionów. Starsza metoda statyczna polegała na analizie pojedynczego zdjęcia embrionu. Nowsza z kolei wykorzystuje filmy poklatkowe pokazujące rozwój embrionu i jego „przydatność”. AI miałoby analizować zdjęcia embrionów, automatycznie oznaczać ich cechy i przewidywać wyniki implementacji. Najlepsze wyniki uzyskują algorytmy deep-learning, czyli głębokiego uczenia się. Problem polega na tym, że często nie wiemy, czym kieruje się AI, ona nie mówi jak do tego doszła, ale sama decyduje o tym, co wybiera. 

fot. Piotr Ewertowski/misyjne.pl

Można używać trzech metod: black-box – procedurę, która nie pokazuje nic z procesu, który zaowocował wyborem danego embrionu; made-box, która częściowo wykorzystuje black-box i metody interpretowalne; glass-box, gdzie mamy w pełni interpretowalne metody. Okazuje się, że metoda black-box jest najbardziej efektywna. Pokusa jej zastosowania w różnych dziedzinach będzie więc ogromna. Zwłaszcza, że skuteczność AI jest bardzo wysoka. Kleryk Mateusz Dańczak MSF przywołał badanie, w którym embriolodzy bez AI mieli skuteczność w przewidywaniu szans na ciąże na poziomie ok. 37 proc., embriolodzy, którzy posiłkowali się  AI osiągnęli wynik 50 proc. Najbardziej uderza fakt, że AI pracujące samodzielnie miało 65,5. proc. skuteczności, czyli dużo więcej niż zespół ludzi. 

Sztuczna inteligencja wiąże bowiem dane dużo lepiej niż ludzie. Może to prowadzić zatem do coraz większego procesu dehumanizacji procesów związanych z in-vitro czy w ogóle regulacją urodzeń. AI nie wymaga zmiany infrastruktury laboratoriów, co dodatkowo może zwiększać pokusę oddania w tych dziedzinach pola sztucznej inteligencji. Oczywiście, według Jana Pawła II, generalnie sztuczne techniki reprodukcji są niemoralne, bo oddzielają od ludzkiego wymiaru prokreacji. 

AI jako lekarz i psychoterapeuta 

Chociaż w poprzednich akapitach wskazano zagrożenia, to przecież AI daje wiele szans, które w sposób efektywny i moralny mogą poprawić naszą jakość życia. Mateusz Dańczak wskazał, że sztuczna inteligencja może wesprzeć zdrowie i szanse na przeżycie w okresie prenatalnym. AI potrafi dobrze przewidywać na podstawie danych zagrożenia w danej ciąży oraz układać odpowiednie terapie. Według Jana Pawła II techniki prenatalne są dobre, jeśli „są podejmowane w celu wskazania ewentualnych terapii”. Jednocześnie mogą niestety być używane do wskazywania przesłanek do aborcji, na przykład gdy AI przewiduje choroby czy inne wady płodu. Podobnie wygląda to w przypadku wspierania opieki paliatywnej, poprawy komunikacji i szkoleń personelu, optymalizacji pracy zespołów medycznych. Z drugiej strony, może być wykorzystywania do oceny wniosków o eutanazję. 

Ksiądz dr Jan Kobak mówił, że z AI wiąże się nadzieje, co do prognozowania i profilaktyki poważnych chorób, takich jak nowotwory. Może się okazać, że na rękach będziemy nosić zegarki, które będą na bieżąco sprawdzać stan naszego ciała i wskazywać, czy czasem nie powinniśmy udać się na badania do lekarza.  

Podczas sympozjum swoje świadectwo wygłosili Katarzyna i Piotr Romańscy, rodzice siódemki dzieci, wskazując na współczesną „mentalność antykoncepcyjną” także w środowiskach katolickich/fot. Piotr Ewertowski/misyjne.pl

Sztuczna inteligencja jest także w stanie, dzięki wysokiej jakości danym na temat danej osoby, umiejętnie i z empatią porozumiewać się z nią. Dużo lepiej niż człowiek będzie potrafiła pocieszyć czy nawet skutecznie napomnieć, nie wywołując przy tym dyskomfortu. W konsekwencji może posiadać umiejętność opracowywania skuteczniejszych terapii czy metod zarządzania zespołem, zastępując w tym człowieka. Jak już wspomnieliśmy, taka dehumanizacja jest groźna, zwłaszcza że w tym najbardziej efektywnych metodach AI nie wiemy, czym ona się kieruje, proponując dane rozwiązania. Wiemy tylko, że robi to skuteczniej niż ludzie. Ksiądz Kobak wskazywał również, że ze względu na generowanie doskonale dopasowanych odpowiedzi relacje z AI mogą przybierać silnie emocjonalny wymiar, prowadząc nawet do zakochania. Czy będziemy w stanie wejść w relacje międzyludzkie, które czasem bywają trudniejsze, gdy obok zawsze będziemy mogli sięgnąć po bardziej „empatyczną” i lepiej odgadującą nasze potrzeby maszynę? Nie możemy zapominać, że to ostatecznie maszyna.

Mateusz Dańczak, przywołując wypowiedź Jana Pawła II o początkach internetu, podkreśla, że podobnie jak papież zauważył, że Kościół podchodzi do tego narzędzia z ufnością i może być ono wykorzystane w sposób dobry, jeśli robi się to umiejętnie i ze „świadomością jego siły i jego słabości”. Prelegent stwierdził, że można to odnieść także do AI. 

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze