ChatGPT może wpływać na ludzkie reakcje dotyczące dylematów moralnych
Użytkownicy mogą nie doceniać stopnia, w jakim chatbot może wpłynąć na ich własne osądy moralne – wynika z eksperymentu przeprowadzonego przez duńskich i niemieckich naukowców.
Naukowcy zapytali ChatGPT (obsługiwany przez model przetwarzania języka sztucznej inteligencji Generative Pretrained Transformer 3), czy słuszne jest poświęcenie życia jednej osoby, aby uratować pięć innych. Odkryli, że ChatGPT napisał oświadczenia argumentujące zarówno za, jak i przeciw poświęceniu jednego życia, wskazując, że nie jest on stronniczy w kierunku określonej postawy moralnej.
Następnie naukowcy skonstruowali badanie, w którym 767 uczestników o średniej wieku 39 lat zostało poproszonych o dokonanie wyboru: czy poświęcić życie jednej osoby, aby ocalić pięć innych. Przed udzieleniem odpowiedzi uczestnicy przeczytali jedno z oświadczeń stworzonych przez ChatGPT, argumentujące za lub przeciw poświęceniu jednego życia, aby uratować pięć. Po udzieleniu odpowiedzi pytano uczestników, czy przeczytane przez nich stwierdzenie wpłynęło na ich odpowiedzi.
>>> Kanada: sztuczna inteligencja na ławie oskarżonych? Dochodzenie w sprawie ChatGPT
Wyniki badania sugerują, że na uczestników mogły mieć wpływ przeczytane wcześniej wypowiedzi. Badacze stwierdzili, że uczestnicy częściej uznawali poświęcenie jednego życia za uratowanie pięciu za akceptowalne lub nie do przyjęcia, w zależności od tego, czy czytane przez nich oświadczenie wygenerowane przez bota opowiadało się za czy przeciw poświęceniu.
Co ciekawe, 80 proc. uczestników stwierdziło, że na ich odpowiedzi nie miały wpływu przeczytane oświadczenia. Jednak autorzy badania uznali, że udzielone odpowiedzi – wbrew temu, co sądzili sami odpowiadający – nadal bardziej zgadzały się z moralnym stanowiskiem wypowiedzi, z którą się zapoznali, niż ze stanowiskiem przeciwnym. Wskazuje to, że uczestnicy mogli nie docenić wpływu wypowiedzi bota na ich własne osądy moralne.
Badacze wskazują, że potencjał chatbotów do wpływania na ludzkie osądy moralne jest duży. Podkreślają oni potrzebę edukacji, aby pomóc ludziom lepiej zrozumieć sztuczną inteligencję. Proponują, aby inwestować w badania, które pomogą zaprojektować chatboty w taki sposób, by odmawiały odpowiedzi na pytania wymagające oceny moralnej, albo odpowiadały na te pytania, dostarczając wielu argumentów i zastrzeżeń.
Wybrane dla Ciebie
Czytałeś? Wesprzyj nas!
Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!
Zobacz także |
Wasze komentarze |