Fot. Freepik/Freepik
Sztuczna inteligencja zubaża ludzką komunikację i myślenie
Chatboty SI ujednolicają sposób, w jaki ludzie mówią, piszą i myślą. Skutkiem może być ograniczenie zbiorowej mądrości ludzkości oraz jej zdolności do adaptacji – ostrzegają naukowcy.
Zdaniem autorów nowej pracy opublikowanej w piśmie „Trends in Cognitive Sciences” różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów SI do coraz większej liczby zadań.
Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność, a autorzy odczuwają mniejsze poczucie twórczości.
– Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników – mówi Zhivar Sourati z University of Southern California.

Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów.
– Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie – ostrzega specjalista.
>>> Powstał świetlny chip do sztucznej inteligencji
Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM-ów są dużo mniej zróżnicowane niż twórczość człowieka, a jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych. Na przykład opinie ludzi stają się zbliżone do wyrażanych przez SI, a ich myślenie bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne.
Systemy SI wpływają też często na oczekiwania ludzi, co może zmieniać kierunek ich pracy.
– Ponieważ duże modele językowe (LLM) są trenowane tak, aby wychwytywać i odtwarzać statystyczne regularności w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia – mówi Sourati.

Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów.
– Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei – wyjaśnia badacz.
Według naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.
Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.
– Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów – twierdzi Sourati.
– Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.
Wybrane dla Ciebie
Czytałeś? Wesprzyj nas!
Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!
| Zobacz także |
| Wasze komentarze |
Watykan: seminarium o potrzebie zarządzania sztuczną inteligencją
Wirtualny asystent i kaplica otwierana aplikacją. Sztuczna inteligencja w polskim Kościele [REPORTAŻ]
Doktor Szymanski: ludzka i sztuczna inteligencja w medycynie powinny się wspierać






Wiadomości
Wideo
Modlitwy
Sklep
Kalendarz liturgiczny