Fot. Freepik/Freepik

Sztuczna inteligencja zubaża ludzką komunikację i myślenie

Chatboty SI ujednolicają sposób, w jaki ludzie mówią, piszą i myślą. Skutkiem może być ograniczenie zbiorowej mądrości ludzkości oraz jej zdolności do adaptacji – ostrzegają naukowcy.

Zdaniem autorów nowej pracy opublikowanej w piśmie „Trends in Cognitive Sciences” różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów SI do coraz większej liczby zadań.

Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność, a autorzy odczuwają mniejsze poczucie twórczości.

– Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników – mówi Zhivar Sourati z University of Southern California.

fot. Freepik

Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów.

– Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie – ostrzega specjalista.

>>> Powstał świetlny chip do sztucznej inteligencji

Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM-ów są dużo mniej zróżnicowane niż twórczość człowieka, a jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych. Na przykład opinie ludzi stają się zbliżone do wyrażanych przez SI, a ich myślenie bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne.

Systemy SI wpływają też często na oczekiwania ludzi, co może zmieniać kierunek ich pracy.

– Ponieważ duże modele językowe (LLM) są trenowane tak, aby wychwytywać i odtwarzać statystyczne regularności w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia – mówi Sourati.

Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów.

– Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei – wyjaśnia badacz.

Według naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.

Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.

– Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów – twierdzi Sourati.

– Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze