Fot. m.teerapat/freepik.com

Algorytmy YouTube’a rekomendują mniej ekstremistycznych treści

Algorytmy YouTube’a rekomendują oglądającym mniej ekstremistycznych treści – dowodzi szwajcarsko-amerykański zespół naukowców. Wyniki badania zostały opublikowane w PNAS.

Naukowcy ze Swiss Federal Institute of Technology w Lozannie i Uniwersytetu Pensylwanii użyli dwóch typów botów, aby odtworzyć sposób, w jaki ludzie wchodzą w interakcję na platformie społecznościowej YouTube.

Manoel Horta Ribeiro, jeden ze współautorów badania przyznał w rozmowie z „New Scientist”, że od dawna próbował znaleźć odpowiedź na pytanie, jaki mechanizm mógłby powstrzymać algorytmy You Tube’a przed sugerowaniem kolejnych rekomendacji treści ekstremistycznych w pasku bocznym ciągle widocznym dla użytkownika.

Zanim badacze przystąpili do eksperymentu, wytrenowali dwa boty (każdy z własnym kontem na YouTubie), dając im do oglądania tę samą sekwencję filmów, aby upewnić się, że mają takie same preferencje wobec algorytmu YouTube’a.

>>> TikTok, YouTube i Instagram: katoliccy influencerzy stawiają na wiarę i modlitwę

Następnie bot kontrolny śledził system rekomendacji filmów dla prawdziwych użytkowników YouTube’a, a bot „alternatywny” zupełnie go ignorował. Dodatkowo, bot „alternatywny” został przeszkolony pod kątem przestrzegania określonych zasad mających na celu oddzielenie zachowania użytkownika od wpływu algorytmu.

W badaniu wzięło udział 88 tys. użytkowników YouTube’a. Okazało się, że poleganie wyłącznie na systemie rekomendacyjnym skutkuje wyświetlaniem mniej radykalnych treści.

W drugim eksperymencie naukowcy sprawdzili, po jakim czasie z listy rekomendowanych treści znikną filmy o profilu skrajnie prawicowym.

„Algorytmy rekomendacji były krytykowane za to, że polecają problematyczne treści użytkownikom długo po tym, jak stracili nimi zainteresowanie” – powiedział portalowi Techxplore – Homa Hosseinmardi z Wydziału Computer and Information Science Uniwersytetu Pensylwanii, pierwszy autor artykułu w PNAS.

Fot. Pixabay/Kaufdex

Podczas gdy boty kontrolne podczas całego eksperymentu kontynuowały oglądanie skrajnie prawicowej treści, boty alternatywne „przełączały” użytkownika z jednego zestawu preferencji (oglądanie filmów skrajnie prawicowych) na inne (oglądanie filmów umiarkowanie stronniczych).

W miarę jak alternatywne boty zmieniały swoje preferencje dotyczące treści, badacze śledzili stronniczość polecanych filmów na pasku bocznym i stronie głównej. „Średnio po obejrzeniu około 30 filmów, zawartość polecanych treści na pasku bocznym zmieniała się w stronę umiarkowanego profilu” – powiedział Hosseinmardi. I dodał, że rekomendacje na stronie głównej dostosowywały się wolniej do nowego profilu. „Wyświetlane rekomendacje na stronie głównej bardziej odpowiadały preferencjom użytkownika, a rekomendacje na pasku bocznym były bardziej powiązane z charakterem aktualnie oglądanego filmu” – zauważył Hosseinmardi.

Naukowcy mają nadzieję, że ich narzędzie będzie można wykorzystać do badania interakcji między preferencjami użytkowników, a sztuczną inteligencją wykorzystywaną do tworzenia platform społecznościowych.

>>> Co drugi nastolatek czerpie wiedzę o finansach z TikToka i YouTube’a

Jak zauważa „New Scientist”, najnowsze ustalenia opublikowane w PNAS są przeciwieństwem wyników badań przeprowadzonych przed 2019 r., z których wynikało, że YouTube sugerował treści ekstremistyczne częściej niż Gab, portal społecznościowy popularny wśród alt-prawicy. Sugeruje to, że zmiana algorytmów wprowadzona w 2019 r. faktycznie działa.

„W tym roku YouTube wprowadził ponad 30 odrębnych zmian w swoim systemie rekomendacji. Dziś firma twierdzi, że system ten uczy się na podstawie ponad 80 miliardów różnych parametrów, a jego ‘współczynnik wyświetleń naruszających zasady’ (VVR) – określający jaki procent wyświetleń na całej platformie pochodzi z filmów naruszających jego własne zasady – wynosi około 0,1 procent. YouTube twierdzi, że jego VVR spadł od czasu rozpoczęcia śledzenia tego wskaźnika w 2017 r., ale nie powiedział, z jakiego poziomu spadł” – pisze „New Scientist”.

Artykuł opublikowany w PNAS „w przekonujący sposób podważa poważne i dobrze udokumentowane zarzuty stawiane przez ostatnie sześć lat, jakoby algorytmy YouTube rozpowszechniały lub udostępniały treści ekstremalne i skrajnie prawicowe” – powiedział w rozmowie z „New Scientist” Guy Healy z Free University of Brussels (VUB) w Belgii. Zaznaczył też, że bardzo istotny jest ciągły audyt platform społecznościowych i badanie interakcji użytkowników.

Na uwagę zasługuje też fakt, że aż 96 proc. czasu spędzonego w internecie ludzie poświęcają na wszystko, tylko nie konsumowanie informacji. W grudniu 2023 r. prof. Magdalena Wojcieszak z Uniwersytetu Kalifornijskiego mówiła w rozmowie z PAP, że częściej niż informacji społeczno-politycznych, ludzie szukają informacji o wyniku meczu, prognozie pogody, czy jak ugotować konkretną potrawę.

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze