Strona głównaWiadomościŚwiatTak działają algorytmy YouTube. Cenzura prawicowych treści

Tak działają algorytmy YouTube. Cenzura prawicowych treści

-

- Reklama -

Algorytmy YouTube rekomendują oglądającym mniej ekstremistycznych treści – dowodzi szwajcarsko-amerykański zespół naukowców. Wyniki badania zostały opublikowane w PNAS.

Naukowcy ze Swiss Federal Institute of Technology w Lozannie i Uniwersytetu Pensylwanii użyli dwóch typów botów, aby odtworzyć sposób, w jaki ludzie wchodzą w interakcję na platformie społecznościowej YouTube.

Manoel Horta Ribeiro, jeden ze współautorów badania przyznał w rozmowie z „New Scientist”, że od dawna próbował znaleźć odpowiedź na pytanie, jaki mechanizm mógłby powstrzymać algorytmy YouTube przed sugerowaniem kolejnych rekomendacji treści „ekstremistycznych” w pasku bocznym ciągle widocznym dla użytkownika.

Zanim badacze przystąpili do eksperymentu, wytrenowali dwa boty (każdy z własnym kontem YouTube), dając im do oglądania tę samą sekwencję filmów, aby upewnić się, że mają takie same preferencje wobec algorytmu YouTube.

Następnie bot kontrolny śledził system rekomendacji filmów dla prawdziwych użytkowników YouTube, a bot „alternatywny” zupełnie go ignorował. Dodatkowo, bot „alternatywny” został przeszkolony pod kątem przestrzegania określonych zasad, mających na celu oddzielenie zachowania użytkownika od wpływu algorytmu.

W badaniu wzięło udział 88 tys. użytkowników YouTube. Okazało się, że poleganie wyłącznie na systemie rekomendacyjnym skutkuje wyświetlaniem mniej radykalnych treści.

W drugim eksperymencie naukowcy sprawdzili, po jakim czasie z listy rekomendowanych treści znikną filmy o profilu „skrajnie prawicowym”.

– Algorytmy rekomendacji były krytykowane za to, że polecają problematyczne treści użytkownikom długo po tym, jak stracili nimi zainteresowanie – powiedział portalowi Techxplore – Homa Hosseinmardi z Wydziału Computer and Information Science Uniwersytetu Pensylwanii, pierwszy autor artykułu w PNAS.

Podczas gdy boty kontrolne podczas całego eksperymentu kontynuowały oglądanie „skrajnie prawicowej” treści, boty alternatywne „przełączały” użytkownika z jednego zestawu preferencji (oglądanie filmów „skrajnie prawicowych”) na inne (oglądanie filmów umiarkowanie stronniczych).

W miarę jak alternatywne boty zmieniały swoje preferencje dotyczące treści, badacze śledzili stronniczość polecanych filmów na pasku bocznym i stronie głównej.

– Średnio po obejrzeniu około 30 filmów, zawartość polecanych treści na pasku bocznym zmieniała się w stronę umiarkowanego profilu – powiedział Hosseinmardi. I dodał, że rekomendacje na stronie głównej dostosowywały się wolniej do nowego profilu.

– Wyświetlane rekomendacje na stronie głównej bardziej odpowiadały preferencjom użytkownika, a rekomendacje na pasku bocznym były bardziej powiązane z charakterem aktualnie oglądanego filmu – zauważył Hosseinmardi.

Naukowcy mają nadzieję, że ich narzędzie będzie można wykorzystać do badania interakcji między preferencjami użytkowników, a sztuczną inteligencją wykorzystywaną do tworzenia platform społecznościowych.

Jak zauważa „New Scientist”, najnowsze ustalenia opublikowane w PNAS są przeciwieństwem wyników badań przeprowadzonych przed 2019 r., z których wynikało, że YouTube sugerował treści ekstremistyczne częściej niż Gab, portal społecznościowy popularny wśród alt-prawicy. Sugeruje to, że zmiana algorytmów wprowadzona w 2019 r. faktycznie działa.

„W tym roku YouTube wprowadził ponad 30 odrębnych zmian w swoim systemie rekomendacji. Dziś firma twierdzi, że system ten uczy się na podstawie ponad 80 miliardów różnych parametrów, a jego ‘współczynnik wyświetleń naruszających zasady’ (VVR) – określający jaki procent wyświetleń na całej platformie pochodzi z filmów naruszających jego własne zasady – wynosi około 0,1 procent. YouTube twierdzi, że jego VVR spadł od czasu rozpoczęcia śledzenia tego wskaźnika w 2017 r., ale nie powiedział, z jakiego poziomu spadł” – pisze „New Scientist”.

Artykuł opublikowany w PNAS „w przekonujący sposób podważa poważne i dobrze udokumentowane zarzuty stawiane przez ostatnie sześć lat, jakoby algorytmy YouTube rozpowszechniały lub udostępniały treści ekstremalne i skrajnie prawicowe” – powiedział w rozmowie z „New Scientist” Guy Healy z Free University of Brussels (VUB) w Belgii. Zaznaczył też, że bardzo istotny jest ciągły audyt platform społecznościowych i badanie interakcji użytkowników.

Na uwagę zasługuje też fakt, że aż 96 proc. czasu spędzonego w internecie ludzie poświęcają na wszystko, tylko nie konsumowanie informacji. W grudniu 2023 r. prof. Magdalena Wojcieszak z Uniwersytetu Kalifornijskiego mówiła w rozmowie z PAP, że częściej niż informacji społeczno-politycznych, ludzie szukają informacji o wyniku meczu, prognozie pogody, czy jak ugotować konkretną potrawę.

Źródło:PAP

Najnowsze