Platformy społecznościowe sprzyjają dezinformacji

Platforma społecznościowa, która dąży do maksymalnego przyciągania zainteresowanych, rozpowszechnia często skrajne treści wśród swoich użytkowników o najbardziej skrajnych poglądach. Prawna regulacja algorytmów dla treści mogłaby ograniczyć skutki baniek informacyjnych.
Platformy społecznościowe sprzyjają dezinformacji

(©Envato)

„Stan Wirginia likwiduje rozszerzone programy nauki matematyki dla najzdolniejszych uczniów szkół średnich”. „Donald Trump próbował przeprowadzić impeachment Mike’a Pence’a”. „Prezydent Joe Biden przyjmuje projekt ustawy zmuszającej wszystkich Amerykanów do rezygnacji z jedzenia czerwonego mięsa”.

Powyższe nagłówki były jednymi z wielu krążących w mediach społecznościowych w ciągu ostatnich kilku miesięcy. Stwierdzono, że każdy z tych artykułów zawierał dezinformację – tj. nieprawdziwe informacje lub argumenty, często mające na celu wywarcie wpływu na pewną część opinii publicznej. Artykuły zawierające dezinformację należały również do ​​najszybciej zyskujących popularność treści, a „nieprawdziwe informacje rozprzestrzeniały się znacznie dalej, szybciej, głębiej i szerzej od prawdy we wszystkich kategoriach informacji”.

Obecnie rosną obawy, że nieprawdziwe informacje rozpowszechniane w mediach społecznościowych doprowadzą do jeszcze większej polaryzacji elektoratu i podważenia podstaw demokratycznego dyskursu publicznego.

Dlaczego dezinformacja rozprzestrzenia się w internecie?

Co sprawia, że ​​dezinformacja rozprzestrzenia się jak wirus w mediach społecznościowych? Jaką rolę odgrywają w tym procesie algorytmy platform społecznościowych? W jaki sposób możemy kontrolować rozpowszechnianie dezinformacji? W naszej niedawnej pracy badawczej (Acemoglu i in. 2021) staramy się odpowiedzieć na te pytania.

Użytkownikom mediów społecznościowych zależy na udostępnianiu w internecie rzetelnych treści. Kiedy ktoś udostępnia nieprawdziwe informacje i zostanie to wytknięte przez innych użytkowników, do danej osoby może przylgnąć reputacja osoby nieodpowiedzialnej lub lekkomyślnej, co obniży jej status w mediach społecznościowych. Jednocześnie użytkownicy Internetu czerpią wartość z tzw. afirmacji społecznej lub poparcia ich aktywności przez osoby należące do tej samej grupy (peer encouragement) poprzez polubienie lub podawanie ich wpisów dalej na Twitterze.

W naszym badaniu wychwytujemy te wybory, pozwalając użytkownikom zdecydować, czy chcą udostępnić dany artykuł, pominąć go (czyli w ogóle go nie udostępniać), czy też sprawdzić jego prawdziwość (tzw. fact checking), aby dowiedzieć się, czy zawiera on nieprawdziwe informacje.

Udostępnianie treści przynosi użytkownikom portali społecznościowych bezpośrednie korzyści, ale może być kosztowne, jeśli okaże się, że dany artykuł zawiera dezinformację, którą wykryją niektórzy spośród jego odbiorców. Podejmując decyzję w tym zakresie, użytkownik zawsze rozważa dwie kwestie.

Za darmową rozrywkę płacimy produktywnością

Po pierwsze, czy jest prawdopodobne, że dany artykuł może zawierać nieprawdziwe informacje. Ponieważ każdy użytkownik posiada swoje własne poglądy ideologiczne, oceni prawdziwość danego artykułu w zależności od stopnia zgodności między jego przesłaniem a własnym punktem widzenia i częściej będzie udostępniać treści ideologicznie zgodne z własnymi poglądami.

Drugą kwestią jest to, w jaki sposób dany artykuł będzie postrzegany przez osoby z grupy znajomych danego użytkownika, którym zostanie on udostępniony. Zależy to między innymi od tego, czy osoby śledzące wpisy danego użytkownika portalu społecznościowego sami sprawdzą prawdziwość artykułu, co z kolei zależy od stopnia „homofilii” grupy znajomych tego użytkownika — czyli tego, w jakim zakresie znajomi danego użytkownika podzielają jego poglądy. Widać tu znaczenie kalkulacji strategicznych. Jeśli dana osoba spodziewa się, że odbiorcy udostępnianego artykułu sprawdzą jego zgodność z faktami, skłoni ją to do samodzielnego sprawdzenia jego prawdziwości, ponieważ istnieje wówczas większe prawdopodobieństwo wykrycia dezinformacji.

W naszej pracy badamy te strategiczne rozważania i ich wpływ na rozprzestrzenianie się dezinformacji.

Grupa osób, do których trafiają treści udostępniane przez danego użytkownika, i stopień homofilii w takiej grupie zależy od sieci znajomych danej osoby oraz od stosowanego przez daną platformę społecznościową algorytmu rekomendującego treści. Nie jest prawdopodobnie niczym zaskakującym, że użytkownicy mediów społecznościowych utrzymują relacje (np. poprzez „obserwowanie” lub „dodawanie do grupy znajomych”) z innymi użytkownikami o podobnych poglądach ideologicznych.

Konserwatyści zazwyczaj utrzymują kontakty z innymi konserwatystami, a liberałowie zazwyczaj wchodzą w interakcje z innymi liberałami. Tworzy to egzogenną „komorę pogłosową” lub „komorę echa” (tzw. echo chamber).

Innymi słowy, konserwatyści zazwyczaj utrzymują kontakty z innymi konserwatystami, a liberałowie zazwyczaj wchodzą w interakcje z innymi liberałami. Tworzy to egzogenną „komorę pogłosową” lub „komorę echa” (tzw. echo chamber) o wysokim stopniu homofilii, w ramach której użytkownicy zadają się z innymi podobnie myślącymi użytkownikami i wzajemnie powtarzają swoje opinie. Algorytmy platform społecznościowych mogą zaostrzyć homofilię, łącząc ze sobą użytkowników o podobnych poglądach i nie łącząc ze sobą osób o przeciwstawnych poglądach. Prowadzi to do wytworzenia endogennej „komory pogłosowej” lub „komory echa” (określanej też jako „bańka informacyjna” lub „bańka filtrująca”).

Nasze ustalenia

Jedno z naszych głównych ustaleń dotyczy roli „komór echa” w rozpowszechnianiu dezinformacji. Kiedy występowanie „komór echa” i zakres homofilii są ograniczone, dezinformacja nie rozprzestrzenia się zbyt daleko. Dana treść będzie krążyła do momentu, aż trafi na nią użytkownik, który się z nią nie zgadza. Taka osoba następnie sprawdzi daną treść pod kątem zgodności z faktami i ujawni jej fałszywość, jeśli zawiera ona nieprawdziwe informacje. Tego rodzaju weryfikacja prawdziwości treści dyscyplinuje innych użytkowników, którzy będą w jej wyniku bardziej skłonni do samodzielnego sprawdzenia prawdziwości artykułów przed ich udostępnieniem. I odwrotnie, gdy poziom homofilii jest wysoki i występują rozległe egzogenne lub endogenne „komory echa”, wówczas użytkownicy o podobnych przekonaniach zadają się głównie ze sobą i mając tego świadomość rzadziej sprawdzają prawdziwość udostępnianych treści. W rezultacie dezinformacja rozprzestrzenia się w sposób wirusowy.

Kolejny ważny wniosek z naszej analizy dotyczy roli platform społecznościowych w rozpowszechnianiu dezinformacji. Dla platform, które chcą zmaksymalizować zaangażowanie użytkowników – w postaci liczby kliknięć lub udostępnień treści na stronie – „komory echa” mogą być bardzo korzystne. Gdy dana platforma społecznościowa poleca jakieś treści grupom, które z największym prawdopodobieństwem będą się z nimi zgadzać, istnieje większe prawdopodobieństwo, że te treści zostaną przyjęte w sposób pozytywny i mniejsze prawdopodobieństwo, że zostaną one zweryfikowane i odrzucone (jeśli zawierają nieprawdziwe informacje), co ostatecznie zwiększać będzie zaangażowanie użytkowników. Ten efekt zaangażowania użytkowników może prowadzić do powstawania endogennych „komór echa”, co udokumentowano na przykładzie Facebooka.

Powstanie „komór echa” i wirusowe rozprzestrzenianie się dezinformacji są bardziej prawdopodobne, gdy dane artykuły zawierają skrajne treści.

Nasze ustalenia wskazują, że powstanie „komór echa” i wirusowe rozprzestrzenianie się dezinformacji są bardziej prawdopodobne, gdy dane artykuły zawierają skrajne treści. Gdy udostępniane treści nie mają charakteru politycznego, tak jak np. zdjęcia ślubne lub filmy dotyczące gotowania, platforma społecznościowa nie ma silnej motywacji do tworzenia baniek informacyjnych, a nawet może zdecydować się na samodzielne sprawdzenie prawdziwości danego artykułu i usunięcie dezinformacji.

Cyfrowy minimalizm czyli jak odzyskać kontrolę nad sobą

Tak samo jest w sytuacji, gdy użytkownicy platformy mają umiarkowane przekonania ideologiczne. Dzieje się tak, ponieważ tzw. wirusowe rozprzestrzenianie się treści jest mniej prawdopodobne w przypadku treści umiarkowanych lub wśród użytkowników o umiarkowanych poglądach ideologicznych. Tymczasem w przypadku kontrowersyjnych treści politycznych lub silnej polaryzacji przekonań w danej społeczności, platforma społecznościowa nie tylko uzna tworzenie „komory echa” za korzystne w celu zmaksymalizowania zaangażowania użytkowników, ale jeszcze zrobi to bez weryfikowania prawdziwości danego artykułu.

Innymi słowy, optymalny algorytm platformy społecznościowej polega na rekomendowaniu skrajnych treści, które pasują najbardziej skrajnym użytkownikom, przy jednoczesnym stosowaniu „bańki informacyjnej”, która zapobiega rozprzestrzenianiu się danych treści poza ich grupę docelową. Chociaż takie endogenne „komory echa” są korzystne dla platform społecznościowych, w przypadku treści o charakterze politycznym prowadzą one do wirusowego rozprzestrzeniania się dezinformacji.

Pomóc może regulacja

W ograniczeniu skutków funkcjonowania endogennych „komór echa” pomóc może regulacja. W naszej pracy pokazujemy, że skuteczne mogą być w tym zakresie trzy rodzaje polityki publicznej: wskazywanie pochodzenia artykułów, cenzura i regulacja algorytmów.

Po pierwsze, jeśli platforma społecznościowa musi zapewnić większą przejrzystość w kwestii pochodzenia artykułów, będzie to zachęcać użytkowników do częstszego sprawdzania prawdziwości treści pochodzących z mniej wiarygodnych źródeł. Jednakże stwierdzamy również, że taka polityka może przynieść odwrotny skutek ze względu na występowanie efektu „domniemanej prawdziwości”: publikacja treści pochodzących z dobrze znanych źródeł może prowadzić do niższego od optymalnego poziomu sprawdzania ich prawdziwości.

Polityka bezpośredniej regulacji algorytmów platform społecznościowych może złagodzić konsekwencje funkcjonowania baniek informacyjnych.

Po drugie, jeśli organy regulacyjne zagrożą cenzurowaniem niewielkiego podzbioru artykułów, które zawierają skrajny przekaz lub które mogą zawierać dezinformacje, wówczas platforma społecznościowa ma motywację do bardziej odpowiedzialnego działania. W szczególności groźba cenzury i związanego z nią spadku zaangażowania użytkowników jest wystarczająca, aby skłonić platformę społecznościową do zmniejszenia stopnia homofilii i samodzielnego sprawdzania prawdziwości treści w przypadkach, które bez cenzury doprowadziłyby do powstania baniek informacyjnych.

Po trzecie wreszcie, polityka bezpośredniej regulacji algorytmów platform społecznościowych może złagodzić konsekwencje funkcjonowania baniek informacyjnych. Ustanowienie odpowiedniego standardu w zakresie segregacji ideologicznej — w ramach którego ograniczone będzie powstawanie „komór echa” w grupach, do których trafiają treści udostępniane przez poszczególnych użytkowników, a treści z całego spektrum ideologicznego prezentowane będą wszystkim użytkownikom — może doprowadzić zarówno do powstania bardziej odpowiedzialnych algorytmów platform społecznościowych, jak i do częstszego sprawdzania prawdziwości udostępnianych treści przez samych użytkowników.

 

Daron Acemoğlu

Profesor ekonomii stosowanej, MIT

Asuman Ozdaglar

Profesor inżynierii elektrycznej i informatyki; Kierownik Wydziału Inżynierii Elektrycznej i Informatyki; Zastępca dziekana ds. naukowców, MIT Schwarzman College of Computing

James Siderius

Doktorant, MIT LIDS

 

Artykuł ukazał się w wersji oryginalnej na platformie VoxEU.

(©Envato)

Tagi


Artykuły powiązane

Social media pod dyktando

Kategoria: Analizy
Totalitarne państwa nie mają oporów przed inwigilacją obywateli i decydowaniem, co mogą wiedzieć, a od jakich informacji należy ich odciąć.
Social media pod dyktando