Social Icons

sobota, 24 sierpnia 2019

Bańka informacyjna w internecie

Bańka informacyjna lub inaczej bańka filtrująca to pojęcie stworzone przez Eliego Parisela, które opisał w książce "The Filter Bubble: What the Internet Is Hiding from You". Polega ona na tym, że w wyniku działania określonego algorytmu (Google, Facebook, YouTube itp.), osoba korzystająca z sieci otrzymuje informacje wyselekcjonowane, które dobrane zostały na podstawie informacji dostępnych na temat użytkownika, historii wyszukiwania itd.. W efekcie użytkownik zostaje zamknięty w samonapędzającym się cyklu opinii, a szukając informacji nie zostaje skierowany na odmienne tematy lub punkty widzenia.



Rola algorytmów

Wspomniane wcześniej algorytmy mogą być przydatne w znajdywaniu produktów zgodnych z naszymi preferencjami, zainteresowaniami czy hobby. Jednak w tematach politycznych i społecznych potrafią zamknąć nas w jednym kręgu opinii i poglądów, wypaczając pełniejszy obraz rzeczywistości.

Co na ten temat mówią badania? Okazuje się, że wnioski Eliego Parisela co do wyszukiwań w wyszukiwarce Google były jednak przesadzone.

Analityk Jacob Weisberg, pisząc dla internetowego czasopisma „Slate”, zrealizował niewielki eksperyment nienaukowy mający na celu przetestowanie teorii Parisera. W badaniu wzięło udział pięciu jego współpracowników mających różne zaplecze ideologiczne, którym nakazał wyszukiwać w ten sam sposób. Rezultaty wszystkich pięciu zapytań wyszukiwania okazały się niemal identyczne u czterech różnych szukających. Sugerował on, że „bańka filtrująca” nie ma zastosowania, co spowodowało, że postanowił on napisać, iż sytuacja, w której wszyscy ludzie są „karmieni w korycie «Daily Me»” (feeding at the trough of a Daily Me), była przesadzona. 

Badanie naukowe przeprowadzone w Wharton School, które analizowało rozwiązania spersonalizowane, również potwierdziło, że w przypadku internetowego gustu muzycznego filtry te właściwie mogą tworzyć wspólność, a nie podział. Konsumenci w rzeczywistości używają filtra, by rozszerzyć swój gust, a nie po to, by go ograniczać. Recenzent książek Paul Boutin przeprowadził podobny eksperyment wśród ludzi mających różniące się historie szukania. Wyniki tego badania były zbliżone do tych zrobionych przez Weisberga, które pokazały niemal identyczne rezultaty wyszukiwań. Jonathan Zittrain, profesor prawa na Uniwersytecie Harvarda, zakwestionował stopień, do którego filtry personalizujące zniekształcają wyniki wyszukiwań w Google’u; powiedział on, że „efekty personalizacji wyszukiwania były łagodne”. 

Ponadto pojawiły się doniesienia, że użytkownicy mają możliwość wyłączenia ustawień personalizujących w wyszukiwarce Google poprzez usunięcie historii online lub też innymi metodami. Rzecznik Google’a zasugerował, że algorytmy zostały celowo dodane do ich wyszukiwarek po to, by „ograniczały personalizację i promowały różnorodność.

Niemniej jednak nietrudno zamknąć się w swojej bańce korzystając z social mediów, poprzez obserwowanie stron, grup i kanałów potwierdzających tylko jeden punt widzenia.

Efekt potwierdzenia

Problem bańki informacyjnej ma swój aspekt psychologiczny, jakim jest efekt potwierdzenia, zwany również błędem konfirmacji. Polega on na preferowaniu informacji, które potwierdzają wcześniejsze oczekiwania i hipotezy, niezależnie od tego, czy są one prawdziwe. Objawia się również tendencją do interpretowania niejednoznacznych dowodów jako potwierdzających własne zdanie.

Wyjście z bańki informacyjnej

Podstawa to korzystanie z różnych źródeł informacji. Wówczas zamiast jednostronnego spojrzenia, będziemy mieli do porównania różne punkty widzenia. W dodatku algorytmy zaczną podsuwać nam również źródła informacji, których wcześniej być może nie znaliśmy.


7 komentarzy: