newsportale społecznościoweWiadomość główna

Użytkownicy Facebooka nieświadomie wzięli udział w eksperymencie psychologicznym

Facebook to największa sieć społecznościowa na świecie. A to wprost przekłada się na ogromny zasób wiedzy na ich temat. Wiedzy, która interesuje nie tylko reklamodawców, ale także służby specjalne czy naukowców. Ci ostatni znaleźli się w ogniu krytyki po tym jak okazało się, że dwa lata temu Facebook przeprowadził eksperymentu, w ramach którego zmanipulowano wiadomości wyświetlane w news feedach prawie 700 tysięcy osób.

Pomiędzy 11 a 18 stycznie 2012 roku grupa naukowców z Cornell University i University of California, w ścisłej współpracy z Facebookiem, przeprowadziła eksperyment, który miał sprawdzić, jaki wpływ na użytkowników ma przekazywanie informacji pozytywnych, a jaki negatywnych.

Osobom objętym badaniem (prowadzone było ono na profilach osób angielskojęzycznych), wyświetlano więcej pozytywnych, lub negatywnych, informacji niż zwykle. Badacze chcieli sprawdzić, czy w ten sposób użytkownicy sami zaczną pisać weselsze (lub smutniejsze) posty. Wyniki okazały się dość łatwe do przewidzenia – tak, pod wpływem dobrych informacji posty użytkowników stawały się bardziej optymistycznie. W przypadku informacji negatywnych, użytkownicy Facebooka stawali się bardziej przygnębieni.

I na tym można byłoby zakończyć całą sprawę gdyby nie fakt, że po opublikowaniu wyników tych badań, wielu anglojęzycznych użytkowników Facebooka poczuło się lekko oszukanych. To prawda, że algorytmy Facebooka wybierają posty znajomych, które wyświetlane są w news feedzie, ale algorytm ten jest taki sam dla wszystkich użytkowników. A przynajmniej tak myślą użytkownicy. Facebook co prawda zastrzega sobie w regulaminie prawo do przeprowadzania wewnętrznych testów, ale badania naukowe, w których wzięło się nieświadomie udział, trudno nazwać „wewnętrznym testem”.

Facebook broni decyzji o przeprowadzeniu tego badania:

„Powodem, dla którego zdecydowaliśmy się przeprowadzić to badanie, była troska o emocjonalny wpływ Facebooka na ludzi korzystających z naszych produktów,” mówi Adam Kramer, naukowiec zatrudniony przez Facebooka i współautor badania. „Byliśmy przekonani, że należy sprawdzić nasze przypuszczenia co do tego, że oglądanie pozytywnej treści może prowadzić do tego, że ludzie czują się źle lub się wycofują. Jednocześnie byliśmy zaniepokojeni tym, że ekspozycja na negatywne treści znajomych może prowadzić do unikania Facebooka.”

Pomijając już całe zamieszanie związane z przymusowym udziałem w eksperymencie naukowym, cała sprawa niesie ciekawy wniosek – okazało się, że manipulując treściami wyświetlanymi przez Facebooka rzeczywiście wpływa na zachowanie ludzi. Innymi słowy, w pewnym ograniczonym zakresie, można za jego pomocą nimi sterować. Ciekawe czy i jakie inne eksperymenty prowadzi aktualnie Zuckerberg i spółka?

Zdjęcie: Flickr/Scott-Beale


podobne treści