portale społecznościowe

Facebook publikuje raport z pracy moderatorów

W ramach wysiłków zmierzających do zwiększenia transparentności w działaniu podjętych po sprawie Cambridge Analytica, Facebook trzy tygodnie temu upublicznił wytyczne dla swoich moderatorów. Teraz sieć społecznościowa opublikowała raport z ich pracy za pierwszy kwartał tego roku.

Trzeba przyznać, że cenzorzy Facebooka mieli pełne ręce roboty. Ale nic dziwnego, skoro wszystkich kont jest grubo ponad 2 miliardy, a każdego dnia produkują one olbrzymie ilości danych, z których spora część naruszać będzie w jakiś sposób zasady serwisu. A każdego dnia rejestrowane są nowe konta. Bardzo często fałszywe. Jak wynika z raportu, w samym tylko pierwszym kwartale tego roku usunięto ich ponad 583 milionów.

Facebook chwali się też między innymi usunięciem około 21 milionów elementów zawierających nagość. Prawie wszystkie z nich, bo aż 96 procent, zidentyfikowane zostały przez algorytmy Facebooka jeszcze zanim zostały zgłoszone przez użytkowników jako naruszenie regulaminu.

Algorytmy były mniej skuteczne w identyfikowaniu tzw. „mowy nienawiści”, ponieważ wykryły ją automatycznie w około 38 procentach przypadków. Łącznie z tego powodu usuniętych zostało 2,8 milionów elementów. Z powodu przedstawiania na zdjęciach lub filmach przemocy Facebook usunął lub zastosował ostrzeżenia w przypadku 3,5 milionów treści.

Automatyczne wykrywanie niechcianych treści sprawdziło się za to w przypadku spamu. Praktycznie wszystkie z 837 milionów przypadków spamu zostało usunięte zanim ktokolwiek zdążył je zgłosić.

Ilustracja: Facebook

podobne treści