Facebook ujawnia publicznie wytyczne dla moderatorów

Fot. Mike MacKenzie
Niedawne wydarzenia związane z nieetycznym wykorzystaniem danych przetwarzanych przez Facebooka wpłynęły najwidoczniej na transparentność działań serwisu Zuckerberga. Facebook opublikował właśnie dokument przeznaczony dla moderatorów, zawierający wskazówki jakimi mają się oni kierować usuwając z sieci społecznościowej niewłaściwe treści. Takie dokumenty przekazywane są moderatorom od dawna, ale po raz pierwszy Facebook zdecydował się na ich powszechne upublicznienie.

Informację o upublicznieniu wytycznych, którymi mają się kierować moderatorzy największej sieci społecznościowej świata opublikowała na oficjalnej stronie newsroomu Facebooka Monika Bickert, odpowiadająca w serwisie za zarządzanie polityką. W swoim wpisie Bickert argumentuje publikację tym, że jednym z najczęściej zadawanych Facebookowi pytań jest to, w jaki sposób ta sieć społecznościowa decyduje, co jest dozwolone. Bickert dodaje, że opublikowanie wytycznych ma pokazać, że Facebook ma na celu zarówno bezpieczeństwo użytkowników, jak i pozostawienie wszystkim uczestnikom sieci społecznościowej swobody omawiania różnych punktów widzenia. Ważne jest też to, że po raz pierwszy Facebook daje użytkownikom, których treści zostały zablokowane, prawo odwołania się od decyzji. Osoba której wpis został usunięty jako naruszający zasady Facebooka może odwołać się i zażądać osobnej opinii.

Bickert ma również nadzieję, że opublikowanie kryteriów oceny publikowanych na Facebooku treści pomoże ludziom zrozumieć, gdzie przebiega linia pomiędzy swobodą wypowiedzi, a przemocą, spamem, nękaniem, terroryzmem, kradzieżą własności intelektualnej, samookaleczaniem czy mową nienawiści. Publikacja jest również odpowiedzią na liczne protesty społeczności nawołujące do jawności procesów jakimi Facebook kieruje się filtrując treści publikowane w sieci społecznościowej. 25-stronicowy dokument zawierający szczegółowe zasady i kryteria oceny umożliwiające podjęcie moderatorom decyzji czy dany wpis jest dozwolony, czy też nie, jest dostępny dla każdego zainteresowanego.

Monika Bickert - Facebook
Zdaniem wiceprezes Facebooka, Moniki Bickert, otwartość w sprawie zasad ma przeważyć nad ryzykiem, że będą one skuteczniej omijane. (fot. Gary Cameron / Reuters).

Formalnie opublikowany arkusz nie zmienia wewnętrznej polityki Facebooka, podstawowe zasady pozostają niezmienne, choć – jak przy każdej kolejnej publikacji dla moderatorów – wprowadzono kilka ulepszeń. Jednak najważniejszą zmianą z naszego punktu widzenia jest przede wszystkim to, że nie musimy wnioskować na temat procedur Facebooka na podstawie niejasnych przecieków czy strzępów informacji „spod lady”. Zasady te nie tylko zostały opublikowane, ale też cały czas trwa ich tłumaczenie. Ich publikacja w języku polskim jest już dostępna.

facebook
Facebook zatrudnia 7500 moderatorów, blisko połowę więcej niż rok temu (fot. Pixabay)

Facebook znacząco zwiększył nakłady na moderację treści. Sieć Zuckerberga zatrudnia aktualnie 7500 recenzentów – to o 40 procent więcej niż rok wcześniej. Ponadto, oprócz wspomnianej wcześniej możliwości odwołania się od decyzji moderatora usuwającej konkretny wpis, jego autor otrzyma stosowne powiadomienie o tym fakcie, co dodatkowo ułatwi mu procedurę odwoławczą. Jak ma ona wyglądać? Bardzo prosto – jeżeli w przyszłości jakikolwiek wasz wpis na Facebooku zostanie usunięty, otrzymacie powiadomienie na ten temat oraz zostanie wam udostępniony przycisk „zażądaj recenzji”, co spowoduje, że w ciągu 24 godzin usunięta treść zostanie ponownie zanalizowana.

Co prawda Bickert wyraziła również swoje wątpliwości co do tego, czy ujawnienie zasad nie spowoduje, że środowiska ekstremistów, fanatyków, czy innych grup szerzących nienawiść nauczą się w jaki sposób omijać wytyczne Facebooka. Firma uznała jednak – jak twierdzi Bickert – że korzyści z „bycia otwartym” przeważają nad takim ryzykiem. Opublikowanie zasad filtrowania treści przez Facebooka to krok w dobrym kierunku. Nie zmienia to jednak trudu pracy moderatora – człowieka, który dzień w dzień musi walczyć z rozpowszechnianiem dziecięcej pornografii, filmami przedstawiającymi dekapitację, samobójstwa itp. przez wiele godzin. Bickert zapewnia, że moderatorzy są odpowiednio przeszkoleni i mają dostęp do wsparcia psychologicznego przez całą dobę, a firma ostatnio ustanowiła 4 godzinny limit. Mimo zmian to i tak wykańczająca psychicznie praca.

Większa ilość moderatorów, stały wzrost nakładów na filtrowanie nieetycznych, niemoralnych czy zwyczajnie nielegalnych treści. I wciąż jest ich więcej i więcej. Nieustannie zadaję sobie pytanie: co z nami jest nie tak? | CHIP

0
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.