10 przykazań, według Zuckerberga

Wyciekły wytyczne, jak pracownicy Facebooka mają reagować na nienawiść, przemoc, seks i terroryzm.

Sztywne zasady moderacji wzbudzają wiele kontrowersji (fot. Dado Ruvic / Reuters)

Facebook zamierza wprowadzić arbitralne zasady etyczne dla 2 miliardów swoich użytkowników (fot. Dado Ruvic / Reuters)

Portal chce wpływać na moralne wybory olbrzymiej rzeszy użytkowników? Ujawnione przez dziennikarskie śledztwo Guardiana wewnętrzne zasady przygotowane przez Facebooka dla moderatorów tej sieci, każe stawiać poważne pytania, dotyczące kryteriów etycznych stosowanych przez społecznościowego giganta.

Nie ulega wątpliwości, że moderacja niepożądanych treści jest konieczna, ale problemem jest to, kto powinien o tym decydować. Wyniki śledztwa dziennikarzy Guardiana dają podstawy, by sądzić, że Facebook postanowił odgórnie narzucić swoje własne reguły 2-miliardowej, źróżnicowanej etnicznie i kulturowo społeczności użytkowników. Komfortu Facebooka nie zwiększają liczne polityczne naciski, zarówno ze strony rządu Stanów Zjednoczonych jak i Unii Europejskiej.

Nowe zasady moderacji mają charakter ścisłych wytycznych (fot. Guardian)
Nowe zasady moderacji to precyzyjne wytyczne (fot. Guardian)

Widoczna wyżej ilustracja pokazuje instrukcję reagowania na wpisy dotyczące tzw. „pornograficznej zemsty” („revenge porn”), czyli publikowania zdjęć w celu publicznego ośmieszenia i oszkalowania osób widocznych na fotografiach. Chodzi o zdjęcia publikowane bez zgody osób na nich widocznych, które w takim przypadku są najczęściej ofiarami czyjegoś działania. Widać wyraźnie, że, aby moderator mógł w ogóle zakwalifikować treść jako „pornograficzną zemstę”, muszą być spełnione trzy warunki. Fotografia musi być prywatna, osoba na zdjęciu naga, prawie naga lub w okolicznościach seksualnych. Trzecim warunkiem jest mściwy kontekst całości przekazu, np. w formie napisów na zdjęciu. Do „zemsty pornograficznej” zostanie zakwalifikowana tez treść, którą opublikowano bez zgody zainteresowanej osoby.

Przykłady wybiórczego filtrowania przemocy słownej na Facebooku (fot. Guardian)
Reklama
Przykłady wybiórczego filtrowania przemocy słownej na Facebooku (fot. Guardian)

Guardian opisuje również zasady reagowania na wpisy, które zachęcają do przemocy. Tutaj ciekawostka, o ile jakikolwiek wpis czy komentarz o treści „someone shoot Trump” („niech ktoś zastrzeli Trumpa”) powinien być usunięty (argumentem jest, że mężowie stanu to kategoria szczególnie chroniona), o tyle adresowane do osoby nie będącej „mężem stanu” stwierdzenia typu „kopnij rudego”, „bijmy grube dzieci” czy wulgarne nawoływania do zabicia kogoś – mogą być uznane za zgodne z zasadami moderacji. Uzasadnienie? Bo – wg Facebooka – nie stanowią realnej groźby.

Będziemy w CHIP-ie uważnie śledzili zmiany, które chce wprowadzić Facebook. Jak pokazał niesławny eksperyment psychologiczny portalu, kiedy grupie użytkowników pokazywano ręcznie dobierane treści o jednolitej (pozytywnej lub negatywnej) konotacji – to co czytają internauci realnie wpływało na ich samopoczucie i na życiowe wybory. Nic zatem dziwnego, że niedoskonałe usztywnienie norm moderacji może budzić poważne kontrowersje, a nawet być społecznie szkodliwe.