Twitter to nie jest przyjazne kobietom miejsce

Badanie przeprowadzone przez Amnesty International i firmę Element AI pokazuje skalę problemu, z którym spotkało się wiele kobiet: Twitter, podobnie jak inne portali społecznościowych, jest miejscem nękania. W przeprowadzeniu badania określonego uczestniczyło 6500 wolontariuszy. Samo badanie Amnesty International określiła jako “największe w historii” dotyczące przemocy wobec kobiet w Internecie. Wykorzystano w nim oprogramowanie do uczenia maszynowego Element AI. Posłużyło ono do analizy twittów wysłanych do próbki 778 kobiet: polityczek i dziennikarek w 2017 r. Okazało się, że 7,1%, czyli 1,1 miliona tych twittów było albo “problematycznych”, albo “obraźliwych”, co według Amnesty International daje jeden obraźliwy twitt wysyłany co 30 sekund.
twitter
twitter

Na stronie internetowej projektu Amnesty International stwierdziło, że ​​wiele kobiet autocenzuruje treści, które publikują, ograniczają interakcje na Twitterze lub po prostu rezygnuje z platformy. “W czasach, kiedy kobiety na całym świecie jednoczą się i mogłyby przedstawić swoje stanowisko za pośrednictwem mediów społecznościowych, nieumiejętność Twittera do konsekwentnego i przejrzystego egzekwowania własnych standardów społecznościowych w celu zwalczania przemocy i nadużyć oznacza, że ​​kobietom zamykane są usta” – podsumowała organizacja broniąca praw człowieka.

Zajmujące się kiedyś głównie więźniami politycznymi Amnesty International dziś broni praw kobiet i mniejszości (fot. cdn-images)

Jak wyglądało samo badanie? Najpierw należało nauczyć SI rozpoznawania twittów o charakterze “problematycznym”. Celowo przy tym używam terminu zastosowanego przez samo Amnesty International. Jak rozumie ten termin sama organizacja? Jako takie rozpoznawano twitty, które zawierają szkodliwe lub wrogie treści, zwłaszcza jeśli powtarzano je użytkowniczkom wielokrotnie, ale niekoniecznie spełniały one tzw. próg nadużycia. Jako nadużycie rozumiano te twitty, które naruszają zasady serwisu i obejmują treści promujące przemoc lub groźby ze strony ludzi ze względu na ich rasę, pochodzenie etniczne, pochodzenie narodowe, orientację seksualną, płeć, tożsamość płciową, przynależność religijną, wiek, niepełnosprawność lub chorobę. SI miała nauczyć się tych właśnie zasad rozpoznawania. Najpierw 6500 ochotników i ochotniczek ze 150 krajów, w wieku od 18 do 70 lat przeszkolono pod kątem reagowania na problematyczne wpisy.

Jeśli zechcecie w przyszłości zostać uczestnikiem Troll Patrolu, wejdźcie na tę stronę.

Następnie pokazano im anonimowe twitty, w których wymieniono jedną z 778 kobiet i zapytano, czy ich zdaniem dany wpis jest obraźliwy czy też nie. Każdy wpis został pokazany kilku osobom. Ponadto Amnesty International zadbała, by trójka ekspertów ds. przemocy wobec kobiet sprawdziła losową próbkę 1000 twittów, aby upewnić się, że wolontariusze oceniają treści we właściwy sposób.

Troll Patrol, jak nazwano zespół wolontariuszy, przeanalizowali 288 000 wpisów wysyłanych między styczniem a grudniem 2017 r. do 778 adresatek z Wielkiej Brytanii i Stanów Zjednoczonych. Wśród nich znalazły się członkinie parlamentu USA i Kongresu USA, oraz dziennikarki m.in “The Daily Mail”, |The New York Times”, “Guardian”, “The Sun”, gal-dem, Pink News i Breitbart. Następnie zbiór wpisów, uznanych za problematyczne, został przetworzony przy użyciu oprogramowania do uczenia maszynowego Element AI. Korzystając z nabytej wiedzy SI przeanalizowało następnie 14,5 miliona twittów z 2017 r., w których pojawiały się wspomniane wcześniej 778 kobiety. Na podstawie tych badań stwierdzono, że aż 7,1% wysłanych do nich twittów jest problematycznych lub nękających. Dziennikarkom “dostało się” od internautów mniej więcej tak samo jak paniom zajmującym się polityką. Czarnoskóre kobiety, Azjatki i latynoski były o 34 proc. bardziej narażone na problematyczne lub obraźliwe tweety niż białe kobiety. | CHIP