DSA wymusza pierwsze raporty transparentności od dużych platform online. Ktoś tu ma sporo za uszami

W myśl zapisów obowiązującego od 25 sierpnia unijnego aktu o usługach cyfrowych (DSA – Digital Services Act), firmy zakwalifikowane do grona bardzo dużych platform internetowych (tzw. VLOPs – Very Large Online Platforms) mają obowiązek sporządzania okresowych raportów transparentności. Znajdziemy w nich informacje o skuteczności systemów moderacji treści oraz metod dbania o prywatność użytkowników. Termin nadsyłania pierwszych raportów mija z dniem 6 listopada, ale już dziś możemy wyłuskać co niego z dokumentów nadesłanych do unijnych urzędników przez kilka pierwszych kilka firm, które zapewne dobrze znacie.
DSA wymusza pierwsze raporty transparentności od dużych platform online. Ktoś tu ma sporo za uszami

TikTok, Amazon, LinkedIn, Pinterest, Snapchat, Zalando oraz Bing – oto grupa podmiotów, które przesłały już pierwsze raporty transparentności do unijnych instytucji odpowiedzialnych za przestrzeganie przepisów zawartych w ustawie DSA. Warto przypomnieć, że na liście tzw. VLOPs znajdują się platformy o liczbie użytkowników na terenie UE przekraczającej poziom 45 mln. Z lektury dokumentów można dowiedzieć się wielu ciekawych rzeczy o poszczególnych serwisach. Niech za przykład posłuży tutaj TikTok: okazuje się, że tylko w Europie ma już 146 mln użytkowników (w Polsce tzw. fanbase aplikacji wynosi 10,6 mln).

DSA wyciąga trupy z szafy dużych platform online

W kwestii zautomatyzowanej moderacji treści TikTok radzi sobie względnie. W raporcie znajdziemy wzmianki o problemach systemów dotyczących flagowania i usuwania treści zawierających przemoc, mowę nienawiści, wykorzystywanie seksualne lub zastraszanie. Tylko we wrześniu tego roku (raport ByteDance dotyczy miesiąca po wejściu w życie DSA) platforma usunęła łącznie 4 miliony postów naruszających standardy społeczności, w tym 1,8 miliona zniknęło za sprawą narzędzi działających automatycznie. Wyższą skuteczność wykazały w kategorii fakenewsów, treści dla dorosłych, naruszeń dotyczących produktów komercyjnych, a także szkodliwych treści z kategorii zdrowia psychicznego.

Pamiętacie jeszcze coś takiego jak Pinterest? Osobiście nie zaglądałem tam już wieki, a tymczasem okazuje się, że platforma ma obecnie duży problem natury… ykhym pornograficznej. Dobrze czytacie – nie naruszenia praw autorskich czy dezinformacja, ale właśnie treści porno obciążają najmocniej moderację treści w serwisie. Tylko w okresie od 25 sierpnia do 24 września moderatorzy aplikacji usunęli 6,8 mln postów dla dorosłych na swojej platformie (największa liczba naruszeń według kategorii). Na Pintereście udało się też ograniczyć dystrybucję dodatkowych 11 mln postów o charakterze pornograficznym.

LinkedIn? Można powiedzieć, że na tle innych platform panuje tam nuda. Społeczność użytkowników nie zgłasza niebezpiecznych postów lub fałszywych informacji (chociażby fałszywych oferty pracy) tak często, jak robią to użytkownicy innych aplikacji. Owszem ludzie narzekają na takie przypadki, ale procent zgłoszeń jest stosunkowo niewielki. Przez pół roku (do 30 czerwca) wpłynęło nieco ponad 9 tys. zgłoszeń, z których 82%, było unikalnych. To może tłumaczyć małą liczbę moderatorów treści w Europie (ledwie 180 osób). Automatyczny system usuwania treści ma jednak wyjątkowy problem z klasyfikacją postów pisanych w innym języku, niż angielski. Wysoki stopień błędów dla języka francuskiego, niemieckiego, włoskiego i hiszpańskiego (nawet 84%) to spory problem dla platformy należącej obecnie do Microsoftu, która ma łącznie 25,7 mln użytkowników we Włoszech, Niemczech, Hiszpanii i Francji.

Czytaj też: Je-dzie wa-lec DSA, ni-ko-go nie osz-czę-dza. Facebook i Instagram stracą swoje magiczne moce pod nowym prawem UE

Po lekturze pierwszych raportów transparentności podyktowanych przez DSA ewidentnie widać brak spójności w zakresie informowania poszczególnych platform o różnych mechanizmach dziejących się na zapleczu. Każdy z serwisów ujawnia nieco inny zakres informacji. Dla przykładu Snapchat w ogóle nie podał współczynnika błędnych klasyfikacji przez systemu służące do moderacji treści, tłumacząc to formalnym brakiem takiego wymogu. Wiele wskazuje na to, że mamy do czynienia z etapem wzajemnego rozpoznawania pola, który może jeszcze chwilę potrwać.