YouTube inwestuje w moderację treści

Nie tak dawno w opublikowanym u nas materiale Sylwii Zimowskiej zwracaliśmy uwagę na problem z treścią na YouTube: pojawianiem się materiałów udających np. filmy dla dzieci, a w rzeczywistości propagujące przemoc czy inne brutalne i kontrowersyjne treści, których dzieci w żadnym przypadku oglądać nie powinny. Zawoalowane negatywne przekazy ubrane w pozornie niewinną formę, czy zalew nienawistnych komentarzy to coraz większy problem uderzający w widzów, twórców i reklamodawców YouTube’a. Susan Wojcicki, szefowa portalu dała jasny sygnał, że czas z tym walczyć skuteczniej.
youtube
youtube

YouTube - niewłaściwe treści
Pozornie niewinnie wyglądające klipy mogą przekazywać treści niewłaściwe dla dzieci. YouTube zamierza znacząco zwiększyć skuteczność ich blokowania (fot. Techcrunch).

Na oficjalnym blogu YouTube, Susan Wojcicki poinformowała, że firma zwiększy zatrudnienie wśród moderatorów, powiększając zespół do 10000 ludzi, których zadaniem będzie lepsza moderacja treści publikowanych w serwisie. Ponadto dotychczasowe metody filtrowania treści, w znacznym stopniu oparte na sztucznej inteligencji zostaną rozwinięte szczególnie w zakresie treści nieodpowiednich dla dzieci oraz mowy nienawiści wśród komentujących. AI wspomaga pracę ludzi, dlatego chcąc całościowo zwiększyć skuteczność moderacji konieczne jest zwiększenie liczby pracowników – ludzi, którzy będą oceniać, czy publikowane materiały i komentarze nie naruszają zaostrzonych w ostatnim miesiącu zasad publikowania treści w YouTube.

We wpisie na blogu Wojcicki podaje również dotychczasowe statystyki. Od czerwca br. serwis usunął 150 tysięcy klipów propagujących przemoc, algorytmy uczenia maszynowego choć same nie wyłapują wszystkiego, to jednak są bardzo pomocne, dzięki nim ludzie są w stanie mogą usunąć nawet pięciokrotnie więcej niewłaściwych materiałów, niż w przypadku gdy filtrowaniem treści zajmowali się wyłącznie ludzie. Dlatego zwiększenie zatrudnienia przełoży się na znacznie większą skuteczność blokowania negatywnych i niezgodnych z regulaminem serwisu treści i komentarzy. Jak podaje Wojcicki, dziś aż 98% niewłaściwych treści jest oznaczanych przez nauczone maszynowo algorytmy. Zwiększenie zatrudnienia wśród moderatorów do 10000 ludzi oznacza wzrost o 25 procent w stosunku do aktualnych mocy przerobowych YouTube’a. | CHIP.