
Unia Europejska na poważnie zajęła się problemem mediów społecznościowych i ich wpływem na młodzież. Od dawna budzi to niepokój specjalistów zajmujących się rozwojem młodych ludzi, coraz więcej badań wskazuje bowiem na związek między intensywnym korzystaniem z tych platform a problemami emocjonalnymi wśród najmłodszych.
Parlament Europejski wzywa do wzmocnienia ochrony dzieci w sieci
Rezolucja przyjęta przez Parlament Europejski stanowi wyraźny sygnał, że kwestia bezpieczeństwa dzieci w internecie trafiła na unijną agendę. Dokument uzyskał szerokie poparcie – za głosowało 483 europosłów, przeciw było 92, a 86 wstrzymało się od głosu. Propozycja wprowadza podział na dwie grupy wiekowe z różnym poziomem dostępu do cyfrowych treści.
Najmłodsi użytkownicy, którzy nie ukończyli 13 lat, mieliby całkowity zakaz korzystania nie tylko z platform społecznościowych, ale również serwisów wideo oraz narzędzi wykorzystujących sztuczną inteligencję. Dla nastolatków w wieku 13-16 lat dostęp do tych usług wymagałby wyraźnej zgody rodziców lub opiekunów prawnych.
Rezolucja Parlamentu Europejskiego ma oczywiście charakter niewiążący – by było inaczej, takie regulacje musiałyby zostać przyjęte przez Komisję Europejską. W tej chwili ostateczna decyzja dotycząca wprowadzenia minimalnego wieku należy do poszczególnych państw członkowskich, a rezolucja ma raczej charakter wskazania zalecanego kierunku zmian.

Unia Europejska chce dodatkowych obostrzeń dla platform internetowych
Propozycje europarlamentu wykraczają po same ograniczenia wiekowe. Unijni legislatorzy chcą zakazać też tzw. loot boksów – wirtualnych skrzynek z losową zawartością, które wielu ekspertów porównuje do mechanizmów hazardowych. Ten kontrowersyjny element często pojawia się w grach mobilnych i komputerowych. W Unii Europejskiej regulacje zakazujące loot boxów dla dzieci mają Hiszpania i Holandia, polskie prawo tego natomiast jak na razie nie zakazuje.
Kolejny postulat dotyczy zakazu profilowania dzieci na podstawie ich aktywności w serwisach. Obecne algorytmy śledzą zachowanie użytkowników, aby maksymalizować czas spędzany w aplikacjach. Taka praktyka wobec nieletnich miałaby zostać zabroniona. Platformy byłyby również zobowiązane dostosowywać treści i interfejs do wieku odbiorców.
Czytaj też: Akt założycielski Apple trafi pod młotek, a cena może przyprawić o zawrót głowy
Europejskie kraje testują własne rozwiązania
W oczekiwaniu na to, jak Unia Europejska wypracuje wspólne stanowisko, państwa wprowadzają własne regulacje. Prezydent Francji zaproponował podniesienie granicy wieku do 15 lat, co stanowiłoby bardziej restrykcyjne podejście niż propozycja PE. Podobne regulacje planuje także Dania, która rozważa wprowadzenie zakazu korzystania z social mediów dla osób poniżej 15 roku życia, z tym że podobnie jak propozycja Parlamentu Europejskiego, duński model przewiduje możliwość udzielenia zgody przez rodziców na dostęp do wybranych, bezpieczniejszych serwisów dzieciom od 13 lat.
Rada Europejska łagodzi podejście do skanowania treści
Równolegle do dyskusji o ograniczeniach wiekowych, Rada Europejska podjęła kontrowersyjną decyzję dotyczącą walki z nielegalnymi materiałami. Państwa członkowskie zrezygnowały z obowiązkowego identyfikowania i usuwania internetowych materiałów świadczących o wykorzystywaniu seksualnym dzieci.
Zamiast nakładania bezpośredniego obowiązku usuwania, Unia Europejska ma przyjąć model oparty na ocenie ryzyka. Dostawcy usług internetowych będą musieli przeanalizować, w jaki sposób ich platformy mogą być wykorzystywane do rozpowszechniania zabronionych materiałów lub nawiązywania niebezpiecznych kontaktów z dziećmi. W praktyce oznacza to wdrażanie rozwiązań takich jak narzędzia do zgłaszania podejrzanych treści, filtry blokujące określone typy contentu czy ograniczenia w komunikacji między dorosłymi i dziećmi. Nadzór nad przestrzeganiem tych przepisów spoczywać będzie na organach krajowych.
Dobrowolność skanowania budzi wątpliwości – giganci robią bowiem tylko to, co muszą
Decyzja Rady Europejskiej spotkała się z krytyką zwolenników bardziej stanowczych działań. Dania była jednym z krajów opowiadających się za obowiązkowym skanowaniem prywatnych wiadomości w celu wykrywania nielegalnych materiałów. Taki pomysł budził jednak sprzeciw obrońców prywatności oraz firm technologicznych.
Rada planuje utrwalić rozwiązanie, które obecnie funkcjonuje tymczasowo – umożliwi ono firmom dobrowolne skanowanie usług pod kątem niebezpiecznych treści. To kompromis między ochroną dzieci a poszanowaniem prywatności użytkowników. Firmy, które zdecydują się na wdrożenie takich mechanizmów, zyskają do tego podstawę prawną.
Propozycje Parlamentu Europejskiego i decyzje Rady Europejskiej pokazują, że ochrona dzieci w sieci staje się priorytetem dla unijnych legislatorów. Ostateczny kształt regulacji będzie jednak zależał od działań poszczególnych państw członkowskich Unii Europejskiej, które mogą przyjąć własne, bardziej szczegółowe przepisy. W nadchodzących miesiącach możemy spodziewać się dalszych dyskusji i nowych inicjatyw dotyczących bezpieczeństwa najmłodszych użytkowników internetu.