ChatGPT zaczyna zgadywać wiek użytkownika, by poprawić bezpieczeństwo nastolatków

ChatGPT ma na koncie co najmniej kilka kontrowersyjnych „osiągnięć, wynikających z niedostatecznych zabezpieczeń chatbota. Jeszcze trudniejszą jest zapewnienie odpowiedniej ochrony dla osób nieletnich, korzystających z usługi. Dlatego właśnie OpenAI, twórca ChatGPT, wprowadza system, który na podstawie zachowania w aplikacji będzie próbował ocenić, czy użytkownik jest osobą dorosłą, czy nieletnim.
...

Jak system ChatGPT przewiduje wiek osoby korzystającej z platformy

Presja na dostawców technologii sztucznej inteligencji, aby lepiej chronili dzieci i młodzież, rośnie z każdym miesiącem. W tle toczą się postępowania prawne i badania Federalnej Komisji Handlu nad wpływem chatbotów na młodych ludzi. Nowy mechanizm to próba wyjścia poza prostą deklarację wieku wpisaną przy rejestracji.

ChatGPT nie zadaje bezpośrednich pytań o wiek. Zamiast tego analizuje szereg subtelnych sygnałów, które mogą wiele powiedzieć o użytkowniku. Bierze pod uwagę historię konta, typowe pory i częstotliwość korzystania z aplikacji oraz sposób formułowania zapytań. Chodzi o to, by wychwycić osoby poniżej 18. roku życia bez ciągłego i uciążliwego żądania potwierdzenia tożsamości.

Kiedy algorytm ma wątpliwości co do wieku, automatycznie przełącza konto na bardziej restrykcyjny tryb. Zasada jest prosta: lepiej ograniczyć dostęp dorosłemu przez pomyłkę, niż narazić nastolatka na szkodliwe treści. Jeśli system uzna, że z dużym prawdopodobieństwem rozmawia z dzieckiem, włącza dodatkowe filtry i zabezpieczenia.

GPT

Czytaj też: To nagranie musisz obejrzeć. Japoński pogromca okrętów zaskoczył ekspertów

Jakie treści będą niedostępne w ChatGPT dla młodszych odbiorców

Lista ograniczanych kategorii jest długa i skupia się na obszarach uznawanych za szczególnie ryzykowne. Młodzież nie trafi na opisy drastycznej przemocy, grafiki związane z samookaleczeniami czy scenariusze odgrywania ról o zabarwieniu seksualnym lub brutalnym. Zablokowane zostaną również tzw. wirusowe wyzwania, które mogą zachęcać do niebezpiecznych zachowań. System ma również ograniczać wyświetlanie treści promujących nierealistyczne i szkodliwe wzorce piękna, ekstremalne diety czy body-shaming.

Decyzje o tym, co podlega ograniczeniom, nie zostały podjęte arbitralnie – OpenAI konsultowało je z ekspertami od rozwoju dzieci i młodzieży, powołując nawet zewnętrzną radę doradczą, która ma badać wpływ AI na zdrowie psychiczne.

Dorosły użytkownik, który zostanie błędnie sklasyfikowany, nie jest skazany na wieczne ograniczenia. Może szybko odzyskać pełen dostęp poprzez weryfikację wieku. Proces, obsługiwany przez zewnętrzną firmę Persona (ta sama współpracuje z platformą Roblox), polega na wykonaniu i przesłaniu selfie.

OpenAI zapewnia, że całość jest szybka i jednorazowa, a zdjęcie służy wyłącznie do potwierdzenia pełnoletności i nie jest trwale przechowywane. Każdy może sprawdzić w ustawieniach swojego konta, czy znajduje się pod zwiększoną ochroną, i w razie potrzeby rozpocząć procedurę odblokowania.

Regulacje i przyszłość automatycznego wykrywania wieku

Wdrożenie tego systemu to jasny sygnał dla regulatorów, że firma nie ignoruje zagrożeń dla nieletnich. Presja ze strony regulatorów w USA i Europie na działania prewencyjne jest znaczna i trzeba przyznać, że organy te mają naprawdę dobre powody, by uważnie przyglądać się czatbotom – w USA OpenAI mierzy się z pozwem o doprowadzenie przez ChatGPT do samobójstwa dorosłego człowieka, Grok ma problemy z „rozbieraniem” osób na zdjęciach, postępowanie w UE i blokady w Malezji i Indonezji. Jakiekolwiek działanie zwiększające bezpieczeństwo ludzi młodych jest zatem mile widziane.

Firma zapowiada, że model sprawdzający wiek będzie stale udoskonalany w miarę zbierania danych o jego skuteczności. Będzie też monitorowany pod kątem prób obejścia zabezpieczeń. W Unii Europejskiej system ma zostać uruchomiony w ciągu najbliższych tygodni, po dostosowaniu do surowych lokalnych przepisów.