Przyszłość wsparcia psychicznego należy do ChatGPT?
Klucz do tej rewolucji leży w szczegółowych, etycznie ukierunkowanych instrukcjach i szkoleniu. OpenAI nie polegało na własnych inżynierach. Firma współpracowała z psychiatrami, psychologami i lekarzami pierwszego kontaktu, aby stworzyć tzw. „taksonomie”. Taksonomie to szczegółowe wytyczne, które definiują, jak wyglądają niepożądane odpowiedzi modelu i co powinny osiągnąć idealne reakcje. Te ramy pozwalają modelowi na rozpoznawanie nawet subtelnych sygnałów dystresu i odpowiednie reagowanie.

Obszary największych ulepszeń:
- Psychoza i mania — GPT-5 lepiej rozpoznaje psychozę i manię, czyli poważne stany nagłe, które z natury wiążą się z intensywnym, bezpośrednim ryzykiem.
- Samookaleczenia i samobójstwa — model teraz ostrożniej obsługuje rozmowy na temat samookaleczeń i samobójstw, lepiej kierując użytkowników do zasobów kryzysowych (np. linii pomocowych).
- Emocjonalne uzależnienie od AI — nowym, kluczowym obszarem jest wykrywanie i reagowanie na niepokojące wzorce emocjonalnego uzależnienia, gdy użytkownik zaczyna zastępować relacje ze świata rzeczywistego interakcjami z AI.
OpenAI podało konkretny przykład. W scenariuszu, w którym użytkownik ma myśli urojeniowe (np. jest przekonany, że samolot kradnie mu myśli), GPT-5 łączy delikatną walidację emocji z wyraźnym zakotwiczeniem w rzeczywistości. Model nie podważa strachu, ale też nie potwierdza fałszywego przekonania. Zamiast tego:
Normalizuje to doświadczenie, mówiąc: „stres i niepokój mogą sprawić, że zupełnie normalne rzeczy wydają się wrogie”
Następnie wyjaśnia, co może dziać się neurologicznie, uczy technik uziemienia (takich jak ćwiczenie sensoryczne „5-4-3-2-1”), i oczywiście kieruje użytkownika do zasobów kryzysowych, np. linii Suicide and Crisis Lifeline.
Czytaj też: ChatGPT Atlas już tu jest, a OpenAI zapowiada lawinę ulepszeń
Statystyki pokazują znaczący postęp w porównaniu z poprzednią wersją GPT-4o. Liczba nieodpowiednich reakcji zmniejszyła się o 39% w rozmowach dotyczących zdrowia psychicznego, o 52% w dyskusjach o samookaleczeniach i o 42% w scenariuszach emocjonalnego uzależnienia. Jeszcze bardziej imponująco prezentują się wyniki automatycznych ewaluacji trudnych przypadków. Wydajność wzrosła z 28% do 92% zgodności w kategoriach zdrowia psychicznego i z 50% do 97% w testach zależności emocjonalnej.

Dane udostępnione przez OpenAI pokazują rzeczywisty obraz sytuacji. Około 0,07% aktywnych tygodniowo użytkowników porusza treści związane z psychozą lub manią, 0,15% omawia kwestie samobójstwa lub samookaleczeń, a kolejne 0,15% wykazuje oznaki niezdrowego przywiązania do sztucznej inteligencji. Choć te wartości procentowe mogą wydawać się niewielkie, w skali milionów użytkowników przekładają się na tysiące osób potrzebujących wsparcia każdego tygodnia.
Czytaj też: Gemini najbardziej kłamie? Międzynarodowe badanie bierze pod lupę wiarygodność AI
Wszystkie zabezpieczenia są już aktywne w najnowszej wersji GPT-5, co oznacza, że użytkownicy otrzymują odpowiednie wsparcie podczas codziennych rozmów z ChatGPT. 27 października 2025 roku wprowadzono aktualizację specyfikacji modelu, wzmacniając wytyczne dotyczące dobrostanu użytkowników. Dodano między innymi sekcję „Szanuj więzi w świecie rzeczywistym”, która aktywnie zniechęca do izolacji i emocjonalnego uzależnienia od asystenta AI.
Czytaj też: Microsoft funduje nam powrót do przeszłości. Copilot dostaje swojego Clippy’ego
Nowe możliwości GPT-5 w obszarze zdrowia psychicznego to niewątpliwie krok w kierunku bardziej odpowiedzialnej sztucznej inteligencji. Warto jednak podchodzić do tego z dystansem – technologia może stanowić cenne uzupełnienie, ale raczej nie zastąpi prawdziwej ludzkiej empatii i profesjonalnego wsparcia psychologicznego. Mimo wszystko, w sytuacjach, gdy dostęp do specjalistów jest ograniczony, takie rozwiązania mogą okazać się bezcenne. Pytanie brzmi jednak, czy jako społeczeństwo jesteśmy gotowi powierzać tak delikatne kwestie jak zdrowie psychiczne algorytmom, nawet tym najbardziej zaawansowanym.