ChatGPT rozpoznaje kryzysy psychiczne z kliniczną precyzją. AI zastąpi psychologa?

Modele AI stają się coraz potężniejsze, ale ich zdolność do „rozmowy” o poważnych problemach psychicznych zawsze była tematem delikatnym i budzącym kontrowersje. Teraz OpenAI ogłosiło przełom: ich najnowszy model, GPT-5, potrafi już rozpoznawać objawy dystresu psychologicznego i odpowiadać z klinicznie poprawną empatią i ostrożnością. To nie jest już tylko chatbot – to wirtualny asystent przeszkolony w zakresie reagowania kryzysowego. Firma poinformowała, że dzięki współpracy z ponad 170 specjalistami ds. zdrowia psychicznego z 60 krajów, udało się zredukować niepożądane (szkodliwe lub nieodpowiednie) reakcje we wrażliwych rozmowach o 65% do 80% w różnych domenach. To ogromny krok w kierunku uczynienia AI bezpiecznym narzędziem do przetwarzania emocji i poszukiwania wsparcia.
...

Przyszłość wsparcia psychicznego należy do ChatGPT?

Klucz do tej rewolucji leży w szczegółowych, etycznie ukierunkowanych instrukcjach i szkoleniu. OpenAI nie polegało na własnych inżynierach. Firma współpracowała z psychiatrami, psychologami i lekarzami pierwszego kontaktu, aby stworzyć tzw. „taksonomie”. Taksonomie to szczegółowe wytyczne, które definiują, jak wyglądają niepożądane odpowiedzi modelu i co powinny osiągnąć idealne reakcje. Te ramy pozwalają modelowi na rozpoznawanie nawet subtelnych sygnałów dystresu i odpowiednie reagowanie.

Obszary największych ulepszeń:

  1. Psychoza i mania — GPT-5 lepiej rozpoznaje psychozę i manię, czyli poważne stany nagłe, które z natury wiążą się z intensywnym, bezpośrednim ryzykiem.
  2. Samookaleczenia i samobójstwa — model teraz ostrożniej obsługuje rozmowy na temat samookaleczeń i samobójstw, lepiej kierując użytkowników do zasobów kryzysowych (np. linii pomocowych).
  3. Emocjonalne uzależnienie od AI — nowym, kluczowym obszarem jest wykrywanie i reagowanie na niepokojące wzorce emocjonalnego uzależnienia, gdy użytkownik zaczyna zastępować relacje ze świata rzeczywistego interakcjami z AI.

OpenAI podało konkretny przykład. W scenariuszu, w którym użytkownik ma myśli urojeniowe (np. jest przekonany, że samolot kradnie mu myśli), GPT-5 łączy delikatną walidację emocji z wyraźnym zakotwiczeniem w rzeczywistości. Model nie podważa strachu, ale też nie potwierdza fałszywego przekonania. Zamiast tego:

Normalizuje to doświadczenie, mówiąc: „stres i niepokój mogą sprawić, że zupełnie normalne rzeczy wydają się wrogie”

Następnie wyjaśnia, co może dziać się neurologicznie, uczy technik uziemienia (takich jak ćwiczenie sensoryczne „5-4-3-2-1”), i oczywiście kieruje użytkownika do zasobów kryzysowych, np. linii Suicide and Crisis Lifeline.

Czytaj też: ChatGPT Atlas już tu jest, a OpenAI zapowiada lawinę ulepszeń

Statystyki pokazują znaczący postęp w porównaniu z poprzednią wersją GPT-4o. Liczba nieodpowiednich reakcji zmniejszyła się o 39% w rozmowach dotyczących zdrowia psychicznego, o 52% w dyskusjach o samookaleczeniach i o 42% w scenariuszach emocjonalnego uzależnienia. Jeszcze bardziej imponująco prezentują się wyniki automatycznych ewaluacji trudnych przypadków. Wydajność wzrosła z 28% do 92% zgodności w kategoriach zdrowia psychicznego i z 50% do 97% w testach zależności emocjonalnej.

Dane udostępnione przez OpenAI pokazują rzeczywisty obraz sytuacji. Około 0,07% aktywnych tygodniowo użytkowników porusza treści związane z psychozą lub manią, 0,15% omawia kwestie samobójstwa lub samookaleczeń, a kolejne 0,15% wykazuje oznaki niezdrowego przywiązania do sztucznej inteligencji. Choć te wartości procentowe mogą wydawać się niewielkie, w skali milionów użytkowników przekładają się na tysiące osób potrzebujących wsparcia każdego tygodnia.

Czytaj też: Gemini najbardziej kłamie? Międzynarodowe badanie bierze pod lupę wiarygodność AI

Wszystkie zabezpieczenia są już aktywne w najnowszej wersji GPT-5, co oznacza, że użytkownicy otrzymują odpowiednie wsparcie podczas codziennych rozmów z ChatGPT. 27 października 2025 roku wprowadzono aktualizację specyfikacji modelu, wzmacniając wytyczne dotyczące dobrostanu użytkowników. Dodano między innymi sekcję „Szanuj więzi w świecie rzeczywistym”, która aktywnie zniechęca do izolacji i emocjonalnego uzależnienia od asystenta AI.

Czytaj też: Microsoft funduje nam powrót do przeszłości. Copilot dostaje swojego Clippy’ego

Nowe możliwości GPT-5 w obszarze zdrowia psychicznego to niewątpliwie krok w kierunku bardziej odpowiedzialnej sztucznej inteligencji. Warto jednak podchodzić do tego z dystansem – technologia może stanowić cenne uzupełnienie, ale raczej nie zastąpi prawdziwej ludzkiej empatii i profesjonalnego wsparcia psychologicznego. Mimo wszystko, w sytuacjach, gdy dostęp do specjalistów jest ograniczony, takie rozwiązania mogą okazać się bezcenne. Pytanie brzmi jednak, czy jako społeczeństwo jesteśmy gotowi powierzać tak delikatne kwestie jak zdrowie psychiczne algorytmom, nawet tym najbardziej zaawansowanym.