Dlaczego widzę w tym problem? Bo to, co na papierze wygląda jak triumf inżynierii, w rzeczywistości może uśpić naszą czujność. Im mniejszy margines błędu AI, tym łatwiej zapomnieć, że to wciąż tylko statystyczny model, a nie nieomylna wyrocznia.
Mniej halucynacji, więcej pewności siebie
OpenAI chwali się, że GPT-5.5 Instant produkuje o 52,5% mniej halucynacji w tak wrażliwych dziedzinach jak medycyna, prawo czy finanse. To imponujący wynik, poparty wysokimi notami w benchmarkach takich jak AIME 2026 (matematyka) czy GPQA (nauki ścisłe). Problem polega jednak na tym, że “o połowę mniej błędów” to wciąż nie jest zero.
Kiedy AI myliło się często, nauczyliśmy się podchodzić do jej odpowiedzi z dystansem. Teraz, gdy model staje się bardziej precyzyjny i “naturalny” w tonie, ryzyko bezkrytycznego zaufania rośnie. W prawie czy medycynie nawet jedna halucynacja na sto może mieć opłakane skutki, zwłaszcza jeśli ktoś uzna, że nowa wersja jest już “całkowicie bezpieczna”. Niestety, skupiamy się raczej na informacji „ponad połowę mniej błędów” niż na tym, jak dużo tych halucynacji nadal może wypluwać.
Personalizacja to ładnie nazwany wgląd w nasze życie
Nowy model kładzie również ogromny nacisk na to, by ChatGPT znał nas lepiej niż kiedykolwiek wcześniej. GPT-5.5 Instant ma więc efektywniej korzystać z historii rozmów i zapisanych wspomnień, pamiętając nasze preferencje i styl. To akurat mi się podoba, bo skoro już prowadziłam te rozmowy i udostępniłam jakieś informacje, to niech chociaż AI robi z nich realny użytek, żebym nie musiała dziesięć razy powtarzać jej tego samego. ChatGPT będzie też pracował nad wgranymi plikami, które staną się częścią jego bazy wiedzy.

Mniej podoba mi się za to połączenie z kontem Gmail. Oczywiście, to funkcja opcjonalna, więc OpenAI nie zmusi mnie, żebym dawała AI dostęp do mojej korespondencji. Niby robi to, by dopasować odpowiedzi do mojego kontekstu życiowego, ale myślę, że dam radę bez tego funkcjonować.
Czytaj też: Spotify walczy z muzyką AI. Ale tylko na pół gwizdka
Choć OpenAI wprowadza również funkcję “Memory Sources”, która pozwala podejrzeć, na jakiej podstawie AI spersonalizowało odpowiedź (i ewentualnie edytować te dane), to jednak skala dostępu do naszej prywatności rośnie. ChatGPT przestaje być tylko narzędziem do generowania tekstów, a staje się osobistym asystentem z dostępem do skrzynki odbiorczej. Kiedy ujmiemy to w ten sposób nie brzmi to aż tak źle, ale trzeba mieć świadomość, że to oznacza dostęp do wyników badań, raportów od księgowego czy innych rzeczy, do których AI nie powinno mieć dostępu, przynajmniej moim zdaniem. Tu już decyzja należy do was.
Postęp, który nie do końca jest bezpieczny
Nie da się ukryć, że ChatGPT jest powszechnie wykorzystywany w edukacji, programowaniu i biznesie, więc aktualizacja do GPT-5.5 Instant z pewnością podniesie efektywność pracy. To też niewątpliwie najsprawniejszy model “instant”, jaki kiedykolwiek dostaliśmy. Skrócenie dystansu między AI a faktami jest godne podziwu, podobnie jak poprawa w naukach ścisłych. Jednak jednocześnie, ta aktualizacja to stąpanie po cienkim lodzie, bo im lepsze AI, tym bezkrytyczniej do niej podchodzimy.
Czytaj też: Circle to Search robi kolejny krok. Wyszukiwanie staje się łatwiejsze, a prywatność… Jaka prywatność?
Skoro model jest “mądrzejszy i dokładniejszy”, rzadziej będziemy sprawdzać źródła, co jest wodą na młyn dla tych pozostałych 47,5% halucynacji. Dodatkowo, zaproszenie AI do swojej skrzynki mailowej to decyzja, której nie wolno podejmować lekkomyślnie. Nowy ChatGPT jest niesamowicie użyteczny, ale chce też być zbyt bliskim towarzyszem, a temu już nie ufam. To nadal algorytm i korporacja, która za nim stoi, a skoro mogę jeszcze kontrolować, co jej przekazuję, to nie chcę z tego łatwo rezygnować.
Źródło: OpenAI
