Czy korzystanie z ChatGPT faktycznie rozleniwia i czyni nas głupszymi?

Sztuczna inteligencja wkroczyła w naszą rzeczywistość z impetem, jakiego nie notowano przy żadnej wcześniejszej technologii. Od momentu premiery ChatGPT w listopadzie 2022 roku narzędzia generatywnej AI zdobywają popularność szybciej niż niegdyś internet czy komputery osobiste. To zjawisko każe zastanowić się, jakie konsekwencje dla naszych umysłów ma coraz powszechniejsze poleganie na algorytmach.
Czy korzystanie z ChatGPT faktycznie rozleniwia i czyni nas głupszymi?

Naukowcy z MIT postanowili zbadać neurologiczne skutki używania ChatGPT, co niestety wywołało lawinę sensacyjnych doniesień medialnych. Sami badacze musieli interweniować, prosząc o powściągliwość w interpretacji ich wyników. To, co udało im się zaobserwować, może znacząco wpłynąć na nasze postrzeganie roli sztucznej inteligencji w edukacji i pracy umysłowej.

Tempo adopcji generatywnej AI jest rzeczywiście imponujące. Do sierpnia 2024 roku prawie 40% dorosłych Amerykanów w wieku 18-64 lat korzystało z tych rozwiązań, przy czym 28% wykorzystywało je zawodowo, a 33% w życiu prywatnym. Dla porównania, internet potrzebował dwóch lat na osiągnięcie 20% penetracji, a komputery osobiste – trzech lat. Generatywna AI pokonała tę barierę w ekspresowym tempie.

Najwyższe wskaźniki użycia notuje się wśród mężczyzn, młodszych użytkowników, osób z wyższym wykształceniem oraz pracowników umysłowych. Co ciekawe, technologia przenika również do innych grup zawodowych – ponad 20% pracowników fizycznych sięga po AI, z wyjątkiem sektora usług osobistych.

ChatGPT pod bacznym okiem badaczy z MIT

Przechodząc do sedna badania, zespół z MIT Media Lab przeprowadził czteromiesięczny eksperyment z udziałem 54 studentów z Bostonu. Uczestników podzielono na trzy grupy: jedna korzystała z ChatGPT, druga z wyszukiwarki Google bez funkcji AI, a trzecia polegała wyłącznie na własnych umiejętnościach podczas pisania esejów.

Wyniki okazały się dość zaskakujące. Grupa pracująca samodzielnie wykazywała najsilniejszą łączność neuronalną i najwyższą aktywność poznawczą. Użytkownicy ChatGPT prezentowali natomiast najsłabszą łączność mózgu, co badacze porównali do funkcjonowania na autopilocie. Ich zaangażowanie umysłowe było znacząco niższe, a poczucie autorstwa tworzonych tekstów – najsłabsze.

W kolejnej fazie badania role się odwróciły. Osoby, które wcześniej pisały samodzielnie, dostały dostęp do ChatGPT i mogły poprawić swoje prace. Tymczasem użytkownicy AI, zmuszeni do pracy bez algorytmu, mieli problemy z przypomnieniem sobie treści własnych wcześniejszych tekstów.

Angielscy nauczyciele oceniający prace zwracali uwagę, że esejom tworzonym z pomocą sztucznej inteligencji brakowało oryginalnej myśli i swoistej duszy. Użytkownicy modeli językowych mieli również trudności z precyzyjnym cytowaniem własnej pracy.

Rezultaty te wywołały lawinę sensacyjnych nagłówków, od stwierdzeń o gniciu mózgu po tezy o otępiającym wpływie AI. Sytuacja stała się na tyle poważna, że badacze stworzyli specjalną stronę z najczęściej zadawanymi pytaniami, gdzie stanowczo zaapelowali do dziennikarzy o unikanie krzywdzącego języka.

Naukowcy podkreślają, że ich odkrycia dotyczą raczej skrótów myślowych niż degeneracji mózgu. Nadmierne poleganie na dużych modelach językowych może wpływać na zmniejszenie zaangażowania umysłowego, jednak przy rozsądnym i przemyślanym wykorzystaniu tych narzędzi można uniknąć potencjalnych zagrożeń.

Warto przy tym pamiętać, że badanie miało stosunkowo niewielki zakres i prosty design – jest zbyt ograniczone, by wyciągać ostateczne wnioski na temat długofalowych skutków używania AI. Naukowcy zdecydowali się na publikację preprintu ze względu na pilność tematu i bezprecedensową szybkość integracji AI z codziennym życiem.

Jak AI wpływa na krytyczne myślenie

Równie istotne są obawy wyrażane przez badaczy z Vrije Universiteit Amsterdam dotyczące wpływu AI na krytyczne myślenie – naszą zdolność do kwestionowania i zmieniania norm społecznych. Studenci mogą być mniej skłonni do samodzielnych, pogłębionych poszukiwań informacji, ulegając autorytatywnemu tonowi AI.

Problem tkwi w naturze danych treningowych. Modele językowe uczą się na historycznych informacjach, które nie ewoluują wraz ze zmieniającymi się normami społecznymi. Oznacza to, że AI może nieświadomie utrwalać przestarzałe poglądy i uprzedzenia.

Natasha Govender-Ropert z Rabobank zwraca uwagę na fundamentalny problem: uprzedzenie nie ma spójnej definicji. To, co jedna osoba uważa za stronnicze, dla innej może być neutralne. Każda organizacja musi samodzielnie określić standardy, które będzie egzekwować przy ocenie danych AI.

Normy społeczne i uprzedzenia ciągle się zmieniają, ale dane historyczne pozostają statyczne. Dlatego tak ważne jest zachowanie krytycznego podejścia do informacji otrzymywanych zarówno od ludzi, jak i maszyn, aby budować bardziej sprawiedliwe społeczeństwo.

Wnioski z badania MIT nie sugerują, że powinniśmy rezygnować ze sztucznej inteligencji, ale raczej że musimy świadomie podchodzić do jej wykorzystania. Kluczowe jest aktywne, przemyślane używanie tych narzędzi zamiast biernego polegania na nich. Konieczne są też dalsze, bardziej pogłębione badania nad długoterminowym wpływem AI na nasze zdolności poznawcze i sposób myślenia.

Czytaj też: Czy sztuczna inteligencja pozbawia nas umiejętności myślenia? Nowe badania budzą niepokój

Ostatecznie chodzi o to, abyśmy jako użytkownicy technologii zachowali zdrowy rozsądek. Sztuczna inteligencja to potężne narzędzie, które może wspierać naszą kreatywność i produktywność, pod warunkiem że nie pozwolimy jej zastąpić naszego własnego myślenia. Prawdziwe wyzwanie polega na znalezieniu tej delikatnej równowagi między wykorzystaniem technologicznych możliwości a zachowaniem naszych naturalnych zdolności umysłowych.