Gdy ChatGPT kłamie jak z nut – prawnicze wpadki ze sztuczną inteligencją

Prawnik Steven Schwartz z nowojorskiej kancelarii Levidow, Levidow & Oberman nigdy nie przypuszczał, że próba ułatwienia sobie pracy może zakończyć się zawodową katastrofą. Gdy w 2023 roku postanowił skorzystać z ChatGPT do wyszukania precedensów prawnych w sprawie przeciwko kolumbijskim liniom lotniczym Avianca, wydawało mu się to doskonałym pomysłem. Sztuczna inteligencja miała pomóc mu znaleźć podobne przypadki, które wspomogłyby argumentację prawną jego klienta.
Gdy ChatGPT kłamie jak z nut – prawnicze wpadki ze sztuczną inteligencją

Kiedy AI zmyśla na potęgę

Problem pojawił się, gdy sąd udowodnił, że sztuczna inteligencja pokazała całkowicie fałszywe dane. ChatGPT nie tylko wymyślił nieistniejące wyroki sądowe, ale także dodał do nich szczegółowe cytaty, daty i nazwiska sędziów. GPT wplotło bowiem w historię nazwy linii lotniczych, które nigdy nie istniały. Wszystko wyglądało profesjonalnie i wiarygodnie – dokładnie tak, jak powinny wyglądać prawdziwe dokumenty sądowe.

Schwartz, który nigdy nie wykorzystywał ChatGPT jako źródła do przeprowadzania badań prawnych przed tym zdarzeniem, zaufał AI na ślepo. Jak później zeznawał pod przysięgą: Po prostu nie myślałem, że sprawa może zostać sfabrykowana, więc nie patrzyłem na to z tego punktu widzenia… Moja reakcja była taka, że ChatGPT gdzieś znajduje tę sprawę.

Czytaj też: Jak bardzo możemy ufać technologii w tych czasach? Google pokazał, że nie za bardzo

Halucynacje AI – nie tylko problem prawników

To, co spotkało Schwartza, to klasyczny przykład tzw. halucynacji sztucznej inteligencji. Te „halucynacje” to nic innego jak sfabrykowane przez sztuczną inteligencję informacje, podawane odbiorcy tak jakby były prawdziwe. Problem nie ogranicza się tylko do zawodu prawnika – badacze z OpenAI przyznają wprost, że nawet najnowocześniejsze modele są podatne na fałszowanie – wykazują tendencję do wymyślania faktów, gdy brakuje im pewności.

Skala problemu jest zatrważająca. W jednym z eksperymentów naukowcy weryfikowali odpowiedzi ChatGPT i odkryli, że spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI, a 28 w ogóle nie miało żadnych odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.

Nie jeden prawnik dał się nabrać

Przypadek Schwartza nie był odosobniony. Tamtejsza kancelaria Cuddy Law pozwała miejski Wydział Edukacji (DOE) za niezapewnienie jednemu z dzieci odpowiedniej bezpłatnej edukacji publicznej. Prawnicy wygrali sprawę, ale w trakcie procesu kancelaria musiała uzasadnić swoje opłaty procesowe. I tu pojawił się problem – kancelaria sięgnęła po ChatGPT do przygotowania argumentacji uzasadniającej wysokość honorariów.

Sędzia Paul Engelmayer nie był zachwycony. Cuddy Law domagało się opłaty 113,5 tys. dol. Sędzia Engelmayer zakwestionował te wyliczenia i honoraria obniżono do 53 tys. dol.

Czytaj też: Veo 3: Gdy AI nauczyło się mówić i śpiewać – Google przerywa ciszę generowania wideo

Konsekwencje prawne i zawodowe

Dla Schwartza i jego wspólnika Petera LoDuki konsekwencje były poważne. Sędzia federalny w USA odrzucił pozew i nałożył grzywnę w wysokości 5 tysięcy dolarów na prawników powoda po tym, jak okazało się, że wykorzystali ChatGPT do cytowania sześciu fałszywych spraw.

Sędzia Kevin Castel był bezlitosny w swojej ocenie, stwierdzając, że prawnicy porzucili swoje obowiązki w momencie, gdy przedstawili nieistniejące opinie sądowe z fałszywymi cytatami stworzonymi przez narzędzie sztucznej inteligencji ChatGPT, a następnie utrzymywali ich prawdziwość po tym, jak nakazy sądowe podnosiły wątpliwość co do ich wiarygodności.

Dlaczego AI kłamie?

Aby zrozumieć, dlaczego dochodzi do takich sytuacji, trzeba przyjrzeć się temu, jak działają duże modele językowe. Bzdury ChatGPT, które profesjonalnie nazywa się halucynacjami, wynikają z ograniczeń tej technologii. Duże modele językowe uczą się na ogromnych zbiorach danych, które często nie podlegają dokładnej weryfikacji.

ChatGPT to w gruncie rzeczy bardzo zaawansowany generator tekstu, który przewiduje, jakie słowo powinno wystąpić następne w danym kontekście. Na czym polega funkcja generatywna AI? Osobiście lubię porównywać to, w dużym uproszczeniu, do tabelek arkuszy kalkulacyjnych. Jeśli wpiszesz im ciąg cyfr w kolejności, zaznaczysz i przeciągniesz, to wygenerują dalszy ciąg. ChatGPT robi to samo, tylko jest w stanie mnożyć szeroki zakres zagadnień, jeśli dostanie przykłady.

Czytaj też: Anthropic Claude 4: Gdy AI przestaje być tylko narzędziem, a staje się współpracownikiem

Czy można uniknąć pułapki?

Eksperci są zgodni – AI może być potężnym narzędziem dla prawników, ale wymaga odpowiedniego podejścia. Wykorzystanie AI może przyspieszyć analizę danych, ułatwić pisanie i weryfikację umów i pism czy pomóc w efektywnym podejmowaniu decyzji.

Kluczowe jest jednak zachowanie podstawowych zasad bezpieczeństwa:

Zawsze weryfikuj informacje – każda odpowiedź z AI powinna być sprawdzona z niezależnych źródeł. Szczególnie ważne jest to w przypadku cytowania konkretnych spraw sądowych czy dokumentów prawnych.

Nie ufaj ślepo – Warto korzystać z dużych modeli językowych w taki sam sposób, jak używasz wyszukiwarek internetowych. W końcu boty są w wielu przypadkach jedynie rozszerzeniem umiejętności silników wyszukiwania, więc należy zadbać o odpowiednią weryfikację uzyskanych informacji.

Zachowaj tajemnicę zawodową – Prawnicy, używając narzędzi AI od zewnętrznych dostawców, powinni więc zakładać, że ujawniają wszelkie informacje, które dostarczają modelowi. To oznacza, że nie należy wprowadzać do ChatGPT żadnych poufnych danych klientów.

Przyszłość AI w prawie

Historia Schwartza stała się przestrogą dla całej branży prawniczej. AI może być użytecznym narzędziem dla prawników, ale jego skuteczność nadal pozostawia trochę do życzenia. Nie oznacza to jednak, że prawnicy powinni całkowicie zrezygnować z technologii.

Kluczem do sukcesu jest edukacja i odpowiednie przygotowanie. Prawnicy muszą nauczyć się, jak skutecznie i bezpiecznie korzystać z narzędzi AI, pamiętając o ich ograniczeniach. Jedno jest pewne, w obecnej chwili sztuczna inteligencja nie zastąpi całkowicie naszej własnej inteligencji.

Przypadek nowojorskich prawników pokazuje, że w erze sztucznej inteligencji stare powiedzenie “sprawdź dwukrotnie, zanim podpiszesz” nabiera zupełnie nowego znaczenia. W świecie, gdzie AI może generować przekonujące, ale całkowicie fałszywe dokumenty, weryfikacja staje się nie tylko dobrą praktyką, ale koniecznością zawodową.