Prace akademickie pisane z użyciem ChatGPT? Nowe narzędzie bezproblemowo je wykrywa

Rozwój narzędzi takich jak ChatGPT był w ostatnich latach naprawdę imponujący, ale jednocześnie wzbudził wiele kontrowersji. Coraz częściej zaczęły pojawiać się doniesienia o tym, iż oprogramowanie to jest wykorzystywane do tworzenia treści, które powinny raczej wychodzić spod pióra człowieka.
Prace akademickie pisane z użyciem ChatGPT? Nowe narzędzie bezproblemowo je wykrywa

Pomysłowość (a raczej cwaniactwo) niektórych osób sięgnęła nawet akademickich środowisk, w których naukowcy zaczęli tworzyć swoje opracowania właśnie z użyciem narzędzi pokroju ChatGPT. Wygląda jednak na to, iż czasy technologicznego Dzikiego Zachodu mogą skończyć się niemal równie szybko, jak się zaczęły.

Czytaj też: Fałszywe produkty i fałszywe recenzje zalewają Internet. ChatGPT sprawił, że nikomu nie można ufać

Powstało bowiem oprogramowanie, które pozwala na wykrywanie tekstów akademickich generowanych przez ChatGPT z dokładnością wynoszącą 99 procent. Szczegóły na temat całego przedsięwzięcia zostały niedawno zaprezentowane na łamach Cell Reports Physical Science

Jak wyjaśniają autorzy przytoczonej koncepcji, jednym z podstawowych problemów wynikających z używania generatorów tekstu do tworzenia prac naukowych jest to, że owe narzędzia często po prostu… zmyślają fakty. Takowe mogą brzmieć wiarygodnie, co dodatkowo potęguje szkodliwość całego zjawiska, ponieważ od oczywistych kłamstw gorsze są tylko te, w które wiele osób może uwierzyć. 

Narzędzie służące do wykrywania prac akademickich pisanych z wykorzystaniem ChatGPT ma obecnie 99-procentową skuteczność

Według Heather Desaire obecnie dostępne detektory sztucznej inteligencji są projektowane przede wszystkim jako ogólne narzędzia do wykorzystania w odniesieniu do każdego rodzaju pisma. Jeśli jednak zestawić ich przydatność z osiąganą przez narzędzia zaprojektowane do działania z konkretnym, węższym rodzajem treści, to okaże się ona kompletnie odmienna.

Właśnie dlatego oprogramowanie dostarczone przez Desaire i jej współpracowników ma być nakierowane na prace akademickie i zapewniać wysoką skuteczność w zakresie wykrywania niepożądanych treści. Jedną z zalet prowadzonego projektu wydaje się to, że jego członkowie użyli mniejszej ilości danych, które były w zamian bardzo szczegółowo oceniane przez ludzi. Dzięki temu udało się wykryć nawet najbardziej subtelne różnice, które nie powinny uciec uwadze testowanego narzędzia.

Czytaj też: Sztuczna inteligencja nie będzie miała w Unii lekko. Komisja Europejska szykuje nowe regulacje

Łącznie pod uwagę wzięto 64 dokumenty stworzone przez człowieka i 128 wykonanych przez sztuczną inteligencję. Posłużyły one w formie materiału szkoleniowego, a ich łączna liczba była średnio 100 000 razy mniejsza od rozmiarów zestawów danych używanych do ćwiczenia innych detektorów. Dzięki bardziej szczegółowemu podejściu do sprawy potwierdziło się, iż w tym przypadku jakość zdecydowanie przeważa nad ilością. Poza tym, zamiast skupiać się na tym, jak wygląda tekst generowany przez sztuczną inteligencję, członkowie zespołu zastosowali nieco odmienne podejście: skupili się na treściach autorstwa ludzi. W ten sposób udało się zapewnić imponującą, 99-procentową skuteczność wykrywania tekstów generowanych z wykorzystaniem ChatGPT.