ChatGPT zmienił się na lepsze. Koniec z żerowaniem na użytkownikach

“Klienci chcieli, żebyśmy przestali, więc tak też zrobiliśmy” – oto w skrócie niedawna decyzja firmy OpenAI co do zbierania danych użytkowników wykorzystywanych do szkolenia chatbota ChatGPT.
ChatGPT zmienił się na lepsze. Koniec z żerowaniem na użytkownikach

Koniec z żerowaniem na użytkownikach. ChatGPT przestanie uczyć się na naszych danych 

OpenAI, firma zajmująca się tworzeniem modeli sztucznej inteligencji (SI), która zasłynęła przede wszystkim ze swojego wyjątkowego chatbota ChatGPT, ogłosiła kategoryczne zaprzestanie wykorzystywania danych od użytkowników API. Oznacza to koniec trenowania modeli językowych na konkretnym zbiorze informacji z racji zmienienia polityki działania firmy, o czym poinformował sam dyrektor generalny w wywiadzie dla CNBC. Stwierdził, że klienci OpenAI zwyczajnie nie chcą, aby ich poczynania z ChatGPT z poziomu API służyły do dalszego trenowania modelu, dlatego przekazywanie danych będzie domyślnie wyłączone. Jest to jednak ciągle możliwe, o ile klienci wyraźnie zgodzą się na udostępnienie swoich danych w tym celu. 

PS. Subskrybuj kanał Focus Technologie!

Czytaj też: Coraz więcej krajów przeciwko ChatGPT. Sztuczna inteligencja musi podlegać kontroli

Pamiętajmy jednak, że mowa tutaj o instancjach modelów OpenAI w formie API, a więc tych dostępnych z poziomu aplikacji trzecich. Jest to nic innego, jak specjalny interfejs programowania aplikacji, który to pozwala na bezpośrednie podłączenie się do oprogramowania OpenAI i uzyskanie dostępu m.in. do ChatGPT. Zmiana ta nie dotyczy więc bezpośrednio samego narzędzia dostępnego dla wszystkich, ale i tak jest istotna. Rozwiewa bowiem niektóre obawy dotyczące prywatności i etyki, jakie klienci mogą mieć w związku z udostępnianiem swoich danych OpenAI i tym, jak mogą być one wykorzystywane do szkolenia lub ulepszania jego modeli.

Tyczy się to zwłaszcza danych wrażliwych, o czym brutalnie przekonał się niedawno Samsung, który zabronił swoim pracownikom korzystania z chatbotów pod groźbą wyrzucenia z pracy. Wszystko ze względu na to, że teoretycznie niewinne przesyłanie informacji temu narzędziu, mogło skończyć się wyciekiem wrażliwych danych, które wprawdzie często trudno wykorzystać (tyczy się to np. ułamków kodu), ale zawsze jest ryzyko, że ktoś albo podkradnie innowacyjne rozwiązanie jakiegoś problemu, albo wykorzysta szczątkowy kod do opracowania ataku.

Czytaj też: Bard od Google trafił do ludzi. ChatGPT zostanie zdetronizowany? 

Co ciekawe, OpenAI zaktualizował bez większej pompy swoje warunki świadczenia usług na początku tego roku, aby odzwierciedlić tę zmianę w sposobie działania udostępnionych API. Nie jest jednak jasne, czy już wtedy nowa polityka weszła w życie, czy może miało to miejsce dopiero “niedawno”, jak stwierdził CEO. W ogólnym jednak rozrachunku ta decyzja świadczy dobrze o firmie, bo wsłuchując się w opinię użytkowników i rozwiązując ich często poruszane problemy, udowadnia, że rzeczywiście jej na nas zależy. Nic zresztą dziwnego – bez nas, użytkowników, nie miałby kto z chatbotów korzystać.