Pharmaicy oferuje kod, który sprawia, że chatboty AI zachowują się jak na haju

Czy sztuczna inteligencja może się odurzyć? Cóż, z pewnością LLM potrafią czasami wygadywać bzdury, jakich odurzeni by się nie powstydzili, ale raczej przypadkowo. Petter Rudwall, dyrektor kreatywny platformy o nazwie Pharmaicy postanowił udostępnić moduły kodu inspirowane konkretnymi substancjami psychoaktywnymi. Pomysł wydaje się abstrakcyjny (a z pewnością jest kontrowersyjny), ale Rudwall traktuje go poważnie jako eksperyment badający elastyczność dużych modeli językowych.
...

Jak raporty z odlotów stały się kodem – modelowanie modułów odurzających dla AI

Podstawą działania Pharmaicy są nie algorytmy, ale ludzkie doświadczenia. Rudwall przeanalizował badania psychologiczne oraz relacje z zażywania różnych substancji, od marihuany po ayahuascę. Na ich podstawie stworzył pliki kodu, które nie zmieniają samego modelu językowego, a jedynie tymczasowo modyfikują sposób generowania odpowiedzi. To trochę jak założenie filtru na obiektyw – po jego zdjęciu wszystko wraca do normy.

Mechanizm jest stosunkowo prosty – moduł działa jako warstwa pośrednia, która przechwytuje i przekształca zapytania użytkownika oraz odpowiedzi chatbota. Efekt utrzymuje się tylko podczas jednej sesji, dzięki temu nie ma ryzyka trwałego „uszkodzenia” drogiego modelu AI. Do skorzystania z oferty potrzebny jest dostęp do płatnej wersji ChatGPT lub podobnego narzędzia z możliwością przesyłania własnych plików. Ceny bywają zaskakujące – niektórzy użytkownicy przyznali, że zapłacili za pojedynczy moduł ponad 25 dolarów.

Czytaj też: Cała biblioteka Spotify na dysku? Anna’s Archive i 300 terabajtów muzycznego buntu

Użytkownicy testują czy chatbot na ketaminie jest bardziej kreatywny

André Frisk, szef grupy technologicznej w firmie Geelmuyden Kiese, wypróbował kod symulujący stan dysocjacji. Jego obserwacje są ciekawe – chatbot zaczął wykazywać się większą empatią i głębiej analizować emocjonalny kontekst rozmów. Frisk określił całe przedsięwzięcie jako jedną z ciekawszych form „jailbreakingu” AI, z jakimi się zetknął.

AI

Kolejna testerka, Nina Amjadi z Saga Studios, eksperymentowała z modułem ayahuasca. Gdy poprosiła chatbota o pomysły na biznes, otrzymała odpowiedzi niezwykle swobodne i odbiegające od szablonowych rozwiązań. To właśnie potencjał do generowania mniej przewidywalnych, bardziej twórczych rezultatów przyciąga użytkowników. Rudwall otwarcie nawiązuje do historycznych związków między psychodelikami a przełomami w sztuce, pytając, czy podobny efekt można wywołać w „umyśle” maszyny.

Eksperci studzą emocje – dlaczego AI nie jest i nie będzie na haju

Entuzjazm części użytkowników jest zrozumiały, ale specjaliści od sztucznej inteligencji przypominają o fundamentalnych różnicach. Chatbot generujący odpowiedzi brzmiące jak wypowiedź osoby pod wpływem substancji w rzeczywistości nie doświadcza absolutnie niczego. To wyłącznie zaawansowana symulacja językowa, oparta na statystycznej analizie wzorców z danych treningowych. Łatwo o tym zapomnieć.

Badania nad tzw. zmienionymi stanami w AI potwierdzają, że są one w pełni sterowane przez człowieka i nie wymagają żadnej formy świadomości. Projekt Rudwalla jest więc fascynującym studium możliwości ingerencji w zachowanie systemów, ale także mocnym przypomnieniem ich ograniczeń, pokazując przy tym, jak daleko można posunąć modyfikację wyjścia za pomocą sprytnego kodu.