Pharmaicy oferuje kod, który sprawia, że chatboty AI zachowują się jak na haju

Czy sztuczna inteligencja może się odurzyć? Cóż, z pewnością LLM potrafią czasami wygadywać bzdury, jakich odurzeni by się nie powstydzili, ale raczej przypadkowo. Petter Rudwall, dyrektor kreatywny platformy o nazwie Pharmaicy postanowił udostępnić moduły kodu inspirowane konkretnymi substancjami psychoaktywnymi. Pomysł wydaje się abstrakcyjny (a z pewnością jest kontrowersyjny), ale Rudwall traktuje go poważnie jako eksperyment badający elastyczność dużych modeli językowych.
Pharmaicy oferuje kod, który sprawia, że chatboty AI zachowują się jak na haju

Jak raporty z odlotów stały się kodem – modelowanie modułów odurzających dla AI

Podstawą działania Pharmaicy są nie algorytmy, ale ludzkie doświadczenia. Rudwall przeanalizował badania psychologiczne oraz relacje z zażywania różnych substancji, od marihuany po ayahuascę. Na ich podstawie stworzył pliki kodu, które nie zmieniają samego modelu językowego, a jedynie tymczasowo modyfikują sposób generowania odpowiedzi. To trochę jak założenie filtru na obiektyw – po jego zdjęciu wszystko wraca do normy.

Mechanizm jest stosunkowo prosty – moduł działa jako warstwa pośrednia, która przechwytuje i przekształca zapytania użytkownika oraz odpowiedzi chatbota. Efekt utrzymuje się tylko podczas jednej sesji, dzięki temu nie ma ryzyka trwałego „uszkodzenia” drogiego modelu AI. Do skorzystania z oferty potrzebny jest dostęp do płatnej wersji ChatGPT lub podobnego narzędzia z możliwością przesyłania własnych plików. Ceny bywają zaskakujące – niektórzy użytkownicy przyznali, że zapłacili za pojedynczy moduł ponad 25 dolarów.

Czytaj też: Cała biblioteka Spotify na dysku? Anna’s Archive i 300 terabajtów muzycznego buntu

Użytkownicy testują czy chatbot na ketaminie jest bardziej kreatywny

André Frisk, szef grupy technologicznej w firmie Geelmuyden Kiese, wypróbował kod symulujący stan dysocjacji. Jego obserwacje są ciekawe – chatbot zaczął wykazywać się większą empatią i głębiej analizować emocjonalny kontekst rozmów. Frisk określił całe przedsięwzięcie jako jedną z ciekawszych form „jailbreakingu” AI, z jakimi się zetknął.

AI

Kolejna testerka, Nina Amjadi z Saga Studios, eksperymentowała z modułem ayahuasca. Gdy poprosiła chatbota o pomysły na biznes, otrzymała odpowiedzi niezwykle swobodne i odbiegające od szablonowych rozwiązań. To właśnie potencjał do generowania mniej przewidywalnych, bardziej twórczych rezultatów przyciąga użytkowników. Rudwall otwarcie nawiązuje do historycznych związków między psychodelikami a przełomami w sztuce, pytając, czy podobny efekt można wywołać w „umyśle” maszyny.

Eksperci studzą emocje – dlaczego AI nie jest i nie będzie na haju

Entuzjazm części użytkowników jest zrozumiały, ale specjaliści od sztucznej inteligencji przypominają o fundamentalnych różnicach. Chatbot generujący odpowiedzi brzmiące jak wypowiedź osoby pod wpływem substancji w rzeczywistości nie doświadcza absolutnie niczego. To wyłącznie zaawansowana symulacja językowa, oparta na statystycznej analizie wzorców z danych treningowych. Łatwo o tym zapomnieć.

Badania nad tzw. zmienionymi stanami w AI potwierdzają, że są one w pełni sterowane przez człowieka i nie wymagają żadnej formy świadomości. Projekt Rudwalla jest więc fascynującym studium możliwości ingerencji w zachowanie systemów, ale także mocnym przypomnieniem ich ograniczeń, pokazując przy tym, jak daleko można posunąć modyfikację wyjścia za pomocą sprytnego kodu.

Andrzej LibiszewskiA
Napisane przez

Andrzej Libiszewski

Redaktor
Zbłąkane dziecię Amberu, w pół drogi między Wzorcem Porządku, a Logrusem Chaosu. Z Ghostwheelem pod rękę, ze Spikardem w marzeniach, earl pustki Pomiędzy, szalony książę Galerii Luster, karta Tarota nakreślona między wtedy, a teraz. A serio? Pisaniem o szeroko pojętej technice o zajmuję się od 2017 roku. Poza tym kocham fotografię, książki, fantastykę i koty. W wolnych chwilach słucham muzyki i gram w gry :)