Jak raporty z odlotów stały się kodem – modelowanie modułów odurzających dla AI
Podstawą działania Pharmaicy są nie algorytmy, ale ludzkie doświadczenia. Rudwall przeanalizował badania psychologiczne oraz relacje z zażywania różnych substancji, od marihuany po ayahuascę. Na ich podstawie stworzył pliki kodu, które nie zmieniają samego modelu językowego, a jedynie tymczasowo modyfikują sposób generowania odpowiedzi. To trochę jak założenie filtru na obiektyw – po jego zdjęciu wszystko wraca do normy.

Mechanizm jest stosunkowo prosty – moduł działa jako warstwa pośrednia, która przechwytuje i przekształca zapytania użytkownika oraz odpowiedzi chatbota. Efekt utrzymuje się tylko podczas jednej sesji, dzięki temu nie ma ryzyka trwałego „uszkodzenia” drogiego modelu AI. Do skorzystania z oferty potrzebny jest dostęp do płatnej wersji ChatGPT lub podobnego narzędzia z możliwością przesyłania własnych plików. Ceny bywają zaskakujące – niektórzy użytkownicy przyznali, że zapłacili za pojedynczy moduł ponad 25 dolarów.
Czytaj też: Cała biblioteka Spotify na dysku? Anna’s Archive i 300 terabajtów muzycznego buntu
Użytkownicy testują czy chatbot na ketaminie jest bardziej kreatywny
André Frisk, szef grupy technologicznej w firmie Geelmuyden Kiese, wypróbował kod symulujący stan dysocjacji. Jego obserwacje są ciekawe – chatbot zaczął wykazywać się większą empatią i głębiej analizować emocjonalny kontekst rozmów. Frisk określił całe przedsięwzięcie jako jedną z ciekawszych form „jailbreakingu” AI, z jakimi się zetknął.

Kolejna testerka, Nina Amjadi z Saga Studios, eksperymentowała z modułem ayahuasca. Gdy poprosiła chatbota o pomysły na biznes, otrzymała odpowiedzi niezwykle swobodne i odbiegające od szablonowych rozwiązań. To właśnie potencjał do generowania mniej przewidywalnych, bardziej twórczych rezultatów przyciąga użytkowników. Rudwall otwarcie nawiązuje do historycznych związków między psychodelikami a przełomami w sztuce, pytając, czy podobny efekt można wywołać w „umyśle” maszyny.
Eksperci studzą emocje – dlaczego AI nie jest i nie będzie na haju
Entuzjazm części użytkowników jest zrozumiały, ale specjaliści od sztucznej inteligencji przypominają o fundamentalnych różnicach. Chatbot generujący odpowiedzi brzmiące jak wypowiedź osoby pod wpływem substancji w rzeczywistości nie doświadcza absolutnie niczego. To wyłącznie zaawansowana symulacja językowa, oparta na statystycznej analizie wzorców z danych treningowych. Łatwo o tym zapomnieć.
Badania nad tzw. zmienionymi stanami w AI potwierdzają, że są one w pełni sterowane przez człowieka i nie wymagają żadnej formy świadomości. Projekt Rudwalla jest więc fascynującym studium możliwości ingerencji w zachowanie systemów, ale także mocnym przypomnieniem ich ograniczeń, pokazując przy tym, jak daleko można posunąć modyfikację wyjścia za pomocą sprytnego kodu.