Jak ostrzegają USC Dornsife: AI to nie tylko neutralny przekaźnik informacji. To potężne narzędzie, które aktywnie kształtuje to, jak myślimy, jakich argumentów używamy i co uznajemy za „poprawne” czy „grzeczne”.
Czy AI, z której korzystasz, ma zachodnie uprzedzenia?
Nie od dziś wiadomo, że człowiek chłonie pewne wzorce niczym gąbka. Świetnie widać to chociażby w przypadku stylu pisania. Każdy aspirujący się młody autor wie, że bez czytania ciężko jest dobrze pisać. Ma to też swoją drugą stronę – jeśli wykorzystujemy do pisania AI (lub czytamy, nawet nieświadomie, generowane przez nią treści), szybko możemy „załapać” jej styl, używając charakterystycznej składni, środków stylistycznych itp.
Jednak ten wpływ sztucznej inteligencji jest znacznie większy, o czym dowiadujemy się z analiz opublikowanych w „Policy Insights from the Behavioral and Brain Sciences”. Badacze postanowili bowiem sprawdzić, co tak naprawdę siedzi w „głowie” modeli takich jak ChatGPT, Claude czy Gemini. Zespół pod kierownictwem profesora Mortezy Dehghaniego przejrzał więc dziesiątki badań z zakresu psychologii i lingwistyki, dochodząc do dość niepokojącego wniosku. Systemy te promują bardzo wąski wycinek ludzkiego doświadczenia, który badacze określili akronimem WHELM (Western, high-income, educated, liberal, male).
Innymi słowy – AI odzwierciedla wartości typowe dla zachodniego, zamożnego, wykształconego i liberalnego mężczyzny. Dlaczego? Ponieważ to właśnie te grupy generują lwią część danych w anglojęzycznym internecie, na których trenowane są algorytmy. Kiedy pytamy AI o poradę moralną, raczej nie dostaniemy neutralnego punktu widzenia. Zamiast tego system promuje indywidualną wolność i sprawiedliwość, spychając na margines tradycję, autorytet czy wspólnotowość – wartości kluczowe dla wielu kultur pozaeuropejskich. Widać to niestety nawet w drobnych interakcjach:
- Utrata unikalnego stylu – tu, jak wspomniałam, chodzi o przejmowanie poprawnego, przejrzystego stylu AI. Chociaż pisane w ten sposób wiadomości są nienaganne, to jednocześnie nie znajdziemy w nich unikalnego stylu i własnej barwy.
- Kulturowy recycling — modele zapytane o przykłady tradycji w egzotycznych językach często i tak wracają do amerykańskich świąt czy hollywoodzkich filmów, oferując jedynie powierzchowne opisy lokalnych zwyczajów.
- Pętla zwrotna — to, co generuje AI, trafia do sieci, staje się częścią naszej wiedzy, a następnie służy do trenowania kolejnej generacji modeli. Ten cykl wzmacnia dominujące wzorce, stopniowo wymazując różnorodność myślenia.
Czy da się coś z tym zrobić?
Zamiast z góry demonizować sztuczną inteligencję, naukowcy podchodzą do tego bardziej racjonalnie. Doceniają to, jak ułatwia życie i dostęp do wiedzy, ale widzą również problemy, a w tym przypadku ten znaczący – gdy garstka systemów zaczyna wpływać na miliardy interakcji dziennie, stając się jedynym arbitrem tego, co jest „dobre”. Raz wyuczone uprzedzenia są niezwykle trudne do usunięcia, dlatego badacze proponują trzyetapową naprawę procesu tworzenia AI.
Czytaj też: YouTube znów testuje naszą cierpliwość. Tym razem cios uderza w użytkowników Premium
Po pierwsze, deweloperzy muszą przestać polegać niemal wyłącznie na anglojęzycznych, zachodnich bazach danych. Włączenie materiałów z różnych regionów i tradycji to fundament. Po drugie, na etapie oceny odpowiedzi, firmy powinny zatrudniać nie tylko techników, ale też antropologów, psychologów i językoznawców z różnych kręgów kulturowych. Obecnie testerzy z całego świata są często szkoleni, by oceniać AI według jednego, zachodniego standardu, co mija się z celem.
W efekcie, jeśli uda się zastosować do tych propozycji, moglibyśmy otrzymać systemy, które rozumieją, że nie ma jednego „właściwego” sposobu rozumowania czy komunikacji. Różnorodność perspektyw to nie tylko kwestia uprzejmości – to silnik kreatywności i lepszego rozwiązywania problemów w skali globalnej. Szczerze jednak wątpię, by do tego doszło. Skoro niektórzy giganci posuwają się nawet do nielegalnego pozyskiwania materiałów do nauki dla AI, to inwestowanie dodatkowych środków na większą liczbę ekspertów i bazy danych z całego świata raczej nie przejdzie.
Czytaj też: Wielki rebranding zamiast wielkich zmian. Copilot wcale nie znika z Windowsa 11
Nie łudźmy się, tu chodzi o pieniądze. Problem w tym, że na szali stawiamy coś, co nigdy nie powinno zostać utracone – własną tożsamość, a szerzej również tożsamość kulturową i bogactwo myśli, budowane przez tysiąclecia. Jak zauważa Yalda Daryani, główna autorka badania: tradycje i sposoby myślenia raz utracone, nie wrócą.
Źródło: badanie “The Homogenizing Engine: AI’s Role in Standardizing Culture and the Path to Policy”
