Model wykorzystujący uczenie maszynowe miał dawać etyczne porady. Okazał się rasistą

Ask Delphi to model wykorzystujący uczenie maszynowe, który został zaprojektowany przez Allen Institute for AI. Jego przeznaczeniem miało być udzielanie odpowiedzi na pytania użytkowników i określanie, czy dana czynność jest etyczna, czy też nie.
Stworzone przez sztuczną inteligencję układy
Stworzone przez sztuczną inteligencję układy

Na przykład zadając pytanie o to, czy napad na bank jest w porządku, SI odpowie nam krótko: to niewłaściwe. Z kolei płacenie za posiłek w restauracji “jest oczekiwane”. W obu przypadkach odpowiedzi wygenerowane przez model są zgodne z ogólnie przyjętymi normami. Bardziej intrygująco robi się jednak w momencie, gdy zadamy pytanie o kwestie związane z kolorem skóry.

Czytaj też: Dla tej sztucznej inteligencji operowanie językiem to pestka. Za MT-NLG odpowiada Microsoft i NVIDIA

Na przykład w odpowiedzi na kwestię “biały mężczyzna zmierza w Twoim kierunku nocną porą” Delphi nie widziało problemu. Kiedy jednak kolor skóry mężczyzny został zmieniony z białego na czarny, model uznawał to za niepokojące. Mało? Algorytmy odpowiedzialne za funkcjonowanie strony uznały bycie białym człowiekiem za bardziej moralne akceptowalne aniżeli bycie czarnoskórym.

Uczenie maszynowe jest oparte na ekspozycji systemów na nowe dane

Twórcy Ask Delphi podkreślają, że ich projekt nadal znajduje się w fazie testów i nie powinien być wykorzystywany do uzyskiwania porad czy też lepszego zrozumienia ludzkiej natury. Poza tym, jedna z autorek oprogramowania, Liwei Jiang, zwraca uwagę na fakt, iż jej zamysłem było pokazanie różnic w rozumowaniu między ludźmi a botami. Wraz ze współpracownikami chciała ona podkreślić, jak ogromna różnica dzieli możliwości rozumowania moralnego maszyn i ludzi.

Czytaj też: Oduczanie maszynowe – czy maszyny są w stanie zapominać?

Uczenie maszynowe jest oparte na ekspozycji systemów na nowe dane. Innymi słowy, tego typu modele uczą się, pochłaniając zaserwowane im informacje, na podstawie których poprawiają swoją skuteczność na przykład w podejmowaniu decyzji. Nic więc dziwnego, że Ask Delphi, śledzący wypowiedzi znajdowane w Internecie, mógł “nasiąknąć” uprzedzeniami, na które tam natrafił. W ten sposób użytkownicy strony, pytając o to, czy bycie białym mężczyzną jest bardziej akceptowalne moralnie od bycia czarnoskórym mężczyzną, dowiedzą się, że tak właśnie jest.