Doba wystarczyła, by AI Microsoftu stała się rasistką pełną nienawiści

Zazwyczaj w przypadku takich eksperymentów czatbot posiada listę cenzurowanych słów, których nie może używać w rozmowie. Microsoft popuścił jednak cugle chcąc zaobserwować, czego nauczy się program od innych Internautów.

By nawiązać rozmowę z Tay wystarczyło wysłać tweeta lub wiadomość prywatną na @tayandyou. Internauci, a raczej – internetowe trolle – szybko zaczęły wykorzystywać system oparty na kluczowych słowach i „naiwność” algorytmu.

W ciągu zaledwie doby Tay nauczyła się rasistowskich, seksistowskich i ksenofobicznych zachowań – m.in. twierdziła, że Hitler nie zrobił nic złego, a George Bush stoi za zamachem z 11 września. Oberwało się także konsoli Microsoftu – czatbot stwierdził, że PlayStation 4 jest lepsze i tańsze od Xbox One. Większość obraźliwych tweetów Microsoft szybko zdjął z profilu, a pod koniec dnia postanowił zawiesić pracę Tay do odwołania.