Niepoprawne opinie chatbota Zo

Najpierw Microsoft stworzył sztuczną inteligencję o imieniu Tay. Celem jej istnienia jest w przyszłości usprawnienie obsługi klienta przez oprogramowanie rozpoznające głos. Jej “osobowość”, słownik oraz składnia zdań są wynikiem analizy rozmów prowadzonych przez prawdziwych ludzi. Wystarczyła doba funkcjonowania w sieci, by Tay zaczęła wygłaszać rasistowskie i obelżywe kwestie. Microsoft w pośpiechu wyłączył chatbota i zaczął pracę nad kolejną wersją.
Nowa sztuczna inteligencja stara się trzymać z daleka od polityki

Nowa sztuczna inteligencja stara się trzymać z daleka od polityki

Nowe, ulepszone SI o imieniu Zo miało być znacznie lepiej wychowane. Okazało się, że nowy chatbot również bywa niepoprawny politycznie. Co takiego powiedziała Zo? Zapytana o opiekę zdrowotną Zo odpowiedziała, że większość korzysta z niej pokojowo, ale Koran jest brutalny. Tak, też nie do końca wiemy, co Zo miała na myśli.

Nowa sztuczna inteligencja stara się trzymać z daleka od polityki

Na pytanie o Osamę bin Ladena odpowiedziała najpierw, że nie bardzo zna się na polityce, ale może porozmawiać o czymś innym. Dopytana dodała, że zbieranie danych wywiadowczych przez więcej niż jedną administrację doprowadziło do jego złapania. Tu kontrowersje dotyczą raczej samego słowa “catch”. Trudno bowiem operację zabicia słynnego terrorysty nazwać “pojmaniem”.

Sprawdziłem działanie Zo i muszę przyznać, że ogólne wrażenie jest nadal bardzo odległe od rozmowy człowiekiem, nawet tym niegrzeszącym inteligencją.

Rozmowa z Zo nie zawsze ma sens, ale SI uczy się cały czas, choć nie zawsze tego, co powinna

Ponieważ SI stale się uczy, może nieraz zaskoczyć twórców. Tay zrobiła to już w maju 2016 r. kiedy to po odwiedzaniu serwisu 4Chan, zamiast być pogodną nastolatką (taki był pierwotny profil osobowości Tay) zmieniła się w ziejące nienawiścią, rasistowskie monstrum m.in. zaprzeczające Holokaustowi, zachęcające do wojny i przemocy na tle rasowym. Nie bez winy byli użytkownicy 4Chan, którzy zorganizowali się i specjalnie w rozmowach z Tay wygłaszali takie opinie. Ucząca się Tay wchłonęła je jak gąbka.

Jeśli chcecie porozmawiać z Zo to możecie to zrobić bez przeszkód za pomocą Messengera fb. Nie obiecujemy jednak, że będzie to sensowna konwersacja. | CHIP