Niepoprawne opinie chatbota Zo

Microsoft od dawna prowadzi prace nad sztuczną inteligencją. Zo, nowa SI wygłasza nieco bardziej wyważone opinie, ale i jej nie udało uniknąć się wpadki. Jednak w porównaniu z poprzednim chatbotem Microsoftu, Zo wydaje się "lepiej wychowana".

Najpierw Microsoft stworzył sztuczną inteligencję o imieniu Tay. Celem jej istnienia jest w przyszłości usprawnienie obsługi klienta przez oprogramowanie rozpoznające głos. Jej „osobowość”, słownik oraz składnia zdań są wynikiem analizy rozmów prowadzonych przez prawdziwych ludzi. Wystarczyła doba funkcjonowania w sieci, by Tay zaczęła wygłaszać rasistowskie i obelżywe kwestie. Microsoft w pośpiechu wyłączył chatbota i zaczął pracę nad kolejną wersją.

Nowe, ulepszone SI o imieniu Zo miało być znacznie lepiej wychowane. Okazało się, że nowy chatbot również bywa niepoprawny politycznie. Co takiego powiedziała Zo? Zapytana o opiekę zdrowotną Zo odpowiedziała, że większość korzysta z niej pokojowo, ale Koran jest brutalny. Tak, też nie do końca wiemy, co Zo miała na myśli.

Nowa sztuczna inteligencja stara się trzymać z daleka od polityki

Na pytanie o Osamę bin Ladena odpowiedziała najpierw, że nie bardzo zna się na polityce, ale może porozmawiać o czymś innym. Dopytana dodała, że zbieranie danych wywiadowczych przez więcej niż jedną administrację doprowadziło do jego złapania. Tu kontrowersje dotyczą raczej samego słowa “catch”. Trudno bowiem operację zabicia słynnego terrorysty nazwać “pojmaniem”.

Sprawdziłem działanie Zo i muszę przyznać, że ogólne wrażenie jest nadal bardzo odległe od rozmowy człowiekiem, nawet tym niegrzeszącym inteligencją.

Rozmowa z Zo nie zawsze ma sens, ale SI uczy się cały czas, choć nie zawsze tego, co powinna

Ponieważ SI stale się uczy, może nieraz zaskoczyć twórców. Tay zrobiła to już w maju 2016 r. kiedy to po odwiedzaniu serwisu 4Chan, zamiast być pogodną nastolatką (taki był pierwotny profil osobowości Tay) zmieniła się w ziejące nienawiścią, rasistowskie monstrum m.in. zaprzeczające Holokaustowi, zachęcające do wojny i przemocy na tle rasowym. Nie bez winy byli użytkownicy 4Chan, którzy zorganizowali się i specjalnie w rozmowach z Tay wygłaszali takie opinie. Ucząca się Tay wchłonęła je jak gąbka.

Jeśli chcecie porozmawiać z Zo to możecie to zrobić bez przeszkód za pomocą Messengera fb. Nie obiecujemy jednak, że będzie to sensowna konwersacja. | CHIP

 

0
Źródło: engadget.com
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.