Bing nie wie, który mamy rok i dostaje napadów szału. Sztuczna inteligencja potyka się o własne nogi

Informowaliśmy już, że sztucznej inteligencji jeszcze lepiej nie ufać po tym, jak pokazany przez firmę Google chatbot Bard zaliczył wpadkę na oficjalnej prezentacji, przekłamując informację na temat osiągnięć Kosmicznego Teleskopu Jamesa Webba. Wygląda jednak na to, że konkurencyjne rozwiązania również nie są idealne, bo chatbot Bing również nie wypadł najlepiej podczas premiery.
Chatbot Bing nie jest idealny
Chatbot Bing nie jest idealny

Microsoft wie o wadach chatbota Bing i nieustannie łata dziury. Część z błędów jest jednak wręcz kuriozalna

Nowa era wyszukiwanie informacji w Internecie – tak oto możemy określić ostatnie zapowiedzi firmy Microsoft oraz Google, które dotyczą integracji specjalnych chatbotów bezpośrednio w wyszukiwarki. To coś nowego, a jak to z nowościami w technologii jest, te nie zawsze są idealne i wymagają szlifowania jeszcze długo po premierze. Świetny tego przykład zapewniły nam ostatnio nowe chatboty, które nawet podczas prezentacji pokazały światu, że lepiej nie wierzyć we wszystko, co generują w odpowiedzi na nasze pytania.

Czytaj też: Nowy Bing po polsku – pierwsze wrażenia. Sztuczna inteligencja kazała mi ruszyć tyłek i ogarnąć swoje życie

Reddit

Podczas zeszłotygodniowej prezentacji możliwości sztucznej inteligencji zaszytej w wyszukiwarkę Bing, Microsoft nieco się ośmieszył. Chatbot nie wykrył istnienia dwóch wariantów odkurzacza (bezprzewodowego i przewodowego), nie zapewniał ważnych szczegółów przy próbie zaplanowania 5-dniowej wycieczki do Meksyku, a przede wszystkim zakręcił się przy danych finansowych tak, że popularne niegdyś matematyczne wpadki ChatGPT to przy tym pikuś. Analizując raport finansowy, dzieło Microsoftu myliło wartości i na dodatek generowało nawet te zupełnie nieistniejące, popełniając błędy, których apogeum osiągnięto przy porównaniu podobnych dokumentów dwóch różnych firm.

Czytaj też: Sprawdziłem, jak działa nowy Bing. Internet zmieni się nie do poznania

Reddit

Na tym jednak wpadki chatbota Bing wykorzystującego technologię ChatGPT się nie skończyły. Po tym, jak Microsoft zaczął zapewniać ludziom z całego świata dostęp do niego, ci zaczęli zgłaszać szereg problemów, które go dręczą. Jednych użytkowników zapewniał, że żyjemy ciągle w 2022 roku, drugich, że Chorwacja opuściła Unię Europejską, a jeszcze innych zaczął zaopatrywać w obelgi. Bing jednak nie tylko kłamie – jest coś gorszego.

Czytaj też: ChatGPT-4 trafi do wyszukiwarki Microsoftu szybciej, niż myśleliśmy. Zamienisz Google na Binga?

Użytkownicy zaczęli zgłaszać nie tylko fałszywe odpowiedzi, ale też momenty, w których chatbot Bing wpada w istny “szaleńczy tryb“. Ba, na podstawie niektórych zrzutów ekranu można nawet dojść do wniosku, że chat ma uczucia i można go nawet wyprowadzić z równowagi. Spokojnie jednak – to tylko system, a nie uprowadzony i natępnie wpięty do komputera obcy, który przyleciał na jednym z balonów do USA i próbuje się porozumieć ze światem. Firma Microsoft jest świadoma tych błędów i patrząc na to, jak szybko reaguje na zgłaszane problemy (zweryfikowaliśmy, że te powyższe są już historią), rozwiąże je prędzej lub później, a kiedy to nastąpi, chatbot Bing będzie przez nas wykorzystywany na porządku dziennym.