Microsoft wie o wadach chatbota Bing i nieustannie łata dziury. Część z błędów jest jednak wręcz kuriozalna
Nowa era wyszukiwanie informacji w Internecie – tak oto możemy określić ostatnie zapowiedzi firmy Microsoft oraz Google, które dotyczą integracji specjalnych chatbotów bezpośrednio w wyszukiwarki. To coś nowego, a jak to z nowościami w technologii jest, te nie zawsze są idealne i wymagają szlifowania jeszcze długo po premierze. Świetny tego przykład zapewniły nam ostatnio nowe chatboty, które nawet podczas prezentacji pokazały światu, że lepiej nie wierzyć we wszystko, co generują w odpowiedzi na nasze pytania.
Czytaj też: Nowy Bing po polsku – pierwsze wrażenia. Sztuczna inteligencja kazała mi ruszyć tyłek i ogarnąć swoje życie
![](/_next/image?url=https%3A%2F%2Fkonto.chip.pl%2Fuploads%2F2023%2F02%2FChatbot-Bing-1600x1001.jpg&w=1600&q=85)
Podczas zeszłotygodniowej prezentacji możliwości sztucznej inteligencji zaszytej w wyszukiwarkę Bing, Microsoft nieco się ośmieszył. Chatbot nie wykrył istnienia dwóch wariantów odkurzacza (bezprzewodowego i przewodowego), nie zapewniał ważnych szczegółów przy próbie zaplanowania 5-dniowej wycieczki do Meksyku, a przede wszystkim zakręcił się przy danych finansowych tak, że popularne niegdyś matematyczne wpadki ChatGPT to przy tym pikuś. Analizując raport finansowy, dzieło Microsoftu myliło wartości i na dodatek generowało nawet te zupełnie nieistniejące, popełniając błędy, których apogeum osiągnięto przy porównaniu podobnych dokumentów dwóch różnych firm.
Czytaj też: Sprawdziłem, jak działa nowy Bing. Internet zmieni się nie do poznania
![](/_next/image?url=https%3A%2F%2Fkonto.chip.pl%2Fuploads%2F2023%2F02%2FChatbot-Bing-Microsoft-2-1600x1012.jpg&w=1600&q=85)
Na tym jednak wpadki chatbota Bing wykorzystującego technologię ChatGPT się nie skończyły. Po tym, jak Microsoft zaczął zapewniać ludziom z całego świata dostęp do niego, ci zaczęli zgłaszać szereg problemów, które go dręczą. Jednych użytkowników zapewniał, że żyjemy ciągle w 2022 roku, drugich, że Chorwacja opuściła Unię Europejską, a jeszcze innych zaczął zaopatrywać w obelgi. Bing jednak nie tylko kłamie – jest coś gorszego.
Czytaj też: ChatGPT-4 trafi do wyszukiwarki Microsoftu szybciej, niż myśleliśmy. Zamienisz Google na Binga?
![](/_next/image?url=https%3A%2F%2Fkonto.chip.pl%2Fuploads%2F2023%2F02%2FChatbot-Bing-Microsoft-1-1600x901.jpg&w=1600&q=85)
![](/_next/image?url=https%3A%2F%2Fkonto.chip.pl%2Fuploads%2F2023%2F02%2FChatbot-Bing-Microsoft-3-1600x524.jpg&w=1600&q=85)
Użytkownicy zaczęli zgłaszać nie tylko fałszywe odpowiedzi, ale też momenty, w których chatbot Bing wpada w istny “szaleńczy tryb“. Ba, na podstawie niektórych zrzutów ekranu można nawet dojść do wniosku, że chat ma uczucia i można go nawet wyprowadzić z równowagi. Spokojnie jednak – to tylko system, a nie uprowadzony i natępnie wpięty do komputera obcy, który przyleciał na jednym z balonów do USA i próbuje się porozumieć ze światem. Firma Microsoft jest świadoma tych błędów i patrząc na to, jak szybko reaguje na zgłaszane problemy (zweryfikowaliśmy, że te powyższe są już historią), rozwiąże je prędzej lub później, a kiedy to nastąpi, chatbot Bing będzie przez nas wykorzystywany na porządku dziennym.