samochód po wypadku

Kto odpowie za błędy SI?

Sztuczna inteligencja ma coraz większy wpływ na nasze życie, czego nie do końca jesteśmy świadomi. Etycy alarmują, że to ostatni dzwonek, byśmy wypracowali rozwiązania przygotowujące społeczeństwa na nadchodzące zmiany. Bo co do tego, że nastąpią, nie ma wątpliwości.

23 marca 2018 r. miał miejsce kolejny już – niestety śmiertelny – wypadek z udziałem działającego w trybie autopilota samochodu marki Tesla. Niemal natychmiast po tym wydarzeniu wielu zaczęło się zastanawiać: czy za śmierć człowieka odpowiada algorytm? Rekonstrukcja wypadku ujawniła później, że zarówno system autopilota Tesli, jak i wbudowany w pojazd system automatycznego hamowania uległ awarii. Tuż przed katastrofą samochód przyśpieszył nawet powyżej ograniczenia prędkości w miejscu zdarzenia i skierował się w stronę betonowej bariery. Czy zatem winne było oprogramowanie pojazdu? Wiadomo, że kierowca nie miał rąk na kierownicy w momencie wypadku. Bariera energochłonna, w którą uderzył samochód marki Tesla już przed wypadkiem była uszkodzona przez… wcześniejszy wypadek, a i droga, na której miało miejsce opisywane zdarzenie była w ogólnie złym stanie. Niedopracowany algorytm? Nieszczęśliwy zbieg okoliczności? Elon Musk i dział marketingu Tesli wydają się przedstawiać wbudowane w auto systemy autonomicznej jazdy jako bardziej zaawansowane i inteligentne niż są w istocie. Autonomia może i dobrze wygląda na prospektach inwestorów, ale gdy pojawiają się błędy, niektórym przychodzi za nie płacić najwyższą cenę.

Wypadek z udziałem autonomicznego samochodu
Departament Transportu i Bezpieczeństwa USA nadal bada wypadki samochodu sportowego Tesla w trybie autopilota.

Kto poniesie winę, gdy coś pójdzie nie tak?

Paradoksalnie parcie na maksymalną algorytmizację transportu nie poprawi sytuacji. Owszem, autonomiczne samochody są istotną częścią wizji świata, w którym jakiekolwiek wypadki drogowe należą do przeszłości, ale same algorytmy nam nie załatwią sprawy. Nawet gdy większość pojazdów poruszających się po drogach będzie już autonomiczna, to wciąż istotne będą zdolności komunikacyjne elementów infrastruktury drogowej, a kierowca – człowiek, w takim systemie staje się elementem chaosu, czymś nieprzewidywalnym.

Gdy osiągnie IQ 100 czy 150, nie będzie problemu. Ale gdy tysiąc albo 10 tysięcy, to co wtedy? To może być największe osiągnięcie ludzkości. Ale zarazem jej koniec.
Stephen Hawking, źr: Artur Włodarski, Sztuczna inteligencja. Bóg już istnieje, wyborcza.pl, 22 października 2016.

Zresztą, sam kod również w pewnym sensie jest nieprzewidywalny. Jakiekolwiek oprogramowanie jest zawsze wadliwe. Nie w sensie funkcjonalnym, chodzi raczej o to, że trudno o całkowite wyeliminowanie błędów w tworzonym kodzie. Błąd może dać o sobie w najmniej spodziewanym momencie i gdy tym bardziej nasze społeczeństwo będzie zależne od algorytmów, tym większe konsekwencje takich błędów poniesiemy. Nawet gdy założymy hipotetycznie że systemy działają poprawne, to wciąż może pojawić się nieprzewidziany przez programistę czy samoprogramującą się sztuczną inteligencję splot wydarzeń, czy interakcji. Inteligentne oprogramowanie może zadziałać właściwie, wyciągnąć właściwe wnioski, które mimo to okażą się w istocie błędne z powodu wadliwych lub sprzecznych danych. Kto zatem ponosi winę za wypadek? Producent? Programista? A może algorytm?

Sztuczna inteligencja jest potencjalnie groźniejsza od bomb atomowych.
Elon Musk

Z założenia algorytmy miały uprościć nasze życie. W większości przypadków tak w istocie jest. Algorytmy pozwalają zautomatyzować podejmowanie decyzji czy przypisywanie ocen. Jeżeli faktycznie jakiś program robi to niezależnie od wkładu ludzi i zgodnie z własnymi miarami, to zazwyczaj określa się go mianem inteligentnego, lub po prostu nazywa się go „sztuczną inteligencją”. Jednak jest też druga strona medalu. Algorytmy, niezależnie od tego, czy określimy je jako inteligentne, czy też nie, stają się nie tylko narzędziem, za pomocą którego wprowadzana w życie jest ludzka wola. Coraz większa szybkość ich działania i rosnąca autonomia powodują, że algorytmy zamiast rozwiązywać tworzą całe kategorie zupełnie nowych problemów poddając próbie tradycyjne koncepcje winy, kary czy odpowiedzialności. Dlatego takie incydenty jak katastrofa pojazdu Tesli, a przede wszystkim późniejsze, gorące dyskusje na ten temat w mediach, są niezwykle istotne. Oto – jako społeczeństwo – stajemy przed zupełnie nową klasą problemów indukowanych nowoczesnymi technologiami. Paradoksem jest, że tych problemów nie możemy rozwiązać technicznie, w sposób automatyczny. Coraz większa moc obliczeniowa, ilość pamięci, szybkość przetwarzania – nic tu nie zmienią, wręcz przeciwnie, mogą tylko pogłębić przepaść.

Algorytm sędzią człowieka?

Algorytmy coraz częściej kształtują nasze życie. Często nawet nie zauważamy w jak dużym stopniu. Określają one, czy i na jakich zasadach powinniśmy otrzymać pożyczkę, które wiadomości powinniśmy najpierw zobaczyć w internecie, czy też w ogóle je zobaczymy, z kim powinniśmy się spotkać i porozmawiać, a z kim pójść do łóżka. Algorytmizacja to – mogłoby się wydawać – święty Graal strategii. Algorytmy pomagają planować wojny i bitwy, bez względu na to, czy myślimy o nich w ujęciu metaforycznym, czy mamy na myśli dosłowne konflikty. Kod działający we współczesnym świecie kształtuje nasze spojrzenie na ten świat, wpływa na nasze przyjaźnie i kariery. I biada nam jeżeli popełnimy błąd, złamiemy przepis, prawo, zachorujemy czy stracimy majątek. Algorytmy nas zaszufladkują i mogą podejmować dalekosiężne decyzje dotyczące naszego życia: „nie nadaje się do pracy”, „nieubezpieczony”, „ryzyko recydywy”, „nie kwalifikuje się do kredytu” itd.

Protesty przeciwko systemowi rozpoznawania twarzy - Berlin.
Protesty przeciwko systemowi rozpoznawania twarzy na dworcu kolejowym Berlin Südkreuz. System automatycznie wyszukuje przestępców w tłumie pasażerów. Wskaźnik błędu: 20 procent, ale „projekt udany”.

Z góry zakłada się, że programy umożliwiające przetwarzać dane wielokrotnie szybciej niż ludzie, są nieomylne. Uznaje się, że oceny wydane przez algorytm są słuszne. Ale czy na pewno? Laik nawet przy pełnej transparentności kodu algorytmu np. decydującego o przydzielaniu kredytu czy ocenianiu kwalifikacji potencjalnych pracowników, nie byłby w stanie stwierdzić, czy kod jest poprawny, a jego oceny zgodne z prawdą i sprawiedliwe. Problem jednak polega na tym, że większość algorytmów komercyjnych de facto klasyfikujących ludzi jest niejawna.

Reklama

To, w jaki sposób i na podstawie jakich danych algorytmy podejmują decyzje, często stanowi tajną wiedzę wybranych korporacji. Co gorsza, mechanizm podejmowania decyzji bywa tak skomplikowany, że czasami staje się niezrozumiały nawet dla wtajemniczonych. Decyzje sztucznej inteligencji są trudne do zrozumienia. Wiele błędów może pojawiać się znienacka, nie ma tu celowości, a o byciu ofiarą często decyduje przypadek. Kto czuwa nad algorytmami i odpowiada za nie, gdy popełnią błąd? Państwo? Jakieś stowarzyszenie? Idea inteligentnej czarnej skrzynki, czyli coraz bardziej zaawansowanych, samo-rozwijających się sztucznych inteligencji (nie należy jej mylić z czarną skrzynką zbierającą dane wykorzystywane w przypadku np. katastrof lotniczych), których działanie przestaje być pojmowane nawet przez ich twórców (ściślej – twórców pierwszej iteracji AI), a które dają ślepo akceptowalne wyniki bez zrozumienia, w jaki sposób się do tych wyników dotarło to zakładanie pętli na szyję wolnej woli. Anders Sandberg, naukowiec z University of Oxford pracujący dla funkcjonującego na tej słynnej, brytyjskiej uczelni Future of Humanity Institute zwraca uwagę, że głębokie sieci neuronowe mogą spisywać się naprawdę bardzo dobrze, ale potrafią również popełniać spektakularne błędy. Najwyższy czas by ludzie zrozumieli, że nie mogą bezgranicznie zaufać technologiom takim jak autonomiczne pojazdy, czy autonomiczne systemy medyczne.

Rozwój pełnej sztucznej inteligencji mógłby oznaczać koniec rasy ludzkiej
Stephen Hawking w wywiadzie dla BBC, grudzień 2016

Tym, którzy sądzą, że zaawansowanych algorytmów sztucznej inteligencji jest dziś na tyle mało, by stanowiły problem, muszę uprzedzić, że się mocno mylą. Owszem, po części to prawda, zaawansowanych systemów nie ma zbyt dużo, choćby w naszym kraju. Widzieliście w Polsce Teslę? No, jest kilka. Autopilot? Autonomiczny transport? U nas to mrzonka. Z algorytmami problem polega na tym, że nie muszą być ani szczególnie inteligentne, ani szczególnie skomplikowane. Wystarczy, że są szybkie, a problem i tak może się pojawić. Doświadczyli tego obywatele Australii, którzy otrzymywali świadczenia socjalne. Rząd tego kraju wdrożył w lipcu 2016 roku system informatyczny, który miał samodzielnie, bez udziału człowieka oceniać, czy dana osoba ma faktycznie do tych świadczeń prawo. W przypadku rozbieżności system automatycznie wysyłał żądanie udostępnienia stanu konta, a gdy spotykał się z odmową, ruszała procedura wysyłania powiadomień od windykatorów. Jak się okazało system działał źle i w ciągu jednego zaledwie tygodnia generował ok. 20 tysięcy interwencji. Tyle samo, ile wysyłali wcześniej ludzcy urzędnicy, ale w ciągu całego roku. Dziesiątki tysięcy ludzi otrzymało błędne ostrzeżenie. Późniejsze dochodzenie wykazało, że do problemu by nie doszło, gdyby cały projekt był lepiej zaplanowany, zrealizowany i komunikowany zainteresowanym. Miesiące po błędnym wysłaniu powiadomień windykacyjnych zostały one unieważnione. Oczywiście każdy błąd można naprawić, ale gdy szkoda już powstała, trudno zakładać, że społeczeństwo zaufa takim rozwiązaniom.

Reklama

Twierdzenie, że inteligentne algorytmy w coraz większym stopniu ingerują w nasze życie jest truizmem. Oczywiste, że im dalej postępuje cyfryzacja społeczeństwa, tym więcej punktów zaczepienia dla automatyzacji procesów społecznych, gospodarczych i jakichkolwiek innych. Sztuczna inteligencja ocenia nas, analizuje nasze zachowanie, pamięta nasze nawyki, podejmuje decyzje dla nas i za nas, zmieniając w ten sposób zarówno sferę publiczną, jak i prywatną. O tym, jak skutecznie potrafi to robić na co dzień mogą przekonać się mieszkańcy Chin. Pisaliśmy o tym w artykule „Jak Chiny oceniają obywateli„.


Na następnej stronie piszemy o tym, że lepiej dmuchać na zimne.

Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.