samochód po wypadku

Kto odpowie za błędy SI?

Sztuczna inteligencja ma coraz większy wpływ na nasze życie, czego nie do końca jesteśmy świadomi. Etycy alarmują, że to ostatni dzwonek, byśmy wypracowali rozwiązania przygotowujące społeczeństwa na nadchodzące zmiany. Bo co do tego, że nastąpią, nie ma wątpliwości.

Nowy, wspaniały świat. Doprawdy?

W działaniu SI kryje się obietnica prostego i bardziej wydajnego, wygodnego świata. Zdajmy sobie sprawę, że nie tylko modele biznesowe, ale i społeczne opierają się w coraz większym stopniu na takich technologiach jak sztuczna inteligencja, inteligentne miasta, przemysł 4.0, IoT (Internet of Things) itd. itp. Wszystko, co może być zautomatyzowane, powinno być zautomatyzowane. Czy jednak decyzje algorytmów zawsze są lepsze? Nauka dowodzi, że nie. Immanentną cechą każdego inteligentnego bytu jest popełnianie błędów. Dlatego po początkowym zachłyśnięciu się technologią najwyższy czas zastanowić się nad głębszym sensem i zasadnością digitalizacji.

Aplikacje, takie jak Skin Vision mogą wykrywać raka skóry za pośrednictwem telefonu komórkowego. Taniej, łatwiej i szybciej niż teoretycznie zrobi to lekarz. A co jeśli się pomylą i nie rozpoznają czerniaka? Kto poniesie odpowiedzialność?

Nie ulega wątpliwości, że algorytmy pomogły nam się uporać z wieloma problemami w czasie znacznie krótszym, niż uporalibyśmy się z nimi sami. Niestety, algorytmy tworzą również nowe problemy. Jako elementy należące do świata kodu, są podatne na błędy. Przez wydajność obliczeniową potrafią znacznie przyśpieszać ludzkie błędy i błyskawicznie wprowadzać w życie uprzedzenia i stereotypy swoich programistów i trenerów sieci neuronowych. Co prawda zrozumienie odpowiedzialności i niebezpieczeństw związanych z automatyzacją algorytmiczną dojrzewa, ale stanowczo zbyt powoli. W procesie tym ważna jest analiza tych nowych rodzajów problemów i ich wzajemne oddziaływanie w algorytmicznie przyspieszonym świecie. Tylko ci, którzy rozumieją działanie algorytmów, mogą zwiększyć wynikające z ich działania korzyści i zredukować ich szkodliwy potencjał.

Szczególnie istotny wydaje się problem braku neutralności. Algorytmy nie są najczęściej neutralnymi narzędziami. Ktoś je bowiem zbudował, a one więc najczęściej odzwierciedlają przekonania swoich twórców. W przypadku algorytmów typu „inteligentny agent”, czyli wyuczonych maszynowo, mamy do czynienia z odzwierciedleniem uprzedzeń zawartych w danych szkoleniowych sieci neuronowej. Problem ten ujawnia się na wiele sposobów. W kodzie wielu sztucznych inteligencji ujawnia się rasizm, seksizm i inne negatywne społecznie zjawiska. Przykład? Proszę bardzo: w 2015 roku Amazon odkrył, że stosowany przez korporację algorytm rekrutacyjny faworyzował mężczyzn w poszukiwaniu odpowiednich kandydatów. Nie dlatego, że mężczyźni byli obiektywnie bardziej odpowiednimi kandydatami, lecz wyłącznie dlatego, że algorytm został wyuczony starszymi danymi wygenerowanymi przez uprzedzonych płciowo pracowników kadr, którzy preferowali mężczyzn. Amazon wykrył problem, ponieważ potrzebował dobrych pracowników, a wybory algorytmu nadto zawężały listę potencjalnych kandydatów (bynajmniej nie dlatego, że ktoś uznał to za czystej wody seksizm). W konsekwencji system został zrewidowany, choć wątpliwości w dalszym ciągu pozostało na tyle dużo, że całe rozwiązanie zamknięto pod koniec 2017 roku.

W języku angielskim zarówno słowo doctor, jak i nurse mają neutralny charakter. Oznaczać mogą zarówno kobietę, jak i mężczyznę wykonującego dany zawód. Ale nie dla Google’a. Według wyszukiwarki to mężczyzna jest lekarzem, a pielęgniarką jednak kobieta. Seksizm? Być może, ale nie wyszukiwarki, a twórców jej algorytmu.

Kwestia etyki algorytmów jest obecnie szczególnie wyraźnie podnoszona w Stanach Zjednoczonych. Działacze na rzecz praw obywatelskich coraz częściej odkrywają rasistowskie uprzedzenia w rzekomo neutralnych algorytmach oceniających ludzi. Na przykład w amerykańskim systemie wymiaru sprawiedliwości prawdopodobieństwo, że dana osoba będzie ponownie więźniem lub oskarżonym jest obliczana według różnych algorytmów analizujących m.in. stopień nadzoru, czas uwięzienia i wiele innych danych. Niestety, mamy tu ten sam problem, co w przypadku rekrutacyjnej SI z Amazona. System „zatrudniony” przez Departament Sprawiedliwości Stanów Zjednoczonych opiera swoje wnioskowanie na danych historycznych, wyrokach, danych śledczych itp.

Reklama

W efekcie algorytm odzwierciedla rasistowskie uprzedzenia jakimi nacechowane są historyczne dane organów ścigania. Ludzie o innym kolorze skóry niż biała dostają z automatu gorsze noty niż biali. Zatem historyczny rasizm został w ten sposób ugruntowany w nowoczesnym i rzekomo neutralnym kodzie. Takie sprzężenia zwrotne, od algorytmu do społeczeństwa i z powrotem do algorytmu stanowią duży problem. Bo czymże mamy karmić system mający wnioskować na jakiś temat, jeśli nie danymi historycznymi? Takie uprzedzenia bardzo często uwidaczniają się w publicznie wykorzystywanych sztucznych inteligencjach, czy algorytmach automatycznego rozpoznawania i kategoryzacji obrazów.

Problem nagłośniła w tym roku badaczka z MIT, Joy Buolamwini, pokazując jak bardzo stronniczo komputery „widzą” świat. Zbadała ona trzy komercyjne systemy rozpoznawania twarzy produkowane przez IBM, Microsoft i Face++. Za pomocą tych rozwiązań sprawdzała jak rozpoznawane są portretowe zdjęcia mężczyzn i kobiet w różnych odcieniach skóry, a następnie porównała wskaźniki rozpoznawania. Efekt? Możecie się domyślić: wszystkie trzy systemy sztucznej inteligencji znacznie lepiej rozpoznawały mężczyzn niż kobiety, lepiej ludzi białych, niż osoby o ciemniejszej karnacji. Najgorzej rozpoznawane były kobiety o czarnym kolorze skóry.

Nic zatem dziwnego, że w świecie, w którym systemy rozpoznawania twarzy coraz częściej oznaczają jednocześnie klasyfikację kogoś jako podejrzanego, czy np. uprawnionego do dostępu do jakiegoś chronionego obszaru, takie „preferencyjne” działanie algorytmów może stwarzać pewną „techniczną niedogodność” dla kobiet o ciemnej karnacji. Buolamwini na stronie swojego projektu napisała: „dziś automatyzacja sterowana przez sztuczną inteligencję określa, kto zostanie zwolniony, kto awansowany, kto dostanie pożyczkę, ubezpieczenie, czy jak długo ma zostać w więzieniu”. Powiązania w bazach danych algorytmów decyzyjnych i wartościujących mają bardzo realny wpływ na ludzkie życie.

Systemy automatyczne nie są z natury neutralne. Odzwierciedlają one priorytety, preferencje i uprzedzenia – zakodowane spojrzenie tych, którzy mają moc kształtowania sztucznych inteligencji.
Joy Bouolamwini źr. www.poetofcode.com

Mamy świadomość funkcjonujących w społeczeństwach zjawisk takich jak rasizm i seksizm. Możemy się więc ustrzec tendencyjnych algorytmów. Ale przecież z pewnością są jakieś cechy, których u innych ludzi nie akceptujemy i które mogą wpływać na algorytmy tworzone przez ludzi. Wyobraźmy sobie tylko, że twórca inteligentnej aplikacji do obsługi lotów nie lubi ludzi z nadwagą? Jakie szanse na tani lot ma wówczas ktoś z BMI przekraczającym normę? Absurd? Owszem. Dopóki na własnej skórze nie przekonamy się, że algorytmy nie są neutralne. Algorytmy mają wpływ na świat znacznie większy, niż by to wynikało wyłącznie z ich zaplanowanej funkcjonalności – warto o tym pamiętać.

Prawdziwe problemy dopiero przed nami

Wszystko, co już wymieniliśmy daje obraz nowoczesnego, ale też kłopotliwego świata. Jednak prawdziwym wyzwaniem mogą okazać się sztuczne inteligencje o zdolności bojowej, nawet nie tyle pomyślanej jako explicite militarne zastosowanie, co kod zdolny do realizowania zautomatyzowanych ataków w cyberświecie. W końcu z malware’em walczymy od kilkudziesięciu lat, ale cyberprzestępcy też uczą się korzystać ze sztucznych inteligencji. Sztuczna inteligencja potrafi dziś „rozumieć” mowę, a także generować dźwięki, które człowiek zrozumie jako mowę innego człowieka (vide Google Duplex). Wyobraźmy sobie zatem atak typu spear phishing, ukierunkowany na konkretną osobę. Sztuczne inteligencje zbierają przydatne informacje o swoich celach, podszywają się pod prawdziwych ludzi poprzez syntezę mowy itp. Analogicznie możemy wyobrazić sobie ataki przeprowadzane za pomocą skoordynowanych, ale autonomicznych rojów dronów, ataki na autonomiczne pojazdy (wymuszenie wypadku), czy tworzenie ukierunkowanej propagandy jako przyczółka dla jeszcze bardziej zaawansowanych ataków wykorzystujących inżynierię społeczną i zdolność do manipulowania opinią publiczną całych społeczności.

SI daje znaczne możliwości politycznym manipulatorom. Weryfikowanie wszystkich doniesień jest w obecnych czasach nierealne. A wiara we wszystko, co się widzi i czyta – trąci naiwnością.

I wcale nie chodzi nam tutaj o straszenie – rodem z filmów SF – superinteligentnymi złośliwymi bytami na miarę Skynetu. Gdy Elon Musk ostrzega przed SI jako „znacznie bardziej niebezpieczną, niż broń nuklearna” to raczej nie chodzi mu o „Terminatora”, lecz o błędy w oprogramowaniu inteligentnych algorytmów, skutkujące tym, że autonomiczny pojazd pędzi na betonową ścianę zabijając swojego właściciela. Smaczku dodaje fakt, że ów pojazd zbudowała firma… Elona Muska.

Z kolei nie można też ominąć innego aspektu – czyli zagrożenia ze strony SI samodzielnie podejmującej decyzje militarne. Na przykład armia USA już w zeszłym roku testowała rój autonomicznych dronów.  W ramach prac nad nowym rodzajem broni testowane są małe samodzielne drony. Setka urządzeń potrafi samodzielnie sformować rój i przejść do działań bojowych. Projekt nosi nazwę perdix, czyli „szarańcza”. Doprawdy chcemy, by to w istocie twórca algorytmu decydował o tym, jak zachowa się w przyszłości taki rój. A co się stanie, gdy uzbrojony rój wymknie się spod kontroli. Kto za to odpowie?

Podsumowując, nietrudno zgodzić się z tym, że konstruowanie inteligentnych algorytmów wymaga skrupulatnego planowania, monitorowania, analizy i wszelkich działań, które mogłyby zniwelować późniejsze błędy działającego systemu. Niestety, obawy, że nie uda nam się wykryć wszystkich błędów są w pełni uzasadnione. Gdy zatem jesteśmy świadomi, że zarówno ludzie, jak i algorytmy są omylne, pozostaje na koniec pytanie: ile autonomii, a tym samym odpowiedzialności, chcemy pozostawić sobie, a ile maszynom? | CHIP

Close

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.