AI uznała żółwia za… karabin szturmowy

Ujawnione przez badaczy z MIT niedoskonałości algorytmów rozpoznawania obrazów powinny dać do myślenia każdemu, kto rozważa masowe stosowanie w pełni zautomatyzowanych procedur rozpoznawania obrazów w takich dziedzinach jak np. bezpieczeństwo fizyczne, systemy obronne itp.
Żółw rozpoznany jako karabin

Żółw rozpoznany jako karabin

Naukowcy i studenci Massachusetts Institute of Technology pracujący w ramach grupy o nazwie LabSix, opracowali zestaw modeli 3D, które w ludzkich oczach są natychmiast rozpoznawane prawidłowo, ale w sytuacji, gdy ich interpretacją wizualną zajmują się wyuczone wcześniej algorytmy rozpoznawania obrazów, okazuje się, że maszyna widzi coś zupełnie odmiennego niż człowiek.

Oto bowiem model w kształcie żółwia, i – zgodnie z przewidywaniami – rozpoznawany przez każdego przedstawiciela homo sapiens jako żółw, jest przez maszynę interpretowany jako… strzelba lub karabin szturmowy.

Dodatkowego smaczku badaniom przeprowadzonym przez LabSix dodaje fakt, że naukowcy wykorzystali przedmioty, które wcześniej były już prawidłowo interpretowane przez sztuczną inteligencję. Innymi słowy, wcześniej AI rozpoznawała w żółwiu właśnie żółwia. Po drobnej zmianie ludzie dalej widzieli żółwia, a AI “widziała” już karabin. Co zmieniono?

Jak się okazuje, bardzo niewiele. Aby oszukać maszynę wystarczyło nieco zmienić np. barwę przedmiotu, czy fakturę materiału jakim dany przedmiot jest pokryty. Taka zmiana nie wpływa na percepcję człowieka, ale diametralnie zmienia sposób postrzegania maszyny.

Anish Athalye, jedna z badaczek opisywanego zespołu, który opracował sposób na “oszukanie” AI, zwraca uwagę, że “praca zespołu wyraźnie pokazuje, że w działaniu sieci neuronowych nie wszystko przebiega zgodnie z oczekiwaniami. Badacze, którzy opracowują te systemy (np. rozpoznawania obrazów – dop. CHIP) powinni przykładać dużo większą wagę do obrony przed tzw. wrogimi przykładami”. Athalye dodaje też, że jeżeli chcemy w przyszłości dysponować bezpiecznym transportem autonomicznym oraz korzystać z innych systemów wykorzystujących sieci neuronowe na szeroką skalę, powinniśmy zwracać szczególną uwagę na tego typu mylne interpretacje.

Czy można pomylić żółwia z karabinem…?

Przykład z samochodami autonomicznymi jest tym bardziej zasadny, że już jakiś czas temu Jacek Tomczyk opisał podobny eksperyment, w którym badacze oszukali właśnie sztuczną inteligencję sterującą inteligentnymi pojazdami.

Nic dziwnego, wyobraźcie sobie wizytę u prezydenta USA, gdy jeden z gości ofiaruje prezydentowi… żółwia, a zautomatyzowany system obrony Białego Domu (załóżmy hipotetycznie, że coś takiego istnieje) interpretuje dar jako broń…

Tego rodzaju badania wyłapujące “dziury” w sztucznych inteligencjach są bardzo ważne. Tym ważniejsze, w im większym zakresie korzystamy z uczonych maszynowo algorytmów w naszym codziennym życiu. Maszynowe rozpoznawanie obrazów potrafi nam niejednokrotnie zaimponować, ale eksperymenty takie, jak tu opisywany pokazują, że w tej materii mamy jeszcze wiele do zrobienia | CHIP.