Komercyjne AI rozpoznające twarze mają… uprzedzenia rasowe i płciowe

Fot. Geralt
Komercyjnie dostępne systemy rozpoznawania twarzy są reklamowane jako niemal stuprocentowo skuteczne. Jednak zgodnie z najnowszymi badaniami przeprowadzonymi przez grupę naukowców z MIT Media Lab oraz Uniwersytetu Stanforda ich skuteczność jest silnie uzależniona od... płci i koloru skóry rozpoznawanej osoby.

Naukowcy z MIT i Uniwersytetu Stanforda poddali badaniu trzy komercyjnie wydane systemy do rozpoznawania i analizy twarzy. Wszystkie z nich – choć nie wymienione z nazwy w publikacji MIT News – opracowane zostały przez bardzo liczące się firmy w świecie nowoczesnych technologii. Niestety, jeżeli wierzyć wynikom przeprowadzonych badań, wszystkie trzy okazały się mocno zawodne, o ile tylko twarz poddawana analizie nie należała do białego mężczyzny.

Gdy badane algorytmy miały za zadanie rozpoznać twarz dorosłego mężczyzny o jasnej skórze, skuteczność maszyny była istotnie bardzo wysoka. Uzyskiwane stopy błędów rozpoznawania nie przekraczały 0,8 procenta. W tym przypadku można powiedzieć, że faktycznie maszyna świetnie sobie radzi. Jak jednak będzie wyglądać sytuacja, gdy zamiast zdjęć białych mężczyzn maszyna będzie musiała rozpoznać ciemnoskóre kobiety? Błędnych wyników – w zależności od konkretnego rozwiązania – jest od 20 do ponad 34 procent! Co gorsza w niektórych przypadkach odsetek błędnych rozpoznań sięgał 46,8 procent! W takim przypadku można wręcz stwierdzić, że nie ma mowy o jakimkolwiek „rozpoznawaniu” – maszyna po prostu „zgaduje”.

Skąd tak fatalne wyniki? Czemu nikt na to wcześniej nie wpadł? Wyjaśnienie okazuje się dość proste. Badacze wykazali, że jedna z czołowych amerykańskich firm technologicznych, która oferuje jeden z badanych systemów rozpoznawania i analizy twarzy, chwali się skutecznością na poziomie 97 procent. Jednak do uczenia maszynowego swoich algorytmów wykorzystuje zbiór danych (zdjęć), wśród których ponad 77 procent to fotografie mężczyzn, a ponad 83 procent to zdjęcia ludzi o jasnej skórze.

Badania te ponownie pokazują problem, o którym wśród badaczy maszynowego uczenia mówi się od dawna (czego przykładem jest wypowiedź matematyczki z Harvarda, dr Cathy O’Neil na powyższym filmie). Maszynowo uczona sztuczna inteligencja dziedziczy ukryte uprzedzenia swoich twórców, dlatego ważne jest, aby wszelkie algorytmy były dokładnie badane zanim zaczną być komercyjnie wykorzystywane na rynku. Głównie dlatego, że coraz szerszy zakres decyzji, które pozostawiamy maszynom powoduje, że niektóre osoby, zostaną zignorowane lub spotkają się z odmową, choćby dlatego, że mają „niewłaściwy” kolor skóry. | CHIP