Chcesz zarobić 10 tys. dolarów? Wskaż Mecie, gdzie robi błąd

Podczas trenowania i rozwoju sztucznej inteligencji nie ma sposobu na to, aby uniknąć błędów. Dotyczy to każdej firmy, zwłaszcza tych największych. Jak się okazało, Meta bardzo chętnie płaci tym, którzy je wskazują. Za co pewien człowiek dostał 10 tysięcy dolarów?
Chcesz zarobić 10 tys. dolarów? Wskaż Mecie, gdzie robi błąd

Mężczyzna odkrył poważny błąd w platformie AI firmy Meta, który ujawniał prywatne czaty. Pokazuje to nie tylko, że warto szukać dziury w całym, ale również wskazuje na przykry fakt, że żaden system nie jest do końca bezpieczny.

Meta AI wciąż wymaga dopracowania

Meta niedawno załatała lukę w zabezpieczeniach swojego chatbota AI, która powodowała, że prywatne komunikaty użytkowników oraz generowane przez sztuczną inteligencję odpowiedzi były widoczne dla innych użytkowników. Sandeep Hodkasia, założyciel firmy testującej bezpieczeństwo AppSecure, natknął się na lukę i poinformował firmę o niej w grudniu ubiegłego roku. Meta nagrodziła mężczyznę za ujawnienie informacji, wypłacając mu około 10 000 dolarów w ramach programu nagród za wykrycie błędów.

Gigant technologiczny potwierdził, że błąd już nie istnieje, a luka w zabezpieczeniach została usunięta. Dodał również, że chociaż luka w systemie istniała, nie było dowodów na jej wykorzystanie. Hodkasia wyjaśnił, że dowiedział się o istniejącej luce, badając sposób, w jaki Meta AI pozwala zalogowanym użytkownikom edytować komunikaty w celu odtworzenia tekstu i obrazów. Może się to wydawać prostą funkcją, ale biorąc pod uwagę, jak ujawnia ona wrażliwe interakcje użytkownika, wcale nie jest taka prosta.

Meta AI

Czytaj też: Użytkownicy Meta AI nieświadomie publikują prywatne rozmowy. Katastrofa prywatności

Skąd się wziął problem? Otóż serwery, jakich używa Meta, nie weryfikowały w pełni, czy użytkownik żądający monitu posiadał autoryzację dostępu. Systemy nadawały każdemu monitowi unikalny identyfikator – każdy, kto mógł go zmodyfikować, mógł zarazem przechwycić monity i uzyskać dostęp do nich bez odpowiedniego upoważnienia. Ponieważ identyfikatory były przewidywalne, stanowiło to poważną wadę, która mogła potencjalnie utorować drogę atakującym do zdobycia poufnych informacji.

Odkrycie luki w zabezpieczeniach pociągnęło za sobą wzmożoną kontrolę praktyk Meta w zakresie sztucznej inteligencji, zwłaszcza po premierze jej samodzielnej aplikacji w zeszłym roku. Aplikacja nieumyślnie ujawnia prywatne rozmowy z powodu niejasnych ustawień udostępniania. Wielu użytkowników nie zdaje sobie sprawy, że ich interakcje są udostępniane publicznie z powodu tej funkcji w aplikacji, co prowadzi do wielu wątpliwości co do etycznego i odpowiedzialnego podejścia giganta technologicznego do sztucznej inteligencji.