Chińscy hakerzy sterują Teslą za pomocą… kontrolera do gier

Fot. Keen Security
Eksperci bezpieczeństwa z chińskiej firmy Tencent Keen Security opublikowali raport, z którego wynika, że autopilota Tesli można łatwo zmylić. Badaczom udało się nie tylko przejąć częściowo kontrolę nad samochodem, ale też sprawić, by auto samoczynnie zmieniło pas ruchu.

Autonomiczne funkcje Tesli bazują m.in. na odczycie danych z kamer. System rozpoznaje linie na jezdni i sprawia, że autopilot utrzymuje samochód na odpowiednim pasie. Ta funkcja działa bardzo dobrze nawet w trudnych warunkach atmosferycznych, czy przy wytartych na drodze liniach. Ale badacze z Tencent Keen Security wykazali, że system ma też tendencję do nadmiernej interpretacji. Wystarczyło nakleić trzy nieduże, białe naklejki na drodze, by autopilot uznał je za kontynuację prawego pasa i ignorował prawdziwy, lewy pas przy skrzyżowaniu. Przy przejeździe Model S skręcił na pas przeciwnego ruchu, myśląc, że znajduje się na lewym pasie.

Łatwo wyobrazić sobie sytuację, w której zamiast naklejek mamy np. krople białej farby na powierzchni drogi – coś co normalny kierowca naturalnie zignoruje, a autopilot potraktuje jako pas ruchu. Według Tesli takiego zagrożenia nie ma „w normalnych warunkach panujących na drodze”. Przypomina też, że kierowca powinien cały czas być czujny, by w porę przejąć kontrolę nad pojazdem.

Badaczom udało się także oszukać Teslę w nieco inny sposób – gdy przystawiono telewizor wyświetlający specjalnie zmodyfikowany obraz, Model S włączył wycieraczki. Eksperci obeszli także kilka mechanizmów bezpieczeństwa samochodu i stworzyli oprogramowanie, które pozwalało sterować Modelem S za pomocą gamepada zintegrowanego ze smartfonem. Tesla poinformowała już jednak, że luka została załatana i obecnie nie ma możliwości przejęcia kontroli nad pojazdem.

Reklama

Ponieważ jednak kod źródłowy Tesli jest ogólnie dostępny, nietrudno wyobrazić sobie hakerów, którzy znajdą inne furtki. Druga sprawa to kwestia „inwencji twórczej” samych kierowców, którzy mają tendencję do niestosowania się do zaleceń producenta. Pisaliśmy już o mężczyźnie, który zadrwił z autopilota wymagającego trzymania rąk na kierownicy umieszczając w niej pomarańczę. Znane są też śmiertelne wypadki związane ze zbyt wielkim zaufaniem do autonomii pojazdów Tesli. | CHIP

Close

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.