Project Soli – obsługa ubieralnych technologii gestami

Nad tym pracuje Google.

Google eksperymentuje już z interaktywnymi ubraniami, ale Project Soli to jednak nieco inna para kaloszy. Czy to w smartfonach, czy w konsolach obsługa gestami jest możliwa dzięki kamerom wideo. Ekipa z ATAP wpadła jednak na inny pomysł. Zamiast kamery wykorzystano radar, który wysyła fale radiowe. Gdy fala dociera do naszej dłoni jej część zostaje odbita. Stosując ustalone wzorce udało się stworzyć system, który interpretuje nawet drobne gesty rąk, takie jak pocieranie palcami, czy dotknięcia opuszkami palców o siebie.

Na materiale wideo możecie zobaczyć przykładowe zastosowanie takiej technologii – od sterowania smartwatchami po kontrolę odtwarzacza multimedialnego. Możliwości są w zasadzie nieograniczone. Takie rozwiązanie sprawdziłoby się świetnie w różnego rodzaju goglach VR/AR czy systemach inteligentnych domów.

Póki co Google nie zdradziło jednak kiedy technologia zadebiutuje na rynku.