Machaj rękoma, zamiast klikać

Jest rok 2054. John Anderton, szef Agencji Prewencji, właśnie otrzymał informacje o morderstwie, które niedługo się wydarzy. Ma jednak tylko nazwisko sprawcy i skrawki przeróżnych informacji – zdjęcia i krótkie filmy. Większość z nich nie ma żadnego związku ze sprawą. Anderton musi w błyskawicznym tempie przeanalizować materiały i dzięki nim ustalić, gdzie wydarzy się morderstwo. A czasu jest niewiele: za kilkadziesiąt minut ktoś zginie.
Machaj rękoma, zamiast klikać
Machaj rękoma, zamiast klikać

Gdyby Anderton musiał to wszystko przeglądać na zwykłym komputerze, z jakiego korzystamy dzisiaj, nie miałby najmniejszych szans, by zapobiec przestępstwu. Zanim przeklikałby się przez wszystkie pliki, minęłoby nie kilkadziesiąt minut, a co najmniej kilka godzin.

Tymczasem grany przez Toma Cruise’a agent zakłada rękawiczki, za pomocą których obsługuje wielki ekran. Ruchy rąk odpowiadają różnym komendom, dzięki temu – dosłownie – od ręki cofa film, obraca zdjęcia czy przybliża obraz. Anderton błyskawicznie przeskakuje między kolejnymi plikami, zamaszystym ruchem odrzucając na bok te niepotrzebne. Wszystko odbywa się nad wyraz sprawnie – chwilę później agent siedzi już w odrzutowym pojeździe pionowego startu.

Rękawiczki zamiast myszki

Na wiele spośród wynalazków pokazanych w filmie “Raport mniejszości” przyjdzie nam jeszcze poczekać, szczególnie na możliwość przewidywania tego, kto popełni przestępstwo. Ale takim interfejsem jak w filmie można pobawić się już dzisiaj. Co więcej, można go sobie już nawet kupić, choć na razie nie jest najtańszy.

To niejedyna technologia, która wkrótce zostanie zastosowana w prawdziwym świecie. Film tak trafnie przewiduje rozwój techniki, bowiem przy jego tworzeniu pracował sztab konsultantów naukowych. Jednym z nich był profesor Massachusetts Institute of Technology (MIT) John Underkoffler. Odpowiadał on za wszystkie sceny, w których zachodziła interakcja człowieka z komputerem – kluczowy był właśnie opisany na początku artykułu moment. Naukowiec mógł tak precyzyjnie przedstawić filmowcom technologie przyszłości, bo już wtedy pracował nad nią w laboratorium MIT Media Lab.

W 2006 roku John Underkoffler dostał spory zastrzyk gotówki od inwestorów i wspólnie z nimi utworzył firmę Oblong. Jej zadaniem stało się dopracowanie systemu przestrzennego środowiska sterowania (SOE – Spatial Operating System), który jest sercem produktu zwanego G-Speak.

System składa się z trzech elementów. Pierwszy to oczywiście manipulatory, które – tak jak dzisiaj klawiatura i myszka – przekazują komendy człowieka maszynie. Kluczowe są tu specjalne rękawiczki, które – gdy je założymy – przekładają ruchy dłoni i ramion na komendy wydawane komputerowi. Najwięcej czasu zajęło stworzenie oprogramowania, które w intuicyjny, dynamiczny i praktyczny sposób potrafiłoby odczytywać te ruchy. By przesunąć ikonę na ekranie, wystarczy machnąć ręką. By wyrzucić ją kompletnie, trzeba wykonać ten sam gest bardziej energicznie. A co zrobić, by zaznaczyć jakiś obiekt? Wystarczy wycelować w jego kierunku palec wskazujący i zgiąć kciuk, a później można już nim wodzić we wszystkich kierunkach. Obiekt będzie podążać za palcem tak długo, dopóki nie zostanie odznaczony. To tylko kilka podstawowych komend, oczywiście można wprowadzić własne ustawienia.

“Jesteśmy przekonani, że obecny sposób, w jaki pracujemy z komputerami – w większości przypadków z użyciem klawiatury i myszy – w ciągu 20 lat będzie uważany za równie przestarzały, co dziurkowane karty dzisiaj” – mówi Brad Feld, jeden z udziałowców firmy.

Aplikacja SOE jest zdolna do przetwarzania dużych ilości danych i jednoczesnej współpracy z wieloma użytkownikami. Oznacza to nie tylko, że w tym samym czasie może stanąć obok siebie kilka osób, założyć futurystyczne rękawiczki i operować na jakimś obiekcie. System pozwala także na połączenie kilku urządzeń w sieć i zdalną współpracę. Jest to szczególnie przydatne w przypadku dużych projektów. System idealnie nadaje się do zarządzania dużymi strukturami, na przykład komunikacją miejską. Pozwala na bardzo sprawne posługiwanie się systemem monitoringu – można błyskawicznie przybliżać i oddalać obraz, przewijać film, zmieniać kamery. Podobnie jest z projektowaniem: architekt może dowolnie obracać i przesuwać bryłę. W SOE bowiem każdy obiekt ma swoją pozycję i tożsamość w przestrzeni. Właśnie dlatego, by coś zaznaczyć, wystarczy wskazać to palcem.

Z kina do sklepu

Trudno się dziwić, że tym wynalazkiem, który jeszcze niedawno wydawał się jedynie filmową fikcją, zainteresowanych jest wiele firm i instytucji. Oblong sprzedał G-Speaka koncernowi produkującemu uzbrojenie, firmie z branży motoryzacyjnej, kilku przedsiębiorstwom z sektora telekomunikacyjnego, finansów i branży medycznej. Na razie jednak rzeczniczka Oblong nie chciała podać żadnych nazw. Pochwaliła się jednak, że z ich technologii korzystają już uczelnie Massachusets Institute of Technology (MIT) oraz Rhode Island School of Design, głównie po to, by uczyć studentów projektowania.

Już w 2009 roku Oblong zamierza wypuścić dużo tańszą wersję dla użytkowników prywatnych. Na razie – jak twierdzą – system jest zbyt drogi. “W tej chwili kosztuje około 5 tys. dolarów” – mówi Mary Ann de Lares Norris z europejskiego oddziału firmy.

Oblong na swojej stronie WWW podaje długą listę branż, w których G-Speak może znaleźć zastosowanie. Najciekawsze jest jednak to, w jaki sposób będziemy mogli skorzystać z niego my – zwykli użytkownicy. Zarządzanie multimediami, kinem domowym czy surfowanie

po Internecie to tylko parę podstawowych możliwości.

iBary dla niecierpliwych

Interfejs rodem z “Raportu mniejszości” trafi do naszych domów za kilka lat. Już teraz można jednak przekonać się, jak będzie wyglądać przyszłość bez myszki. Do naszego kraju zawitała technologia firmy Mindstorm: iBary i iWalle.

Mindstorm od początku obrał inny kierunek rozwoju niż Oblong. Wynalazek tej pierwszej firmy nie nadaje się do tego, by za jego pomocą obsługiwać zwykły komputer, pozwala jednak na niezwykłą interakcję z użytkownikiem. W tej chwili technologia wykorzystywana jest głównie w… nocnych klubach i na konferencjach. Pozwala na ożywienie baru, ściany czy stolika. Rolę interaktywnego wyświetlacza przejmuje na przykład powierzchnia baru, na której można pokazać dowolny obraz. W zależności od oprogramowania mogą to być choćby rozrzucone klipy wideo czy zdjęcia. Goście, przeciągając palcem, odtwarzają poszczególne filmy albo powiększają zdjęcia, przegrywają je też na telefon, wykorzystując Bluetooth. Wystarczy połączyć urządzenie i przeciągnąć dany plik na jego ikonkę.

Ale to tylko początek. Mindstorm nieustannie pracuje nad nowym oprogramowaniem. Na ogół tworzone jest ono na konkretne zamówienie, co jednak nie jest usługą tanią. Wyjątkowy software potrafi kosztować nawet 50 tys. euro! Najtańsze programy kosztują 500 euro. Jednak ceny z czasem mają spadać.

Mimo tak wyśrubowanych stawek wielu klientów decyduje się na zamawianie skrojonego na miarę oprogramowania. Nic dziwnego – software, który potrafi automatycznie rozpoznać drinka i wyświetlić jego nazwę oraz zawartość na blacie, wprawia gości w prawdziwe osłupienie. Urządzenie nie jest, niestety, aż tak inteligentne, by rozpoznawać skład chemiczny substancji. Kluczem są szklanki – każdy drink musi mieć przypisany inny kieliszek, a jego gabaryty muszą być wcześniej wprowadzone do systemu.

To tylko jeden z licznych pomysłów programistów. Innym jest program, który łączy ze sobą stawiane na barze obiekty. Ma to ułatwiać poznawanie ludzi w klubach: drinki stojących obok siebie osób zaczną odbijać piłeczkę – i już jest temat do rozmowy! Ba, można nawet wykorzystać iBar do tego, by zagrać w prostą grę. Na przykład przykładając dwa palce, stworzyć linię i grać jak na fliperach.

Poskacz po wyświetlaczu

Mimo że jest czuły na dotyk, iBar może solidnie oberwać kuflem albo zostać zalany hektolitrami piwa, a nic mu się nie stanie. Dostępna jest także specjalna, solidniejsza wersja, po której da się chodzić. Zamówił ją już jeden ze szwedzkich klubów, by jego goście mogli tańczyć na interaktywnym barze.

Jak to się więc dzieje, że ekran reaguje na dotyk? Otóż wcale nie reaguje. Urządzenie wychwytuje nie dotyk, lecz światło odbite. Wykorzystuje bowiem system kamer świecących. Te zamontowane wewnątrz baru wysyłają promieniowanie podczerwieni i na tej podstawie ustalają pozycję wszystkich jasnych obiektów, od których odbija się podczerwień. Dlatego iBarem można sterować palcem. Ale gdyby ktoś założył rękawiczkę z czarnego płótna, to iBar już nie zareagowałby na “dotyk”. Bowiem taki materiał pochłania światło.

Informacje z kamer przekazywane są następnie do komputera, który decyduje o tym, jaki obraz ma wyświetlić para projektorów przemysłowych. Projektory przemysłowe różnią się od zwykłych tym, że mogą pracować bez przerwy i są odporne na uszkodzenia. Jednak, by mogły one wyświetlić obraz na całym, dwumetrowym barze, potrzebny jest jeszcze system luster odbijających obraz.

Ściana tańczy z nami

Ożywić można nie tylko bary. Tę samą technologię zastosowano bowiem w iWallach – urządzeniach przeznaczonych do powieszenia na ścianie. Dostępne są dwie wersje iWalli: z projekcją tylną i przednią. Te pierwsze działają podobnie jak iBary, dzięki czemu są bardziej precyzyjne i świetnie nadają się do wykorzystania np. na konferencjach. W klubach jednak stosuje się na ogół projekcję przednią – urządzenie nie wychwyci tego, że ktoś wskazuje palcem daną ikonkę, ale odnotuje wyraźniejsze ruchy, np. całej ręki. To pozwala na oddanie wizualizacji w ręce tańczącego tłumu. I to dosłownie. Wszystkie ruchy ludzi znajdujących się w pobliżu iWalla będą mieć wpływ na to, co się na nim pojawi. Mogą przesuwać kolorowe piłeczki albo inicjować eksplozje kolorów. Wszystko zależy od oprogramowania.

Mindstorm jest przekonany, że jego wynalazek przyjmie się nie tylko w klubach. Równie dobrze może zastąpić komputer w hotelach, restauracjach, ośrodkach spa i w wielu innych miejscach. W hotelu goście mogliby wybierać pokój na inteligentnej ladzie, a później, by zapłacić, wystarczyłoby położyć na niej kartę kredytową. Producent pracuje już nad wdrożeniem takiego rozwiązania. Tego typu powierzchnie pojawiły się już w pierwszych hotelach. Sieć Sheraton kupiła od Microsoftu pięć komputerów Surface, które działają podobnie jak iBary (więcej na ich temat w artykule na stronie s. 132). Na razie Sheraton wykorzystał Surface tylko jako ciekawostkę – za jego pomocą można dowiedzieć się więcej o sieci hoteli, zajrzeć do Internetu albo poszukać ciekawej restauracji w okolicy. Lecz gdy chcemy wynająć pokój, recepcjonista wciąż wklepuje dane na komputerowej klawiaturze i klika myszką.

Wróćmy jeszcze do iBarów: planowanych jest znacznie więcej innowacji. Trwają prace nad systemem, który będzie potrafił rozpoznawać konkretne produkty gdy zostaną położone na ladzie – telefony komórkowe czy butelki z napojami. Ciekawy jest też pomysł rozpoznawania ludzi, to z kolei da możliwość automatycznego wprowadzania spersonalizowanych ustawień. Mindstorm roztacza wizję, w której w przyszłości, gdy przyjdziemy do ulubionej restauracji, komputer rozpozna nas automatycznie i wyświetli na stoliku nasz ulubiony wzór. W pierwszej kolejności zaproponuje też te dania z karty, które najchętniej zamawiamy. Nie trzeba wołać kelnera, by zdecydować, co chcemy zjeść, wystarczy dotknąć palcem odpowiedniej pozycji na stoliku, a nasze zamówienie trafi bezpośrednio do kuchni. Czekając na potrawę, będziemy mogli posurfować po Internecie, a na koniec – jak można się było spodziewać – zapłacić kartą i zamówić taksówkę… wykorzystując własny stolik.

– iBary raczej nie trafią do domów, są po prostu zbyt drogie. Jednak będziemy je coraz częściej widywać na mieście – twierdzi Wojciech Szmigielski z firmy ABV, reprezentującej Mindstorm w Polsce. Urządzenia rzeczywiście nie należą do najtańszych. Na iBar trzeba wydać około 24 tys. euro, iWall to wydatek rzędu 12 tys. euro. A do tego trzeba jeszcze przecież doliczyć wysoką cenę oprogramowania.

Info: www.oblong.com, www.mindstorm.com