Ludzie i style

Era machania

Komputery sterowane gestem i mimiką

Pracowniczka Intela podczas pokazu sterowania gestem grą komputerową. Pracowniczka Intela podczas pokazu sterowania gestem grą komputerową. Britta Pedersen/Picture-Alliance/DPA/AP Images / EAST NEWS
Żegnajcie, myszko i klawiaturo. Intel ogłasza świt nowej ery sterowania komputerami – gestem dłoni, grymasem, wzrokiem, słowem. Co możemy zyskać?
Szef działu interfejsów naturalnych w Intelu prezentuje rozmiary urządzenia pozwalającego na zarządzanie komputerem poprzez gest ręki.Bob Riha jr./Intel Szef działu interfejsów naturalnych w Intelu prezentuje rozmiary urządzenia pozwalającego na zarządzanie komputerem poprzez gest ręki.

Witam się, wyciągając przed siebie dłoń. Nie do uścisku – komputer nie jest przecież (jeszcze) do tego zdolny – ale po to, by dostrzegły ją kamery. Są zaprogramowane tak, by reagować na ten pięciopalczasty kształt jak tresowany pies na gwizdnięcie. Już po chwili maszyna uznaje mnie za swojego pana i jest gotowa bezzwłocznie wykonywać rozkazy. Można by rzec: na skinienie palca. Dosłownie.

To prezentacja nowej technologii na niedawnych targach elektroniki konsumenckiej CES w Las Vegas. Choć rzecz może się kojarzyć bardziej z kinem SF. W filmie „Johnny Mnemonic” (1995 r.) grany przez Keanu Reevesa tytułowy bohater sterował komputerem ruchami dłoni w powietrzu, przesuwając elementy umieszczone w trójwymiarowej przestrzeni wirtualnej. W także opartym na prozie Philipa K. Dicka „Raporcie mniejszości” (2002 r.) protagonista – w tej roli Tom Cruise – wydawał komendy podobnymi gestami. Przesuwał holograficzne zdjęcia, aktywował funkcje. Widz doskonale rozumie znaczenie tych scen, bo każdy z nas w podobny sposób wchodzi w interakcję ze światem. Gesty dłoni mają charakter organiczny. Zupełnie naturalne wydaje się zatem, że futurolodzy popkultury tak właśnie widzą przyszłość interfejsów człowiek-komputer. Teraz ich wizje mają się stać nowym powszechnym standardem.

Magia gestów

Na pokazie sterowanie dłonią odbywa się z zaskakującą precyzją. Pierwszy program – na zachętę – to prosta gra: muszę bezpiecznie przeprowadzić rysunkowych hoplitów przez pełną przeszkód i zagrożeń planszę. Niczym w teatrze cieni, buduję z dłoni kładkę nad przepaścią, gwałtownym ruchem przerzucam podopiecznych na drugi brzeg, osłaniam palcami niczym tarczą. Wszystko to robię intuicyjnie, w sposób naturalny, odruchowy.

To tylko zabawa, ale daje przedsmak możliwości, jakie już wkrótce, zgodnie z obietnicami Intela, firmy znanej dotąd głównie z produkcji procesorów komputerowych, będą w zasięgu każdego.

Śledzący moją dłoń komputer to niepozorny notebook, bynajmniej nie z najwyższej półki. Od tradycyjnych, pokrewnych mu konstrukcji odróżnia się duetem wbudowanych kamer, łypiących na mnie znad ekranu. Jedna to zwykły obiektyw, postrzegający świat w paśmie widzialnym przez człowieka, w rozdzielczości Full HD (1920 x 1080). Druga to sensor podczerwieni, dzięki zdolności do precyzyjnego pomiaru głębi skuteczny w rozpoznawaniu kształtów brył. Duet ten potrafi z dużą dokładnością skanować obiekty w polu widzenia i tworzyć trójwymiarowe mapy obserwowanej przestrzeni, a przy tym równolegle rejestrować obraz w sposób tradycyjny, „płaski”, na przykład na potrzeby pogawędki przez Skype’a.

Atuty takiego rozwiązania są liczne, dziś trudno byłoby przewidzieć wszelkie możliwe zastosowania. Pośrednik sprzedaży mieszkań mógłby, po sfotografowaniu lokalu, umożliwić zainteresowanym zwiedzanie jego trójwymiarowego modelu. Rzeźbiarz lub projektant, jak przekonuje w prezentacyjnym filmie Intel, gestami dłoni formować nowe dzieło – via jego trójwymiarowy model, wyświetlany na ekranie komputera. Tworzone są już programy edukacyjne, angażujące dziecko w naukę poprzez zabawę. Uczone alfabetu maluchy ruchem dłoni przesuwają wyświetlany na ekranie koszyk pod gałązkę z rosnącą nań właściwą literką, aby wpadła do środka niczym dojrzała gruszka. To dla nich o wiele łatwiejsze niż używanie myszki lub gładzika, bo odruchowe, niewymagające uciążliwych ćwiczeń.

 

Naturalne interfejsy

Technologie sterowania komputerem i innymi urządzeniami, jak tablet lub smartfon (ale i samochód czy lodówka), w sposób intui­cyjny, bez pośrednictwa takich protez jak myszka lub klawiatura, Intel nazywa interfejsami naturalnymi (ang. perceptual computing). Oprócz opisanego powyżej hybrydowego zestawu sensorów i innych alternatywnych rozwiązań rozpoznających trójwymiarową przestrzeń Intel zalicza do nich systemy rozpoznawania mowy oraz śledzenia gałek ocznych. Wspólny zbiór tych sprzętowych i programowych rozwiązań otrzymał nazwę RealSense.

Specjalnie powołany w tym celu fundusz Intel Capital Experiences and Perceptual Computing zainwestuje w interfejsy naturalne w ciągu trzech lat 100 mln dol. Ważniejsze jest jednak to, że nie będzie robił wszystkiego sam. Pomaga opracowywać podzespoły i ich bazowe oprogramowanie, ale olbrzymi wkład w promowanie rozwiązań z rodziny RealSense będą mieli współpracujący z Intelem liderzy rynku elektroniki konsumpcyjnej, specjalizujący się w produkcji finalnych urządzeń: komputerów, tabletów, telefonów komórkowych, kamer internetowych i innych akcesoriów.

I to właśnie może przesądzić o sukcesie interfejsów naturalnych. Na początek – sensorów rozpoznających komendy wydawane dłonią. Nie będziemy bowiem musieli podejmować decyzji, czy nam na nich zależy. Dostaniemy je w pakiecie wraz z nowo nabytym notebookiem. Intel i jego partnerzy wierzą, że gdy raz skosztujemy słodkich owoców tego rozwiązania, już nigdy nie zechcemy zrobić kroku wstecz.

Spójrzcie tylko, jak niewielkie jest to urządzenie – przekonywał na targach elektroniki konsumenckiej CES w Las Vegas Mooly Eden, szef działu interfejsów naturalnych w Intelu. – Nie szersze niż mój palec i cieńsze niż żeton w kasynie – udowadniał, przymierzając zestaw sensorów do żetonów z miejscowej jaskini hazardu.

Nic dziwnego, że można je zamontować nawet w szczupłej obudowie ekranu notebooka. Co więcej, nie jest to urządzenie szczególnie kosztowne w masowej produkcji, dzięki czemu już w drugiej połowie tego roku możemy się spodziewać licznych debiutów notebooków i tabletów wyposażonych w kamery RealSense, w cenach najprawdopodobniej nieodbiegających istotnie od innych podobnych modeli bez opracowanego przez Intel rozwiązania. Można też, i to już dziś, dokupić taką kamerę 3D osobno. Sam sprzęt, nawet najbardziej wyrafinowany, nie znaczyłby nic bez atrakcyjnego oprogramowania, ale i pod tym względem wiele oznak zapowiada sukces. Producenci pobrali już ponad 50 tys. kopii aplikacji narzędziowych Perceptual Computing Software Developer Kit, umożliwiających pisanie programów z myślą o sensorach RealSense. Możemy zatem spodziewać się za najpóźniej pół roku fali gier i najrozmaitszych programów użytkowych. Intel wierzy w popularność już gotowej aplikacji do wideotelefonowania, umożliwiającej zmianę tła, na którym widzi nas rozmówca. I tak możemy udawać, że akurat ciężko tyramy w biurze, w rzeczywistości bycząc się pod palmą na plaży. Lub na odwrót. Na przebój zapowiada się program Kagura – do tworzenia muzyki, pozwalający gestami dłoni aktywować rozmaite instrumenty, regulować rytm, samplować i modulować linie melodyczne. To zwycięzca konkursu dla programistów Intel Perceptual Computing z pulą nagród sięgającą miliona dolarów.

 

Intel nie jest zresztą pierwszą z potęg świata elektroniki konsumpcyjnej, która dostrzegła potencjał interfejsów naturalnych. Microsoft osiągnął przecież duży sukces, wprowadzając pod koniec 2010 r. na rynek Kinect, przystawkę do konsoli Xbox 360. Nowa konsola Xbox One jest już sprzedawana wyłącznie w zestawie z kolejną edycją Kinecta. Sensor ten umożliwił stworzenie wielu prostych, familijnych gier, w których gracz wydawał konsoli komendy ruchami ciała. Microsoft, wbrew oczekiwaniom, nie poszedł jednak za ciosem i nie próbował stworzyć odpowiednika Kinecta z myślą o rynku komputerowym. Opracowany przez Intel sensor różni się od Kinecta nie tylko tym, że został skalibrowany z myślą o niewielkich odległościach (Kinect jest dostrojony na minimalną odległość ok. 1,2 m), ale i precyzją pomiaru. Kinect rozpoznaje ruchy ciała, śledząc wyginanie szkieletu, czujniki RealSense potrafią zarejestrować nawet milimetrowe drgnięcia palców.

Microsoft przespał więc wybuch rewolucji, którą sam zainicjował. Owszem, nowy Kinect pozwala na wygodne sterowanie głosem i gestem odbiornikiem telewizyjnym, bo Xbox One to tyleż konsola do gier wideo, co przystawka do telewizora, ale na rynku interfejsów naturalnych komputerów i urządzeń mobilnych właściwie nie istnieje.

Cyfrowy podwładny

Intel jest przekonany, że sensory głębi to dopiero pierwszy krok. Już w niedalekiej przyszłości, jeśli wierzyć obliczeniom futurologów, pojawią się maszyny o inteligencji nie mniejszej niż ludzka. Aby móc się z nami skutecznie komunikować, będą wyposażane w zmysły podobne do naszych.

Urządzenia ze zmysłami podobnymi do ludzkich – zdolnością widzenia, słyszenia i odczuwania – od dawna pojawiały się w twórczości science fiction. Teraz, dzięki postępom w zakresie mocy obliczeniowej urządzeń i technologii kamer, nareszcie znalazły się w naszym zasięgu – uważa Arvind Sodhani, prezes Intel Capital i wiceprezes Intela.

Już dziś pracuje się zatem nad oprogramowaniem zdolnym rozpoznać nasz nastrój i decyzje na podstawie mimiki i mowy ciała. Intel zainwestował w szwedzką firmę Tobii Technology, specjalizującą się w systemach sterowania opartych na śledzeniu ruchów gałek ocznych. Takie rozwiązanie posłuży osobom sparaliżowanym, ale w przyszłości pomoże wygodniej zarządzać maszynami każdemu z nas.

Intel ma też udziały w Nuance Communications, rozwijającej system rozpoznawania mowy Nuance Dragon Assistant. Ŕ propos wspominanego już Philipa K. Dicka i opartych na jego prozie filmów, któż nie pamięta słynnej sceny z „Łowcy androidów” (1982 r.), w której Deckard (Harrison Ford) każe komputerowi głosem powiększyć zdjęcie? Intel wsparł też kapitałem firmę HP, która opracowała sensory Leap Motion, alternatywną wobec opisanej powyżej technologię pomiaru głębi, a także Sensible Vision, autorów oprogramowania FastAccess, umożliwiającego logowanie poprzez rozpoznawanie twarzy użytkownika.

Docelowo wszystkie te rozwiązania mają harmonijnie ze sobą współpracować. Najpierw po to, by umożliwić nam wygodne sterowanie otaczającymi nas, wszechobecnymi maszynami. Od tabletów po lodówki i samochody. Potem – by pozwolić na naturalną z nimi komunikację, gdy już nauczą się myśleć. Lub chociaż perfekcyjnie udawać myślenie i samoświadomość, zgodnie z opisaną przez filozofa Johna Searle’a koncepcją „chińskiego pokoju”.

Możemy jednak zacząć od machania dłońmi, groźnych pomruków i marszczenia brwi, gdy niezbyt jeszcze bystry cyfrowy podwładny rozpocznie strajk włoski. W końcu jakoś trzeba się dogadać.

Polityka 7.2014 (2945) z dnia 11.02.2014; Ludzie i Style; s. 88
Oryginalny tytuł tekstu: "Era machania"
Więcej na ten temat
Reklama

Czytaj także

null
Ja My Oni

Jak dotować dorosłe dzieci? Pięć przykazań

Pięć przykazań dla rodziców, którzy chcą i mogą wesprzeć dorosłe dzieci (i dla dzieci, które wsparcie przyjmują).

Anna Dąbrowska
03.02.2015
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną