交互設計之手勢控制
在starfire里面,出現了以下的特點
物理實體與數字世界的互動:把一張報紙放在屏幕上,自動地掃描報紙上的信息。10多年后,微軟的surface中重新將這個概念以更加實際優雅的方式變為現實。
聲控界面:用自然語言發出命令,這個從iphone 3GS的聲控命令和Nexus One的聲控輸入中我們可以看到已經離商業產品只有一步之遙了。
直接操控
telepresence:通過三維立體顯示,將工作者的形象遠程投射到另一個地點,這個目前商業化還沒戲。
手勢控制
《少數派報告》的界面顯然受到了starfire的啟發,然而其實際設計,是由MIT media lab(媒體實驗室)的Tangible Media組完成的。這個組的領導是Hiroshi Ishii,其中手勢控制的部分,被稱作”g-speak”的空間操作界面(Spatial Operating Interface SOE),早在20世紀90年代初就開始開發了,它在開發的時候的主要目的是:
分析大數據集合
三維界面操作(對三維建模的工作很適合)
在一個組織中進行大規模的多用戶協作
在這里可以看到一段演示的視頻。http://v.youku.com/v_show/id_XNTM1NDQzNTI=.html
然后,在2009年,一個印度哥們Parnav Mistry,同樣來自Media Lab(所屬Fluid Interfaces組),在著名的TED會議(Technology, Entertainment, Design)上展示了一個名為Sixth Sense(第六感)的Augmented Reality(增強現實)設備套裝,這個套裝由掛在脖子上的超小投影儀,攝影鏡頭,以及手指上的傳感器組成。這個展示是一鳴驚人,現在在中文圈里面都傳得熱火朝天,大家baidu一下“MIT 天才”就知道了。
這里有一段第六感的視頻:http://v.youku.com/v_show/id_XMTQ0MTM5Njg0.html
第六感的主題實際上是augmented reality,contextual interface和ubiquitous computing,不過在這里面手勢控制也起到了重要的作用,因為整個交互都是由攝像機捕捉手指的移動進行的。