Egy gesztusvezérlő kamerák nélkül, nem kell hozzá csodagép egy pentium I-esen is elfut. Egy év alatt fejlesztettünk a rendszeren (HUROBAT 3.0) és még közelebb hoztuk a jövőt. Remélem elnyeri tetszéseteket!
ha jól értem, akkor minden számítás ebben a kis szerkezetben történik, tehát ezeket a gesztusokat is ő ismeri fel, és már csak a parancsot küldi végülis a gépbe... ugye?
ennek ellenére van neki valami low level API-ja is? tehát hogy például egy depth mapot adna, és azzal a szoftver fejlesztők kedvükre játszhatnának? úgy érdekesebbé vállna a dolog.. :)
Leap Motion-t próbálgattuk hasonló célókra, de azzal pont az volt a baj, hogy ő már feldolgozza, amit lát és a kéz struktúráját kapod "csak" meg tőle, és ezzel végülis korlátozva vannak a fejlesztők (és amit csinál, az is eléggé pontotatlan)
ennek ellenére van neki valami low level API-ja is? tehát hogy például egy depth mapot adna, és azzal a szoftver fejlesztők kedvükre játszhatnának? úgy érdekesebbé vállna a dolog.. :)
Leap Motion-t próbálgattuk hasonló célókra, de azzal pont az volt a baj, hogy ő már feldolgozza, amit lát és a kéz struktúráját kapod "csak" meg tőle, és ezzel végülis korlátozva vannak a fejlesztők (és amit csinál, az is eléggé pontotatlan)