NO339941B1 - System og fremgangsmåte for et gestbasert styringssystem - Google Patents
System og fremgangsmåte for et gestbasert styringssystem Download PDFInfo
- Publication number
- NO339941B1 NO339941B1 NO20074200A NO20074200A NO339941B1 NO 339941 B1 NO339941 B1 NO 339941B1 NO 20074200 A NO20074200 A NO 20074200A NO 20074200 A NO20074200 A NO 20074200A NO 339941 B1 NO339941 B1 NO 339941B1
- Authority
- NO
- Norway
- Prior art keywords
- procedure
- stated
- gesture
- appendage
- detection
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 128
- 230000033001 locomotion Effects 0.000 claims description 62
- 238000001514 detection method Methods 0.000 claims description 48
- 238000013519 translation Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 3
- 238000007493 shaping process Methods 0.000 claims description 2
- 230000014616 translation Effects 0.000 claims 10
- 238000005096 rolling process Methods 0.000 claims 3
- 230000004931 aggregating effect Effects 0.000 claims 1
- 230000008520 organization Effects 0.000 claims 1
- 238000012913 prioritisation Methods 0.000 claims 1
- 238000013139 quantization Methods 0.000 claims 1
- 239000002023 wood Substances 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 50
- 210000004247 hand Anatomy 0.000 description 19
- 210000003813 thumb Anatomy 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 239000000758 substrate Substances 0.000 description 7
- 230000036544 posture Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 238000004883 computer application Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 241000254032 Acrididae Species 0.000 description 2
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000134426 Ceratopogonidae Species 0.000 description 1
- 241000288904 Lemur Species 0.000 description 1
- 241000203475 Neopanax arboreus Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 229920006300 shrink film Polymers 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007669 thermal treatment Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
System og fremgangsmåte for gestbasert styringssystem
Denne patentsøknad krever prioritet fra US foreløpig patentsøknad nr. 60/651.290 innlevert 8. februar 2005 med tittel "Gestbasert styringssystem".
Bakgrunn for oppfinnelsen
[0001] 1. Område for oppfinnelsen
[0002] Denne oppfinnelse vedrører området datamaskin generelt og særlig et system og en fremgangsmåte for et gestbasert styringssystem.
[0003] 2. Bakgrunn
[0004] En bruker kan legge inn kommandoer og samhandle med et datamaskin-system ved manipulering av data eller avbildninger i et vindu på et display, eller ved å velge operasjoner fra en meny som er tilknyttet vinduet eller et tilknyttet program, ved bruk av innmatingsinnretninger så som en mus, tastatur, styrespak, korsfast eller lignende. Slike innmatingsinnretninger kan også operere som posisjonsomformende innretninger, som kan brukes til å posisjonere en grafisk peker på en skjerm, så som en markør. En markør funksjonerer for eksempel slik at den viser et tegn som skal revideres eller viser en posisjon hvor data skal legges inn eller en operasjon skal utføres. En markør, i en eller annen form eller utseende, er typisk til stede på data-maskindisplayet. Manipulasjon av en inngangsinnretning av en bruker vil resultere i en korresponderende bevegelse av markøren. For eksempel resulterer bevegelse av en mus eller en annen innmatingsinnretning således i bevegelse av markøren i den samme retning. US 6,198,485 B1 vedrører en fremgangsmåte og et apparat for tredimensjonal inngangsoppføring.
[0005] En markør kan ha forskjellig utseende avhengig av sin funksjon og tilstanden til datamaskinsystemet. For eksempel, når den er posisjonert i et tekstfelt på et datamaskindisplay, kan markøren ha utseende av en "l-bjelke" eller en blinkende vertikal linje. Posisjonen til markøren i et tekstfelt viser lokaliseringen av det neste tegn som vil bli lagt inn av brukeren, typisk via et tastatur. Markøren kan ha andre utseende avhengig av sin funksjon. I et tegneprogram eller måleprogram, kan markøren representeres som en malepensel, blyant, viskelær, spann eller annen grafisk form.
[0006] Markøren kan også ha form av en pil eller en peker når den er posisjonert over brukervelgbare operasjoner eller når den brukes til å velge grafiske elementer, så som vinduer. For å velge og aktivere en ønsket operasjon med markøren, kan den posisjoneres over en grafisk representasjon eller tekstrepresentasjon av operasjonen. En knapp som er lokalisert på en museinngangsinnretning kan trykkes ned og/eller slippes opp for å bevirke operasjonen. Brukeren varsles om aksepten av operasjonen som skal utføres ved hjelp av visuell tilbakemelding, vanligvis i form av en forandring i en avbildning på datamaskinens display. Et eller flere av programmene som er i bruk genererer typisk denne visuelle respons. Disse programmene genererer tegnekommandoer for å oppdatere displayavbildningene som respons på de valgte operasjoner.
[0007] En ulempe med systemene ifølge kjent teknikk er at innmatingsinnretningen ofte er nettopp det, en innretning. Det er påkrevd at brukeren har en ledningsført eller trådløs mus eller en annen innmatingsinnretning, og denne inn-retningen må brukes til å ta hånd om valg, forflytning av posisjon, aktivering og andre innmatingsfunksjoner. Bruken av disse fysiske innretninger er ofte ikke naturlig eller intuitiv. En annen ulempe er behovet for å gå gjennom visse trinn for å forandre konteksten til innmatingsinnretningen slik at forskjellige funksjoner kan utføres.
[0008] Med populariteten av svært store display, blir ytterligere ulemper med innretninger og systemer for innmating ifølge kjent teknikk åpenbare. Ved for eksempel bruk av en mus, for å forsøke å forflytte posisjonen til en markør over et stort display, må brukeren ofte løfte musen og på ny plassere den på museoverflaten for å sette brukeren i stand til å trekke markøren over til og med et parti av et stort display. Dette er en bortkastet og unaturlig bevegelse.
[0009] Det har innenfor den kjente teknikk vært noen forsøk på å tilveiebringe en løsning på disse problemer. En kjent løsning er å bruke hansker på brukerens hånd. Disse hanskene har den godhet å forvandle brukernes hånd eller hender til innmatingsinnretninger. I en utførelse er en innmatingshanske fast koplet til et data-maskinsystem. Denne løsning har den ulempe at den i bokstavelig forstand binder brukeren til stedet, hvilket krever en nærhet til datamaskinsystemet og en begrensning på bevegelsesområdet. I andre tilfeller er hanskene trådløse. Slike trådløse implementeringer krever imidlertid en uavhengig strømforsyning for hansken. Når strømforsyningen må lades opp, kan hanskene ikke brukes.
Sammenfatning av oppfinnelsen
[0010] Hovedtrekkene ved oppfinnelsen fremgår av de selvstendige krav. Ytterligere trekk ved oppfinnelsen er angitt i de uselvstendige krav. Systemet tilveiebringer et gestgrensesnitt for forskjellige visuelt presenterte elementer, som presenteres på en visningsskjerm eller -skjermer. I en utførelse navigerer og manipulerer operatøren av systemet disse elementer ved utsendelse av en kontinuerlig strøm av "gestkommandoer" ved bruk av operatørens hender. I andre utførelser kan en brukers hode, føtter, armer, ben eller hele brukeren, brukes til å tilveiebringe navigasjonen og styringen. Gestvokabularet inkluderer "øyeblikkelige" kommandoer, hvor forming av en eller begge hender til den passende "stilling" resulterer i en umiddelbar éngangshandling; og "romlige" kommandoer, hvor operatøren enten refererer direkte til elementer på skjermen ved hjelp av i bokstavelig forstand "pekende" gester eller utfører navigasjonsmanøver ved hjelp av relative eller "forskjøvne" gester. I tillegg til pekende gester, som brukes til absolutt eller direkte romlig gestikulering, kan oppfinnelsen også gjenkjenne en annen kategori av relative, romlige navigasjonsgester i etXYZ-rom. Denne kategorien av handlinger blir enkelte ganger referert til som XYZ-teknikker. Ved opprettholdelse av en høy bilde-frekvens, ved å garantere et tilnærmet umerkelig etterheng i tolkingen av operatør-gestene, og ved anvendelse av både nøye designede romlige metaforer og klart innlysende mekanismer for "direkte manipulasjon" tilveiebringer systemet en livaktig "kognitiv kopling" mellom operatøren og den informasjon og de prosesser som representeres. Ved systemet tenker man seg muligheten for å identifisere brukerens hender. Dette systemet med identifikasjon kan være i form av en hanske eller hansker med visse tegn tilveiebrakt derpå, eller et hvilket som helst egnet middel for tilveiebringelse av gjenkjennelige tegn på en brukers hender. Et system med kameraer kan detektere posisjonen, orienteringen og bevegelsen av brukerens hender og omforme denne informasjonen til utførbare kommandoer.
Kort beskrivelse av tegningene
[0011] Figur 1 er et diagram over en utførelse av systemet ifølge oppfinnelsen.
[0012] Figur 2 er et diagram over en utførelse av merketagger ifølge oppfinnelsen.
[0013] Figur 3 er et diagram over stillinger i et gestvokabular i en utførelse av oppfinnelsen.
[0014] Figur 4 er et diagram over orientering i et gestvokabular i en utførelse av oppfinnelsen.
[0015] Figur 5 er et diagram over to-hånds kombinasjoner i et gestvokabular i en utførelse av oppfinnelsen.
[0016] Figur 6 er et diagram over orienteringsblandinger i et gestvokabular i en utførelse av oppfinnelsen.
[0017] Figur 7 er et flytdiagram som illustrerer operasjonen av en utførelse av systemet ifølge oppfinnelsen.
[0018] Figur 8 er et eksempel på kommandoer i en utførelse av systemet.
Detaljert beskrivelse av de foretrukne utførelser
[0019] Et system og en fremgangsmåte for et gestbasert styringssystem er beskrevet. I den følgende beskrivelse beskrives et antall trekk i detalj for å tilveiebringe en mer grundig forståelse av oppfinnelsen. Det er åpenbart at systemet kan praktiseres uten disse spesifikke detaljer. I andre tilfeller har velkjente trekk ikke blitt beskrevet i detalj.
[0020] System
[0021] Et blokkdiagram av en utførelse av oppfinnelsen er illustrert på figur 1. En bruker lokaliserer sine hender 101 og 102 i betraktningsområdet for en oppstilling av kameraer 104A-104D. Kameraene detekterer lokalisering, orientering og bevegelse av fingrene og hendene 101 og 102 og genererer utgangssignaler til forprosessor 105. Forprosessor 105 omformer kameraets utgang til et gestsignal som tilveie-bringes til datamaskinprosesseringsenheten 107 i systemet. Datamaskinen 107 bruker inngangsinformasjonen til å generere en kommando til å styre en eller flere markører på en skjerm og tilveiebringer videoutgang til display 103.
[0022] Selv om systemet er vist med en enkelt brukers hender som innmating, kan oppfinnelsen også implementeres ved bruk av flere brukere. I tillegg, istedenfor eller i tillegg til hender, kan systemet følge en hvilken som helst del eller deler av en brukes legeme, inkludert hode, føtter, ben, armer, albuer, knær og lignende.
[0023] I den viste utførelse brukes fire kameraer til å detektere lokaliseringen, orienteringen og bevegelsen av brukerens hender 101 og 102. Det skal forstås at oppfinnelsen kan brukes med flere eller færre kameraer uten å avvike fra oppfinnel-sens omfang eller idé. I tillegg, selv om kameraene i eksempelutførelsen er anordnet symmetrisk, er det ikke noe krav som slik symmetri i oppfinnelsen. Et hvilket som helst antall eller posisjonering av kameraer som tillater lokaliseringen, orienteringen og bevegelsen av brukerens hender kan brukes i oppfinnelsen.
[0024] I en utførelse av oppfinnelsen er kameraene som brukes bevegelses-oppfangingskameraer som er i stand til å fange opp gråskalaavbildninger. I en utførelse er kameraene som brukes de som fremstilles av Vicon, så som kameraet Vicon MX40. Dette kameraet inkluderer prosessering i kameraet, og er i stand til å fange opp avbildninger med 1000 bilder per sekund. Et kamera for oppfanging av bevegelse er i stand til å detektere og lokalisere merker.
[0025] I den beskrevne utførelse brukes kameraene til optisk deteksjon. I andre utførelser kan kameraene eller andre detektorer brukes til elektromagnetisk deteksjon, magnetostatisk deteksjon, RFID-deteksjon eller en hvilken som helst annen egnet type av deteksjon.
[0026] Forprosessor 105 brukes til å generere tredimensjonal rompunkt rekonstruksjon og skjelettpunktetikettering. Gestomformeren 106 brukes til å konvertere den 3D romlige informasjon og merkebevegelsesinformasjon til et kommandospråk som kan tolkes av en datamaskinprosessor for å oppdatere lokaliseringen, formen og handlingen til en markør på et display. I en alternativ utførelse av oppfinnelsen kan forprosessoren 105 og gestomformeren 106 kombineres til en enkelt innretning.
[0027] Datamaskinen 107 kan være en hvilken som helst universaldatamaskin, så som de som fremstilles av Apple, Dell eller en hvilken som helst annen passende produsent. Datamaskinen 107 kjører applikasjoner og tilveiebringer utgang til displayet. Markørinformasjon som ellers ville komme fra en mus eller en annen innmatingsinnretning ifølge kjent teknikk kommer nå fra gestsystemet.
[0028] Merketagger
[0029] Ved oppfinnelsen tenker man seg bruk av merketagger på en eller flere av brukerens fingre, slik at systemet kan lokalisere hendene til brukeren, identifisere om hvorvidt det betrakter en venstre eller høyre hånd, og hvilke fingre som er synlige. Dette tillater at systemet kan detektere lokaliseringen, orienteringen og bevegelsen av brukerens hender. Denne informasjonen tillater at antall gester gjenkjennes av systemet og brukes som kommandoer av brukeren.
[0030] Merketaggene er i en utførelse fysiske tagger som omfatter et underlag (i den foreliggende utførelse passende for innfesting til forskjellige lokaliseringer på en menneskelig hånd) og diskrete merker som er anordnet på underlagets overflate i unike, identifiserende mønstre.
[0031] Merkene og det tilknyttede eksterne sansende system kan operere i en hvilken som helst domene (optisk, elektromagnetisk, magnetostatisk, osv.) som tillater nøyaktig, presis og hurtig og kontinuerlig innsamling av deres tre posisjoner i rommet. Selve merkene kan operere enten aktivt (eksempelvis ved emittering av strukturerte elektromagnetiske pulser) eller passivt (eksempelvis ved at de er optisk tilbakereflekterende, som i den foreliggende utførelse).
[0032] Ved hvert bilde for innsamling, mottar deteksjonssystemet opphopnings-"skyen" av innhentede tre lokaliseringer i rommet som omfatter alle merker fra tagger som for det inneværende er i det instrumenterte arbeidsromvolum (innenfor det synlige spekter for kameraene eller andre detektorer). Merkene på hver tagg har et tilstrekkelig mangfold og er anordnet i unike mønstre, slik at deteksjonssystemet kan utføre de følgende oppgaver: (1) segmentering, hvor hver innhentede merkeposisjon tilordnes til én og kun én delsamling av punkter som danner en enkelt tagg; (2) etikettering, hvor hver segmenterte delsamling av punkter identifiseres som en bestemt tagg; (3) lokalisering, hvor de tre posisjoner i rommet for den identifiserte tagg innhentes; og (4) orientering, hvor de tre orienteringer i rommet av den identifiserte tagg innhentes. Oppgave (1) og (2) gjøres mulig gjennom det spesifikke tegn av merkemønstrene, som beskrevet nedenfor og som illustrert i utførelsen på figur 2.
[0033] Merkene på taggene er i en utførelse festet til et delsett av regelmessige rutenettlokaliseringer. Dette underliggende rutenett kan, som i den foreliggende utførelse, være av den tradisjonelle kartesiske type; eller kan isteden være en eller annen regelmessig, plan tesselasjon (for eksempel et trekantet/sekskantet arrangement av overlappende vinduer). Skalaen og innbyrdes avstand i rutenettet etableres i forhold til den kjente romlige oppløsning av det merkesansende system, slik at det ikke er trolig at tilgrensende rutenettlokaliseringer blir blandet sammen. Valg av merkemønstre for alle tagger bør oppfylle den følgende skranke: intet merkes mønster skal falle sammen med mønsteret for en annen taggs mønster gjennom en hvilken som helst kombinasjon av rotasjon, translasjon eller speiling. Mangfoldet og arrangementet av merker kan videre velges slik at tap (eller sperring for) et spesifisert antall av komponentmerker tolereres: etter en hvilken som helst vilkårlig omdanning, bør det fremdeles være usannsynlig at den forringede modul forveksles med en annen.
[0034] Det vises nå til figur 2, hvor et antall av tagger 201A-201E (venstre hånd) og 202A-202E (høyre hånd) er vist. Hver tagg er rektangulær og består i denne utførelse av en 5x7 rutenettoppstilling. Den rektangulære form er valgt som en hjelp ved å bestemme orientering av taggen og for å redusere sannsynligheten for speil-duplikater. I den viste utførelse er det tagger for hver finger på hver hånd. I enkelte utførelser kan det være passende å bruke én, to, tre eller fire tagger per hånd. Hver tagg har en kant med en forskjellig gråskala eller fargesjattering. Innenfor denne kanten er det en 3x5 rutenettoppstilling. Merker (representert med de sorte prikker på figur 2) er anordnet i visse punkter i rutenettoppstillingen for å tilveiebringe informasjon.
[0035] Kvalifiserende informasjon kan kodes i taggenes merkemønstre gjennom segmentering av hvert mønster til "felles" og "unike" delmønstre. For eksempel spesifiserer den foreliggende oppfinnelse to mulig "kantmønstre", fordelinger av merker omkring en rektangulær avgrensning. En "familie" av tagger blir således etablert ~ taggene som er tiltenkt for venstre hånd kan således alle bruke det samme kantmønster som er vist i taggene 201 A-201 E, mens de som er innfestet til den høyre håndens fingre kan tilordnes et forskjellig mønster, som vist i taggene 202A-202E. Dette delmønsteret er valgt slik at i alle orienteringer av taggene, kan det venstre mønster sjeldnes fra det høyre mønster. I det illustrerte eksempel inkluderer mønsteret på venstre hånd et merke i hvert hjørne og et merke i en rutenett-lokalisering som er nummer to fra hjørnet. Mønsteret på høyre hånd har merker i kun to hjørner og to merker i rutenettlokaliseringer som ikke er i hjørnet. En inspeksjon av mønsteret røper at så lenge hvilke som helst tre av de fire merkene er synlige, kan mønsteret på venstre hånd sikkert sjeldnes fra mønsteret på venstre hånd. I en utførelse kan fargen eller sjatteringen av kanten også brukes som en indikator på tendensen til å bruke en hånd istedenfor den andre.
[0036] Hver tagg må selvsagt likevel anvende et unikt indre mønster, med merkene fordelt innenfor sin families felles kant. I den viste utførelse har det blitt funnet at to merker i den indre rutenettoppstilling er tilstrekkelig til unikt å identifisere hver av de ti fingre uten noen duplisering på grunn av rotasjon eller orientering av fingrene. Selv om ett av merkene er sperret for, gir kombinasjonen av mønsteret og tendensen til å bruke en hånd istedenfor den andre for taggen en unik identifikator.
[0037] I den foreliggende utførelse er rutenettlokaliseringene visuelt til stede på det faste underlag som en hjelp ved den (manuelle) oppgave med å innfeste hvert tilbakerepeterende merke ved sin tiltenkte lokalisering. Disse rutenettene og de tiltenkte merkelokaliseringer er i bokstavelig forstand trykket via fargeblekkstråleskriver på underlaget, som her er et ark av (initialt) fleksibel "krympefilm". Hver modul er skåret fra arket og deretter ovnsbakt, under hvilken termisk behandling hver modul gjennomgår en nøyaktig og repeterbar krymping. I et kort intervall etter denne prosedyre, kan taggen som er under avkjøling formes litt - for å følge den langs-gående kurve til for eksempel en finger; deretter er underlaget passende stivt, og merker kan festes ved de viste rutenettpunkter.
[0038] I en utførelse er selve merkene tredimensjonale, så som små reflekterende kuler som er innfestet til underlaget via klebemiddel eller et annet passende middel. Tredimensjonaliteten til merkene kan være en hjelp ved deteksjon og lokalisering over todimensjonale merker. Begge kan imidlertid brukes uten å avvike fra den foreliggende oppfinnelses idé og omfang.
[0039] For det inneværende blir tagger festet ved hjelp av borrelås eller andre passende midler til en hanske som bæres av operatøren, eller blir alternativt festet direkte til operatørens fingre ved bruk av en myk, dobbeltsidig tape. I en tredje ut-førelse er det mulig fullstendig å unnvære det stive underlag og feste - eller "male" - individuelle merker direkte på operatørens fingre og hender.
[0040] Gestvokabular
[0041] Ved oppfinnelsen tenker man seg et gestvokabular som består av håndstillinger, orientering, håndkombinasjoner og orienteringsblandinger. Et notasjons-språk er også implementert for å designe og kommunisere stillinger og gester i gest-vokabularer ifølge oppfinnelsen. Gestvokabularet er et system for å representere øyeblikkelige "stillingstilstander" for kinematiske leddinnretninger i kompakt tekstform. De aktuelle leddinnretninger kan være biologiske (for eksempel en menneskelig hånd; eller et helt menneskelig legeme; eller et gresshoppebein; eller den leddelte ryggrad til en lemur) eller kan isteden være ikke-biologisk (eksempelvis en robotarm). I ethvert tilfelle kan leddinnretningen være enkel (ryggraden) eller forgrenende
(hånden). Gestvokabularsystemet ifølge oppfinnelsen etablerer for enhver spesifikk leddinnretning en streng med konstant lengde; gruppen av de spesifikke ADCII-tegn som opptar strengens "tegnlokaliseringer" er da en unik beskrivelse av den øyeblikkelig tilstand, eller "stilling" av leddinnretningen.
[0042] Håndstillinger
[0043] Figur 3 illustrerer håndstillinger i en utførelse av et gestvokabular som bruker oppfinnelsen. Oppfinnelsen antar at hver av de fem fingrene på en hånd brukes. Disse fingrene er koder, så som p-lillefinger (punkie), r-ringfinger, m-lang-finger (middel finger), i-pekefinger (index finger) og t-tommel. Et antall stillinger for fingrene og tommelen er definert og illustrert på figur 3. En gestvokabularstreng etablerer en enkelt tegnposisjon for hver frihetsgrad som kan uttrykkes i leddinnretningen (i dette tilfelle en finger). Videre, hver slik frihetsgrad forstås å være diskretisert (eller kvantifisert), slik at et fullt spekter av bevegelse kan uttrykkes gjennom tilordning av ett av et endelig antall av standard ASCII-tegn ved denne strengposisjonen. Disse frihetsgradene uttrykkes i forhold til et kroppsspesifikt origo og koordinatsystem (baksiden av hånden, senteret for gresshoppens legeme; basisen for robotarmen; osv.). Et lite antall av ytterligere gestvokabulartegnposisjoner brukes derfor til å uttrykke posisjonen og orienteringen til leddinnretningen (som en helhet) i det mer globale koordinatsystem.
[0044] Fremdeles med henvisning til figur 3, defineres og identifiseres et antall stillinger ved bruk av ASCII-tegn. Enkelte av stillingene er delt mellom tommel og ikke-tommel. Oppfinnelsen bruker i denne utførelse en koding, slik at selve ASCII-tegnet er suggestivt for stillingen. Ethvert tegn kan imidlertid brukes til å representere en stilling, uansett om det er suggestivt eller ikke. I tillegg er det i oppfinnelsen ikke noe krav om å bruke ASCII-tegn for notasjonsstrengene. Et hvilket som helst egnet symbol, talltegn eller annen representasjon kan brukes uten å avvike fra oppfinnel-sens omfang og idé. For eksempel kan notasjonen bruke to bits per finger, hvis dette er ønskelig, eller et annet antall bits, etter ønske.
[0045] En krummet finger representeres av tegnet "<A>" mens en krummet tommel av ">". En rett finger eller tommel som peker oppover er angitt med "1" og en vinkel med "\" eller " I"."-" representerer en tommel som peker rett til siden, og "x" representerer en tommel som peker inn i planet.
[0046] Ved bruk av disse individuelle finger- og tommelbeskrivelser, kan et robust antall av håndstillinger defineres og skrives ved bruk av systemet ifølge oppfinnelsen. Hver stilling representeres av fem tegn, hvor rekkefølgen er p-r-m-i-t som beskrevet ovenfor. Figur 3 illustrerer et antall av stillinger, og noen få er her beskrevet som en illustrasjon og et eksempel. Hånden som holdes flat og parallell med underlaget er representert av "11111". En neve er representert av" Et "OK" tegn er representert av "111 >".
[0047] Tegnstrengene tilveiebringer muligheten for endefrem "menneskelig les-barhet" ved bruk av suggestive tegn. Settet av mulig tegn som beskriver hver frihetsgrad kan generelt velges med tanke på hurtig gjenkjennelse og innlysende analogi. For eksempel, en vertikal stav ("|") vil trolig bety at et leddinnretningselement er "rett", en ell ("L") kan bety en nittigraders bøy, og en cirkumfleks ("<A>") kan indikere en skarp bøy. Som påpekt ovenfor, alle tegn eller enhver koding kan brukes, hvis dette er ønskelig.
[0048] Ethvert system som anvender gestvokabularstrenger, så som her beskrevet, nyter den fordel at det er høy beregningsmessig effektivitet ved sammenligning av strenger - identifikasjon av eller søk etter en hvilken som helst spesifisert stilling blir i bokstavelig forstand en "strengsammenligning" (eksempelvis UNIX sin "strcmpO" funksjon) mellom den ønskede stillingsstreng og den øyeblikkelige faktiske streng. Videre, bruken av "joker"-tegn forsyner programmereren eller system-designeren med ytterligere effektivitet og virkning som han eller hun er fortrolig med: frihetsgrader hvis øyeblikkelige tilstand er irrelevant for en sammenligning kan spesifiseres som et utspørringspunkt ("?"); ytterligere meninger med jokertegn kan tilordnes.
[0049] Orientering
[0050] I tillegg til stillingen av fingrene og tommelen, kan orienteringen av hånden representere informasjon. Tegn som beskriver orienteringer i det globale rom kan også velges transparent: tegnene "<", ">", "<A>" og "v" kan brukes til å vise, når de påtreffes i en orienteringstegnposisjon, ideene med venstre, høyre, opp og ned. Figur 4 illustrerer håndorientering deskriptorer og eksempler på koding som kombinerer stilling og orientering. I en utførelse av oppfinnelsen spesifiserer to tegnposisjoner først retningen av håndflaten og deretter retningen av fingrene (hvis de var rette, uten hensyn til fingrenes faktiske bøyinger). De mulige tegn for disse to posisjoner uttrykker et "kroppssentrisk" begrep for orientering:"?", "x", "<*>","<A>" og "v" beskriver medial, lateral, anterior (forover, bort fra kroppen), posterior (bakover, bort fra kroppen), kranial (oppover) og kaudal (nedover).
[0051] I notasjonssystemet for og utførelsen av oppfinnelsen, er de tegn som angir stillingen med fem fingrene fulgt av et kolon og deretter to orienteringstegn, for å definere en fullstendig kommandostilling. I en utførelse refereres en startposisjon til som en "xyz"-stilling hvor tommelen peker rett opp, pekefingeren peker forover og langfingeren står vinkelrett på pekefingeren, og peker til venstre når stillingen gjøres med høyre hånd. Dette er representert av strengen "<AA>x1-:-x".
[0052] "XYZ-hånd" er en teknikk for å utnytte geometrien til den menneskelige hånd for å tillate full navigasjon med seks frihetsgrader for en visuelt presentert tredimensjonal struktur. Selv om teknikken kun avhenger av omfanget av translasjon og rotasjon av operatørens hånd - slik at dens fingre i prinsippet kan holdes i en hvilken som helst stilling som er ønskelig - foretrekker den foreliggende oppfinnelse en statisk konfigurasjon hvor pekefingeren peker bort fra kroppen; tommelen peker mot takter; og langfingeren peker venstre-høyre. De tre fingre beskriver således (grovt sett, men med klart innlysende intensjon) de tre innbyrdes ortogonale akser i et tredimensjonalt koordinatsystem: således "XYZ-hånd".
[0053] XYZ-håndnavigasjonen går deretter videre med hånden, fingrene i en stilling som beskrevet ovenfor, holdt foran operatørens legeme i en forhåndsbestemt "nøytral lokalisering". Adgang til de tre translasjonsmessig og tre rotasjonsmessige frihetsgrader for et tredimensjonalt objekt (eller kamera) bevirkes på den følgende naturlige måte: venstre-høyre bevegelse av hånden (i forhold til kroppens naturlige koordinatsystem) resulterer i bevegelse langs den beregningsmessige konteksts x-akse; opp-ned bevegelse av hånden resulterer i bevegelse langs den styrte kontekst y-akse; og bevegelse av hånden forover-bakover (mot/bort fra operatørens legeme) resulterer i z-aksebevegelse innenfor konteksten. Tilsvarende, rotasjon av opera-tørens hånd omkring pekefingeren fører til en "rulle"-forandring av den beregningsmessige konteksts orientering; "stampe"- og "gire"-forandringer bevirkes analogt, gjennom rotasjon av operatørens hånd omkring langfingeren henholdsvis tommelen.
[0054] Bemerk at selv om "beregningsmessig kontekst" her brukes til å referere til den entitet som styres av metoden med XYZ-hånd - og synes å foreslå enten et syntetisk tredimensjonalt objekt eller kamera - skal det forstås at teknikken er like nyttig for styring av forskjellige frihetsgrader for objekter i den virkelige verden: for eksempel styringsinnretninger for panorering/skråstilling/rulling for et videokamera eller bevegelsesbildekamera som er utstyrt med passende rotasjonsaktuatorer. Videre, den fysikalske frihetsgrad som gjøres mulig ved hjelp av XYZ-håndstillingen kan være noe mindre avbildet i bokstavelig forstand, selv i en virtuell domene: I den foreliggende utførelse, brukes XYZ-hånden også til å tilveiebringe navigasjonsmessig adgang til store panorama displayavbildninger, slik at venstre-høyre og opp-ned bevegelser av operatørens hånd fører til den forventede venstre-høyre eller opp-ned "panorering" omkring avbildningen, men forover-bakover bevegelse av operatørens hånd avbildes til "zooming"-styring.
[0055] I hvert tilfelle kan kopling mellom bevegelsen til hånden og den fremkalte beregningsmessige translasjon/rotasjon enten være direkte (det vil si at en posisjonsmessig eller rotasjonsmessig forskyvning av operatørens hånd avbildes en-til-en, via en lineær eller ikke-lineær funksjon, til en posisjonsmessig eller rotasjonsmessig forskyvning av objektet eller kameraet i den beregningsmessige kontekst) eller indirekte (det vil si at posisjonsmessig eller rotasjonsmessig forskyvning av opera-tørens hånd avbildes en-til-en, via en lineær eller ikke-lineær funksjon, til en første eller høyere grads derivert av posisjon/orientering i den beregningsmessige kontekst; pågående integrasjon bevirker da en ikke-statisk forandring i den beregningsmessige konteksts faktiske nulte ordens posisjon/orientering). Dette sistnevnte middel til styring er analogt til bruk av en bils "gasspedal", hvor en konstant forskyvning av pedalene mer eller mindre fører til en konstant hastighet av kjøretøyet.
[0056] Den "nøytrale lokalisering" som virker som XYZ-håndens lokale koordinatorigo for seks frihetsgrader i den virkelige verden kan etableres (1) som en absolutt posisjon og orientering i rommet (i forhold til, la oss si, det innelukkende rom); (2) som en fast posisjon og orientering i forhold til operatøren i seg selv (eksempelvis 203,2 mm foran kroppen, 254 mm under haken og sideveis på linje med skulder-planet), uten hensyn til den samlede posisjon og "retning" til operatøren; eller (3) interaktivt, gjennom forsettelig sekundær handling av operatøren (for eksempel ved bruk av en gestkommando som utføres av operatørens "andre" hånd, idet kommandoen viser at XYZ-håndens inneværende posisjon og orientering fra nå av bør brukes som det translatoriske og rotasjonsmessige origo).
[0057] Det er videre passende å tilveiebringe et "sperre"-område (eller "dødsone") omkring XYZ-håndens nøytrale lokalisering, slik at bevegelser innenfor dette volumet ikke avbildes til bevegelser i den styrte kontekst.
[0058] Andre stillinger kan inkludere: [|||||:vx] er en flat hånd (tommel parallell med fingrene) med håndflaten vendende ned og fingrene forover.
[|||||:x<A>] er en flat hånd med håndflaten vendende forover og fingrene mot taket.
[|||||:-x] er en flat hånd med håndflaten vendende mot senteret av kroppen (høyre hvis venstre hånd, venstre hvis høyre hånd) og fingrene forover.
[AAAA-:-x]er én-hånds tommel opp (med tommel pekende mot taket).
[AAA|-:-x] er mime skytevåpen pekende forover.
[0059] To- hånds kombinasjon
[0060] Ved den foreliggende oppfinnelse tenker man seg én-hånds kommandoer og stillinger, så vel som to-hånds kommandoer og stillinger. Figur 5 illustrerer eksempler på to-hånds kombinasjoner og tilknyttet rotasjon i en utførelse av oppfinnelsen. Ved gjennomgang av notasjonen i det første eksempel, "full stopp" viser at den omfatter to lukkede never. Eksemplet med "øyeblikksbilde" har tommelen og pekefingeren på hver hånd utstrukket, tomlene peker mot hverandre, hvilket definerer en målstolpeformet ramme. "Ror og gasspjeld startposisjon" er fingrene og tomler som peker opp, håndflater vendende mot skjermen.
[0061] Orienteringsblandinger
[0062] Figur 6 illustrerer et eksempel på en orienteringsblanding i en utførelse av oppfinnelsen. I det viste eksempel er blandingen representert av innelukkende par av orienteringsnotasjoner i parenteser etter strengen med fingerstilling. For eksempel viser den første kommando fingerposisjoner hvor alle peker rett. Det første par av orienteringskommandoer vil resultere i at håndflatene er flate mot displayet, og det annet par har hender som roterer til en 45 graders helling mot skjermen. Selv om par av blandinger er vist i dette eksempel, er et hvilket som helst antall av blandinger tenkelige i oppfinnelsen.
[0063] Eksempelkommandoer
[0064] Figur 8 illustrerer et antall av mulige kommandoer som kan brukes sammen med den foreliggende oppfinnelse. Selv om noe av drøftelsen her har vært om styring av en markør på et display, er oppfinnelsen ikke begrenset til denne aktivitet. Oppfinnelsen har faktisk stor applikasjon ved manipulering av ethvert og alle data og partier av data på en skjerm, så vel som tilstanden til displayet. For eksempel kan kommandoene brukes til å ta plassen til videostyringsinnretninger under tilbake-spilling av videomedia. Kommandoene kan brukes til pause, hurtig forover, tilbake-spoling og lignende. I tillegg kan kommandoer implementeres for å zoome inn eller zoome ut av en avbildning, for å forandre orienteringen til en avbildning, for å panorere i en hvilken som helst retning, og lignende. Oppfinnelsen kan også brukes istedenfor menykommandoer, så som åpne, lukke, lagre og lignende. Med andre ord, enhver kommando eller aktivitet som er tenkelig kan implementeres med håndgester.
[0065] Operasjon
[0066] Figur 7 er et flytdiagram som illustrerer operasjonen av oppfinnelsen i en utførelse. I trinn 701 detekterer deteksjonssystemet merkene og taggene. I beslutningsblokk 702 fastslås om taggene og merkene er detektert. Hvis ikke returnerer systemet til trinn 701. Hvis taggene og merkene er detektert i trinn 702, fortsetter systemet til trinn 703. I trinn 703 identifiserer systemet hånden, fingrene og stilling fra de detekterte tagger og merker. I trinn 704 identifiserer systemet orienteringen til stillingen. I trinn 705 identifiserer systemet den tredimensjonale romlige lokalisering av hånden eller hendene som er detektert. (Vennligst merk at et hvilket som helst av eller alle trinnene 703, 704 og 705 kan kombineres som et enkeltrinn).
[0067] I trinn 706 omformes informasjonen til den gestnotasjon som er beskrevet ovenfor. I beslutningsblokk 707 fastslås det om stillingen er gyldig. Dette kan oppnås via en enkel strengsammenligning ved bruk av den genererte notasjonsstreng. Hvis stillingen ikke er gyldig, returnerer systemet til trinn 701. Hvis stillingen er gyldig, sender systemet notasjons- og posisjonsinformasjonen til datamaskinen i trinn 708.1 trinn 709 bestemmer datamaskinen den passende handling som skal foretas som respons på gesten og oppdaterer displayet i henhold til trinn 710.
[0068] I en utførelse av oppfinnelsen utføres trinnene 701-705 ved hjelp av prosessoren i kameraet. I andre utførelsesformer kan prosesseringen utføres ved hjelp av systemdatamaskinen, hvis dette er ønskelig.
[0069] Analysering og omforming
[0070] Systemet er i stand til å "analysere" og "omforme" en strøm av lavnivå gester som er innhentet av et underliggende system, og forvandle disse analyserte og omformede gester til en strøm av kommandodata eller hendelsesdata som kan brukes til å styre et bredt spekter av datamaskinapplikasjoner og systemer. Disse teknikker og algoritmer kan gis konkret form i et system bestående av datamaskin-kode som tilveiebringer både en motor som implementerer disse teknikker og en plattform for bygging av datamaskinapplikasjoner som gjør bruk av motorens egen-skaper.
[0071] En utførelsesform er fokusert på å muliggjøre rik bruk av gester av menneskelige hender i datamaskingrensesnitt, men er også i stand til å gjenkjenne gester som er laget av andre kroppsdeler (inkludert, men ikke begrenset til, armer, torso, ben og hodet), så vel som ikke-hånd fysiske verktøy av forskjellige slag, både statiske og artikulerende, inkludert, men ikke begrenset til, krumpassere, kompass, approksimatorer for fleksible kurver og pekeinnretninger av forskjellige former. Merkene og taggene kan anvendes på gjenstander og verktøy som kan bæres og brukes av operatøren etter ønske.
[0072] Systemet som her er beskrevet inkorporerer et antall av innovasjoner som gjør det mulig å bygge gestsystemer som har et rikt spekter av gester som kan gjenkjennes og som det kan handles ut fra, samtidig som det sørges for enkel integrasjon i applikasjoner.
[0073] Systemet for analysering og omforming av gester består i en utførelse av:
[0074] 1) en kompakt og effektiv måte til å spesifisere (kode for bruk i datamaskin-programmer) gester på flere forskjellige nivåer av opphopning: a. en én-hånds "stilling" (konfigurasjonen og orienteringen av delene av hånden i forhold til hverandre) en én-hånds orientering og posisjon i det tredimensjonale rom.
b. to-hånds kombinasjoner, hvor det for hver hånd tas hensyn til stilling,
posisjon eller begge deler.
c. flere-personkombinasjoner; systemet kan følge flere enn to hender, og slik kan flere enn én person samvirkende (eller konkurrerende i tilfelle av spillapplikasjoner) styre målsystemet. d. sekvensielle gester hvor stillinger kombineres i en serie, vi kaller
disse "animerende" gester.
e. "grafem"-gester, hvor operatøren tegner former i rommet.
[0075] 2) en programmatisk teknikk for registrering av spesifikke gester fra hver kategori ovenfor som er relevante for en gitt applikasjonskontekst
[0076] 3) algoritmer for analysering av geststrømmen, slik at registrerte gester kan identifiseres og hendelser som innkapsler disse gester kan leveres til relevante applikasjonskontekster.
[0077] Spesifikasjonssystemet (1), med utgjørende elementer (1a) til (1f), tilveiebringer basis for å gjøre bruk av evner for analysering og omforming av gester ved det system som her er beskrevet.
[0078] En én-hånds "stilling" representeres som en streng av
[0079] i) relative orienteringer mellom fingrene og håndens bakside,
[0080] ii) kvantisert til et lite antall av diskrete tilstander.
[0081] Bruk av relative leddorienteringer tillater at det ved det system som her er beskrevet unngås problemer som er tilknyttet forskjellige håndstørrelser og geo-metrier. Ingen "operatørkalibrering" er påkrevd med dette system. I tillegg, spesifisering av stillinger som en streng eller samling relative orienteringer tillater at mer komplekse gestspesifikasjoner enkelt dannes ved kombinering av stillingsrepresenta-sjoner med ytterligere filtre og spesifikasjoner.
[0082] Bruk av et lite antall av diskrete tilstander for stillingsspesifikasjon gjør det mulig å spesifisere stillinger kompakt, så vel som å sørge for nøyaktig stillings-gjenkjennelse ved bruk av et mangfold av underliggende følgingsteknologier (for eksempel passiv optisk følging ved bruk av kameraer, aktiv optisk følging ved bruk av belyste prikker og kameraer, elektromagnetisk feltfølging, osv.).
[0083] Gester i hver kategori (1a) til (1f) kan delvis (eller minimalt) spesifiseres, slik at ikke-kritiske data ignoreres. For eksempel kan en gest hvor posisjonen til to fingre er definitiv, og andre fingerposisjoner er uviktige, representeres av en enkelt spesifikasjon hvor de operative posisjoner til de to relevante fingre er gitt, og, innenfor den samme streng, "jokere" eller generiske "ignorer disse"-indikatorer er opplistet for de andre fingre.
[0084] Alle de innovasjoner som her er beskrevet for gestgjenkjennelse, inkludert, men ikke begrenset til, teknikken med flerlags spesifikasjon, bruken av relative orienteringer, kvantifisering av data og hensyntagen til delvis eller minimal spesifikasjon ved hvert nivå, generaliseres utenfor spesifikasjonen av håndgester til spesifikasjon av gester ved bruk av andre kroppsdeler og "fremstilte" verktøy og objekter.
[0085] De programmerte teknikker for "registrering av gester" (2) består av et definert sett av applikasjons programmeringsgrensesnittkall (Application Programming Interface calls) som gjør det mulig for en programmerer å definere hvilke gester motoren bør gjøre tilgjengelige for andre deler av det kjørende system.
[0086] Disse API-rutiner kan brukes ved applikasjonsoppsett tidspunktet, hvilket danner en statisk grensesnittdefinisjon som brukes gjennom hele levetiden til den kjørende applikasjon. De kan også brukes i løpet av kjøringen, hvilket tillater forandring av grensesnittkarakteristikaene på direkten. Denne sanntidsendringen av grensesnittet gjør det mulig å
[0087] i) bygge komplekse kontekstuelle og betingede styringstilstander,
[0088] ii) å dynamisk addere hysterese til styringsomgivelsen, og
[0089] iii) å danne applikasjoner hvor brukeren er i stand til å endre eller utvide grensesnittvokabularet til selve det kjørende system.
[0090] Algoritmer for analysering av geststrømmen (3) sammenligner gester spesifisert som i (1) og registrert som i (2) mot innkommende lavnivå gestdata. Når en overensstemmelse for en registrert gest gjenkjennes, blir hendelsesdata som representerer den overensstemmende gest levert opp stakken til kjørende applikasjoner.
[0091] Effektiv sanntids sammenligning er ønskelig i designen av dette systemet, og spesifiserte gester behandles som et tre av muligheter som prosesseres så raskt som mulig.
[0092] I tillegg blir de primitive sammenligningsoperatorer som brukes internt til å gjenkjenne spesifiserte gester også eksponert for bruk av applikasjonsprogramme-reren, slik at ytterligere sammenligning (for eksempel fleksibel tilstandsinspeksjon i komplekse eller sammensatte gester) kan skje selv fra innenfor applikasjonskontekster.
[0093] Gjenkjennelse av "låsende" semantikk er en innovasjon ved det system som her er beskrevet. Denne semantikken er implisitt på grunn av registreringen API (2) (og, i en mindre utstrekning, innleiret innenfor spesifikasjonsvokabularet (1)). Registrering API-kall inkluderer
[0094] i) "inngang" tilstandsvarslere og "fortsettelse" tilstandsvarslere, og
[0095] ii) gestprioritets spesifikasjonselement.
[0096] Hvis en gest har blitt gjenkjent, går dens "fortsettelse"-betingelser foran alle "inngang"-betingelser for gester med de samme eller lavere prioriteter. Denne forskjell mellom inngang- og fortsettelsestilstander øker signifikant systemets opp-fattede ustabilitet.
[0097] Det system som her er beskrevet inkluderer algoritmer for robust operasjon til tross for datafeil og usikkerhet i den virkelige verden. Data fra lavnivå følgings-systemer kan være ufullstendige (av et mangfold av årsaker, inkludert sperring for merker i optisk følging, bortfall av nettverk eller prosesseringsetterheng, osv.).
[0098] Manglende data merkes av analyseringssystemet, og interpoleres til enten "sist kjente" eller "mest sannsynlige" tilstander, avhengig av mengden og konteksten av de manglende data.
[0099] Hvis data om en bestemt gestkomponent (for eksempel orienteringen til et bestemt ledd) mangler, men den "sist kjente" tilstand for den bestemte komponenten kan analyseres som fysisk mulig, bruker systemet denne sist kjente tilstand i sin sanntids sammenligning.
[00100] Omvendt, hvis den sist kjente tilstand analyseres som fysisk umulig, faller systemet tilbake til et "beste gjetningsområde" for komponenten, og bruker disse syntetiske data i sin sanntids sammenligning.
[00101 ] Den spesifikasjon og de analyseringssystemer som her er beskrevet har blitt nøye designet til å støtte "agnostisisme ved tendensen til å bruke en hånd istedenfor den andre", slik at for flerhåndsgester tillates hver hånd å oppfylle kravene til stilling.
[00102] Sammenfallende virtuell/ display og fysiske rom
[00103] Systemet kan tilveiebringe en omgivelse hvor virtuelt rom vist på en eller flere displayinnretninger ("skjermer") behandles som sammenfallende med det fysiske rom hvor operatøren eller operatørene av systemet holder til. En utførelses-form av en slik omgivelse er her beskrevet. Denne inneværende utførelsesform inkluderer tre prosjektordrevne skjermer ved faste lokaliseringer, er drevet av en enkel borddatamaskin, og styres ved bruk av det gestvokabular og det grensesnittsystem som her er beskrevet. Merk imidlertid at et hvilket som helst antall av skjermer støttes av de teknikker som er beskrevet; at disse skjermene kan være mobile (istedenfor faste); at skjermene kan drives av mange uavhengige datamaskiner samtidig; og at det samlede system kan styres av en hvilken som helst innmatingsinnretning eller teknikk.
[00104] Det grensesnittsystem som er beskrevet i denne offentliggjøring bør ha et middel til å bestemme dimensjonene, orienteringene og posisjonene til skjermer i fysisk rom. Gitt denne informasjon er systemet i stand dynamisk å avbilde det fysiske rom hvor disse skjermer er lokalisert (og hvor operatørene av systemet holder til) som en projeksjon inn i det virtuelle rom for datamaskinapplikasjoner som kjører på systemet. Som en del av denne automatiske avbilding, omformer systemet også skalaen, vinklene, dybden, dimensjonene og andre romlige karakteristika for de to rom på et mangfold av måter, i henhold til behovene for de applikasjoner som systemet er vert for.
[00105] Denne kontinuerlige omforming mellom fysisk og virtuelt rom muliggjør den konsistente og gjennomgripende bruk av et antall av grensesnitteknikker som er vanskelig å oppnå på eksisterende applikasjonsplattformer, eller som må implementeres bit for bit for hver applikasjon som kjører på eksisterende plattformer. Disse teknikkene inkluderer (men er ikke begrenset til):
[00106] 1) Bruk av "peking i bokstavelig forstand" - ved bruk av hendene i en gest grensesnittomgivelse, eller ved bruk av fysiske pekeverktøy eller -innretninger - som en gjennomgripende og naturlig grensesnitteknikk.
[00107] 2) Automatisk kompensasjon for bevegelse eller reposisjonering av skjermer.
[00108] 3) Grafisk gjengivelse som forandres avhengig av operatørens posisjon, for eksempel ved simulering av parallakseforskyvninger for å øke dybdepersepsjon.
[00109] 4) Inkludering av fysiske objekter i display på skjermen - idet det tas hensyn til posisjon, orientering, tilstand, osv. i den virkelige verden. For eksempel, en operatør som står foran en stor, opak skjerm, kan se både applikasjonsgrafikk og en representasjon av den sanne posisjon til en skalamodell som er bak skjermen (og som kanskje er i bevegelse eller forandrer orientering).
[00110] Det er viktig å merke seg at peking i bokstavelig forstand er forskjellig fra den abstrakte peking som brukes i musebaserte vindusgrensesnitt og de fleste andre nåværende systemer. I disse systemer må operatøren lære å ta hånd om en omforming mellom en virtuell peker og en fysisk pekeinnretning, og må avbilde mellom de to kognitivt.
[00111] I kontrast til dette, i de systemer som er beskrevet i denne offentliggjøring, er det ingen forskjell mellom virtuelt og fysisk rom (med unntak av at virtuelt rom er mer egnet til matematisk manipulasjon), enten fra et applikasjonsperspektiv eller brukerperspektiv, slik at ingen kognitiv omforming er påkrevd for operatøren.
[00112] Den nærmeste analogi for pekingen i bokstavelig forstand som tilveie-bringes av den utførelse som her er beskrevet er den berøringssensitive skjerm (som finnes for eksempel i mange ATM-maskiner). En berøringssensitiv skjerm tilveiebringer en til en avbilding mellom det todimensjonale visningsrom på skjermen og det todimensjonale innmatingsrom på skjermens overflate. På en analog måte tilveiebringer de systemer som her er beskrevet en fleksibel avbilding (muligens, men ikke nødvendigvis, en til en) mellom et virtuelt rom som vises på en eller flere skjermer og det fysiske rom hvor operatøren holder til. Til tross for nyttigheten av analogien, er det verdt å forstå at utvidelsen av denne "avbildningsløsningsmåte" til tre dimensjoner, en vilkårlig stor arkitektonisk omgivelse, og flere skjermer er ikke-triviell.
[00113] I tillegg til de komponenter som her er beskrevet, kan systemet også implementere algoritmer som implementerer en kontinuerlig avbilding på systemnivå
(kanskje modifisert ved rotasjon, translasjon, skalering eller andre geometriske transformasjoner) mellom det fysiske rom for omgivelsen og visningsrom met på hver skjerm.
[00114] En gjengivelsesstakk som tar de beregningsmessige objekter og avbildningen og mater ut en grafisk representasjon av det virtuelle rom.
[00115] En innmatingshendelses prosesseringsstakk som tar hendelsesdata fra et styringssystem (i den inneværende utførelse både gestdata og pekedata fra systemet og museinnmatingen) og avbilder romlige data fra innmatingshendelser til koordinater i virtuelt rom. Omformede hendelser leveres deretter til kjørende applikasjoner.
[00116] Et "limlag" som tillater systemet å være vert for applikasjoner som kjører over flere datamaskiner på et nettverk i lokalt område.
[00117] Et gestbasert styringssystem har således blitt beskrevet.
Claims (105)
1. Fremgangsmåte,
karakterisert vedat den omfatter: automatisk detektering av en gest for et legeme fra gestdata mottatt via en optisk detektor, hvor gestdataene er absolutte 3D romlige lokaliseringsdata for en øyeblikkelig tilstand av legemet ved et punkt i tid og rom, idet detekteringen omfatter innsamling eller aggregering av gestdataene, og identifisering av gesten ved bruk av kun gestdataene; omforming av gesten til et gestsignal; og styring av en komponent som er koplet til en datamaskin som svar på gestsignalet.
2. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer detektering av en lokalisering av legemet.
3. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer detektering av en orientering av legemet.
4. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer detekteringsbevegelse av legemet.
5. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen omfatter identifisering av gesten, hvor identifiseringen inkluderer identifisering av en stilling og en orientering av et parti av legemet.
6. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer detektering av i det minste det ene av et første sett av vedheng og et annet sett av vedheng til legemet.
7. Fremgangsmåte som angitt i krav 6,
karakterisert vedat legemet er et menneske, hvor det første sett av vedheng inkluderer i det minste én hånd, hvor det annet sett av vedheng inkluderer i det minste én finger på den minst ene hånd.
8. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer optisk detektering av bevegelse av legemet.
9. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer dynamisk detektering av en posisjon av i det minste én tagg.
10. Fremgangsmåte som angitt i krav 9,
karakterisert vedat detekteringen inkluderer detektering av posisjon av et sett av tagger som er koplet til en del av legemet.
11. Fremgangsmåte som angitt i krav 10,
karakterisert vedat hver tagg i settet av tagger inkluderer et mønster, hvor hvert mønster for hver tagg i settet av tagger er forskjellig fra et hvilket som helst mønster for noen gjenværende tagg i flerheten av tagger.
12. Fremgangsmåte som angitt i krav 11,
karakterisert vedat hver tagg inkluderer et første mønster og et annet mønster, hvor det første mønster er felles for enhver tagg i settet av tagger og det annet mønster er forskjellig mellom i det minste to tagger i settet av tagger.
13. Fremgangsmåte som angitt i krav 10,
karakterisert vedat settet av tagger danner en flerhet av mønstre på legemet.
14. Fremgangsmåte som angitt i krav 9,
karakterisert vedat detekteringen inkluderer detektering av posisjon for en flerhet av vedheng til legemet ved bruk av et sett av tagger som er koplet til hvert av vedhengene.
15. Fremgangsmåte som angitt i krav 14,
karakterisert vedat et første taggersett er koplet til et første vedheng, idet det første sett av tagger inkluderer en første flerhet av tagger, hvor hver tagg inkluderer et første mønster som er felles for taggene i den første flerhet av tagger og et annet mønster som er unikt for hver tagg i den første flerhet av tagger.
16. Fremgangsmåte som angitt i krav 15,
karakterisert vedat et annet taggersett er koplet til et annet vedheng, idet det annet sett av tagger inkluderer en annen flerhet av tagger, hvor hver tagg inkluderer et tredje mønster som er felles for taggene i den annen flerhet av tagger og et fjerde mønster som er unikt for hver tagg i den annen flerhet av tagger.
17. Fremgangsmåte som angitt i krav 9,
karakterisert vedat den minst ene tagg inkluderer et sett av tagger, hvor settet av tagger omfatter i det minste én taggtype valgt fra en gruppe bestående av aktive tagger og passive tagger.
18. Fremgangsmåte som angitt i krav 9,
karakterisert vedat detekteringen omfatter tilordning av en posisjon for hver tagg til et delsett av punkter som danner en enkelt tagg.
19. Fremgangsmåte som angitt i krav 18,
karakterisert vedat detekteringen omfatter identifisering av delsettet av punkter som en bestemt tagg og etikettering av delsettet av punkter som den bestemte tagg.
20. Fremgangsmåte som angitt i krav 19,
karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
21. Fremgangsmåte som angitt i krav 20,
karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
22. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer detektering av bevegelse av legemet ved bruk av en detekteringsmetode valgt fra en gruppe bestående av elektromagnetisk deteksjon, magnetostatisk deteksjon og deteksjon av radio-frekvensidentifikasjonsinformasjon.
23. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen inkluderer dynamisk detektering og lokalisering av et merke på legemet.
24. Fremgangsmåte som angitt i krav 23,
karakterisert vedat detekteringen inkluderer detektering av posisjon av et sett av merker som er koplet til en del av legemet.
25. Fremgangsmåte som angitt i krav 23,
karakterisert vedat settet av merker danner en flerhet av mønstre på legemet.
26. Fremgangsmåte som angitt i krav 23,
karakterisert vedat detekteringen inkluderer detektering av posisjon av en flerhet av vedheng til legemet ved bruk av et sett av merker som er koplet til hvert av vedhengene.
27. Fremgangsmåte som angitt i krav 26,
karakterisert vedat et første sett av merker er koplet til et første vedheng, idet det første sett av merker danner et første mønster som er felles for en flerhet av komponenter av det første vedheng og et annet mønster som er unikt for hver av komponentene av det første vedheng.
28. Fremgangsmåte som angitt i krav 26,
karakterisert vedat et annet sett av merker er koplet til et annet vedheng, idet det annet sett av merker danner et tredje mønster som er felles for en flerhet av komponenter av det annet vedheng og et fjerde mønster som er unikt for hver av komponentene av det annet vedheng.
29. Fremgangsmåte som angitt i krav 23,
karakterisert vedat detekteringen omfatter tilordning av en posisjon av hvert merke til et delsett av merker som danner en tagg.
30. Fremgangsmåte som angitt i krav 29,
karakterisert vedat detekteringen omfatter identifisering av delsettet av merker som en bestemt tagg og etikettering av delsettet av merker som den bestemte tagg.
31. Fremgangsmåte som angitt i krav 30,
karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
32. Fremgangsmåte som angitt i krav 31,
karakterisert vedat detekteringen omfatter innhenting av tre orienteringer i rommet for den bestemte tagg.
33. Fremgangsmåte som angitt i krav 1,
karakterisert vedat detekteringen omfatter: generering av tredimensjonale rompunktdata som representerer den fysiske gest; og etikettering av rompunktdataene.
34. Fremgangsmåte som angitt i krav 33,
karakterisert vedat omformingen inkluderer omforming av rompunktdataene til kommandoer som er passende for en konfigurasjon av datamaskinen.
35. Fremgangsmåte som angitt i krav 1,
karakterisert vedat omformingen omfatter omforming av informasjon for gesten til en gestnotasjon.
36. Fremgangsmåte som angitt i krav 35,
karakterisert vedat gestnotasjonen representerer et gestvokabular, og ved at gestsignalet omfatter kommunikasjoner av gestvokabularet.
37. Fremgangsmåte som angitt i krav 36,
karakterisert vedat gestvokabularet representerer, i tekstform, øyeblikkelig stillingstilstander av kinematiske leddinnretninger av legemet.
38. Fremgangsmåte som angitt i krav 36,
karakterisert vedat gestvokabularet representerer, i tekstform, en orientering av kinematiske leddinnretninger av legemet.
39. Fremgangsmåte som angitt i krav 36,
karakterisert vedat gestvokabularet representerer, i tekstform, en kombinasjon av orientering av kinematiske leddinnretning av legemet.
40. Fremgangsmåte som angitt i krav 36,
karakterisert vedat gestvokabularet inkluderer en streng av tegn som representerer en tilstand av kinematiske leddinnretninger av legemet.
41. Fremgangsmåte som angitt i krav 40,
karakterisert vedat den kinematiske leddinnretning er i det minste ett første vedheng til legemet.
42. Fremgangsmåte som angitt i krav 41,
karakterisert vedtilordning av hver posisjon i strengen til et annet vedheng, idet det annet vedheng er forbundet til det første vedheng.
43. Fremgangsmåte som angitt i krav 42,
karakterisert vedtilordning av tegn i en flerhet av tegn til hver i en flerhet av posisjoner av det annet vedheng.
44. Fremgangsmåte som angitt i krav 43,
karakterisert vedat flerheten av posisjoner etableres i forhold til et koordinatorigo.
45. Fremgangsmåte som angitt i krav 44,
karakterisert vedetablering av koordinatorigoet ved bruk av en posisjon som er valgt fra en gruppe bestående av en absolutt posisjon og orientering i rom, en fast posisjon og orientering i forhold til legemet uten hensyn til en samlet posisjon og retning av legemet, og interaktivt som svar på en handling av legemet.
46. Fremgangsmåte som angitt i krav 43,
karakterisert vedtilordning av tegn i flerheten av tegn til hver i en flerhet av orienteringer av det første vedheng.
47. Fremgangsmåte som angitt i krav 41,
karakterisert vedat styringen av komponenten omfatter styring av et tredimensjonalt objekt i seks frihetsgrader samtidig ved avbilding av gesten for det første vedheng til det tredimensjonale objekt.
48. Fremgangsmåte som angitt i krav 41,
karakterisert vedat styring av komponenten omfatter styring av et tredimensjonalt objekt gjennom tre translasjonsmessige frihetsgrader og tre rotasjonsmessige frihetsgrader.
49. Fremgangsmåte som angitt i krav 48,
karakterisert vedat styringen omfatter en direkte kopling mellom bevegelse av det første vedheng og det tredimensjonale objekt.
50. Fremgangsmåte som angitt i krav 48,
karakterisert vedat styringen inkluderer en indirekte kopling mellom bevegelse av det første vedheng og det tredimensjonale objekt.
51. Fremgangsmåte som angitt i krav 48,
karakterisert vedat det tredimensjonale objekt presenteres på en visningsinnretning som er koplet til datamaskinen.
52. Fremgangsmåte som angitt i krav 48,
karakterisert vedat det tredimensjonale objekt er koplet til datamaskinen.
53. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en flerhet av gester for det første vedheng til en flerhet av objekttranslasjoner av det tredimensjonale objekt.
54. Fremgangsmåte som angitt i krav 53,
karakterisert vedat avbildingen inkluderer en direkte avbilding mellom flerheten av gester og flerheten av objekttranslasjoner.
55. Fremgangsmåte som angitt i krav 53,
karakterisert vedat avbildingen inkluderer en indirekte avbilding mellom flerheten av gester og flerheten av objekttranslasjoner.
56. Fremgangsmåte som angitt i krav 53,
karakterisert vedat avbildingen inkluderer korrelering av posisjonsforskyvninger av flerheten av gester til posisjonsforskyvninger av objekttransla-sjonene av det tredimensjonale objekt.
57. Fremgangsmåte som angitt i krav 53,
karakterisert vedat avbildingen inkluderer korreleringer av posisjonsforskyvninger av det første vedheng til translasjonshastighet av objekt-translasjonene av det tredimensjonale objekt.
58. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en lineær gest for det første vedheng til en lineær translasjon av det tredimensjonale objekt.
59. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en rotasjonsgest for det første vedheng til en rotasjonstranslasjon av det tredimensjonale objekt.
60. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en lineær gest for det første vedheng til en rotasjonstranslasjon av det tredimensjonale objekt.
61. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en rotasjonsgest for det første vedheng til en lineær translasjon av det tredimensjonale objekt.
62. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en x-akse ved bruk av venstre-høyre bevegelse av det første vedheng.
63. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en y-akse ved bruk av opp-ned bevegelse av det første vedheng.
64. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en z-akse ved bruk av forover-bakover bevegelse av det første vedheng.
65. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse og en y-akse ved bruk av en første kombinasjon av venstre-høyre bevegelse og opp-ned bevegelse av det første vedheng.
66. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse og en z-akse ved bruk av en annen kombinasjon av venstre-høyre bevegelse og forover-bakover bevegelse av det første vedheng.
67. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en y-akse og en z-akse ved bruk av en tredje kombinasjon av opp-ned bevegelse og forover-bakover bevegelse av det første vedheng.
68. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse, y-akse og z-akse ved bruk av en fjerde kombinasjon av venstre-høyre bevegelse, opp-ned bevegelse og forover-bakover bevegelse av det første vedheng.
69. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av rulling av det tredimensjonale objekt rundt en første akse ved bruk av en rotasjonsbevegelse av det første vedheng.
70. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av rulling av det tredimensjonale objekt omkring en annen akse ved bruk av en rotasjonsbevegelse av det første vedheng rundt et første av de andre vedheng.
71. Fremgangsmåte som angitt i krav 48,
karakterisert vedstyring av rulling av det tredimensjonale objekt omkring en tredje akse ved bruk av en rotasjonsbevegelse av det første vedheng rundt en annen av de andre vedheng.
72. Fremgangsmåte som angitt i krav 48,
karakterisert vedat detekteringen omfatter detektering av når en ekstrapolert posisjon av objektet skjærer virtuelt rom, hvor det virtuelle rom omfatter rom som vises på en visningsinnretning som er koplet til datamaskinen.
73. Fremgangsmåte som angitt i krav 72,
karakterisert vedat styring av komponenten omfatter styring av et virtuelt objekt i det virtuelle rom når den ekstrapolerte posisjon skjærer det virtuelle objekt.
74. Fremgangsmåte som angitt i krav 73,
karakterisert vedat styring av komponenten omfatter styring av en posisjon av det virtuelle objekt i det virtuelle rom som respons på den ekstrapolerte posisjon i det virtuelle rom.
75. Fremgangsmåte som angitt i krav 73,
karakterisert vedat styring av komponenten omfatter styring av stillingen til det virtuelle objekt i det virtuelle rom som svar på gesten.
76. Fremgangsmåte som angitt i krav 1,
karakterisert vedspesifisering av gesten på en flerhet av nivåer.
77. Fremgangsmåte som angitt i krav 76,
karakterisert veddelvis spesifisering av gesten ved bruk av en del av informasjon om gesten.
78. Fremgangsmåte som angitt i krav 76,
karakterisert vedat flerheten av nivåer inkluderer et første nivå som omfatter en stilling av det første vedheng av legemet.
79. Fremgangsmåte som angitt i krav 78,
karakterisert vedrepresentering av stillingen som en streng av relative orienteringer mellom i det minste et annet vedheng og et bakparti av et første vedheng til legemet, hvor det annet vedheng er forbundet til det første vedheng.
80. Fremgangsmåte som angitt i krav 79,
karakterisert vedkvantifisering av strengen av relative orienteringer til i det minste én diskret tilstand.
81. Fremgangsmåte som angitt i krav 76,
karakterisert vedat flerheten av nivåer inkluderer et annet nivå som omfatter en kombinasjon av stillinger, idet kombinasjonen av stillinger omfatter en første stilling av et første vedheng og en annen stilling av et annet vedheng til legemet.
82. Fremgangsmåte som angitt i krav 81,
karakterisert vedat det annet nivå omfatter en kombinasjon av posisjoner, idet kombinasjonen av posisjoner omfatter en første posisjon av det første vedheng og en annen posisjon av det annet vedheng.
83. Fremgangsmåte som angitt i krav 76,
karakterisert vedat flerheten av nivåer inkluderer et tredje nivå som omfatter en kombinasjon av stillinger og posisjoner, idet kombinasjonen av stillinger omfatter en tredje stilling av i det minste ett vedheng til legemet og en fjerde stilling av i det minste ett vedheng til et annet legeme.
84. Fremgangsmåte som angitt i krav 83,
karakterisert vedat det tredje nivå omfatter en kombinasjon av posisjoner, idet kombinasjonen av posisjoner omfatter en tredje posisjon av det minst ene vedheng til legemet og en fjerde posisjon av det minst ene vedheng til det annet legeme.
85. Fremgangsmåte som angitt i krav 76,
karakterisert vedat flerheten av nivåer inkluderer et fjerde nivå som omfatter i det minste en sekvens av gester.
86. Fremgangsmåte som angitt i krav 76,
karakterisert vedat flerheten av nivåer inkluderer et femte nivå som omfatter en grafemgest, hvor grafemgesten omfatter at legemet tegner en form i fritt rom.
87. Fremgangsmåte som angitt i krav 76,
karakterisert vedgenerering av en registrert gest ved registrering av gesten som relevant for minst én applikasjon, hvor applikasjonen er koplet til datamaskinen.
88. Fremgangsmåte som angitt i krav 87,
karakterisert vedat den omfatter: analysering av den registrerte gest; identifisering av den registrerte gest; og overføring av, til den minst ene applikasjon, en hendelse som korresponderer til den registrerte gest.
89. Fremgangsmåte som angitt i krav 88,
karakterisert vedprioritering av den registrerte gest.
90. Fremgangsmåte som angitt i krav 89,
karakterisert vedtilordning av en tilstand til den registrerte gest.
91. Fremgangsmåte som angitt i krav 90,
karakterisert vedat tilstanden er valgt fra en gruppe bestående av en inngangstilstand og en fortsettelsestilstand, hvor en prioritet for fortsettelsestilstanden er høyere enn en prioritet for inngangstilstanden.
92. Fremgangsmåte som angitt i krav 88,
karakterisert vedat analyseringen omfatter: merking av manglende datakomponenter for gesten; interpolering av de manglende datakomponenter til det ene av sist kjente tilstander og mest sannsynlige tilstander, hvor interpoleringen avhenger av en mengde og kontekst av de manglende data.
93. Fremgangsmåte som angitt i krav 92,
karakterisert vedat identifiseringen omfatter bruk av den sist kjente tilstand for de manglende datakomponenter for identifiseringen av når den sist kjente tilstand er tilgjengelig for analyse.
94. Fremgangsmåte som angitt i krav 92,
karakterisert vedat identifiseringen omfatter bruk av en beste gjetning av de manglende datakomponenter for identifiseringen av når den sist kjente tilstand er utilgjengelig for analyse.
95. Fremgangsmåte som angitt i krav 1,
karakterisert vedstyring av skalering av detekteringen og styring for å generere sammenfalling mellom virtuelt rom og fysisk rom, hvor det virtuelle rom omfatter rom som vises på en visningsinnretning som er koplet til datamaskinen, hvor det fysiske rom omfatter rom hvor legemet holder til.
96. Fremgangsmåte som angitt i krav 95,
karakterisert vedbestemmelse av dimensjoner, orienteringer og posisjoner i det fysiske rom for visningsinnretningen.
97. Fremgangsmåte som angitt i krav 96,
karakterisert veddynamisk avbilding av det fysiske rom hvor visningsinnretningen er lokalisert som en projeksjon inn i det virtuelle rom for i det minste én applikasjon som er koplet til datamaskinen.
98. Fremgangsmåte som angitt i krav 95,
karakterisert vedomforming av skala, vinkel, dybde og dimensjon mellom det virtuelle rom og det fysiske rom slik dette er passende for i det minste én applikasjon som er koplet til datamaskinen.
99. Fremgangsmåte som angitt i krav 95,
karakterisert vedstyring av i det minste ett virtuelt objekt i det virtuelle rom som svar på bevegelse av minst ett fysisk objekt i det fysiske rom.
100. Fremgangsmåte som angitt i krav 95,
karakterisert vedautomatisk kompensering for bevegelse av visningsinnretningen.
101. Fremgangsmåte som angitt i krav 95,
karakterisert vedstyring av gjengivelse av grafikk på visningsinnretningen som respons på posisjon av legemet i fysisk rom i forhold til posisjon av visningsinnretningen.
102. Fremgangsmåte som angitt i krav 95,
karakterisert vedgenerering av, på visningsinnretningen, en visning som inkluderer en virtuell versjon av et fysisk objekt som er tilstede i det fysiske rom, hvor generering av visningen inkluderer generering av sammenfalling mellom en virtuell posisjon av den virtuelle versjon av det fysiske objekt og posisjonen til det fysiske objekt i det fysiske rom.
103. Fremgangsmåte som angitt i krav 1,
karakterisert vedbestemmelse av om gesten er gyldig.
104. Fremgangsmåte som angitt i krav 1,
karakterisert vedat styringen inkluderer styring av en funksjon av en applikasjon som befinner seg på datamaskinen.
105. Fremgangsmåte som angitt i krav 1,
karakterisert vedat styringen inkluderer styring av en komponent som vises på datamaskinen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US65129005P | 2005-02-08 | 2005-02-08 | |
US11/350,697 US7598942B2 (en) | 2005-02-08 | 2006-02-08 | System and method for gesture based control system |
PCT/US2006/004497 WO2006086508A2 (en) | 2005-02-08 | 2006-02-08 | System and method for genture based control system |
Publications (2)
Publication Number | Publication Date |
---|---|
NO20074200L NO20074200L (no) | 2007-11-07 |
NO339941B1 true NO339941B1 (no) | 2017-02-20 |
Family
ID=36912185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20074200A NO339941B1 (no) | 2005-02-08 | 2007-08-16 | System og fremgangsmåte for et gestbasert styringssystem |
Country Status (7)
Country | Link |
---|---|
US (4) | US7598942B2 (no) |
EP (1) | EP1851750A4 (no) |
JP (1) | JP5631535B2 (no) |
KR (1) | KR100960577B1 (no) |
CN (1) | CN101536494B (no) |
NO (1) | NO339941B1 (no) |
WO (1) | WO2006086508A2 (no) |
Families Citing this family (544)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US7821541B2 (en) * | 2002-04-05 | 2010-10-26 | Bruno Delean | Remote control apparatus using gesture recognition |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
WO2004055776A1 (en) * | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
CN1902930B (zh) | 2003-10-24 | 2010-12-15 | 瑞克楚斯系统公司 | 管理交互式视频显示系统的方法和系统 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
KR100960577B1 (ko) * | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
WO2006124935A2 (en) * | 2005-05-17 | 2006-11-23 | Gesturetek, Inc. | Orientation-sensitive signal output |
US10452207B2 (en) | 2005-05-18 | 2019-10-22 | Power2B, Inc. | Displays and information input devices |
US8610675B2 (en) | 2007-03-14 | 2013-12-17 | Power2B, Inc. | Interactive devices |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
KR20140016390A (ko) | 2005-09-08 | 2014-02-07 | 파워2비, 인크. | 디스플레이들 및 정보입력장치들 |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9910497B2 (en) | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8537111B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8941589B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8681098B2 (en) * | 2008-04-24 | 2014-03-25 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US8531396B2 (en) * | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8356254B2 (en) * | 2006-10-25 | 2013-01-15 | International Business Machines Corporation | System and method for interacting with a display |
KR100790896B1 (ko) * | 2006-11-17 | 2008-01-03 | 삼성전자주식회사 | 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치 |
KR100851977B1 (ko) * | 2006-11-20 | 2008-08-12 | 삼성전자주식회사 | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. |
US7777718B2 (en) * | 2006-12-06 | 2010-08-17 | The Boeing Company | Flight portal |
US8736420B2 (en) | 2007-01-29 | 2014-05-27 | At&T Intellectual Property I, L.P. | Methods, systems, and products for controlling devices |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
KR101358767B1 (ko) | 2007-04-02 | 2014-02-07 | 삼성전자주식회사 | 사용자 입력장치의 공간상 이동에 기초한 사용자 명령수행방법 및 이를 적용한 영상기기 |
US8032472B2 (en) * | 2007-04-04 | 2011-10-04 | Tuen Solutions Limited Liability Company | Intelligent agent for distributed services for mobile devices |
JP2008269174A (ja) * | 2007-04-18 | 2008-11-06 | Fujifilm Corp | 制御装置、方法およびプログラム |
KR101545360B1 (ko) * | 2007-04-24 | 2015-08-19 | 오블롱 인더스트리즈, 인크 | 프로세싱 환경에서의 프로틴, 풀 및 슬럭스 |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
WO2009035705A1 (en) | 2007-09-14 | 2009-03-19 | Reactrix Systems, Inc. | Processing of gesture-based user interactions |
JP4636064B2 (ja) * | 2007-09-18 | 2011-02-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
EP2597868B1 (en) | 2007-09-24 | 2017-09-13 | Qualcomm Incorporated | Enhanced interface for voice and video communications |
US8629976B2 (en) | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
US8823645B2 (en) | 2010-12-28 | 2014-09-02 | Panasonic Corporation | Apparatus for remotely controlling another apparatus and having self-orientating capability |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090121903A1 (en) * | 2007-11-12 | 2009-05-14 | Microsoft Corporation | User interface with physics engine for natural gestural control |
US8149210B2 (en) * | 2007-12-31 | 2012-04-03 | Microsoft International Holdings B.V. | Pointing device and method |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US20120204133A1 (en) * | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US8259163B2 (en) * | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8233206B2 (en) * | 2008-03-18 | 2012-07-31 | Zebra Imaging, Inc. | User interaction with holographic images |
JP5697590B2 (ja) * | 2008-04-02 | 2015-04-08 | オブロング・インダストリーズ・インコーポレーテッド | 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9952673B2 (en) * | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US20130076616A1 (en) * | 2008-04-24 | 2013-03-28 | Ambrus Csaszar | Adaptive tracking system for spatial input devices |
US8941590B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8896531B2 (en) * | 2008-04-24 | 2014-11-25 | Oblong Industries, Inc. | Fast fingertip detection for initializing a vision-based hand tracker |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
EP2304527A4 (en) * | 2008-06-18 | 2013-03-27 | Oblong Ind Inc | GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES |
US8385557B2 (en) | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US8146020B2 (en) | 2008-07-24 | 2012-03-27 | Qualcomm Incorporated | Enhanced detection of circular engagement gesture |
ES2648049T3 (es) * | 2008-07-25 | 2017-12-28 | Qualcomm Incorporated | Detección mejorada de gesto ondulatorio |
GB2477044B (en) * | 2008-08-22 | 2012-04-04 | Northrop Grumman Systems Corp | Compound gesture recognition |
WO2010028176A1 (en) * | 2008-09-03 | 2010-03-11 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
WO2010030822A1 (en) * | 2008-09-10 | 2010-03-18 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
WO2010042953A1 (en) * | 2008-10-10 | 2010-04-15 | Gesturetek, Inc. | Single camera tracker |
JP5805537B2 (ja) * | 2008-10-14 | 2015-11-04 | オブロング・インダストリーズ・インコーポレーテッド | マルチプロセス・インタラクティブ・システムおよび方法 |
KR101019335B1 (ko) * | 2008-11-11 | 2011-03-07 | 주식회사 팬택 | 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템 |
KR101531363B1 (ko) * | 2008-12-10 | 2015-07-06 | 삼성전자주식회사 | 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법 |
US8681321B2 (en) | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
US20100199231A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US9652030B2 (en) * | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9317128B2 (en) * | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8638985B2 (en) * | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
EP2427857B1 (en) * | 2009-05-04 | 2016-09-14 | Oblong Industries, Inc. | Gesture-based control systems including the representation, manipulation, and exchange of data |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US20100295782A1 (en) * | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
CN102460510B (zh) * | 2009-05-27 | 2016-04-20 | 奥布隆工业有限公司 | 用于与空间操作系统一起使用的空间多模式控制设备 |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US9383823B2 (en) * | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
US8272565B2 (en) * | 2009-06-19 | 2012-09-25 | Target Brands, Inc. | Transaction card assembly with transaction card and auxiliary item |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US9030404B2 (en) | 2009-07-23 | 2015-05-12 | Qualcomm Incorporated | Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices |
KR101596890B1 (ko) | 2009-07-29 | 2016-03-07 | 삼성전자주식회사 | 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법 |
US9277021B2 (en) * | 2009-08-21 | 2016-03-01 | Avaya Inc. | Sending a user associated telecommunication address |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8330134B2 (en) | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8976986B2 (en) | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US8428340B2 (en) | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8760571B2 (en) | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8723118B2 (en) | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8988432B2 (en) | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US8600166B2 (en) * | 2009-11-06 | 2013-12-03 | Sony Corporation | Real time hand tracking, pose classification and interface control |
US8543240B2 (en) * | 2009-11-13 | 2013-09-24 | Intuitive Surgical Operations, Inc. | Master finger tracking device and method of use in a minimally invasive surgical system |
US8622742B2 (en) * | 2009-11-16 | 2014-01-07 | Microsoft Corporation | Teaching gestures with offset contact silhouettes |
US20110117526A1 (en) * | 2009-11-16 | 2011-05-19 | Microsoft Corporation | Teaching gesture initiation with registration posture guides |
US20120280910A1 (en) * | 2009-11-18 | 2012-11-08 | Elmiro Business Development B.V. | Control system and method for controlling a plurality of computer devices |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8325136B2 (en) | 2009-12-01 | 2012-12-04 | Raytheon Company | Computer display pointer device for a display |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8549418B2 (en) * | 2009-12-23 | 2013-10-01 | Intel Corporation | Projected display to enhance computer device use |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US20110179376A1 (en) * | 2010-01-21 | 2011-07-21 | Sony Corporation | Three or higher dimensional graphical user interface for tv menu and document navigation |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8891067B2 (en) | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8717469B2 (en) | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
US8499257B2 (en) | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8638371B2 (en) * | 2010-02-12 | 2014-01-28 | Honeywell International Inc. | Method of manipulating assets shown on a touch-sensitive display |
US20110199386A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Overlay feature to provide user assistance in a multi-touch interactive display environment |
US20110199517A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Method of showing video on a touch-sensitive display |
US8570286B2 (en) * | 2010-02-12 | 2013-10-29 | Honeywell International Inc. | Gestures on a touch-sensitive display |
US20110199516A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Method of showing video on a touch-sensitive display |
US8633890B2 (en) | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
US8928579B2 (en) | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US8422769B2 (en) | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US8279418B2 (en) | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
JP2011204019A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
US8514269B2 (en) | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US8523667B2 (en) | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
JP2011253292A (ja) * | 2010-06-01 | 2011-12-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
US9789392B1 (en) * | 2010-07-09 | 2017-10-17 | Open Invention Network Llc | Action or position triggers in a game play mode |
WO2012011044A1 (en) | 2010-07-20 | 2012-01-26 | Primesense Ltd. | Interactive reality augmentation for natural interaction |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
JP5609416B2 (ja) | 2010-08-19 | 2014-10-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2012043194A (ja) * | 2010-08-19 | 2012-03-01 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
JP5617448B2 (ja) * | 2010-08-31 | 2014-11-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
WO2012030872A1 (en) | 2010-09-02 | 2012-03-08 | Edge3 Technologies Inc. | Method and apparatus for confusion learning |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8760432B2 (en) | 2010-09-21 | 2014-06-24 | Visteon Global Technologies, Inc. | Finger pointing, gesture based human-machine interface for vehicles |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
US8610831B2 (en) * | 2010-10-12 | 2013-12-17 | Nokia Corporation | Method and apparatus for determining motion |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
JP5081964B2 (ja) * | 2010-10-28 | 2012-11-28 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
US8490877B2 (en) | 2010-11-09 | 2013-07-23 | Metrologic Instruments, Inc. | Digital-imaging based code symbol reading system having finger-pointing triggered mode of operation |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US8730157B2 (en) * | 2010-11-15 | 2014-05-20 | Hewlett-Packard Development Company, L.P. | Hand pose recognition |
CN102469293A (zh) * | 2010-11-17 | 2012-05-23 | 中兴通讯股份有限公司 | 一种在视频业务中获取用户输入信息的实现方法及装置 |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
US10043209B2 (en) * | 2010-11-19 | 2018-08-07 | Mastercard International Incorporated | Method and system for consumer transactions using voice or human based gesture actions |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
CN102595155B (zh) * | 2011-01-10 | 2014-11-19 | 群创光电股份有限公司 | 三维显示器的驱动方法及其驱动装置 |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8724887B2 (en) | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US9285874B2 (en) | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) * | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
KR101381928B1 (ko) * | 2011-02-18 | 2014-04-07 | 주식회사 브이터치 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
KR101800182B1 (ko) | 2011-03-16 | 2017-11-23 | 삼성전자주식회사 | 가상 객체 제어 장치 및 방법 |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
WO2012123033A1 (de) * | 2011-03-17 | 2012-09-20 | Ssi Schaefer Noell Gmbh Lager Und Systemtechnik | Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache |
US8836802B2 (en) | 2011-03-21 | 2014-09-16 | Honeywell International Inc. | Method of defining camera scan movements using gestures |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
DE102011017305A1 (de) * | 2011-04-15 | 2012-10-18 | Abb Technology Ag | Bedien- und Beobachtungssystem für technische Anlagen |
CN103477305B (zh) | 2011-04-20 | 2017-06-13 | 皇家飞利浦有限公司 | 元素或项目的基于手势的控制 |
US8928589B2 (en) * | 2011-04-20 | 2015-01-06 | Qualcomm Incorporated | Virtual keyboards and methods of providing the same |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
JP5670255B2 (ja) * | 2011-05-27 | 2015-02-18 | 京セラ株式会社 | 表示機器 |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
CN103930944B (zh) * | 2011-06-23 | 2016-08-24 | 奥布隆工业有限公司 | 用于空间输入装置的自适应跟踪系统 |
JP5864144B2 (ja) | 2011-06-28 | 2016-02-17 | 京セラ株式会社 | 表示機器 |
RU2455676C2 (ru) | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
KR101235432B1 (ko) * | 2011-07-11 | 2013-02-22 | 김석중 | 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법 |
US8752200B2 (en) | 2011-07-12 | 2014-06-10 | At&T Intellectual Property I, L.P. | Devices, systems and methods for security using magnetic field based identification |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US20130144583A1 (en) | 2011-09-02 | 2013-06-06 | Saudi Arabia Oil Company | Hyper-dimensional simulation for reservoir engineering and geosciences |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US9116555B2 (en) | 2011-11-23 | 2015-08-25 | Sony Computer Entertainment America Llc | Gaming controller |
US10525347B2 (en) | 2012-03-13 | 2020-01-07 | Sony Interactive Entertainment America Llc | System and method for capturing and sharing console gaming data |
US10486064B2 (en) | 2011-11-23 | 2019-11-26 | Sony Interactive Entertainment America Llc | Sharing buffered gameplay in response to an input request |
US10960300B2 (en) | 2011-11-23 | 2021-03-30 | Sony Interactive Entertainment LLC | Sharing user-initiated recorded gameplay with buffered gameplay |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US10423515B2 (en) | 2011-11-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Recording touch information |
US9858173B2 (en) | 2011-12-01 | 2018-01-02 | Microsoft Technology Licensing, Llc | Recording user-driven events within a computing system including vicinity searching |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
JP5917125B2 (ja) | 2011-12-16 | 2016-05-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮像装置および表示装置 |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
US9189073B2 (en) | 2011-12-23 | 2015-11-17 | Intel Corporation | Transition mechanism for computing system utilizing user sensing |
WO2013095679A1 (en) | 2011-12-23 | 2013-06-27 | Intel Corporation | Computing system utilizing coordinated two-hand command gestures |
US9678574B2 (en) * | 2011-12-23 | 2017-06-13 | Intel Corporation | Computing system utilizing three-dimensional manipulation command gestures |
WO2013095678A1 (en) | 2011-12-23 | 2013-06-27 | Intel Corporation | Mechanism to provide feedback regarding computing system command gestures |
US20130201316A1 (en) | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
CN103197805A (zh) * | 2012-01-10 | 2013-07-10 | 深圳泰山在线科技有限公司 | 实现虚拟屏的系统和方法 |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
US20130204408A1 (en) * | 2012-02-06 | 2013-08-08 | Honeywell International Inc. | System for controlling home automation system using body movements |
US9411423B2 (en) * | 2012-02-08 | 2016-08-09 | Immersion Corporation | Method and apparatus for haptic flex gesturing |
JP6019601B2 (ja) | 2012-02-10 | 2016-11-02 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
US11169611B2 (en) | 2012-03-26 | 2021-11-09 | Apple Inc. | Enhanced virtual touchpad |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US8866771B2 (en) | 2012-04-18 | 2014-10-21 | International Business Machines Corporation | Multi-touch multi-user gestures on a multi-touch display |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
WO2013176574A1 (en) * | 2012-05-23 | 2013-11-28 | 3Divi Company | Methods and systems for mapping pointing device on depth map |
US9724597B2 (en) | 2012-06-04 | 2017-08-08 | Sony Interactive Entertainment Inc. | Multi-image interactive gaming device |
US9646200B2 (en) | 2012-06-08 | 2017-05-09 | Qualcomm Incorporated | Fast pose detector |
US9213436B2 (en) * | 2012-06-20 | 2015-12-15 | Amazon Technologies, Inc. | Fingertip location for gesture input |
US9400575B1 (en) | 2012-06-20 | 2016-07-26 | Amazon Technologies, Inc. | Finger detection for element selection |
JP6018707B2 (ja) | 2012-06-21 | 2016-11-02 | マイクロソフト コーポレーション | デプスカメラを使用するアバター構築 |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
CN103577792A (zh) * | 2012-07-26 | 2014-02-12 | 北京三星通信技术研究有限公司 | 用于估计人体姿势的设备和方法 |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
EP2893422A4 (en) | 2012-09-06 | 2016-05-18 | Interphase Corp | SENSOR FUSION WITH ABSOLUTE AND RELATIVE POSITIONING IN AN INTERACTIVE DISPLAY SYSTEM |
KR102061569B1 (ko) * | 2013-05-16 | 2020-01-03 | 삼성디스플레이 주식회사 | 표시장치 및 표시장치의 구동방법 |
US11314368B2 (en) | 2012-09-14 | 2022-04-26 | Samsung Display Co., Ltd. | Display device and method of driving the same in two modes |
TWI590099B (zh) * | 2012-09-27 | 2017-07-01 | 緯創資通股份有限公司 | 互動系統及移動偵測方法 |
KR102061881B1 (ko) | 2012-10-10 | 2020-01-06 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 디스플레이 제어 방법 |
KR102083918B1 (ko) | 2012-10-10 | 2020-03-04 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
KR102083937B1 (ko) | 2012-10-10 | 2020-03-04 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 툴 제공 방법 |
US20150212647A1 (en) | 2012-10-10 | 2015-07-30 | Samsung Electronics Co., Ltd. | Head mounted display apparatus and method for displaying a content |
KR102063952B1 (ko) | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
KR101951228B1 (ko) | 2012-10-10 | 2019-02-22 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 촬상 방법 |
KR101984683B1 (ko) | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US20140157209A1 (en) * | 2012-12-03 | 2014-06-05 | Google Inc. | System and method for detecting gestures |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
US11287897B2 (en) * | 2012-12-14 | 2022-03-29 | Pixart Imaging Inc. | Motion detecting system having multiple sensors |
TW201423484A (zh) * | 2012-12-14 | 2014-06-16 | Pixart Imaging Inc | 動態偵測系統 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US20150012863A1 (en) * | 2012-12-28 | 2015-01-08 | Panasonic Intellectual Property Corporation Of America | Control method |
US10078374B2 (en) | 2013-01-03 | 2018-09-18 | Saurav SUMAN | Method and system enabling control of different digital devices using gesture or motion control |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
CN104968592A (zh) | 2013-02-07 | 2015-10-07 | 通力股份公司 | 电梯服务的个性化 |
KR101430042B1 (ko) * | 2013-02-14 | 2014-08-14 | 주식회사 나우시스템 | 제스처를 이용한 방송장비 제어 시스템 및 방법 |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
US9498885B2 (en) | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
US9704350B1 (en) | 2013-03-14 | 2017-07-11 | Harmonix Music Systems, Inc. | Musical combat game |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
KR101483851B1 (ko) * | 2013-04-03 | 2015-01-19 | 목원대학교 산학협력단 | 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법 |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
WO2016109749A1 (en) | 2014-12-30 | 2016-07-07 | Stephen Howard | System and method for interactive projection |
US9360888B2 (en) | 2013-05-09 | 2016-06-07 | Stephen Howard | System and method for motion detection and interpretation |
US9465488B2 (en) | 2013-05-09 | 2016-10-11 | Stephen Howard | System and method for motion detection and interpretation |
US10891003B2 (en) | 2013-05-09 | 2021-01-12 | Omni Consumer Products, Llc | System, method, and apparatus for an interactive container |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
DE102013010932B4 (de) | 2013-06-29 | 2015-02-12 | Audi Ag | Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle |
US9367137B2 (en) | 2013-07-01 | 2016-06-14 | Blackberry Limited | Alarm operation by touch-less gesture |
US9256290B2 (en) | 2013-07-01 | 2016-02-09 | Blackberry Limited | Gesture detection using ambient light sensors |
US9342671B2 (en) | 2013-07-01 | 2016-05-17 | Blackberry Limited | Password by touch-less gesture |
US9398221B2 (en) | 2013-07-01 | 2016-07-19 | Blackberry Limited | Camera control using ambient light sensors |
US9489051B2 (en) | 2013-07-01 | 2016-11-08 | Blackberry Limited | Display navigation using touch-less gestures |
US9323336B2 (en) | 2013-07-01 | 2016-04-26 | Blackberry Limited | Gesture detection using ambient light sensors |
US9423913B2 (en) | 2013-07-01 | 2016-08-23 | Blackberry Limited | Performance control of ambient light sensors |
US9405461B2 (en) | 2013-07-09 | 2016-08-02 | Blackberry Limited | Operating a device using touchless and touchscreen gestures |
CA2917478A1 (en) * | 2013-07-10 | 2015-01-15 | Real View Imaging Ltd. | Three dimensional user interface |
US10533850B2 (en) | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
US9465448B2 (en) | 2013-07-24 | 2016-10-11 | Blackberry Limited | Backlight for touchless gesture detection |
US9304596B2 (en) | 2013-07-24 | 2016-04-05 | Blackberry Limited | Backlight for touchless gesture detection |
DE102013012285A1 (de) * | 2013-07-24 | 2015-01-29 | Giesecke & Devrient Gmbh | Verfahren und Vorrichtung zur Wertdokumentbearbeitung |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9194741B2 (en) | 2013-09-06 | 2015-11-24 | Blackberry Limited | Device having light intensity measurement in presence of shadows |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US10152136B2 (en) | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
US9996797B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
US10126822B2 (en) | 2013-12-16 | 2018-11-13 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual configuration |
DE102013021927A1 (de) | 2013-12-20 | 2015-06-25 | Audi Ag | Verfahren und System zum Betreiben einer Anzeigeeinrichtung sowie Vorrichtung mit einer Anzeigeeinrichtung |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
KR20150087544A (ko) | 2014-01-22 | 2015-07-30 | 엘지이노텍 주식회사 | 제스처 장치, 그 동작 방법 및 이를 구비한 차량 |
US10198696B2 (en) * | 2014-02-04 | 2019-02-05 | GM Global Technology Operations LLC | Apparatus and methods for converting user input accurately to a particular system function |
JP6287382B2 (ja) * | 2014-03-12 | 2018-03-07 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
CN104850216A (zh) * | 2014-02-18 | 2015-08-19 | 太瀚科技股份有限公司 | 具有压力触觉感测器的手套 |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
US9498395B2 (en) | 2014-04-16 | 2016-11-22 | Stephen C. Golden, JR. | Joint movement detection device and system for coordinating motor output with manual wheelchair propulsion |
US20150301606A1 (en) * | 2014-04-18 | 2015-10-22 | Valentin Andrei | Techniques for improved wearable computing device gesture based interactions |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
US10146318B2 (en) | 2014-06-13 | 2018-12-04 | Thomas Malzbender | Techniques for using gesture recognition to effectuate character selection |
JP2016038889A (ja) | 2014-08-08 | 2016-03-22 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | モーション感知を伴う拡張現実 |
US20160085518A1 (en) * | 2014-09-21 | 2016-03-24 | Jang Hee I | Systems and methods for imaging and generation of executable processor instructions based on ordered objects |
US9315197B1 (en) * | 2014-09-30 | 2016-04-19 | Continental Automotive Systems, Inc. | Hands accelerating control system |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
WO2016141373A1 (en) | 2015-03-05 | 2016-09-09 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10310616B2 (en) * | 2015-03-31 | 2019-06-04 | Ebay Inc. | Modification of three-dimensional garments using gestures |
US10691214B2 (en) | 2015-10-12 | 2020-06-23 | Honeywell International Inc. | Gesture control of building automation system components during installation and/or maintenance |
WO2017096241A1 (en) | 2015-12-02 | 2017-06-08 | Augmenteum, Inc. | System for and method of projecting augmentation imagery in a head-mounted display |
CN106843709B (zh) | 2015-12-04 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 根据实时信息显示展现对象的方法和装置 |
WO2017096396A1 (en) | 2015-12-04 | 2017-06-08 | Magic Leap, Inc. | Relocalization systems and methods |
US10599324B2 (en) | 2015-12-31 | 2020-03-24 | Microsoft Technology Licensing, Llc | Hand gesture API using finite state machine and gesture language discrete values |
US10310618B2 (en) | 2015-12-31 | 2019-06-04 | Microsoft Technology Licensing, Llc | Gestures visual builder tool |
JP6858352B2 (ja) * | 2016-01-25 | 2021-04-14 | 裕行 池田 | 画像投影装置 |
US10459597B2 (en) * | 2016-02-03 | 2019-10-29 | Salesforce.Com, Inc. | System and method to navigate 3D data on mobile and desktop |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
JP5988286B1 (ja) * | 2016-04-01 | 2016-09-07 | 株式会社Cygames | プログラム及び画像処理装置 |
CN105955464A (zh) * | 2016-04-26 | 2016-09-21 | 苏州冰格智能科技有限公司 | 一种基于虚拟现实的输入装置 |
CN105929956A (zh) * | 2016-04-26 | 2016-09-07 | 苏州冰格智能科技有限公司 | 一种基于虚拟现实的输入方法 |
US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
US10377042B2 (en) * | 2016-06-17 | 2019-08-13 | Intel Corporation | Vision-based robot control system |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
KR20190034321A (ko) | 2016-08-02 | 2019-04-01 | 매직 립, 인코포레이티드 | 고정-거리 가상 및 증강 현실 시스템들 및 방법들 |
CN106454490B (zh) * | 2016-09-21 | 2019-07-26 | 天脉聚源(北京)传媒科技有限公司 | 一种智能播放视频的方法及装置 |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
JP6822234B2 (ja) * | 2017-03-15 | 2021-01-27 | セイコーエプソン株式会社 | プロジェクターシステム |
AU2018236457B2 (en) | 2017-03-17 | 2021-04-29 | Magic Leap, Inc. | Mixed reality system with virtual content warping and method of generating virtual content using same |
CN117197403A (zh) | 2017-03-17 | 2023-12-08 | 奇跃公司 | 混合现实系统及使用该系统生成虚拟内容的方法 |
JP7009494B2 (ja) | 2017-03-17 | 2022-01-25 | マジック リープ, インコーポレイテッド | カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法 |
JP2018206073A (ja) * | 2017-06-05 | 2018-12-27 | 株式会社東海理化電機製作所 | 遠隔操作システム |
EP3435202A1 (de) * | 2017-07-25 | 2019-01-30 | Siemens Healthcare GmbH | Zuordnen eines werkzeuges zu einer greifgeste |
IL276254B2 (en) * | 2018-02-06 | 2024-09-01 | Magic Leap Inc | Systems and methods for augmented reality |
US10939033B2 (en) * | 2018-03-19 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for directing adaptive camera systems |
KR102524586B1 (ko) * | 2018-04-30 | 2023-04-21 | 삼성전자주식회사 | 전자 장치 및 그 동작방법 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
CN112513712B (zh) | 2018-07-23 | 2023-05-09 | 奇跃公司 | 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法 |
GB201812080D0 (en) * | 2018-07-24 | 2018-09-05 | Kano Computing Ltd | Motion sensing controller |
CN110837766B (zh) * | 2018-08-17 | 2023-05-05 | 北京市商汤科技开发有限公司 | 手势识别方法、手势处理方法及装置 |
US11062177B2 (en) * | 2018-08-29 | 2021-07-13 | Tata Consultancy Services Limited | Method and system for creating aesthetic design at scale |
CN109573902A (zh) * | 2018-12-11 | 2019-04-05 | 龙岩学院 | 一种基于模式识别的升降机控制系统 |
DE102019205097A1 (de) | 2019-04-09 | 2020-10-15 | Volkswagen Aktiengesellschaft | Verfahren zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs, System zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs |
US11169811B2 (en) * | 2019-05-30 | 2021-11-09 | Advanced Micro Devices, Inc. | Graphics context bouncing |
US11151999B2 (en) | 2019-08-01 | 2021-10-19 | International Business Machines Corporation | Controlling external behavior of cognitive systems |
US11086742B2 (en) | 2019-08-28 | 2021-08-10 | The Toronto-Dominion Bank | Task based service management platform |
US11188145B2 (en) * | 2019-09-13 | 2021-11-30 | DTEN, Inc. | Gesture control systems |
US11681369B2 (en) * | 2019-09-16 | 2023-06-20 | Iron Will Innovations Canada Inc. | Control-point activation condition detection for generating corresponding control signals |
US11373373B2 (en) * | 2019-10-22 | 2022-06-28 | International Business Machines Corporation | Method and system for translating air writing to an augmented reality device |
US11341569B2 (en) * | 2019-10-25 | 2022-05-24 | 7-Eleven, Inc. | System and method for populating a virtual shopping cart based on video of a customer's shopping session at a physical store |
US12197846B2 (en) | 2019-11-19 | 2025-01-14 | International Business Machines Corporation | Mathematical function defined natural language annotation |
US20220355483A1 (en) * | 2019-11-19 | 2022-11-10 | Google Llc | Methods and Systems for Graphical User Interfaces to Control Remotely Located Robots |
US11567492B2 (en) | 2020-01-17 | 2023-01-31 | Zimeno, Inc. | Vehicle control by a remote operator |
US11200458B1 (en) | 2020-06-15 | 2021-12-14 | Bank Of America Corporation | System for integration of a hexagonal image processing framework within a technical environment |
US11731037B2 (en) * | 2020-09-11 | 2023-08-22 | Riot Games, Inc. | Rapid target selection with priority zones |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6198485B1 (en) * | 1998-07-29 | 2001-03-06 | Intel Corporation | Method and apparatus for three-dimensional input entry |
Family Cites Families (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US5664177A (en) | 1988-04-13 | 1997-09-02 | Digital Equipment Corporation | Data processing system having a data structure with a single, simple primitive |
JPH0816877B2 (ja) | 1991-06-10 | 1996-02-21 | インターナショナル・ビジネス・マシーンズ・コーポレイション | データ処理システム用資源データの実時間捕獲及び減縮方法及びシステム |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5982352A (en) | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
DE69315969T2 (de) | 1992-12-15 | 1998-07-30 | Sun Microsystems Inc | Darstellung von Informationen in einem Anzeigesystem mit transparenten Fenstern |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US7218448B1 (en) | 1997-03-17 | 2007-05-15 | The Regents Of The University Of Colorado | Extended depth of field optical systems |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
WO1996034332A1 (fr) * | 1995-04-28 | 1996-10-31 | Matsushita Electric Industrial Co., Ltd. | Dispositif d'interface |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
JP3749369B2 (ja) * | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6340957B1 (en) * | 1997-08-29 | 2002-01-22 | Xerox Corporation | Dynamically relocatable tileable displays |
US6807583B2 (en) | 1997-09-24 | 2004-10-19 | Carleton University | Method of determining causal connections between events recorded during process execution |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
WO1999035633A2 (en) | 1998-01-06 | 1999-07-15 | The Video Mouse Group | Human motion following computer mouse and game controller |
JP3660492B2 (ja) | 1998-01-27 | 2005-06-15 | 株式会社東芝 | 物体検知装置 |
US6043805A (en) | 1998-03-24 | 2000-03-28 | Hsieh; Kuan-Hong | Controlling method for inputting messages to a computer |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
JP2000132305A (ja) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US7145551B1 (en) | 1999-02-17 | 2006-12-05 | Microsoft Corporation | Two-handed computer input device with orientation sensor |
US6351744B1 (en) | 1999-05-28 | 2002-02-26 | Unisys Corporation | Multi-processor system for database management |
JP4332649B2 (ja) | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US7229017B2 (en) | 1999-11-23 | 2007-06-12 | Xerox Corporation | Laser locating and tracking system for externally activated tags |
DE10007891C2 (de) | 2000-02-21 | 2002-11-21 | Siemens Ag | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US7109970B1 (en) * | 2000-07-01 | 2006-09-19 | Miller Stephen S | Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20020065950A1 (en) | 2000-09-26 | 2002-05-30 | Katz James S. | Device event handler |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
AU2002243335A1 (en) | 2000-10-20 | 2002-06-18 | Polexis, Inc. | Extensible information system (xis) |
US6703999B1 (en) | 2000-11-13 | 2004-03-09 | Toyota Jidosha Kabushiki Kaisha | System for computer user interface |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US20020186200A1 (en) * | 2001-06-08 | 2002-12-12 | David Green | Method and apparatus for human interface with a computer |
US20040125076A1 (en) * | 2001-06-08 | 2004-07-01 | David Green | Method and apparatus for human interface with a computer |
US7151246B2 (en) | 2001-07-06 | 2006-12-19 | Palantyr Research, Llc | Imaging system and methodology |
US20030048280A1 (en) | 2001-09-12 | 2003-03-13 | Russell Ryan S. | Interactive environment using computer vision and touchscreens |
US7680295B2 (en) * | 2001-09-17 | 2010-03-16 | National Institute Of Advanced Industrial Science And Technology | Hand-gesture based interface apparatus |
US7159194B2 (en) | 2001-11-30 | 2007-01-02 | Palm, Inc. | Orientation dependent functionality of an electronic device |
US7210130B2 (en) | 2002-02-01 | 2007-04-24 | John Fairweather | System and method for parsing data |
AU2003217587A1 (en) | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
DE60317472T2 (de) | 2002-02-27 | 2008-09-04 | CDM Optics, Inc., Boulder | Optimierte bildverarbeitung für wellenfrontkodierte abbildungssysteme |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7854655B2 (en) | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US7850526B2 (en) | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US7991920B2 (en) * | 2002-12-18 | 2011-08-02 | Xerox Corporation | System and method for controlling information output devices |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
GB0308943D0 (en) | 2003-04-17 | 2003-05-28 | Univ Dundee | A system for determining the body pose of a person from images |
WO2004107266A1 (en) | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US7436535B2 (en) | 2003-10-24 | 2008-10-14 | Microsoft Corporation | Real-time inking |
US20050212753A1 (en) | 2004-03-23 | 2005-09-29 | Marvit David L | Motion controlled remote controller |
EP1743277A4 (en) | 2004-04-15 | 2011-07-06 | Gesturetek Inc | MONITORING OF BI-MANUAL MOVEMENTS |
US7555613B2 (en) | 2004-05-11 | 2009-06-30 | Broadcom Corporation | Storage access prioritization using a data storage device |
JP4171046B2 (ja) | 2004-05-25 | 2008-10-22 | 株式会社ソニー・コンピュータエンタテインメント | 入力装置及び方法、文字入力方法 |
US7366368B2 (en) | 2004-06-15 | 2008-04-29 | Intel Corporation | Optical add/drop interconnect bus for multiprocessor architecture |
US7466308B2 (en) | 2004-06-28 | 2008-12-16 | Microsoft Corporation | Disposing identifying codes on a user's hand to provide input to an interactive display application |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7559053B2 (en) | 2004-08-24 | 2009-07-07 | Microsoft Corporation | Program and system performance data correlation |
US7761814B2 (en) | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
CN101622630B (zh) | 2005-01-07 | 2012-07-04 | 高通股份有限公司 | 检测和跟踪图像中的物体 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
US7966353B2 (en) | 2005-01-31 | 2011-06-21 | Broadcom Corporation | Method and system for flexibly providing shared access to non-data pool file systems |
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
WO2006124935A2 (en) | 2005-05-17 | 2006-11-23 | Gesturetek, Inc. | Orientation-sensitive signal output |
US7428542B1 (en) | 2005-05-31 | 2008-09-23 | Reactrix Systems, Inc. | Method and system for combining nodes into a mega-node |
US8370383B2 (en) * | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9063801B2 (en) | 2008-04-24 | 2015-06-23 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8537112B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8669939B2 (en) | 2006-02-08 | 2014-03-11 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8681098B2 (en) | 2008-04-24 | 2014-03-25 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US8537111B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8769127B2 (en) | 2006-02-10 | 2014-07-01 | Northrop Grumman Systems Corporation | Cross-domain solution (CDS) collaborate-access-browse (CAB) and assured file transfer (AFT) |
JP4781897B2 (ja) | 2006-04-26 | 2011-09-28 | 富士通株式会社 | センサイベント制御装置 |
US20070288467A1 (en) | 2006-06-07 | 2007-12-13 | Motorola, Inc. | Method and apparatus for harmonizing the gathering of data and issuing of commands in an autonomic computing system using model-based translation |
JP4148281B2 (ja) | 2006-06-19 | 2008-09-10 | ソニー株式会社 | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US7979850B2 (en) | 2006-09-29 | 2011-07-12 | Sap Ag | Method and system for generating a common trace data format |
US7984452B2 (en) | 2006-11-10 | 2011-07-19 | Cptn Holdings Llc | Event source management using a metadata-driven framework |
US8559676B2 (en) | 2006-12-29 | 2013-10-15 | Qualcomm Incorporated | Manipulation of virtual objects using enhanced interactive system |
WO2008101183A2 (en) | 2007-02-15 | 2008-08-21 | Gesturetek, Inc. | Enhanced input using flashing electromagnetic radiation |
US20080208517A1 (en) | 2007-02-23 | 2008-08-28 | Gesturetek, Inc. | Enhanced Single-Sensor Position Detection |
KR101545360B1 (ko) | 2007-04-24 | 2015-08-19 | 오블롱 인더스트리즈, 인크 | 프로세싱 환경에서의 프로틴, 풀 및 슬럭스 |
WO2008134745A1 (en) | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
US8472665B2 (en) | 2007-05-04 | 2013-06-25 | Qualcomm Incorporated | Camera-based user input for compact devices |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US7949157B2 (en) | 2007-08-10 | 2011-05-24 | Nitin Afzulpurkar | Interpreting sign language gestures |
US9261979B2 (en) | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
CN107102723B (zh) | 2007-08-20 | 2019-12-06 | 高通股份有限公司 | 用于基于手势的移动交互的方法、装置、设备和非暂时性计算机可读介质 |
EP2597868B1 (en) | 2007-09-24 | 2017-09-13 | Qualcomm Incorporated | Enhanced interface for voice and video communications |
US8341635B2 (en) | 2008-02-01 | 2012-12-25 | International Business Machines Corporation | Hardware wake-and-go mechanism with look-ahead polling |
US8280732B2 (en) | 2008-03-27 | 2012-10-02 | Wolfgang Richter | System and method for multidimensional gesture analysis |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8269817B2 (en) | 2008-07-16 | 2012-09-18 | Cisco Technology, Inc. | Floor control in multi-point conference systems |
US20100060568A1 (en) | 2008-09-05 | 2010-03-11 | Apple Inc. | Curved surface input device with normalized capacitive sensing |
WO2010030822A1 (en) | 2008-09-10 | 2010-03-18 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8363098B2 (en) | 2008-09-16 | 2013-01-29 | Plantronics, Inc. | Infrared derived user presence and associated remote control |
US8704767B2 (en) | 2009-01-29 | 2014-04-22 | Microsoft Corporation | Environmental gesture recognition |
JP5358834B2 (ja) | 2009-02-17 | 2013-12-04 | 株式会社ワコム | 位置指示器及び入力装置 |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US20100315439A1 (en) | 2009-06-15 | 2010-12-16 | International Business Machines Corporation | Using motion detection to process pan and zoom functions on mobile computing devices |
GB2474536B (en) | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US20120229383A1 (en) | 2010-01-14 | 2012-09-13 | Christoffer Hamilton | Gesture support for controlling and/or operating a medical device |
US9465457B2 (en) | 2010-08-30 | 2016-10-11 | Vmware, Inc. | Multi-touch interface gestures for keyboard and/or mouse inputs |
US20120239396A1 (en) | 2011-03-15 | 2012-09-20 | At&T Intellectual Property I, L.P. | Multimodal remote control |
-
2006
- 2006-02-08 KR KR1020077018809A patent/KR100960577B1/ko not_active IP Right Cessation
- 2006-02-08 WO PCT/US2006/004497 patent/WO2006086508A2/en active Application Filing
- 2006-02-08 JP JP2007554346A patent/JP5631535B2/ja not_active Expired - Fee Related
- 2006-02-08 EP EP06720525A patent/EP1851750A4/en not_active Withdrawn
- 2006-02-08 CN CN200680007549.7A patent/CN101536494B/zh not_active Expired - Fee Related
- 2006-02-08 US US11/350,697 patent/US7598942B2/en active Active
-
2007
- 2007-08-16 NO NO20074200A patent/NO339941B1/no not_active IP Right Cessation
-
2009
- 2009-10-02 US US12/572,689 patent/US8866740B2/en not_active Expired - Fee Related
- 2009-10-02 US US12/572,698 patent/US8830168B2/en not_active Expired - Fee Related
-
2014
- 2014-09-09 US US14/481,662 patent/US9606630B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6198485B1 (en) * | 1998-07-29 | 2001-03-06 | Intel Corporation | Method and apparatus for three-dimensional input entry |
Also Published As
Publication number | Publication date |
---|---|
US8866740B2 (en) | 2014-10-21 |
US7598942B2 (en) | 2009-10-06 |
US20060187196A1 (en) | 2006-08-24 |
KR20070116794A (ko) | 2007-12-11 |
NO20074200L (no) | 2007-11-07 |
CN101536494B (zh) | 2017-04-26 |
US20100090946A1 (en) | 2010-04-15 |
CN101536494A (zh) | 2009-09-16 |
US20100090947A1 (en) | 2010-04-15 |
JP5631535B2 (ja) | 2014-11-26 |
WO2006086508A9 (en) | 2006-12-14 |
JP2008530661A (ja) | 2008-08-07 |
WO2006086508A3 (en) | 2009-04-23 |
WO2006086508A2 (en) | 2006-08-17 |
EP1851750A4 (en) | 2010-08-25 |
EP1851750A2 (en) | 2007-11-07 |
US20150205364A1 (en) | 2015-07-23 |
US8830168B2 (en) | 2014-09-09 |
US9606630B2 (en) | 2017-03-28 |
KR100960577B1 (ko) | 2010-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
NO339941B1 (no) | System og fremgangsmåte for et gestbasert styringssystem | |
JP6116064B2 (ja) | 車両インターフェース用ジェスチャ基準制御システム | |
US10261595B1 (en) | High resolution tracking and response to hand gestures through three dimensions | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
EP3035164B1 (en) | Wearable sensor for tracking articulated body-parts | |
US20180136734A1 (en) | Spatial, multi-modal control device for use with spatial operating system | |
KR101705924B1 (ko) | 공간 운영 시스템을 위한 공간, 다중-모드 제어 장치 | |
WO2009059716A1 (en) | Pointing device and method for operating the pointing device | |
CN103930944A (zh) | 用于空间输入装置的自适应跟踪系统 | |
JP4608326B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
JP2009258884A (ja) | ユーザインタフェイス | |
JP5788853B2 (ja) | ジェスチャベースの制御システムのためのシステムおよび方法 | |
JP4244202B2 (ja) | 操作入力装置および操作入力方法 | |
Kim et al. | Thirdlight: Low-cost and high-speed 3d interaction using photosensor markers | |
KR20050060606A (ko) | 휴먼 컴퓨터 인터렉션 장치 및 방법 | |
Millan et al. | Gesture-based control | |
Chang et al. | A²FinPose: An Artificial Intelligence and Augmented Reality-Based Finger Gesture Recognition System for the Human-Machine Interface of Head-mounted Near-Eye Displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM1K | Lapsed by not paying the annual fees |