[go: up one dir, main page]

NO339941B1 - System og fremgangsmåte for et gestbasert styringssystem - Google Patents

System og fremgangsmåte for et gestbasert styringssystem Download PDF

Info

Publication number
NO339941B1
NO339941B1 NO20074200A NO20074200A NO339941B1 NO 339941 B1 NO339941 B1 NO 339941B1 NO 20074200 A NO20074200 A NO 20074200A NO 20074200 A NO20074200 A NO 20074200A NO 339941 B1 NO339941 B1 NO 339941B1
Authority
NO
Norway
Prior art keywords
procedure
stated
gesture
appendage
detection
Prior art date
Application number
NO20074200A
Other languages
English (en)
Other versions
NO20074200L (no
Inventor
John S Underkoffler
Kevin T Parent
Kwindla H Kramer
Original Assignee
Oblong Ind Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oblong Ind Inc filed Critical Oblong Ind Inc
Publication of NO20074200L publication Critical patent/NO20074200L/no
Publication of NO339941B1 publication Critical patent/NO339941B1/no

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

System og fremgangsmåte for gestbasert styringssystem
Denne patentsøknad krever prioritet fra US foreløpig patentsøknad nr. 60/651.290 innlevert 8. februar 2005 med tittel "Gestbasert styringssystem".
Bakgrunn for oppfinnelsen
[0001] 1. Område for oppfinnelsen
[0002] Denne oppfinnelse vedrører området datamaskin generelt og særlig et system og en fremgangsmåte for et gestbasert styringssystem.
[0003] 2. Bakgrunn
[0004] En bruker kan legge inn kommandoer og samhandle med et datamaskin-system ved manipulering av data eller avbildninger i et vindu på et display, eller ved å velge operasjoner fra en meny som er tilknyttet vinduet eller et tilknyttet program, ved bruk av innmatingsinnretninger så som en mus, tastatur, styrespak, korsfast eller lignende. Slike innmatingsinnretninger kan også operere som posisjonsomformende innretninger, som kan brukes til å posisjonere en grafisk peker på en skjerm, så som en markør. En markør funksjonerer for eksempel slik at den viser et tegn som skal revideres eller viser en posisjon hvor data skal legges inn eller en operasjon skal utføres. En markør, i en eller annen form eller utseende, er typisk til stede på data-maskindisplayet. Manipulasjon av en inngangsinnretning av en bruker vil resultere i en korresponderende bevegelse av markøren. For eksempel resulterer bevegelse av en mus eller en annen innmatingsinnretning således i bevegelse av markøren i den samme retning. US 6,198,485 B1 vedrører en fremgangsmåte og et apparat for tredimensjonal inngangsoppføring.
[0005] En markør kan ha forskjellig utseende avhengig av sin funksjon og tilstanden til datamaskinsystemet. For eksempel, når den er posisjonert i et tekstfelt på et datamaskindisplay, kan markøren ha utseende av en "l-bjelke" eller en blinkende vertikal linje. Posisjonen til markøren i et tekstfelt viser lokaliseringen av det neste tegn som vil bli lagt inn av brukeren, typisk via et tastatur. Markøren kan ha andre utseende avhengig av sin funksjon. I et tegneprogram eller måleprogram, kan markøren representeres som en malepensel, blyant, viskelær, spann eller annen grafisk form.
[0006] Markøren kan også ha form av en pil eller en peker når den er posisjonert over brukervelgbare operasjoner eller når den brukes til å velge grafiske elementer, så som vinduer. For å velge og aktivere en ønsket operasjon med markøren, kan den posisjoneres over en grafisk representasjon eller tekstrepresentasjon av operasjonen. En knapp som er lokalisert på en museinngangsinnretning kan trykkes ned og/eller slippes opp for å bevirke operasjonen. Brukeren varsles om aksepten av operasjonen som skal utføres ved hjelp av visuell tilbakemelding, vanligvis i form av en forandring i en avbildning på datamaskinens display. Et eller flere av programmene som er i bruk genererer typisk denne visuelle respons. Disse programmene genererer tegnekommandoer for å oppdatere displayavbildningene som respons på de valgte operasjoner.
[0007] En ulempe med systemene ifølge kjent teknikk er at innmatingsinnretningen ofte er nettopp det, en innretning. Det er påkrevd at brukeren har en ledningsført eller trådløs mus eller en annen innmatingsinnretning, og denne inn-retningen må brukes til å ta hånd om valg, forflytning av posisjon, aktivering og andre innmatingsfunksjoner. Bruken av disse fysiske innretninger er ofte ikke naturlig eller intuitiv. En annen ulempe er behovet for å gå gjennom visse trinn for å forandre konteksten til innmatingsinnretningen slik at forskjellige funksjoner kan utføres.
[0008] Med populariteten av svært store display, blir ytterligere ulemper med innretninger og systemer for innmating ifølge kjent teknikk åpenbare. Ved for eksempel bruk av en mus, for å forsøke å forflytte posisjonen til en markør over et stort display, må brukeren ofte løfte musen og på ny plassere den på museoverflaten for å sette brukeren i stand til å trekke markøren over til og med et parti av et stort display. Dette er en bortkastet og unaturlig bevegelse.
[0009] Det har innenfor den kjente teknikk vært noen forsøk på å tilveiebringe en løsning på disse problemer. En kjent løsning er å bruke hansker på brukerens hånd. Disse hanskene har den godhet å forvandle brukernes hånd eller hender til innmatingsinnretninger. I en utførelse er en innmatingshanske fast koplet til et data-maskinsystem. Denne løsning har den ulempe at den i bokstavelig forstand binder brukeren til stedet, hvilket krever en nærhet til datamaskinsystemet og en begrensning på bevegelsesområdet. I andre tilfeller er hanskene trådløse. Slike trådløse implementeringer krever imidlertid en uavhengig strømforsyning for hansken. Når strømforsyningen må lades opp, kan hanskene ikke brukes.
Sammenfatning av oppfinnelsen
[0010] Hovedtrekkene ved oppfinnelsen fremgår av de selvstendige krav. Ytterligere trekk ved oppfinnelsen er angitt i de uselvstendige krav. Systemet tilveiebringer et gestgrensesnitt for forskjellige visuelt presenterte elementer, som presenteres på en visningsskjerm eller -skjermer. I en utførelse navigerer og manipulerer operatøren av systemet disse elementer ved utsendelse av en kontinuerlig strøm av "gestkommandoer" ved bruk av operatørens hender. I andre utførelser kan en brukers hode, føtter, armer, ben eller hele brukeren, brukes til å tilveiebringe navigasjonen og styringen. Gestvokabularet inkluderer "øyeblikkelige" kommandoer, hvor forming av en eller begge hender til den passende "stilling" resulterer i en umiddelbar éngangshandling; og "romlige" kommandoer, hvor operatøren enten refererer direkte til elementer på skjermen ved hjelp av i bokstavelig forstand "pekende" gester eller utfører navigasjonsmanøver ved hjelp av relative eller "forskjøvne" gester. I tillegg til pekende gester, som brukes til absolutt eller direkte romlig gestikulering, kan oppfinnelsen også gjenkjenne en annen kategori av relative, romlige navigasjonsgester i etXYZ-rom. Denne kategorien av handlinger blir enkelte ganger referert til som XYZ-teknikker. Ved opprettholdelse av en høy bilde-frekvens, ved å garantere et tilnærmet umerkelig etterheng i tolkingen av operatør-gestene, og ved anvendelse av både nøye designede romlige metaforer og klart innlysende mekanismer for "direkte manipulasjon" tilveiebringer systemet en livaktig "kognitiv kopling" mellom operatøren og den informasjon og de prosesser som representeres. Ved systemet tenker man seg muligheten for å identifisere brukerens hender. Dette systemet med identifikasjon kan være i form av en hanske eller hansker med visse tegn tilveiebrakt derpå, eller et hvilket som helst egnet middel for tilveiebringelse av gjenkjennelige tegn på en brukers hender. Et system med kameraer kan detektere posisjonen, orienteringen og bevegelsen av brukerens hender og omforme denne informasjonen til utførbare kommandoer.
Kort beskrivelse av tegningene
[0011] Figur 1 er et diagram over en utførelse av systemet ifølge oppfinnelsen.
[0012] Figur 2 er et diagram over en utførelse av merketagger ifølge oppfinnelsen.
[0013] Figur 3 er et diagram over stillinger i et gestvokabular i en utførelse av oppfinnelsen.
[0014] Figur 4 er et diagram over orientering i et gestvokabular i en utførelse av oppfinnelsen.
[0015] Figur 5 er et diagram over to-hånds kombinasjoner i et gestvokabular i en utførelse av oppfinnelsen.
[0016] Figur 6 er et diagram over orienteringsblandinger i et gestvokabular i en utførelse av oppfinnelsen.
[0017] Figur 7 er et flytdiagram som illustrerer operasjonen av en utførelse av systemet ifølge oppfinnelsen.
[0018] Figur 8 er et eksempel på kommandoer i en utførelse av systemet.
Detaljert beskrivelse av de foretrukne utførelser
[0019] Et system og en fremgangsmåte for et gestbasert styringssystem er beskrevet. I den følgende beskrivelse beskrives et antall trekk i detalj for å tilveiebringe en mer grundig forståelse av oppfinnelsen. Det er åpenbart at systemet kan praktiseres uten disse spesifikke detaljer. I andre tilfeller har velkjente trekk ikke blitt beskrevet i detalj.
[0020] System
[0021] Et blokkdiagram av en utførelse av oppfinnelsen er illustrert på figur 1. En bruker lokaliserer sine hender 101 og 102 i betraktningsområdet for en oppstilling av kameraer 104A-104D. Kameraene detekterer lokalisering, orientering og bevegelse av fingrene og hendene 101 og 102 og genererer utgangssignaler til forprosessor 105. Forprosessor 105 omformer kameraets utgang til et gestsignal som tilveie-bringes til datamaskinprosesseringsenheten 107 i systemet. Datamaskinen 107 bruker inngangsinformasjonen til å generere en kommando til å styre en eller flere markører på en skjerm og tilveiebringer videoutgang til display 103.
[0022] Selv om systemet er vist med en enkelt brukers hender som innmating, kan oppfinnelsen også implementeres ved bruk av flere brukere. I tillegg, istedenfor eller i tillegg til hender, kan systemet følge en hvilken som helst del eller deler av en brukes legeme, inkludert hode, føtter, ben, armer, albuer, knær og lignende.
[0023] I den viste utførelse brukes fire kameraer til å detektere lokaliseringen, orienteringen og bevegelsen av brukerens hender 101 og 102. Det skal forstås at oppfinnelsen kan brukes med flere eller færre kameraer uten å avvike fra oppfinnel-sens omfang eller idé. I tillegg, selv om kameraene i eksempelutførelsen er anordnet symmetrisk, er det ikke noe krav som slik symmetri i oppfinnelsen. Et hvilket som helst antall eller posisjonering av kameraer som tillater lokaliseringen, orienteringen og bevegelsen av brukerens hender kan brukes i oppfinnelsen.
[0024] I en utførelse av oppfinnelsen er kameraene som brukes bevegelses-oppfangingskameraer som er i stand til å fange opp gråskalaavbildninger. I en utførelse er kameraene som brukes de som fremstilles av Vicon, så som kameraet Vicon MX40. Dette kameraet inkluderer prosessering i kameraet, og er i stand til å fange opp avbildninger med 1000 bilder per sekund. Et kamera for oppfanging av bevegelse er i stand til å detektere og lokalisere merker.
[0025] I den beskrevne utførelse brukes kameraene til optisk deteksjon. I andre utførelser kan kameraene eller andre detektorer brukes til elektromagnetisk deteksjon, magnetostatisk deteksjon, RFID-deteksjon eller en hvilken som helst annen egnet type av deteksjon.
[0026] Forprosessor 105 brukes til å generere tredimensjonal rompunkt rekonstruksjon og skjelettpunktetikettering. Gestomformeren 106 brukes til å konvertere den 3D romlige informasjon og merkebevegelsesinformasjon til et kommandospråk som kan tolkes av en datamaskinprosessor for å oppdatere lokaliseringen, formen og handlingen til en markør på et display. I en alternativ utførelse av oppfinnelsen kan forprosessoren 105 og gestomformeren 106 kombineres til en enkelt innretning.
[0027] Datamaskinen 107 kan være en hvilken som helst universaldatamaskin, så som de som fremstilles av Apple, Dell eller en hvilken som helst annen passende produsent. Datamaskinen 107 kjører applikasjoner og tilveiebringer utgang til displayet. Markørinformasjon som ellers ville komme fra en mus eller en annen innmatingsinnretning ifølge kjent teknikk kommer nå fra gestsystemet.
[0028] Merketagger
[0029] Ved oppfinnelsen tenker man seg bruk av merketagger på en eller flere av brukerens fingre, slik at systemet kan lokalisere hendene til brukeren, identifisere om hvorvidt det betrakter en venstre eller høyre hånd, og hvilke fingre som er synlige. Dette tillater at systemet kan detektere lokaliseringen, orienteringen og bevegelsen av brukerens hender. Denne informasjonen tillater at antall gester gjenkjennes av systemet og brukes som kommandoer av brukeren.
[0030] Merketaggene er i en utførelse fysiske tagger som omfatter et underlag (i den foreliggende utførelse passende for innfesting til forskjellige lokaliseringer på en menneskelig hånd) og diskrete merker som er anordnet på underlagets overflate i unike, identifiserende mønstre.
[0031] Merkene og det tilknyttede eksterne sansende system kan operere i en hvilken som helst domene (optisk, elektromagnetisk, magnetostatisk, osv.) som tillater nøyaktig, presis og hurtig og kontinuerlig innsamling av deres tre posisjoner i rommet. Selve merkene kan operere enten aktivt (eksempelvis ved emittering av strukturerte elektromagnetiske pulser) eller passivt (eksempelvis ved at de er optisk tilbakereflekterende, som i den foreliggende utførelse).
[0032] Ved hvert bilde for innsamling, mottar deteksjonssystemet opphopnings-"skyen" av innhentede tre lokaliseringer i rommet som omfatter alle merker fra tagger som for det inneværende er i det instrumenterte arbeidsromvolum (innenfor det synlige spekter for kameraene eller andre detektorer). Merkene på hver tagg har et tilstrekkelig mangfold og er anordnet i unike mønstre, slik at deteksjonssystemet kan utføre de følgende oppgaver: (1) segmentering, hvor hver innhentede merkeposisjon tilordnes til én og kun én delsamling av punkter som danner en enkelt tagg; (2) etikettering, hvor hver segmenterte delsamling av punkter identifiseres som en bestemt tagg; (3) lokalisering, hvor de tre posisjoner i rommet for den identifiserte tagg innhentes; og (4) orientering, hvor de tre orienteringer i rommet av den identifiserte tagg innhentes. Oppgave (1) og (2) gjøres mulig gjennom det spesifikke tegn av merkemønstrene, som beskrevet nedenfor og som illustrert i utførelsen på figur 2.
[0033] Merkene på taggene er i en utførelse festet til et delsett av regelmessige rutenettlokaliseringer. Dette underliggende rutenett kan, som i den foreliggende utførelse, være av den tradisjonelle kartesiske type; eller kan isteden være en eller annen regelmessig, plan tesselasjon (for eksempel et trekantet/sekskantet arrangement av overlappende vinduer). Skalaen og innbyrdes avstand i rutenettet etableres i forhold til den kjente romlige oppløsning av det merkesansende system, slik at det ikke er trolig at tilgrensende rutenettlokaliseringer blir blandet sammen. Valg av merkemønstre for alle tagger bør oppfylle den følgende skranke: intet merkes mønster skal falle sammen med mønsteret for en annen taggs mønster gjennom en hvilken som helst kombinasjon av rotasjon, translasjon eller speiling. Mangfoldet og arrangementet av merker kan videre velges slik at tap (eller sperring for) et spesifisert antall av komponentmerker tolereres: etter en hvilken som helst vilkårlig omdanning, bør det fremdeles være usannsynlig at den forringede modul forveksles med en annen.
[0034] Det vises nå til figur 2, hvor et antall av tagger 201A-201E (venstre hånd) og 202A-202E (høyre hånd) er vist. Hver tagg er rektangulær og består i denne utførelse av en 5x7 rutenettoppstilling. Den rektangulære form er valgt som en hjelp ved å bestemme orientering av taggen og for å redusere sannsynligheten for speil-duplikater. I den viste utførelse er det tagger for hver finger på hver hånd. I enkelte utførelser kan det være passende å bruke én, to, tre eller fire tagger per hånd. Hver tagg har en kant med en forskjellig gråskala eller fargesjattering. Innenfor denne kanten er det en 3x5 rutenettoppstilling. Merker (representert med de sorte prikker på figur 2) er anordnet i visse punkter i rutenettoppstillingen for å tilveiebringe informasjon.
[0035] Kvalifiserende informasjon kan kodes i taggenes merkemønstre gjennom segmentering av hvert mønster til "felles" og "unike" delmønstre. For eksempel spesifiserer den foreliggende oppfinnelse to mulig "kantmønstre", fordelinger av merker omkring en rektangulær avgrensning. En "familie" av tagger blir således etablert ~ taggene som er tiltenkt for venstre hånd kan således alle bruke det samme kantmønster som er vist i taggene 201 A-201 E, mens de som er innfestet til den høyre håndens fingre kan tilordnes et forskjellig mønster, som vist i taggene 202A-202E. Dette delmønsteret er valgt slik at i alle orienteringer av taggene, kan det venstre mønster sjeldnes fra det høyre mønster. I det illustrerte eksempel inkluderer mønsteret på venstre hånd et merke i hvert hjørne og et merke i en rutenett-lokalisering som er nummer to fra hjørnet. Mønsteret på høyre hånd har merker i kun to hjørner og to merker i rutenettlokaliseringer som ikke er i hjørnet. En inspeksjon av mønsteret røper at så lenge hvilke som helst tre av de fire merkene er synlige, kan mønsteret på venstre hånd sikkert sjeldnes fra mønsteret på venstre hånd. I en utførelse kan fargen eller sjatteringen av kanten også brukes som en indikator på tendensen til å bruke en hånd istedenfor den andre.
[0036] Hver tagg må selvsagt likevel anvende et unikt indre mønster, med merkene fordelt innenfor sin families felles kant. I den viste utførelse har det blitt funnet at to merker i den indre rutenettoppstilling er tilstrekkelig til unikt å identifisere hver av de ti fingre uten noen duplisering på grunn av rotasjon eller orientering av fingrene. Selv om ett av merkene er sperret for, gir kombinasjonen av mønsteret og tendensen til å bruke en hånd istedenfor den andre for taggen en unik identifikator.
[0037] I den foreliggende utførelse er rutenettlokaliseringene visuelt til stede på det faste underlag som en hjelp ved den (manuelle) oppgave med å innfeste hvert tilbakerepeterende merke ved sin tiltenkte lokalisering. Disse rutenettene og de tiltenkte merkelokaliseringer er i bokstavelig forstand trykket via fargeblekkstråleskriver på underlaget, som her er et ark av (initialt) fleksibel "krympefilm". Hver modul er skåret fra arket og deretter ovnsbakt, under hvilken termisk behandling hver modul gjennomgår en nøyaktig og repeterbar krymping. I et kort intervall etter denne prosedyre, kan taggen som er under avkjøling formes litt - for å følge den langs-gående kurve til for eksempel en finger; deretter er underlaget passende stivt, og merker kan festes ved de viste rutenettpunkter.
[0038] I en utførelse er selve merkene tredimensjonale, så som små reflekterende kuler som er innfestet til underlaget via klebemiddel eller et annet passende middel. Tredimensjonaliteten til merkene kan være en hjelp ved deteksjon og lokalisering over todimensjonale merker. Begge kan imidlertid brukes uten å avvike fra den foreliggende oppfinnelses idé og omfang.
[0039] For det inneværende blir tagger festet ved hjelp av borrelås eller andre passende midler til en hanske som bæres av operatøren, eller blir alternativt festet direkte til operatørens fingre ved bruk av en myk, dobbeltsidig tape. I en tredje ut-førelse er det mulig fullstendig å unnvære det stive underlag og feste - eller "male" - individuelle merker direkte på operatørens fingre og hender.
[0040] Gestvokabular
[0041] Ved oppfinnelsen tenker man seg et gestvokabular som består av håndstillinger, orientering, håndkombinasjoner og orienteringsblandinger. Et notasjons-språk er også implementert for å designe og kommunisere stillinger og gester i gest-vokabularer ifølge oppfinnelsen. Gestvokabularet er et system for å representere øyeblikkelige "stillingstilstander" for kinematiske leddinnretninger i kompakt tekstform. De aktuelle leddinnretninger kan være biologiske (for eksempel en menneskelig hånd; eller et helt menneskelig legeme; eller et gresshoppebein; eller den leddelte ryggrad til en lemur) eller kan isteden være ikke-biologisk (eksempelvis en robotarm). I ethvert tilfelle kan leddinnretningen være enkel (ryggraden) eller forgrenende
(hånden). Gestvokabularsystemet ifølge oppfinnelsen etablerer for enhver spesifikk leddinnretning en streng med konstant lengde; gruppen av de spesifikke ADCII-tegn som opptar strengens "tegnlokaliseringer" er da en unik beskrivelse av den øyeblikkelig tilstand, eller "stilling" av leddinnretningen.
[0042] Håndstillinger
[0043] Figur 3 illustrerer håndstillinger i en utførelse av et gestvokabular som bruker oppfinnelsen. Oppfinnelsen antar at hver av de fem fingrene på en hånd brukes. Disse fingrene er koder, så som p-lillefinger (punkie), r-ringfinger, m-lang-finger (middel finger), i-pekefinger (index finger) og t-tommel. Et antall stillinger for fingrene og tommelen er definert og illustrert på figur 3. En gestvokabularstreng etablerer en enkelt tegnposisjon for hver frihetsgrad som kan uttrykkes i leddinnretningen (i dette tilfelle en finger). Videre, hver slik frihetsgrad forstås å være diskretisert (eller kvantifisert), slik at et fullt spekter av bevegelse kan uttrykkes gjennom tilordning av ett av et endelig antall av standard ASCII-tegn ved denne strengposisjonen. Disse frihetsgradene uttrykkes i forhold til et kroppsspesifikt origo og koordinatsystem (baksiden av hånden, senteret for gresshoppens legeme; basisen for robotarmen; osv.). Et lite antall av ytterligere gestvokabulartegnposisjoner brukes derfor til å uttrykke posisjonen og orienteringen til leddinnretningen (som en helhet) i det mer globale koordinatsystem.
[0044] Fremdeles med henvisning til figur 3, defineres og identifiseres et antall stillinger ved bruk av ASCII-tegn. Enkelte av stillingene er delt mellom tommel og ikke-tommel. Oppfinnelsen bruker i denne utførelse en koding, slik at selve ASCII-tegnet er suggestivt for stillingen. Ethvert tegn kan imidlertid brukes til å representere en stilling, uansett om det er suggestivt eller ikke. I tillegg er det i oppfinnelsen ikke noe krav om å bruke ASCII-tegn for notasjonsstrengene. Et hvilket som helst egnet symbol, talltegn eller annen representasjon kan brukes uten å avvike fra oppfinnel-sens omfang og idé. For eksempel kan notasjonen bruke to bits per finger, hvis dette er ønskelig, eller et annet antall bits, etter ønske.
[0045] En krummet finger representeres av tegnet "<A>" mens en krummet tommel av ">". En rett finger eller tommel som peker oppover er angitt med "1" og en vinkel med "\" eller " I"."-" representerer en tommel som peker rett til siden, og "x" representerer en tommel som peker inn i planet.
[0046] Ved bruk av disse individuelle finger- og tommelbeskrivelser, kan et robust antall av håndstillinger defineres og skrives ved bruk av systemet ifølge oppfinnelsen. Hver stilling representeres av fem tegn, hvor rekkefølgen er p-r-m-i-t som beskrevet ovenfor. Figur 3 illustrerer et antall av stillinger, og noen få er her beskrevet som en illustrasjon og et eksempel. Hånden som holdes flat og parallell med underlaget er representert av "11111". En neve er representert av" Et "OK" tegn er representert av "111 >".
[0047] Tegnstrengene tilveiebringer muligheten for endefrem "menneskelig les-barhet" ved bruk av suggestive tegn. Settet av mulig tegn som beskriver hver frihetsgrad kan generelt velges med tanke på hurtig gjenkjennelse og innlysende analogi. For eksempel, en vertikal stav ("|") vil trolig bety at et leddinnretningselement er "rett", en ell ("L") kan bety en nittigraders bøy, og en cirkumfleks ("<A>") kan indikere en skarp bøy. Som påpekt ovenfor, alle tegn eller enhver koding kan brukes, hvis dette er ønskelig.
[0048] Ethvert system som anvender gestvokabularstrenger, så som her beskrevet, nyter den fordel at det er høy beregningsmessig effektivitet ved sammenligning av strenger - identifikasjon av eller søk etter en hvilken som helst spesifisert stilling blir i bokstavelig forstand en "strengsammenligning" (eksempelvis UNIX sin "strcmpO" funksjon) mellom den ønskede stillingsstreng og den øyeblikkelige faktiske streng. Videre, bruken av "joker"-tegn forsyner programmereren eller system-designeren med ytterligere effektivitet og virkning som han eller hun er fortrolig med: frihetsgrader hvis øyeblikkelige tilstand er irrelevant for en sammenligning kan spesifiseres som et utspørringspunkt ("?"); ytterligere meninger med jokertegn kan tilordnes.
[0049] Orientering
[0050] I tillegg til stillingen av fingrene og tommelen, kan orienteringen av hånden representere informasjon. Tegn som beskriver orienteringer i det globale rom kan også velges transparent: tegnene "<", ">", "<A>" og "v" kan brukes til å vise, når de påtreffes i en orienteringstegnposisjon, ideene med venstre, høyre, opp og ned. Figur 4 illustrerer håndorientering deskriptorer og eksempler på koding som kombinerer stilling og orientering. I en utførelse av oppfinnelsen spesifiserer to tegnposisjoner først retningen av håndflaten og deretter retningen av fingrene (hvis de var rette, uten hensyn til fingrenes faktiske bøyinger). De mulige tegn for disse to posisjoner uttrykker et "kroppssentrisk" begrep for orientering:"?", "x", "<*>","<A>" og "v" beskriver medial, lateral, anterior (forover, bort fra kroppen), posterior (bakover, bort fra kroppen), kranial (oppover) og kaudal (nedover).
[0051] I notasjonssystemet for og utførelsen av oppfinnelsen, er de tegn som angir stillingen med fem fingrene fulgt av et kolon og deretter to orienteringstegn, for å definere en fullstendig kommandostilling. I en utførelse refereres en startposisjon til som en "xyz"-stilling hvor tommelen peker rett opp, pekefingeren peker forover og langfingeren står vinkelrett på pekefingeren, og peker til venstre når stillingen gjøres med høyre hånd. Dette er representert av strengen "<AA>x1-:-x".
[0052] "XYZ-hånd" er en teknikk for å utnytte geometrien til den menneskelige hånd for å tillate full navigasjon med seks frihetsgrader for en visuelt presentert tredimensjonal struktur. Selv om teknikken kun avhenger av omfanget av translasjon og rotasjon av operatørens hånd - slik at dens fingre i prinsippet kan holdes i en hvilken som helst stilling som er ønskelig - foretrekker den foreliggende oppfinnelse en statisk konfigurasjon hvor pekefingeren peker bort fra kroppen; tommelen peker mot takter; og langfingeren peker venstre-høyre. De tre fingre beskriver således (grovt sett, men med klart innlysende intensjon) de tre innbyrdes ortogonale akser i et tredimensjonalt koordinatsystem: således "XYZ-hånd".
[0053] XYZ-håndnavigasjonen går deretter videre med hånden, fingrene i en stilling som beskrevet ovenfor, holdt foran operatørens legeme i en forhåndsbestemt "nøytral lokalisering". Adgang til de tre translasjonsmessig og tre rotasjonsmessige frihetsgrader for et tredimensjonalt objekt (eller kamera) bevirkes på den følgende naturlige måte: venstre-høyre bevegelse av hånden (i forhold til kroppens naturlige koordinatsystem) resulterer i bevegelse langs den beregningsmessige konteksts x-akse; opp-ned bevegelse av hånden resulterer i bevegelse langs den styrte kontekst y-akse; og bevegelse av hånden forover-bakover (mot/bort fra operatørens legeme) resulterer i z-aksebevegelse innenfor konteksten. Tilsvarende, rotasjon av opera-tørens hånd omkring pekefingeren fører til en "rulle"-forandring av den beregningsmessige konteksts orientering; "stampe"- og "gire"-forandringer bevirkes analogt, gjennom rotasjon av operatørens hånd omkring langfingeren henholdsvis tommelen.
[0054] Bemerk at selv om "beregningsmessig kontekst" her brukes til å referere til den entitet som styres av metoden med XYZ-hånd - og synes å foreslå enten et syntetisk tredimensjonalt objekt eller kamera - skal det forstås at teknikken er like nyttig for styring av forskjellige frihetsgrader for objekter i den virkelige verden: for eksempel styringsinnretninger for panorering/skråstilling/rulling for et videokamera eller bevegelsesbildekamera som er utstyrt med passende rotasjonsaktuatorer. Videre, den fysikalske frihetsgrad som gjøres mulig ved hjelp av XYZ-håndstillingen kan være noe mindre avbildet i bokstavelig forstand, selv i en virtuell domene: I den foreliggende utførelse, brukes XYZ-hånden også til å tilveiebringe navigasjonsmessig adgang til store panorama displayavbildninger, slik at venstre-høyre og opp-ned bevegelser av operatørens hånd fører til den forventede venstre-høyre eller opp-ned "panorering" omkring avbildningen, men forover-bakover bevegelse av operatørens hånd avbildes til "zooming"-styring.
[0055] I hvert tilfelle kan kopling mellom bevegelsen til hånden og den fremkalte beregningsmessige translasjon/rotasjon enten være direkte (det vil si at en posisjonsmessig eller rotasjonsmessig forskyvning av operatørens hånd avbildes en-til-en, via en lineær eller ikke-lineær funksjon, til en posisjonsmessig eller rotasjonsmessig forskyvning av objektet eller kameraet i den beregningsmessige kontekst) eller indirekte (det vil si at posisjonsmessig eller rotasjonsmessig forskyvning av opera-tørens hånd avbildes en-til-en, via en lineær eller ikke-lineær funksjon, til en første eller høyere grads derivert av posisjon/orientering i den beregningsmessige kontekst; pågående integrasjon bevirker da en ikke-statisk forandring i den beregningsmessige konteksts faktiske nulte ordens posisjon/orientering). Dette sistnevnte middel til styring er analogt til bruk av en bils "gasspedal", hvor en konstant forskyvning av pedalene mer eller mindre fører til en konstant hastighet av kjøretøyet.
[0056] Den "nøytrale lokalisering" som virker som XYZ-håndens lokale koordinatorigo for seks frihetsgrader i den virkelige verden kan etableres (1) som en absolutt posisjon og orientering i rommet (i forhold til, la oss si, det innelukkende rom); (2) som en fast posisjon og orientering i forhold til operatøren i seg selv (eksempelvis 203,2 mm foran kroppen, 254 mm under haken og sideveis på linje med skulder-planet), uten hensyn til den samlede posisjon og "retning" til operatøren; eller (3) interaktivt, gjennom forsettelig sekundær handling av operatøren (for eksempel ved bruk av en gestkommando som utføres av operatørens "andre" hånd, idet kommandoen viser at XYZ-håndens inneværende posisjon og orientering fra nå av bør brukes som det translatoriske og rotasjonsmessige origo).
[0057] Det er videre passende å tilveiebringe et "sperre"-område (eller "dødsone") omkring XYZ-håndens nøytrale lokalisering, slik at bevegelser innenfor dette volumet ikke avbildes til bevegelser i den styrte kontekst.
[0058] Andre stillinger kan inkludere: [|||||:vx] er en flat hånd (tommel parallell med fingrene) med håndflaten vendende ned og fingrene forover.
[|||||:x<A>] er en flat hånd med håndflaten vendende forover og fingrene mot taket.
[|||||:-x] er en flat hånd med håndflaten vendende mot senteret av kroppen (høyre hvis venstre hånd, venstre hvis høyre hånd) og fingrene forover.
[AAAA-:-x]er én-hånds tommel opp (med tommel pekende mot taket).
[AAA|-:-x] er mime skytevåpen pekende forover.
[0059] To- hånds kombinasjon
[0060] Ved den foreliggende oppfinnelse tenker man seg én-hånds kommandoer og stillinger, så vel som to-hånds kommandoer og stillinger. Figur 5 illustrerer eksempler på to-hånds kombinasjoner og tilknyttet rotasjon i en utførelse av oppfinnelsen. Ved gjennomgang av notasjonen i det første eksempel, "full stopp" viser at den omfatter to lukkede never. Eksemplet med "øyeblikksbilde" har tommelen og pekefingeren på hver hånd utstrukket, tomlene peker mot hverandre, hvilket definerer en målstolpeformet ramme. "Ror og gasspjeld startposisjon" er fingrene og tomler som peker opp, håndflater vendende mot skjermen.
[0061] Orienteringsblandinger
[0062] Figur 6 illustrerer et eksempel på en orienteringsblanding i en utførelse av oppfinnelsen. I det viste eksempel er blandingen representert av innelukkende par av orienteringsnotasjoner i parenteser etter strengen med fingerstilling. For eksempel viser den første kommando fingerposisjoner hvor alle peker rett. Det første par av orienteringskommandoer vil resultere i at håndflatene er flate mot displayet, og det annet par har hender som roterer til en 45 graders helling mot skjermen. Selv om par av blandinger er vist i dette eksempel, er et hvilket som helst antall av blandinger tenkelige i oppfinnelsen.
[0063] Eksempelkommandoer
[0064] Figur 8 illustrerer et antall av mulige kommandoer som kan brukes sammen med den foreliggende oppfinnelse. Selv om noe av drøftelsen her har vært om styring av en markør på et display, er oppfinnelsen ikke begrenset til denne aktivitet. Oppfinnelsen har faktisk stor applikasjon ved manipulering av ethvert og alle data og partier av data på en skjerm, så vel som tilstanden til displayet. For eksempel kan kommandoene brukes til å ta plassen til videostyringsinnretninger under tilbake-spilling av videomedia. Kommandoene kan brukes til pause, hurtig forover, tilbake-spoling og lignende. I tillegg kan kommandoer implementeres for å zoome inn eller zoome ut av en avbildning, for å forandre orienteringen til en avbildning, for å panorere i en hvilken som helst retning, og lignende. Oppfinnelsen kan også brukes istedenfor menykommandoer, så som åpne, lukke, lagre og lignende. Med andre ord, enhver kommando eller aktivitet som er tenkelig kan implementeres med håndgester.
[0065] Operasjon
[0066] Figur 7 er et flytdiagram som illustrerer operasjonen av oppfinnelsen i en utførelse. I trinn 701 detekterer deteksjonssystemet merkene og taggene. I beslutningsblokk 702 fastslås om taggene og merkene er detektert. Hvis ikke returnerer systemet til trinn 701. Hvis taggene og merkene er detektert i trinn 702, fortsetter systemet til trinn 703. I trinn 703 identifiserer systemet hånden, fingrene og stilling fra de detekterte tagger og merker. I trinn 704 identifiserer systemet orienteringen til stillingen. I trinn 705 identifiserer systemet den tredimensjonale romlige lokalisering av hånden eller hendene som er detektert. (Vennligst merk at et hvilket som helst av eller alle trinnene 703, 704 og 705 kan kombineres som et enkeltrinn).
[0067] I trinn 706 omformes informasjonen til den gestnotasjon som er beskrevet ovenfor. I beslutningsblokk 707 fastslås det om stillingen er gyldig. Dette kan oppnås via en enkel strengsammenligning ved bruk av den genererte notasjonsstreng. Hvis stillingen ikke er gyldig, returnerer systemet til trinn 701. Hvis stillingen er gyldig, sender systemet notasjons- og posisjonsinformasjonen til datamaskinen i trinn 708.1 trinn 709 bestemmer datamaskinen den passende handling som skal foretas som respons på gesten og oppdaterer displayet i henhold til trinn 710.
[0068] I en utførelse av oppfinnelsen utføres trinnene 701-705 ved hjelp av prosessoren i kameraet. I andre utførelsesformer kan prosesseringen utføres ved hjelp av systemdatamaskinen, hvis dette er ønskelig.
[0069] Analysering og omforming
[0070] Systemet er i stand til å "analysere" og "omforme" en strøm av lavnivå gester som er innhentet av et underliggende system, og forvandle disse analyserte og omformede gester til en strøm av kommandodata eller hendelsesdata som kan brukes til å styre et bredt spekter av datamaskinapplikasjoner og systemer. Disse teknikker og algoritmer kan gis konkret form i et system bestående av datamaskin-kode som tilveiebringer både en motor som implementerer disse teknikker og en plattform for bygging av datamaskinapplikasjoner som gjør bruk av motorens egen-skaper.
[0071] En utførelsesform er fokusert på å muliggjøre rik bruk av gester av menneskelige hender i datamaskingrensesnitt, men er også i stand til å gjenkjenne gester som er laget av andre kroppsdeler (inkludert, men ikke begrenset til, armer, torso, ben og hodet), så vel som ikke-hånd fysiske verktøy av forskjellige slag, både statiske og artikulerende, inkludert, men ikke begrenset til, krumpassere, kompass, approksimatorer for fleksible kurver og pekeinnretninger av forskjellige former. Merkene og taggene kan anvendes på gjenstander og verktøy som kan bæres og brukes av operatøren etter ønske.
[0072] Systemet som her er beskrevet inkorporerer et antall av innovasjoner som gjør det mulig å bygge gestsystemer som har et rikt spekter av gester som kan gjenkjennes og som det kan handles ut fra, samtidig som det sørges for enkel integrasjon i applikasjoner.
[0073] Systemet for analysering og omforming av gester består i en utførelse av:
[0074] 1) en kompakt og effektiv måte til å spesifisere (kode for bruk i datamaskin-programmer) gester på flere forskjellige nivåer av opphopning: a. en én-hånds "stilling" (konfigurasjonen og orienteringen av delene av hånden i forhold til hverandre) en én-hånds orientering og posisjon i det tredimensjonale rom.
b. to-hånds kombinasjoner, hvor det for hver hånd tas hensyn til stilling,
posisjon eller begge deler.
c. flere-personkombinasjoner; systemet kan følge flere enn to hender, og slik kan flere enn én person samvirkende (eller konkurrerende i tilfelle av spillapplikasjoner) styre målsystemet. d. sekvensielle gester hvor stillinger kombineres i en serie, vi kaller
disse "animerende" gester.
e. "grafem"-gester, hvor operatøren tegner former i rommet.
[0075] 2) en programmatisk teknikk for registrering av spesifikke gester fra hver kategori ovenfor som er relevante for en gitt applikasjonskontekst
[0076] 3) algoritmer for analysering av geststrømmen, slik at registrerte gester kan identifiseres og hendelser som innkapsler disse gester kan leveres til relevante applikasjonskontekster.
[0077] Spesifikasjonssystemet (1), med utgjørende elementer (1a) til (1f), tilveiebringer basis for å gjøre bruk av evner for analysering og omforming av gester ved det system som her er beskrevet.
[0078] En én-hånds "stilling" representeres som en streng av
[0079] i) relative orienteringer mellom fingrene og håndens bakside,
[0080] ii) kvantisert til et lite antall av diskrete tilstander.
[0081] Bruk av relative leddorienteringer tillater at det ved det system som her er beskrevet unngås problemer som er tilknyttet forskjellige håndstørrelser og geo-metrier. Ingen "operatørkalibrering" er påkrevd med dette system. I tillegg, spesifisering av stillinger som en streng eller samling relative orienteringer tillater at mer komplekse gestspesifikasjoner enkelt dannes ved kombinering av stillingsrepresenta-sjoner med ytterligere filtre og spesifikasjoner.
[0082] Bruk av et lite antall av diskrete tilstander for stillingsspesifikasjon gjør det mulig å spesifisere stillinger kompakt, så vel som å sørge for nøyaktig stillings-gjenkjennelse ved bruk av et mangfold av underliggende følgingsteknologier (for eksempel passiv optisk følging ved bruk av kameraer, aktiv optisk følging ved bruk av belyste prikker og kameraer, elektromagnetisk feltfølging, osv.).
[0083] Gester i hver kategori (1a) til (1f) kan delvis (eller minimalt) spesifiseres, slik at ikke-kritiske data ignoreres. For eksempel kan en gest hvor posisjonen til to fingre er definitiv, og andre fingerposisjoner er uviktige, representeres av en enkelt spesifikasjon hvor de operative posisjoner til de to relevante fingre er gitt, og, innenfor den samme streng, "jokere" eller generiske "ignorer disse"-indikatorer er opplistet for de andre fingre.
[0084] Alle de innovasjoner som her er beskrevet for gestgjenkjennelse, inkludert, men ikke begrenset til, teknikken med flerlags spesifikasjon, bruken av relative orienteringer, kvantifisering av data og hensyntagen til delvis eller minimal spesifikasjon ved hvert nivå, generaliseres utenfor spesifikasjonen av håndgester til spesifikasjon av gester ved bruk av andre kroppsdeler og "fremstilte" verktøy og objekter.
[0085] De programmerte teknikker for "registrering av gester" (2) består av et definert sett av applikasjons programmeringsgrensesnittkall (Application Programming Interface calls) som gjør det mulig for en programmerer å definere hvilke gester motoren bør gjøre tilgjengelige for andre deler av det kjørende system.
[0086] Disse API-rutiner kan brukes ved applikasjonsoppsett tidspunktet, hvilket danner en statisk grensesnittdefinisjon som brukes gjennom hele levetiden til den kjørende applikasjon. De kan også brukes i løpet av kjøringen, hvilket tillater forandring av grensesnittkarakteristikaene på direkten. Denne sanntidsendringen av grensesnittet gjør det mulig å
[0087] i) bygge komplekse kontekstuelle og betingede styringstilstander,
[0088] ii) å dynamisk addere hysterese til styringsomgivelsen, og
[0089] iii) å danne applikasjoner hvor brukeren er i stand til å endre eller utvide grensesnittvokabularet til selve det kjørende system.
[0090] Algoritmer for analysering av geststrømmen (3) sammenligner gester spesifisert som i (1) og registrert som i (2) mot innkommende lavnivå gestdata. Når en overensstemmelse for en registrert gest gjenkjennes, blir hendelsesdata som representerer den overensstemmende gest levert opp stakken til kjørende applikasjoner.
[0091] Effektiv sanntids sammenligning er ønskelig i designen av dette systemet, og spesifiserte gester behandles som et tre av muligheter som prosesseres så raskt som mulig.
[0092] I tillegg blir de primitive sammenligningsoperatorer som brukes internt til å gjenkjenne spesifiserte gester også eksponert for bruk av applikasjonsprogramme-reren, slik at ytterligere sammenligning (for eksempel fleksibel tilstandsinspeksjon i komplekse eller sammensatte gester) kan skje selv fra innenfor applikasjonskontekster.
[0093] Gjenkjennelse av "låsende" semantikk er en innovasjon ved det system som her er beskrevet. Denne semantikken er implisitt på grunn av registreringen API (2) (og, i en mindre utstrekning, innleiret innenfor spesifikasjonsvokabularet (1)). Registrering API-kall inkluderer
[0094] i) "inngang" tilstandsvarslere og "fortsettelse" tilstandsvarslere, og
[0095] ii) gestprioritets spesifikasjonselement.
[0096] Hvis en gest har blitt gjenkjent, går dens "fortsettelse"-betingelser foran alle "inngang"-betingelser for gester med de samme eller lavere prioriteter. Denne forskjell mellom inngang- og fortsettelsestilstander øker signifikant systemets opp-fattede ustabilitet.
[0097] Det system som her er beskrevet inkluderer algoritmer for robust operasjon til tross for datafeil og usikkerhet i den virkelige verden. Data fra lavnivå følgings-systemer kan være ufullstendige (av et mangfold av årsaker, inkludert sperring for merker i optisk følging, bortfall av nettverk eller prosesseringsetterheng, osv.).
[0098] Manglende data merkes av analyseringssystemet, og interpoleres til enten "sist kjente" eller "mest sannsynlige" tilstander, avhengig av mengden og konteksten av de manglende data.
[0099] Hvis data om en bestemt gestkomponent (for eksempel orienteringen til et bestemt ledd) mangler, men den "sist kjente" tilstand for den bestemte komponenten kan analyseres som fysisk mulig, bruker systemet denne sist kjente tilstand i sin sanntids sammenligning.
[00100] Omvendt, hvis den sist kjente tilstand analyseres som fysisk umulig, faller systemet tilbake til et "beste gjetningsområde" for komponenten, og bruker disse syntetiske data i sin sanntids sammenligning. [00101 ] Den spesifikasjon og de analyseringssystemer som her er beskrevet har blitt nøye designet til å støtte "agnostisisme ved tendensen til å bruke en hånd istedenfor den andre", slik at for flerhåndsgester tillates hver hånd å oppfylle kravene til stilling.
[00102] Sammenfallende virtuell/ display og fysiske rom
[00103] Systemet kan tilveiebringe en omgivelse hvor virtuelt rom vist på en eller flere displayinnretninger ("skjermer") behandles som sammenfallende med det fysiske rom hvor operatøren eller operatørene av systemet holder til. En utførelses-form av en slik omgivelse er her beskrevet. Denne inneværende utførelsesform inkluderer tre prosjektordrevne skjermer ved faste lokaliseringer, er drevet av en enkel borddatamaskin, og styres ved bruk av det gestvokabular og det grensesnittsystem som her er beskrevet. Merk imidlertid at et hvilket som helst antall av skjermer støttes av de teknikker som er beskrevet; at disse skjermene kan være mobile (istedenfor faste); at skjermene kan drives av mange uavhengige datamaskiner samtidig; og at det samlede system kan styres av en hvilken som helst innmatingsinnretning eller teknikk.
[00104] Det grensesnittsystem som er beskrevet i denne offentliggjøring bør ha et middel til å bestemme dimensjonene, orienteringene og posisjonene til skjermer i fysisk rom. Gitt denne informasjon er systemet i stand dynamisk å avbilde det fysiske rom hvor disse skjermer er lokalisert (og hvor operatørene av systemet holder til) som en projeksjon inn i det virtuelle rom for datamaskinapplikasjoner som kjører på systemet. Som en del av denne automatiske avbilding, omformer systemet også skalaen, vinklene, dybden, dimensjonene og andre romlige karakteristika for de to rom på et mangfold av måter, i henhold til behovene for de applikasjoner som systemet er vert for.
[00105] Denne kontinuerlige omforming mellom fysisk og virtuelt rom muliggjør den konsistente og gjennomgripende bruk av et antall av grensesnitteknikker som er vanskelig å oppnå på eksisterende applikasjonsplattformer, eller som må implementeres bit for bit for hver applikasjon som kjører på eksisterende plattformer. Disse teknikkene inkluderer (men er ikke begrenset til):
[00106] 1) Bruk av "peking i bokstavelig forstand" - ved bruk av hendene i en gest grensesnittomgivelse, eller ved bruk av fysiske pekeverktøy eller -innretninger - som en gjennomgripende og naturlig grensesnitteknikk.
[00107] 2) Automatisk kompensasjon for bevegelse eller reposisjonering av skjermer.
[00108] 3) Grafisk gjengivelse som forandres avhengig av operatørens posisjon, for eksempel ved simulering av parallakseforskyvninger for å øke dybdepersepsjon.
[00109] 4) Inkludering av fysiske objekter i display på skjermen - idet det tas hensyn til posisjon, orientering, tilstand, osv. i den virkelige verden. For eksempel, en operatør som står foran en stor, opak skjerm, kan se både applikasjonsgrafikk og en representasjon av den sanne posisjon til en skalamodell som er bak skjermen (og som kanskje er i bevegelse eller forandrer orientering).
[00110] Det er viktig å merke seg at peking i bokstavelig forstand er forskjellig fra den abstrakte peking som brukes i musebaserte vindusgrensesnitt og de fleste andre nåværende systemer. I disse systemer må operatøren lære å ta hånd om en omforming mellom en virtuell peker og en fysisk pekeinnretning, og må avbilde mellom de to kognitivt.
[00111] I kontrast til dette, i de systemer som er beskrevet i denne offentliggjøring, er det ingen forskjell mellom virtuelt og fysisk rom (med unntak av at virtuelt rom er mer egnet til matematisk manipulasjon), enten fra et applikasjonsperspektiv eller brukerperspektiv, slik at ingen kognitiv omforming er påkrevd for operatøren.
[00112] Den nærmeste analogi for pekingen i bokstavelig forstand som tilveie-bringes av den utførelse som her er beskrevet er den berøringssensitive skjerm (som finnes for eksempel i mange ATM-maskiner). En berøringssensitiv skjerm tilveiebringer en til en avbilding mellom det todimensjonale visningsrom på skjermen og det todimensjonale innmatingsrom på skjermens overflate. På en analog måte tilveiebringer de systemer som her er beskrevet en fleksibel avbilding (muligens, men ikke nødvendigvis, en til en) mellom et virtuelt rom som vises på en eller flere skjermer og det fysiske rom hvor operatøren holder til. Til tross for nyttigheten av analogien, er det verdt å forstå at utvidelsen av denne "avbildningsløsningsmåte" til tre dimensjoner, en vilkårlig stor arkitektonisk omgivelse, og flere skjermer er ikke-triviell.
[00113] I tillegg til de komponenter som her er beskrevet, kan systemet også implementere algoritmer som implementerer en kontinuerlig avbilding på systemnivå
(kanskje modifisert ved rotasjon, translasjon, skalering eller andre geometriske transformasjoner) mellom det fysiske rom for omgivelsen og visningsrom met på hver skjerm.
[00114] En gjengivelsesstakk som tar de beregningsmessige objekter og avbildningen og mater ut en grafisk representasjon av det virtuelle rom.
[00115] En innmatingshendelses prosesseringsstakk som tar hendelsesdata fra et styringssystem (i den inneværende utførelse både gestdata og pekedata fra systemet og museinnmatingen) og avbilder romlige data fra innmatingshendelser til koordinater i virtuelt rom. Omformede hendelser leveres deretter til kjørende applikasjoner.
[00116] Et "limlag" som tillater systemet å være vert for applikasjoner som kjører over flere datamaskiner på et nettverk i lokalt område.
[00117] Et gestbasert styringssystem har således blitt beskrevet.

Claims (105)

1. Fremgangsmåte, karakterisert vedat den omfatter: automatisk detektering av en gest for et legeme fra gestdata mottatt via en optisk detektor, hvor gestdataene er absolutte 3D romlige lokaliseringsdata for en øyeblikkelig tilstand av legemet ved et punkt i tid og rom, idet detekteringen omfatter innsamling eller aggregering av gestdataene, og identifisering av gesten ved bruk av kun gestdataene; omforming av gesten til et gestsignal; og styring av en komponent som er koplet til en datamaskin som svar på gestsignalet.
2. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer detektering av en lokalisering av legemet.
3. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer detektering av en orientering av legemet.
4. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer detekteringsbevegelse av legemet.
5. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen omfatter identifisering av gesten, hvor identifiseringen inkluderer identifisering av en stilling og en orientering av et parti av legemet.
6. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer detektering av i det minste det ene av et første sett av vedheng og et annet sett av vedheng til legemet.
7. Fremgangsmåte som angitt i krav 6, karakterisert vedat legemet er et menneske, hvor det første sett av vedheng inkluderer i det minste én hånd, hvor det annet sett av vedheng inkluderer i det minste én finger på den minst ene hånd.
8. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer optisk detektering av bevegelse av legemet.
9. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer dynamisk detektering av en posisjon av i det minste én tagg.
10. Fremgangsmåte som angitt i krav 9, karakterisert vedat detekteringen inkluderer detektering av posisjon av et sett av tagger som er koplet til en del av legemet.
11. Fremgangsmåte som angitt i krav 10, karakterisert vedat hver tagg i settet av tagger inkluderer et mønster, hvor hvert mønster for hver tagg i settet av tagger er forskjellig fra et hvilket som helst mønster for noen gjenværende tagg i flerheten av tagger.
12. Fremgangsmåte som angitt i krav 11, karakterisert vedat hver tagg inkluderer et første mønster og et annet mønster, hvor det første mønster er felles for enhver tagg i settet av tagger og det annet mønster er forskjellig mellom i det minste to tagger i settet av tagger.
13. Fremgangsmåte som angitt i krav 10, karakterisert vedat settet av tagger danner en flerhet av mønstre på legemet.
14. Fremgangsmåte som angitt i krav 9, karakterisert vedat detekteringen inkluderer detektering av posisjon for en flerhet av vedheng til legemet ved bruk av et sett av tagger som er koplet til hvert av vedhengene.
15. Fremgangsmåte som angitt i krav 14, karakterisert vedat et første taggersett er koplet til et første vedheng, idet det første sett av tagger inkluderer en første flerhet av tagger, hvor hver tagg inkluderer et første mønster som er felles for taggene i den første flerhet av tagger og et annet mønster som er unikt for hver tagg i den første flerhet av tagger.
16. Fremgangsmåte som angitt i krav 15, karakterisert vedat et annet taggersett er koplet til et annet vedheng, idet det annet sett av tagger inkluderer en annen flerhet av tagger, hvor hver tagg inkluderer et tredje mønster som er felles for taggene i den annen flerhet av tagger og et fjerde mønster som er unikt for hver tagg i den annen flerhet av tagger.
17. Fremgangsmåte som angitt i krav 9, karakterisert vedat den minst ene tagg inkluderer et sett av tagger, hvor settet av tagger omfatter i det minste én taggtype valgt fra en gruppe bestående av aktive tagger og passive tagger.
18. Fremgangsmåte som angitt i krav 9, karakterisert vedat detekteringen omfatter tilordning av en posisjon for hver tagg til et delsett av punkter som danner en enkelt tagg.
19. Fremgangsmåte som angitt i krav 18, karakterisert vedat detekteringen omfatter identifisering av delsettet av punkter som en bestemt tagg og etikettering av delsettet av punkter som den bestemte tagg.
20. Fremgangsmåte som angitt i krav 19, karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
21. Fremgangsmåte som angitt i krav 20, karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
22. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer detektering av bevegelse av legemet ved bruk av en detekteringsmetode valgt fra en gruppe bestående av elektromagnetisk deteksjon, magnetostatisk deteksjon og deteksjon av radio-frekvensidentifikasjonsinformasjon.
23. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen inkluderer dynamisk detektering og lokalisering av et merke på legemet.
24. Fremgangsmåte som angitt i krav 23, karakterisert vedat detekteringen inkluderer detektering av posisjon av et sett av merker som er koplet til en del av legemet.
25. Fremgangsmåte som angitt i krav 23, karakterisert vedat settet av merker danner en flerhet av mønstre på legemet.
26. Fremgangsmåte som angitt i krav 23, karakterisert vedat detekteringen inkluderer detektering av posisjon av en flerhet av vedheng til legemet ved bruk av et sett av merker som er koplet til hvert av vedhengene.
27. Fremgangsmåte som angitt i krav 26, karakterisert vedat et første sett av merker er koplet til et første vedheng, idet det første sett av merker danner et første mønster som er felles for en flerhet av komponenter av det første vedheng og et annet mønster som er unikt for hver av komponentene av det første vedheng.
28. Fremgangsmåte som angitt i krav 26, karakterisert vedat et annet sett av merker er koplet til et annet vedheng, idet det annet sett av merker danner et tredje mønster som er felles for en flerhet av komponenter av det annet vedheng og et fjerde mønster som er unikt for hver av komponentene av det annet vedheng.
29. Fremgangsmåte som angitt i krav 23, karakterisert vedat detekteringen omfatter tilordning av en posisjon av hvert merke til et delsett av merker som danner en tagg.
30. Fremgangsmåte som angitt i krav 29, karakterisert vedat detekteringen omfatter identifisering av delsettet av merker som en bestemt tagg og etikettering av delsettet av merker som den bestemte tagg.
31. Fremgangsmåte som angitt i krav 30, karakterisert vedat detekteringen omfatter innhenting av tre lokaliseringer i rommet for den bestemte tagg.
32. Fremgangsmåte som angitt i krav 31, karakterisert vedat detekteringen omfatter innhenting av tre orienteringer i rommet for den bestemte tagg.
33. Fremgangsmåte som angitt i krav 1, karakterisert vedat detekteringen omfatter: generering av tredimensjonale rompunktdata som representerer den fysiske gest; og etikettering av rompunktdataene.
34. Fremgangsmåte som angitt i krav 33, karakterisert vedat omformingen inkluderer omforming av rompunktdataene til kommandoer som er passende for en konfigurasjon av datamaskinen.
35. Fremgangsmåte som angitt i krav 1, karakterisert vedat omformingen omfatter omforming av informasjon for gesten til en gestnotasjon.
36. Fremgangsmåte som angitt i krav 35, karakterisert vedat gestnotasjonen representerer et gestvokabular, og ved at gestsignalet omfatter kommunikasjoner av gestvokabularet.
37. Fremgangsmåte som angitt i krav 36, karakterisert vedat gestvokabularet representerer, i tekstform, øyeblikkelig stillingstilstander av kinematiske leddinnretninger av legemet.
38. Fremgangsmåte som angitt i krav 36, karakterisert vedat gestvokabularet representerer, i tekstform, en orientering av kinematiske leddinnretninger av legemet.
39. Fremgangsmåte som angitt i krav 36, karakterisert vedat gestvokabularet representerer, i tekstform, en kombinasjon av orientering av kinematiske leddinnretning av legemet.
40. Fremgangsmåte som angitt i krav 36, karakterisert vedat gestvokabularet inkluderer en streng av tegn som representerer en tilstand av kinematiske leddinnretninger av legemet.
41. Fremgangsmåte som angitt i krav 40, karakterisert vedat den kinematiske leddinnretning er i det minste ett første vedheng til legemet.
42. Fremgangsmåte som angitt i krav 41, karakterisert vedtilordning av hver posisjon i strengen til et annet vedheng, idet det annet vedheng er forbundet til det første vedheng.
43. Fremgangsmåte som angitt i krav 42, karakterisert vedtilordning av tegn i en flerhet av tegn til hver i en flerhet av posisjoner av det annet vedheng.
44. Fremgangsmåte som angitt i krav 43, karakterisert vedat flerheten av posisjoner etableres i forhold til et koordinatorigo.
45. Fremgangsmåte som angitt i krav 44, karakterisert vedetablering av koordinatorigoet ved bruk av en posisjon som er valgt fra en gruppe bestående av en absolutt posisjon og orientering i rom, en fast posisjon og orientering i forhold til legemet uten hensyn til en samlet posisjon og retning av legemet, og interaktivt som svar på en handling av legemet.
46. Fremgangsmåte som angitt i krav 43, karakterisert vedtilordning av tegn i flerheten av tegn til hver i en flerhet av orienteringer av det første vedheng.
47. Fremgangsmåte som angitt i krav 41, karakterisert vedat styringen av komponenten omfatter styring av et tredimensjonalt objekt i seks frihetsgrader samtidig ved avbilding av gesten for det første vedheng til det tredimensjonale objekt.
48. Fremgangsmåte som angitt i krav 41, karakterisert vedat styring av komponenten omfatter styring av et tredimensjonalt objekt gjennom tre translasjonsmessige frihetsgrader og tre rotasjonsmessige frihetsgrader.
49. Fremgangsmåte som angitt i krav 48, karakterisert vedat styringen omfatter en direkte kopling mellom bevegelse av det første vedheng og det tredimensjonale objekt.
50. Fremgangsmåte som angitt i krav 48, karakterisert vedat styringen inkluderer en indirekte kopling mellom bevegelse av det første vedheng og det tredimensjonale objekt.
51. Fremgangsmåte som angitt i krav 48, karakterisert vedat det tredimensjonale objekt presenteres på en visningsinnretning som er koplet til datamaskinen.
52. Fremgangsmåte som angitt i krav 48, karakterisert vedat det tredimensjonale objekt er koplet til datamaskinen.
53. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en flerhet av gester for det første vedheng til en flerhet av objekttranslasjoner av det tredimensjonale objekt.
54. Fremgangsmåte som angitt i krav 53, karakterisert vedat avbildingen inkluderer en direkte avbilding mellom flerheten av gester og flerheten av objekttranslasjoner.
55. Fremgangsmåte som angitt i krav 53, karakterisert vedat avbildingen inkluderer en indirekte avbilding mellom flerheten av gester og flerheten av objekttranslasjoner.
56. Fremgangsmåte som angitt i krav 53, karakterisert vedat avbildingen inkluderer korrelering av posisjonsforskyvninger av flerheten av gester til posisjonsforskyvninger av objekttransla-sjonene av det tredimensjonale objekt.
57. Fremgangsmåte som angitt i krav 53, karakterisert vedat avbildingen inkluderer korreleringer av posisjonsforskyvninger av det første vedheng til translasjonshastighet av objekt-translasjonene av det tredimensjonale objekt.
58. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en lineær gest for det første vedheng til en lineær translasjon av det tredimensjonale objekt.
59. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en rotasjonsgest for det første vedheng til en rotasjonstranslasjon av det tredimensjonale objekt.
60. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en lineær gest for det første vedheng til en rotasjonstranslasjon av det tredimensjonale objekt.
61. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt ved avbilding av en rotasjonsgest for det første vedheng til en lineær translasjon av det tredimensjonale objekt.
62. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en x-akse ved bruk av venstre-høyre bevegelse av det første vedheng.
63. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en y-akse ved bruk av opp-ned bevegelse av det første vedheng.
64. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt langs en z-akse ved bruk av forover-bakover bevegelse av det første vedheng.
65. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse og en y-akse ved bruk av en første kombinasjon av venstre-høyre bevegelse og opp-ned bevegelse av det første vedheng.
66. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse og en z-akse ved bruk av en annen kombinasjon av venstre-høyre bevegelse og forover-bakover bevegelse av det første vedheng.
67. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en y-akse og en z-akse ved bruk av en tredje kombinasjon av opp-ned bevegelse og forover-bakover bevegelse av det første vedheng.
68. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av bevegelse av det tredimensjonale objekt samtidig langs en x-akse, y-akse og z-akse ved bruk av en fjerde kombinasjon av venstre-høyre bevegelse, opp-ned bevegelse og forover-bakover bevegelse av det første vedheng.
69. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av rulling av det tredimensjonale objekt rundt en første akse ved bruk av en rotasjonsbevegelse av det første vedheng.
70. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av rulling av det tredimensjonale objekt omkring en annen akse ved bruk av en rotasjonsbevegelse av det første vedheng rundt et første av de andre vedheng.
71. Fremgangsmåte som angitt i krav 48, karakterisert vedstyring av rulling av det tredimensjonale objekt omkring en tredje akse ved bruk av en rotasjonsbevegelse av det første vedheng rundt en annen av de andre vedheng.
72. Fremgangsmåte som angitt i krav 48, karakterisert vedat detekteringen omfatter detektering av når en ekstrapolert posisjon av objektet skjærer virtuelt rom, hvor det virtuelle rom omfatter rom som vises på en visningsinnretning som er koplet til datamaskinen.
73. Fremgangsmåte som angitt i krav 72, karakterisert vedat styring av komponenten omfatter styring av et virtuelt objekt i det virtuelle rom når den ekstrapolerte posisjon skjærer det virtuelle objekt.
74. Fremgangsmåte som angitt i krav 73, karakterisert vedat styring av komponenten omfatter styring av en posisjon av det virtuelle objekt i det virtuelle rom som respons på den ekstrapolerte posisjon i det virtuelle rom.
75. Fremgangsmåte som angitt i krav 73, karakterisert vedat styring av komponenten omfatter styring av stillingen til det virtuelle objekt i det virtuelle rom som svar på gesten.
76. Fremgangsmåte som angitt i krav 1, karakterisert vedspesifisering av gesten på en flerhet av nivåer.
77. Fremgangsmåte som angitt i krav 76, karakterisert veddelvis spesifisering av gesten ved bruk av en del av informasjon om gesten.
78. Fremgangsmåte som angitt i krav 76, karakterisert vedat flerheten av nivåer inkluderer et første nivå som omfatter en stilling av det første vedheng av legemet.
79. Fremgangsmåte som angitt i krav 78, karakterisert vedrepresentering av stillingen som en streng av relative orienteringer mellom i det minste et annet vedheng og et bakparti av et første vedheng til legemet, hvor det annet vedheng er forbundet til det første vedheng.
80. Fremgangsmåte som angitt i krav 79, karakterisert vedkvantifisering av strengen av relative orienteringer til i det minste én diskret tilstand.
81. Fremgangsmåte som angitt i krav 76, karakterisert vedat flerheten av nivåer inkluderer et annet nivå som omfatter en kombinasjon av stillinger, idet kombinasjonen av stillinger omfatter en første stilling av et første vedheng og en annen stilling av et annet vedheng til legemet.
82. Fremgangsmåte som angitt i krav 81, karakterisert vedat det annet nivå omfatter en kombinasjon av posisjoner, idet kombinasjonen av posisjoner omfatter en første posisjon av det første vedheng og en annen posisjon av det annet vedheng.
83. Fremgangsmåte som angitt i krav 76, karakterisert vedat flerheten av nivåer inkluderer et tredje nivå som omfatter en kombinasjon av stillinger og posisjoner, idet kombinasjonen av stillinger omfatter en tredje stilling av i det minste ett vedheng til legemet og en fjerde stilling av i det minste ett vedheng til et annet legeme.
84. Fremgangsmåte som angitt i krav 83, karakterisert vedat det tredje nivå omfatter en kombinasjon av posisjoner, idet kombinasjonen av posisjoner omfatter en tredje posisjon av det minst ene vedheng til legemet og en fjerde posisjon av det minst ene vedheng til det annet legeme.
85. Fremgangsmåte som angitt i krav 76, karakterisert vedat flerheten av nivåer inkluderer et fjerde nivå som omfatter i det minste en sekvens av gester.
86. Fremgangsmåte som angitt i krav 76, karakterisert vedat flerheten av nivåer inkluderer et femte nivå som omfatter en grafemgest, hvor grafemgesten omfatter at legemet tegner en form i fritt rom.
87. Fremgangsmåte som angitt i krav 76, karakterisert vedgenerering av en registrert gest ved registrering av gesten som relevant for minst én applikasjon, hvor applikasjonen er koplet til datamaskinen.
88. Fremgangsmåte som angitt i krav 87, karakterisert vedat den omfatter: analysering av den registrerte gest; identifisering av den registrerte gest; og overføring av, til den minst ene applikasjon, en hendelse som korresponderer til den registrerte gest.
89. Fremgangsmåte som angitt i krav 88, karakterisert vedprioritering av den registrerte gest.
90. Fremgangsmåte som angitt i krav 89, karakterisert vedtilordning av en tilstand til den registrerte gest.
91. Fremgangsmåte som angitt i krav 90, karakterisert vedat tilstanden er valgt fra en gruppe bestående av en inngangstilstand og en fortsettelsestilstand, hvor en prioritet for fortsettelsestilstanden er høyere enn en prioritet for inngangstilstanden.
92. Fremgangsmåte som angitt i krav 88, karakterisert vedat analyseringen omfatter: merking av manglende datakomponenter for gesten; interpolering av de manglende datakomponenter til det ene av sist kjente tilstander og mest sannsynlige tilstander, hvor interpoleringen avhenger av en mengde og kontekst av de manglende data.
93. Fremgangsmåte som angitt i krav 92, karakterisert vedat identifiseringen omfatter bruk av den sist kjente tilstand for de manglende datakomponenter for identifiseringen av når den sist kjente tilstand er tilgjengelig for analyse.
94. Fremgangsmåte som angitt i krav 92, karakterisert vedat identifiseringen omfatter bruk av en beste gjetning av de manglende datakomponenter for identifiseringen av når den sist kjente tilstand er utilgjengelig for analyse.
95. Fremgangsmåte som angitt i krav 1, karakterisert vedstyring av skalering av detekteringen og styring for å generere sammenfalling mellom virtuelt rom og fysisk rom, hvor det virtuelle rom omfatter rom som vises på en visningsinnretning som er koplet til datamaskinen, hvor det fysiske rom omfatter rom hvor legemet holder til.
96. Fremgangsmåte som angitt i krav 95, karakterisert vedbestemmelse av dimensjoner, orienteringer og posisjoner i det fysiske rom for visningsinnretningen.
97. Fremgangsmåte som angitt i krav 96, karakterisert veddynamisk avbilding av det fysiske rom hvor visningsinnretningen er lokalisert som en projeksjon inn i det virtuelle rom for i det minste én applikasjon som er koplet til datamaskinen.
98. Fremgangsmåte som angitt i krav 95, karakterisert vedomforming av skala, vinkel, dybde og dimensjon mellom det virtuelle rom og det fysiske rom slik dette er passende for i det minste én applikasjon som er koplet til datamaskinen.
99. Fremgangsmåte som angitt i krav 95, karakterisert vedstyring av i det minste ett virtuelt objekt i det virtuelle rom som svar på bevegelse av minst ett fysisk objekt i det fysiske rom.
100. Fremgangsmåte som angitt i krav 95, karakterisert vedautomatisk kompensering for bevegelse av visningsinnretningen.
101. Fremgangsmåte som angitt i krav 95, karakterisert vedstyring av gjengivelse av grafikk på visningsinnretningen som respons på posisjon av legemet i fysisk rom i forhold til posisjon av visningsinnretningen.
102. Fremgangsmåte som angitt i krav 95, karakterisert vedgenerering av, på visningsinnretningen, en visning som inkluderer en virtuell versjon av et fysisk objekt som er tilstede i det fysiske rom, hvor generering av visningen inkluderer generering av sammenfalling mellom en virtuell posisjon av den virtuelle versjon av det fysiske objekt og posisjonen til det fysiske objekt i det fysiske rom.
103. Fremgangsmåte som angitt i krav 1, karakterisert vedbestemmelse av om gesten er gyldig.
104. Fremgangsmåte som angitt i krav 1, karakterisert vedat styringen inkluderer styring av en funksjon av en applikasjon som befinner seg på datamaskinen.
105. Fremgangsmåte som angitt i krav 1, karakterisert vedat styringen inkluderer styring av en komponent som vises på datamaskinen.
NO20074200A 2005-02-08 2007-08-16 System og fremgangsmåte for et gestbasert styringssystem NO339941B1 (no)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US65129005P 2005-02-08 2005-02-08
US11/350,697 US7598942B2 (en) 2005-02-08 2006-02-08 System and method for gesture based control system
PCT/US2006/004497 WO2006086508A2 (en) 2005-02-08 2006-02-08 System and method for genture based control system

Publications (2)

Publication Number Publication Date
NO20074200L NO20074200L (no) 2007-11-07
NO339941B1 true NO339941B1 (no) 2017-02-20

Family

ID=36912185

Family Applications (1)

Application Number Title Priority Date Filing Date
NO20074200A NO339941B1 (no) 2005-02-08 2007-08-16 System og fremgangsmåte for et gestbasert styringssystem

Country Status (7)

Country Link
US (4) US7598942B2 (no)
EP (1) EP1851750A4 (no)
JP (1) JP5631535B2 (no)
KR (1) KR100960577B1 (no)
CN (1) CN101536494B (no)
NO (1) NO339941B1 (no)
WO (1) WO2006086508A2 (no)

Families Citing this family (544)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7821541B2 (en) * 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
WO2006124935A2 (en) * 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US10452207B2 (en) 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
US8610675B2 (en) 2007-03-14 2013-12-17 Power2B, Inc. Interactive devices
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
KR20140016390A (ko) 2005-09-08 2014-02-07 파워2비, 인크. 디스플레이들 및 정보입력장치들
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8941589B2 (en) * 2008-04-24 2015-01-27 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8681098B2 (en) * 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8531396B2 (en) * 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
KR100790896B1 (ko) * 2006-11-17 2008-01-03 삼성전자주식회사 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US7777718B2 (en) * 2006-12-06 2010-08-17 The Boeing Company Flight portal
US8736420B2 (en) 2007-01-29 2014-05-27 At&T Intellectual Property I, L.P. Methods, systems, and products for controlling devices
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
KR101358767B1 (ko) 2007-04-02 2014-02-07 삼성전자주식회사 사용자 입력장치의 공간상 이동에 기초한 사용자 명령수행방법 및 이를 적용한 영상기기
US8032472B2 (en) * 2007-04-04 2011-10-04 Tuen Solutions Limited Liability Company Intelligent agent for distributed services for mobile devices
JP2008269174A (ja) * 2007-04-18 2008-11-06 Fujifilm Corp 制御装置、方法およびプログラム
KR101545360B1 (ko) * 2007-04-24 2015-08-19 오블롱 인더스트리즈, 인크 프로세싱 환경에서의 프로틴, 풀 및 슬럭스
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
EP2597868B1 (en) 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US8823645B2 (en) 2010-12-28 2014-09-02 Panasonic Corporation Apparatus for remotely controlling another apparatus and having self-orientating capability
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20090121903A1 (en) * 2007-11-12 2009-05-14 Microsoft Corporation User interface with physics engine for natural gestural control
US8149210B2 (en) * 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US20120204133A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8233206B2 (en) * 2008-03-18 2012-07-31 Zebra Imaging, Inc. User interaction with holographic images
JP5697590B2 (ja) * 2008-04-02 2015-04-08 オブロング・インダストリーズ・インコーポレーテッド 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9952673B2 (en) * 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US20130076616A1 (en) * 2008-04-24 2013-03-28 Ambrus Csaszar Adaptive tracking system for spatial input devices
US8941590B2 (en) * 2008-04-24 2015-01-27 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8896531B2 (en) * 2008-04-24 2014-11-25 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8146020B2 (en) 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
ES2648049T3 (es) * 2008-07-25 2017-12-28 Qualcomm Incorporated Detección mejorada de gesto ondulatorio
GB2477044B (en) * 2008-08-22 2012-04-04 Northrop Grumman Systems Corp Compound gesture recognition
WO2010028176A1 (en) * 2008-09-03 2010-03-11 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
WO2010030822A1 (en) * 2008-09-10 2010-03-18 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
WO2010042953A1 (en) * 2008-10-10 2010-04-15 Gesturetek, Inc. Single camera tracker
JP5805537B2 (ja) * 2008-10-14 2015-11-04 オブロング・インダストリーズ・インコーポレーテッド マルチプロセス・インタラクティブ・システムおよび方法
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
KR101531363B1 (ko) * 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) * 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
EP2427857B1 (en) * 2009-05-04 2016-09-14 Oblong Industries, Inc. Gesture-based control systems including the representation, manipulation, and exchange of data
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
CN102460510B (zh) * 2009-05-27 2016-04-20 奥布隆工业有限公司 用于与空间操作系统一起使用的空间多模式控制设备
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8272565B2 (en) * 2009-06-19 2012-09-25 Target Brands, Inc. Transaction card assembly with transaction card and auxiliary item
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
KR101596890B1 (ko) 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8600166B2 (en) * 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control
US8543240B2 (en) * 2009-11-13 2013-09-24 Intuitive Surgical Operations, Inc. Master finger tracking device and method of use in a minimally invasive surgical system
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
US20120280910A1 (en) * 2009-11-18 2012-11-08 Elmiro Business Development B.V. Control system and method for controlling a plurality of computer devices
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8549418B2 (en) * 2009-12-23 2013-10-01 Intel Corporation Projected display to enhance computer device use
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US20110179376A1 (en) * 2010-01-21 2011-07-21 Sony Corporation Three or higher dimensional graphical user interface for tv menu and document navigation
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US20110199517A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Method of showing video on a touch-sensitive display
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US20110199516A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Method of showing video on a touch-sensitive display
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
WO2012011044A1 (en) 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
JP5609416B2 (ja) 2010-08-19 2014-10-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2012043194A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
JP5617448B2 (ja) * 2010-08-31 2014-11-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8760432B2 (en) 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US8610831B2 (en) * 2010-10-12 2013-12-17 Nokia Corporation Method and apparatus for determining motion
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
JP5081964B2 (ja) * 2010-10-28 2012-11-28 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8490877B2 (en) 2010-11-09 2013-07-23 Metrologic Instruments, Inc. Digital-imaging based code symbol reading system having finger-pointing triggered mode of operation
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
CN102469293A (zh) * 2010-11-17 2012-05-23 中兴通讯股份有限公司 一种在视频业务中获取用户输入信息的实现方法及装置
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10043209B2 (en) * 2010-11-19 2018-08-07 Mastercard International Incorporated Method and system for consumer transactions using voice or human based gesture actions
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
CN102595155B (zh) * 2011-01-10 2014-11-19 群创光电股份有限公司 三维显示器的驱动方法及其驱动装置
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
KR101800182B1 (ko) 2011-03-16 2017-11-23 삼성전자주식회사 가상 객체 제어 장치 및 방법
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
WO2012123033A1 (de) * 2011-03-17 2012-09-20 Ssi Schaefer Noell Gmbh Lager Und Systemtechnik Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
DE102011017305A1 (de) * 2011-04-15 2012-10-18 Abb Technology Ag Bedien- und Beobachtungssystem für technische Anlagen
CN103477305B (zh) 2011-04-20 2017-06-13 皇家飞利浦有限公司 元素或项目的基于手势的控制
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
JP5670255B2 (ja) * 2011-05-27 2015-02-18 京セラ株式会社 表示機器
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CN103930944B (zh) * 2011-06-23 2016-08-24 奥布隆工业有限公司 用于空间输入装置的自适应跟踪系统
JP5864144B2 (ja) 2011-06-28 2016-02-17 京セラ株式会社 表示機器
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
KR101235432B1 (ko) * 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US8752200B2 (en) 2011-07-12 2014-06-10 At&T Intellectual Property I, L.P. Devices, systems and methods for security using magnetic field based identification
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US20130144583A1 (en) 2011-09-02 2013-06-06 Saudi Arabia Oil Company Hyper-dimensional simulation for reservoir engineering and geosciences
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US9116555B2 (en) 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US10525347B2 (en) 2012-03-13 2020-01-07 Sony Interactive Entertainment America Llc System and method for capturing and sharing console gaming data
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US10423515B2 (en) 2011-11-29 2019-09-24 Microsoft Technology Licensing, Llc Recording touch information
US9858173B2 (en) 2011-12-01 2018-01-02 Microsoft Technology Licensing, Llc Recording user-driven events within a computing system including vicinity searching
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
JP5917125B2 (ja) 2011-12-16 2016-05-11 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置および表示装置
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9189073B2 (en) 2011-12-23 2015-11-17 Intel Corporation Transition mechanism for computing system utilizing user sensing
WO2013095679A1 (en) 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US9678574B2 (en) * 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
WO2013095678A1 (en) 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
CN103197805A (zh) * 2012-01-10 2013-07-10 深圳泰山在线科技有限公司 实现虚拟屏的系统和方法
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US20130204408A1 (en) * 2012-02-06 2013-08-08 Honeywell International Inc. System for controlling home automation system using body movements
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
JP6019601B2 (ja) 2012-02-10 2016-11-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US11169611B2 (en) 2012-03-26 2021-11-09 Apple Inc. Enhanced virtual touchpad
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US8866771B2 (en) 2012-04-18 2014-10-21 International Business Machines Corporation Multi-touch multi-user gestures on a multi-touch display
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
WO2013176574A1 (en) * 2012-05-23 2013-11-28 3Divi Company Methods and systems for mapping pointing device on depth map
US9724597B2 (en) 2012-06-04 2017-08-08 Sony Interactive Entertainment Inc. Multi-image interactive gaming device
US9646200B2 (en) 2012-06-08 2017-05-09 Qualcomm Incorporated Fast pose detector
US9213436B2 (en) * 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
JP6018707B2 (ja) 2012-06-21 2016-11-02 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
CN103577792A (zh) * 2012-07-26 2014-02-12 北京三星通信技术研究有限公司 用于估计人体姿势的设备和方法
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
EP2893422A4 (en) 2012-09-06 2016-05-18 Interphase Corp SENSOR FUSION WITH ABSOLUTE AND RELATIVE POSITIONING IN AN INTERACTIVE DISPLAY SYSTEM
KR102061569B1 (ko) * 2013-05-16 2020-01-03 삼성디스플레이 주식회사 표시장치 및 표시장치의 구동방법
US11314368B2 (en) 2012-09-14 2022-04-26 Samsung Display Co., Ltd. Display device and method of driving the same in two modes
TWI590099B (zh) * 2012-09-27 2017-07-01 緯創資通股份有限公司 互動系統及移動偵測方法
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR101951228B1 (ko) 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US20140157209A1 (en) * 2012-12-03 2014-06-05 Google Inc. System and method for detecting gestures
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US11287897B2 (en) * 2012-12-14 2022-03-29 Pixart Imaging Inc. Motion detecting system having multiple sensors
TW201423484A (zh) * 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US20150012863A1 (en) * 2012-12-28 2015-01-08 Panasonic Intellectual Property Corporation Of America Control method
US10078374B2 (en) 2013-01-03 2018-09-18 Saurav SUMAN Method and system enabling control of different digital devices using gesture or motion control
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
CN104968592A (zh) 2013-02-07 2015-10-07 通力股份公司 电梯服务的个性化
KR101430042B1 (ko) * 2013-02-14 2014-08-14 주식회사 나우시스템 제스처를 이용한 방송장비 제어 시스템 및 방법
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9704350B1 (en) 2013-03-14 2017-07-11 Harmonix Music Systems, Inc. Musical combat game
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
KR101483851B1 (ko) * 2013-04-03 2015-01-19 목원대학교 산학협력단 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
WO2016109749A1 (en) 2014-12-30 2016-07-07 Stephen Howard System and method for interactive projection
US9360888B2 (en) 2013-05-09 2016-06-07 Stephen Howard System and method for motion detection and interpretation
US9465488B2 (en) 2013-05-09 2016-10-11 Stephen Howard System and method for motion detection and interpretation
US10891003B2 (en) 2013-05-09 2021-01-12 Omni Consumer Products, Llc System, method, and apparatus for an interactive container
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
DE102013010932B4 (de) 2013-06-29 2015-02-12 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
CA2917478A1 (en) * 2013-07-10 2015-01-15 Real View Imaging Ltd. Three dimensional user interface
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
DE102013012285A1 (de) * 2013-07-24 2015-01-29 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Wertdokumentbearbeitung
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US10152136B2 (en) 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US10168873B1 (en) 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US10126822B2 (en) 2013-12-16 2018-11-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual configuration
DE102013021927A1 (de) 2013-12-20 2015-06-25 Audi Ag Verfahren und System zum Betreiben einer Anzeigeeinrichtung sowie Vorrichtung mit einer Anzeigeeinrichtung
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
KR20150087544A (ko) 2014-01-22 2015-07-30 엘지이노텍 주식회사 제스처 장치, 그 동작 방법 및 이를 구비한 차량
US10198696B2 (en) * 2014-02-04 2019-02-05 GM Global Technology Operations LLC Apparatus and methods for converting user input accurately to a particular system function
JP6287382B2 (ja) * 2014-03-12 2018-03-07 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
CN104850216A (zh) * 2014-02-18 2015-08-19 太瀚科技股份有限公司 具有压力触觉感测器的手套
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US9498395B2 (en) 2014-04-16 2016-11-22 Stephen C. Golden, JR. Joint movement detection device and system for coordinating motor output with manual wheelchair propulsion
US20150301606A1 (en) * 2014-04-18 2015-10-22 Valentin Andrei Techniques for improved wearable computing device gesture based interactions
US9741169B1 (en) 2014-05-20 2017-08-22 Leap Motion, Inc. Wearable augmented reality devices with object detection and tracking
US10146318B2 (en) 2014-06-13 2018-12-04 Thomas Malzbender Techniques for using gesture recognition to effectuate character selection
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
US20160085518A1 (en) * 2014-09-21 2016-03-24 Jang Hee I Systems and methods for imaging and generation of executable processor instructions based on ordered objects
US9315197B1 (en) * 2014-09-30 2016-04-19 Continental Automotive Systems, Inc. Hands accelerating control system
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10310616B2 (en) * 2015-03-31 2019-06-04 Ebay Inc. Modification of three-dimensional garments using gestures
US10691214B2 (en) 2015-10-12 2020-06-23 Honeywell International Inc. Gesture control of building automation system components during installation and/or maintenance
WO2017096241A1 (en) 2015-12-02 2017-06-08 Augmenteum, Inc. System for and method of projecting augmentation imagery in a head-mounted display
CN106843709B (zh) 2015-12-04 2020-04-14 阿里巴巴集团控股有限公司 根据实时信息显示展现对象的方法和装置
WO2017096396A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US10599324B2 (en) 2015-12-31 2020-03-24 Microsoft Technology Licensing, Llc Hand gesture API using finite state machine and gesture language discrete values
US10310618B2 (en) 2015-12-31 2019-06-04 Microsoft Technology Licensing, Llc Gestures visual builder tool
JP6858352B2 (ja) * 2016-01-25 2021-04-14 裕行 池田 画像投影装置
US10459597B2 (en) * 2016-02-03 2019-10-29 Salesforce.Com, Inc. System and method to navigate 3D data on mobile and desktop
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
JP5988286B1 (ja) * 2016-04-01 2016-09-07 株式会社Cygames プログラム及び画像処理装置
CN105955464A (zh) * 2016-04-26 2016-09-21 苏州冰格智能科技有限公司 一种基于虚拟现实的输入装置
CN105929956A (zh) * 2016-04-26 2016-09-07 苏州冰格智能科技有限公司 一种基于虚拟现实的输入方法
US10249090B2 (en) 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10377042B2 (en) * 2016-06-17 2019-08-13 Intel Corporation Vision-based robot control system
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
KR20190034321A (ko) 2016-08-02 2019-04-01 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
CN106454490B (zh) * 2016-09-21 2019-07-26 天脉聚源(北京)传媒科技有限公司 一种智能播放视频的方法及装置
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
AU2018236457B2 (en) 2017-03-17 2021-04-29 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
CN117197403A (zh) 2017-03-17 2023-12-08 奇跃公司 混合现实系统及使用该系统生成虚拟内容的方法
JP7009494B2 (ja) 2017-03-17 2022-01-25 マジック リープ, インコーポレイテッド カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法
JP2018206073A (ja) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム
EP3435202A1 (de) * 2017-07-25 2019-01-30 Siemens Healthcare GmbH Zuordnen eines werkzeuges zu einer greifgeste
IL276254B2 (en) * 2018-02-06 2024-09-01 Magic Leap Inc Systems and methods for augmented reality
US10939033B2 (en) * 2018-03-19 2021-03-02 Facebook Technologies, Llc Systems and methods for directing adaptive camera systems
KR102524586B1 (ko) * 2018-04-30 2023-04-21 삼성전자주식회사 전자 장치 및 그 동작방법
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
GB201812080D0 (en) * 2018-07-24 2018-09-05 Kano Computing Ltd Motion sensing controller
CN110837766B (zh) * 2018-08-17 2023-05-05 北京市商汤科技开发有限公司 手势识别方法、手势处理方法及装置
US11062177B2 (en) * 2018-08-29 2021-07-13 Tata Consultancy Services Limited Method and system for creating aesthetic design at scale
CN109573902A (zh) * 2018-12-11 2019-04-05 龙岩学院 一种基于模式识别的升降机控制系统
DE102019205097A1 (de) 2019-04-09 2020-10-15 Volkswagen Aktiengesellschaft Verfahren zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs, System zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs
US11169811B2 (en) * 2019-05-30 2021-11-09 Advanced Micro Devices, Inc. Graphics context bouncing
US11151999B2 (en) 2019-08-01 2021-10-19 International Business Machines Corporation Controlling external behavior of cognitive systems
US11086742B2 (en) 2019-08-28 2021-08-10 The Toronto-Dominion Bank Task based service management platform
US11188145B2 (en) * 2019-09-13 2021-11-30 DTEN, Inc. Gesture control systems
US11681369B2 (en) * 2019-09-16 2023-06-20 Iron Will Innovations Canada Inc. Control-point activation condition detection for generating corresponding control signals
US11373373B2 (en) * 2019-10-22 2022-06-28 International Business Machines Corporation Method and system for translating air writing to an augmented reality device
US11341569B2 (en) * 2019-10-25 2022-05-24 7-Eleven, Inc. System and method for populating a virtual shopping cart based on video of a customer's shopping session at a physical store
US12197846B2 (en) 2019-11-19 2025-01-14 International Business Machines Corporation Mathematical function defined natural language annotation
US20220355483A1 (en) * 2019-11-19 2022-11-10 Google Llc Methods and Systems for Graphical User Interfaces to Control Remotely Located Robots
US11567492B2 (en) 2020-01-17 2023-01-31 Zimeno, Inc. Vehicle control by a remote operator
US11200458B1 (en) 2020-06-15 2021-12-14 Bank Of America Corporation System for integration of a hexagonal image processing framework within a technical environment
US11731037B2 (en) * 2020-09-11 2023-08-22 Riot Games, Inc. Rapid target selection with priority zones

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry

Family Cites Families (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US5664177A (en) 1988-04-13 1997-09-02 Digital Equipment Corporation Data processing system having a data structure with a single, simple primitive
JPH0816877B2 (ja) 1991-06-10 1996-02-21 インターナショナル・ビジネス・マシーンズ・コーポレイション データ処理システム用資源データの実時間捕獲及び減縮方法及びシステム
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
DE69315969T2 (de) 1992-12-15 1998-07-30 Sun Microsystems Inc Darstellung von Informationen in einem Anzeigesystem mit transparenten Fenstern
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US7218448B1 (en) 1997-03-17 2007-05-15 The Regents Of The University Of Colorado Extended depth of field optical systems
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
WO1996034332A1 (fr) * 1995-04-28 1996-10-31 Matsushita Electric Industrial Co., Ltd. Dispositif d'interface
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6340957B1 (en) * 1997-08-29 2002-01-22 Xerox Corporation Dynamically relocatable tileable displays
US6807583B2 (en) 1997-09-24 2004-10-19 Carleton University Method of determining causal connections between events recorded during process execution
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO1999035633A2 (en) 1998-01-06 1999-07-15 The Video Mouse Group Human motion following computer mouse and game controller
JP3660492B2 (ja) 1998-01-27 2005-06-15 株式会社東芝 物体検知装置
US6043805A (en) 1998-03-24 2000-03-28 Hsieh; Kuan-Hong Controlling method for inputting messages to a computer
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US7145551B1 (en) 1999-02-17 2006-12-05 Microsoft Corporation Two-handed computer input device with orientation sensor
US6351744B1 (en) 1999-05-28 2002-02-26 Unisys Corporation Multi-processor system for database management
JP4332649B2 (ja) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US7229017B2 (en) 1999-11-23 2007-06-12 Xerox Corporation Laser locating and tracking system for externally activated tags
DE10007891C2 (de) 2000-02-21 2002-11-21 Siemens Ag Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung
SE0000850D0 (sv) * 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US7109970B1 (en) * 2000-07-01 2006-09-19 Miller Stephen S Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20020065950A1 (en) 2000-09-26 2002-05-30 Katz James S. Device event handler
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
AU2002243335A1 (en) 2000-10-20 2002-06-18 Polexis, Inc. Extensible information system (xis)
US6703999B1 (en) 2000-11-13 2004-03-09 Toyota Jidosha Kabushiki Kaisha System for computer user interface
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US20020186200A1 (en) * 2001-06-08 2002-12-12 David Green Method and apparatus for human interface with a computer
US20040125076A1 (en) * 2001-06-08 2004-07-01 David Green Method and apparatus for human interface with a computer
US7151246B2 (en) 2001-07-06 2006-12-19 Palantyr Research, Llc Imaging system and methodology
US20030048280A1 (en) 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US7680295B2 (en) * 2001-09-17 2010-03-16 National Institute Of Advanced Industrial Science And Technology Hand-gesture based interface apparatus
US7159194B2 (en) 2001-11-30 2007-01-02 Palm, Inc. Orientation dependent functionality of an electronic device
US7210130B2 (en) 2002-02-01 2007-04-24 John Fairweather System and method for parsing data
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
DE60317472T2 (de) 2002-02-27 2008-09-04 CDM Optics, Inc., Boulder Optimierte bildverarbeitung für wellenfrontkodierte abbildungssysteme
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US7991920B2 (en) * 2002-12-18 2011-08-02 Xerox Corporation System and method for controlling information output devices
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
GB0308943D0 (en) 2003-04-17 2003-05-28 Univ Dundee A system for determining the body pose of a person from images
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
US7436535B2 (en) 2003-10-24 2008-10-14 Microsoft Corporation Real-time inking
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
EP1743277A4 (en) 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US7555613B2 (en) 2004-05-11 2009-06-30 Broadcom Corporation Storage access prioritization using a data storage device
JP4171046B2 (ja) 2004-05-25 2008-10-22 株式会社ソニー・コンピュータエンタテインメント 入力装置及び方法、文字入力方法
US7366368B2 (en) 2004-06-15 2008-04-29 Intel Corporation Optical add/drop interconnect bus for multiprocessor architecture
US7466308B2 (en) 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7559053B2 (en) 2004-08-24 2009-07-07 Microsoft Corporation Program and system performance data correlation
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
CN101622630B (zh) 2005-01-07 2012-07-04 高通股份有限公司 检测和跟踪图像中的物体
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US7966353B2 (en) 2005-01-31 2011-06-21 Broadcom Corporation Method and system for flexibly providing shared access to non-data pool file systems
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
WO2006124935A2 (en) 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US7428542B1 (en) 2005-05-31 2008-09-23 Reactrix Systems, Inc. Method and system for combining nodes into a mega-node
US8370383B2 (en) * 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9063801B2 (en) 2008-04-24 2015-06-23 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537112B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8669939B2 (en) 2006-02-08 2014-03-11 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8681098B2 (en) 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8769127B2 (en) 2006-02-10 2014-07-01 Northrop Grumman Systems Corporation Cross-domain solution (CDS) collaborate-access-browse (CAB) and assured file transfer (AFT)
JP4781897B2 (ja) 2006-04-26 2011-09-28 富士通株式会社 センサイベント制御装置
US20070288467A1 (en) 2006-06-07 2007-12-13 Motorola, Inc. Method and apparatus for harmonizing the gathering of data and issuing of commands in an autonomic computing system using model-based translation
JP4148281B2 (ja) 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US7979850B2 (en) 2006-09-29 2011-07-12 Sap Ag Method and system for generating a common trace data format
US7984452B2 (en) 2006-11-10 2011-07-19 Cptn Holdings Llc Event source management using a metadata-driven framework
US8559676B2 (en) 2006-12-29 2013-10-15 Qualcomm Incorporated Manipulation of virtual objects using enhanced interactive system
WO2008101183A2 (en) 2007-02-15 2008-08-21 Gesturetek, Inc. Enhanced input using flashing electromagnetic radiation
US20080208517A1 (en) 2007-02-23 2008-08-28 Gesturetek, Inc. Enhanced Single-Sensor Position Detection
KR101545360B1 (ko) 2007-04-24 2015-08-19 오블롱 인더스트리즈, 인크 프로세싱 환경에서의 프로틴, 풀 및 슬럭스
WO2008134745A1 (en) 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
US8472665B2 (en) 2007-05-04 2013-06-25 Qualcomm Incorporated Camera-based user input for compact devices
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7949157B2 (en) 2007-08-10 2011-05-24 Nitin Afzulpurkar Interpreting sign language gestures
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
CN107102723B (zh) 2007-08-20 2019-12-06 高通股份有限公司 用于基于手势的移动交互的方法、装置、设备和非暂时性计算机可读介质
EP2597868B1 (en) 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
US8341635B2 (en) 2008-02-01 2012-12-25 International Business Machines Corporation Hardware wake-and-go mechanism with look-ahead polling
US8280732B2 (en) 2008-03-27 2012-10-02 Wolfgang Richter System and method for multidimensional gesture analysis
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8269817B2 (en) 2008-07-16 2012-09-18 Cisco Technology, Inc. Floor control in multi-point conference systems
US20100060568A1 (en) 2008-09-05 2010-03-11 Apple Inc. Curved surface input device with normalized capacitive sensing
WO2010030822A1 (en) 2008-09-10 2010-03-18 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8363098B2 (en) 2008-09-16 2013-01-29 Plantronics, Inc. Infrared derived user presence and associated remote control
US8704767B2 (en) 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
JP5358834B2 (ja) 2009-02-17 2013-12-04 株式会社ワコム 位置指示器及び入力装置
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US20100315439A1 (en) 2009-06-15 2010-12-16 International Business Machines Corporation Using motion detection to process pan and zoom functions on mobile computing devices
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US20120229383A1 (en) 2010-01-14 2012-09-13 Christoffer Hamilton Gesture support for controlling and/or operating a medical device
US9465457B2 (en) 2010-08-30 2016-10-11 Vmware, Inc. Multi-touch interface gestures for keyboard and/or mouse inputs
US20120239396A1 (en) 2011-03-15 2012-09-20 At&T Intellectual Property I, L.P. Multimodal remote control

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry

Also Published As

Publication number Publication date
US8866740B2 (en) 2014-10-21
US7598942B2 (en) 2009-10-06
US20060187196A1 (en) 2006-08-24
KR20070116794A (ko) 2007-12-11
NO20074200L (no) 2007-11-07
CN101536494B (zh) 2017-04-26
US20100090946A1 (en) 2010-04-15
CN101536494A (zh) 2009-09-16
US20100090947A1 (en) 2010-04-15
JP5631535B2 (ja) 2014-11-26
WO2006086508A9 (en) 2006-12-14
JP2008530661A (ja) 2008-08-07
WO2006086508A3 (en) 2009-04-23
WO2006086508A2 (en) 2006-08-17
EP1851750A4 (en) 2010-08-25
EP1851750A2 (en) 2007-11-07
US20150205364A1 (en) 2015-07-23
US8830168B2 (en) 2014-09-09
US9606630B2 (en) 2017-03-28
KR100960577B1 (ko) 2010-06-03

Similar Documents

Publication Publication Date Title
NO339941B1 (no) System og fremgangsmåte for et gestbasert styringssystem
JP6116064B2 (ja) 車両インターフェース用ジェスチャ基準制御システム
US10261595B1 (en) High resolution tracking and response to hand gestures through three dimensions
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
US20180136734A1 (en) Spatial, multi-modal control device for use with spatial operating system
KR101705924B1 (ko) 공간 운영 시스템을 위한 공간, 다중-모드 제어 장치
WO2009059716A1 (en) Pointing device and method for operating the pointing device
CN103930944A (zh) 用于空间输入装置的自适应跟踪系统
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
JP2009258884A (ja) ユーザインタフェイス
JP5788853B2 (ja) ジェスチャベースの制御システムのためのシステムおよび方法
JP4244202B2 (ja) 操作入力装置および操作入力方法
Kim et al. Thirdlight: Low-cost and high-speed 3d interaction using photosensor markers
KR20050060606A (ko) 휴먼 컴퓨터 인터렉션 장치 및 방법
Millan et al. Gesture-based control
Chang et al. A²FinPose: An Artificial Intelligence and Augmented Reality-Based Finger Gesture Recognition System for the Human-Machine Interface of Head-mounted Near-Eye Displays

Legal Events

Date Code Title Description
MM1K Lapsed by not paying the annual fees