[go: up one dir, main page]

RU2455676C2 - Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления - Google Patents

Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления Download PDF

Info

Publication number
RU2455676C2
RU2455676C2 RU2011127116/08A RU2011127116A RU2455676C2 RU 2455676 C2 RU2455676 C2 RU 2455676C2 RU 2011127116/08 A RU2011127116/08 A RU 2011127116/08A RU 2011127116 A RU2011127116 A RU 2011127116A RU 2455676 C2 RU2455676 C2 RU 2455676C2
Authority
RU
Russia
Prior art keywords
user
gesture
display
sensor
sight
Prior art date
Application number
RU2011127116/08A
Other languages
English (en)
Other versions
RU2011127116A (ru
Inventor
Андрей Владимирович Валик (RU)
Андрей Владимирович Валик
Павел Анатольевич Зайцев (RU)
Павел Анатольевич Зайцев
Дмитрий Александрович Морозов (RU)
Дмитрий Александрович Морозов
Original Assignee
Общество с ограниченной ответственностью "ТРИДИВИ"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "ТРИДИВИ" filed Critical Общество с ограниченной ответственностью "ТРИДИВИ"
Priority to RU2011127116/08A priority Critical patent/RU2455676C2/ru
Publication of RU2011127116A publication Critical patent/RU2011127116A/ru
Priority to US13/478,378 priority patent/US8823642B2/en
Priority to US13/478,457 priority patent/US20130010207A1/en
Priority to US13/541,684 priority patent/US20130010071A1/en
Priority to US13/541,681 priority patent/US8896522B2/en
Application granted granted Critical
Publication of RU2455676C2 publication Critical patent/RU2455676C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к области бесконтактного взаимодействия пользователей с управляемыми устройствами. Технический результат заключается в увеличении разнообразия воспринимаемых жестов, включая одновременное восприятие крупных и мелких жестов, улучшении селективности распознавания жестов, минимизации времени, затрачиваемого на распознавание жеста и выдачу команды устройству. Такой результат достигается за счет того, что в окружающем пользователя пространстве выделяют сенсорную область, с каждой сенсорной областью ассоциируют один или несколько ожидаемых жестов и с каждой комбинацией сенсорной области и жеста ассоциируют одну команду, определяют положение глаз пользователя, положение его головы и положение его руки, определяют условную линию взгляда, исходящую из органа зрения пользователя и направленную в видимую пользователем точку окружающего пространства, проверяют, направлена ли условная линия взгляда на сенсорную область, анализируют подаваемый рукой пользователя жест и в случае, если жест подают одновременно с наведением условной линии взгляда на сенсорную область, то на управляемое устройство выдают команду, ассоциированную с данной комбинацией сенсорной области и поданного жеста. Для выполнения способа предлагается 3D-сенсор. 2 н. и 26 з.п. ф-лы, 5 ил.

Description

Область техники
Изобретение относится к области бесконтактного взаимодействия пользователей с управляемыми устройствами, а именно к управлению устройством, оснащенным 3D-сенсором, при помощи подаваемых пользователем жестов.
Уровень техники
Известны способы управления устройствами, позволяющие интерпретировать жесты оператора или пользователя как команды для управляемых устройств. Наибольшие возможности для управления жестами предоставляет бесконтактное трехмерное восприятие положения тела пользователя и движений частей его тела, таких как голова, детали лица, глаза, руки и ноги. Указанное трехмерное восприятие и выдачу управляющих команд на устройство, как правило, осуществляют при помощи 3D-сенсора или совокупности устройств, выполняющей функции 3D-сенсора.
Воспринимаемые 3D-сенсором движения пользователя интерпретируются как команда лишь в случае, если в упомянутых движениях удается распознать ожидаемое движение, так называемый командный жест.
Известные способы управления устройствами посредством жестов, как правило, ограничены в быстродействии и в разрешающей способности воспринимающей 3D-сцену аппаратуры, что в свою очередь ограничивает способность различать мелкие движения и мелкие части тела.
Поэтому известные способы управления позволяют реализовать управление мелкими движениями или мимикой лица только непосредственно вблизи 3D-сенсора, но при этом крупные движения, например движения рук и ног, остаются вне захватываемого кадра.
На средней и большой дистанции от 3D-сенсора - наоборот, крупные движения пользователя различимы, а мелкие, такие как движения пальцев, оказываются уже за пределом возможностей сенсора.
Другой недостаток известных способов - ограниченная селективность распознавания командных жестов. Под селективностью здесь подразумевается способность уверенно отличать один командный жест от другого, а также любой командный жест от прочих движений пользователя, не являющихся командными жестами.
При недостаточной селективности, 3D-сенсор способен неверно интерпретировать или не распознать командный жест, или же принять за командный жест непроизвольное движение пользователя.
Недостаток селективности в известных способах компенсируют путем введения специальных правил подачи командных жестов, например, пользователь вынужден перед подачей команды принять заранее определенную позу или делать определенное движение в течение нескольких секунд, чтобы привести 3D-сенсор в состояние ожидания командного жеста.
Другой способ компенсации недостатка селективности известных способов заключается в том, что пользователя ограничивают в скорости жестикуляции и вынуждают использовать только простейшие акцентированные, замедленные, легко узнаваемые и надежно отличимые один от другого жесты, а также избегать лишних движений.
Как требование дополнительных подготовительных движений, так и ограничения на движения причиняют пользователям определенные неудобства и требуют предварительного обучения обращению с 3D-сенсором.
Аналоги изобретения
Известна заявка на патент США №2010118123 "Карта глубин с использованием проецируемых образцов". Получаемая 3D-карта может быть использована для обеспечения пользовательского интерфейса, основанного на жестах, вместо использования элементов с тактильным интерфейсом, таких как мышь, джойстик и прочих устройств.
Согласно осуществлению изобретения, раскрытому в заявке, для создания 3D-карты объекта используется система, включающая осветительную установку, устройство захвата изображения и процессор. Осветительное устройство состоит из транспаранта с фиксированным образцом пятен и источника света, который сконфигурирован для освещения транспаранта и проецирования образца пятен на объект. Объектом является все тело или часть тела человека, такая как кисть руки. Устройство захвата изображения сконфигурировано для захвата изображения образца, содержащего проекцию образца на объект. Для обработки захваченного изображения и для создания трехмерной карты объекта устройство захвата изображения соединено с процессором.
Согласно одному из вариантов, устройство, формирующее изображение, проецирует образец пятен.
Процессор вычисляет 3D-координаты точки на поверхности объекта способом триангуляции, основанным на поперечном перемещении пятен в изображении образца, проецируемого на объект, относительно эталонного изображения.
Источник света представляет собой, например, точечный источник, такой как лазер. Оптическое излучение может быть любым, включая инфракрасный (далее в тексте - ИК) и ультрафиолетовый свет, а также видимое излучение. Транспарант зафиксирован в корпусе осветительного устройства и содержит образец пятен.
Устройство захвата изображения содержит оптический объектив, который фокусирует изображение на сенсор с набором элементов, таких как CCD или CMOS. Устройство захвата изображения может содержать полосовой фильтр, чтобы сенсор принимал только свет в полосе излучения источника света.
Работает система следующим образом. Источник света просвечивает транспарант оптическим излучением, проецируя изображение образца пятен на объект. Сенсор получает изображение объекта и передает его процессору, который формирует 3D-карту объекта и может, например, передать ее на дисплей.
Недостатком способа формирования 3D-карты путем проекции пятен является уменьшенное разрешение получаемой 3D-карты по сравнению с разрешением используемой светочувствительной матрицы.
Известна заявка на патент США №20100020078, в которой раскрываются система и метод для создания трехмерной карты объекта.
Система содержит устройство изображения, которое генерирует и проецирует множество лучей на объект и захватывает изображение, отраженное объектом.
Процессор изображения обрабатывает данные изображения, генерируемые устройством изображения, для воссоздания 3D-карты объекта. Термин 3D-карта относится к множеству 3D-координат, представляющих воспринимаемую системой поверхность объекта. Процессор изображения вычисляет 3D-координаты точек на поверхности объекта, определяя различие в интенсивности освещения. Процессор изображения может быть отдельным устройством или микросхемой в корпусе устройства изображения. 3D-карта, получаемая процессором изображения, может быть использована для различных назначений. Например, карта может быть направлена на выходное устройство, такое как дисплей. Если объект это тело или часть тела, например, кисть руки, система может быть использована для обеспечения основанного на жестах пользовательского интерфейса, для интерактивного управления приложением, вместо элементов с тактильным интерфейсом, таких как мышь или джойстик.
Устройство изображения содержит осветительную установку с двумя источниками света, которые одновременно или последовательно проецируют освещение на объект. Источники света могут излучать как когерентное, так и некогерентное излучение с любой длиной волны, включая ИК и ультрафиолетовое излучение.
Устройство захвата изображения получает излучение, которое отражается от объекта. Устройство захвата изображения содержит оптический объектив, который фокусирует изображение на сенсор, содержащий массив чувствительных элементов CCD или CMOS. Устройство захвата изображения может также содержать один или более полосовых фильтров, подобранных и расположенных так, что сенсор получает свет только в полосе пропускания, отфильтровывая внешнюю засветку, которая может снижать контрастность изображения проецируемого образца. Для составления 3D-карты процессор изображения определяет расстояние (z координату) различных точек (x,y) на объекте, основываясь на разнице в излучаемом и отраженном свете. Для этого необходимо, чтобы освещение источников отличалось.
Процессор изображения определяет яркость точки на объекте, освещаемой первым и вторым лучами. Координаты x и y соответствуют координатам пикселя на изображении. Z координата определяется процессором изображения путем сравнения интенсивности отраженных лучей.
Известна заявка на патент США №2010199228 "Набор текста жестами". Согласно описанию, система состоит из вычислительного средства и устройства захвата. Вычислительное средство может быть компьютером, игровой системой, консолью или подобным и может включать аппаратные и/или программные компоненты.
Согласно одному из вариантов изобретения, система может быть подключена к аудиовизуальному устройству, такому как телевизор, монитор, телевидение высокой четкости (HDTV), или к чему-то подобному. Например, вычислительное средство может включать видеоадаптер, такой как видеокарта и/или аудиокарта, такая как звуковая карта, которая может обеспечить аудиовизуальный сигнал. Аудиовизуальное устройство может быть подключено к вычислительному средству через, например, S-видеокабель, коаксиальный кабель, кабель HDMI, VGA кабель или подобное.
Устройство захвата может включать ИК-источник, трехмерную камеру и RGB камеру. Например, используя технологию "time-of-flight", можно замерить время между исходящим светом от ИК-источника и входящим светом и определить расстояние от устройства захвата до объекта в сцене.
Особенностью применения упомянутой технологии "time-of-flight" для определения расстояния от устройства захвата до объекта, то есть глубины, является хорошая точность определения больших значений глубины, но значительная погрешность в определении малых значений глубины, что лишает этот способ универсальности.
Согласно другому варианту изобретения, может быть использован структурированный свет для получения информации глубины. Образец сетки или полосы может быть спроецирован на сцену с помощью, например, ИК-источника. Попадая на объект, образец деформируется и захватывается 3D-камерой или RGB камерой. А затем может анализироваться для определения физического расстояния от устройства захвата до объекта.
Устройство захвата может дополнительно включать процессор, который может быть связан с компонентом камеры. Процессор может содержать, например, инструкции для получения глубины изображения, выполнять преобразование объекта в его скелетное представление. Также устройство захвата может дополнительно включать компонент памяти. Он может быть как интегрированным в процессор, так и быть отдельным компонентом.
Устройство захвата связано с вычислительным средством через канал связи. Это может быть проводная связь (например, USB соединение, Firewire соединение, кабельное Ethernet соединение) или беспроводное соединение.
Устройство захвата генерирует модель скелета и передает по каналу связи вычислительному средству, которое получает данные глубины для распознавания жеста пользователя для управления приложением.
Вычислительное средство может включать распознаватель жестов. Захваченные данные могут сравниваться с жестами в распознавателе, для управления приложениями.
Известен дисплей для определения жестов из заявки РСТ WO 2011011029. Система включает панель с поверхностью для отображения изображений и трехмерный оптический сенсор. Панель может быть жидкокристаллическим дисплеем, плазменным дисплеем электроннолучевой трубкой (CRT), OLED или проекционным дисплеем, например, DLP. Трехмерный оптический сенсор захватывает свет, отраженный от объекта. Источник света, освещающий объект, может быть, например, ИК или лазерным источником. Объектом может быть кисть руки пользователя или палец. Источник света может излучать структурированный свет, который проецирует на объект, например, сетку. Сенсор может также работать, например, по технологии "time-of-flight". По одному из вариантов изобретения трехмерный оптический сенсор может быть встроен в панель отображения, по другому - может быть внешним. Если кисть руки и пальцы пользователя находятся в поле обзора трехмерного оптического сенсора, свет от источника света отражается от объектов и просматривается сенсором, генерирующим данные, которые направляются контроллеру. Данные могут включать, например, координаты x, y, z пальцев и кистей рук пользователя. Если, например, пользователь хочет увеличить объект на дисплее, он должен сжать кулак и переместить его в z-направлении. Когда объект будет увеличен до желаемого размера, пользователь может открыть свой кулак, предотвращая дальнейшее увеличение объекта.
Трехмерный оптический сенсор может определить жест. Например, пользователь может переместить руку справа налево перед дисплеем, перелистывая страницы книги, отображенной на дисплее. Трехмерный оптический сенсор может генерировать данные, которые получит вычислительная система. Контроллер вычислительной системы может определить различные положения руки.
Заявка РСТ WO 2011011029 содержит также описание модуля оптического сенсора, который включает источник света и трехмерный оптический сенсор. Модуль оптического сенсора может захватывать данные, такие как высота, ширина и глубина объекта. Модуль оптического сенсора может соединяться с вычислительным устройством через порт связи для передачи захваченной информации. Например, порт связи может быть портом шины USB или IEEE1394 портом. Порт связи может быть частью контроллера ввода-вывода вычислительного устройства. Контроллер ввода-вывода может быть соединен с машиночитаемым носителем и с контроллером. Контроллер может получать данные, захваченные трехмерным оптическим сенсором, через порт связи контроллера ввода-вывода. Контроллер может определить расстояние от модуля оптического сенсора до объекта и от объекта до дисплея, основываясь на расстоянии от объекта до модуля трехмерного оптического сенсора.
Заявка РСТ WO 2011011029 наиболее близка к предлагаемому изобретению и принята за прототип.
Недостатком прототипа и прочих известных способов управления устройствами, основанных на распознавании жестов пользователя, является постоянное ожидание подачи жеста пользователем. Вычислительный блок пытается распознать управляющий жест в каждом движении пользователя. Воспринятое камерой движение пользователя сравнивают с каждым из ожидаемых вычислительным блоком жестов. Нагрузка на процессор вычислительного блока кратна количеству одновременно ожидаемых жестов, поэтому, в силу ограниченной производительности процессора, ограничено и разнообразие возможных команд.
Недостатком прототипа и прочих известных устройств для распознавания жестов является передача изображения, исходного или частично обработанного, например скелетизированного, на вычислительное устройство по внешним интерфейсам, таким как S-video кабель, коаксиальный кабель, USB кабель и тому подобным. Большой объем передаваемых данных и ограниченная пропускная способность внешнего интерфейса ограничивают скорость реакции системы на жесты пользователя.
В известных системах для определения жестов не удается осуществить распознавание одним техническим устройством одновременно и крупных жестов, такие как движения ног, рук, включая движение плеча и предплечья, и мелких жестов, включая движение отдельных фаланг пальцев. Указанная проблема связана, в основном, с низким разрешением воспринимаемого 3D-изображения, с ограниченной точностью определения координат и с недостаточным быстродействием системы в целом. Практически, известные системы могут распознавать мелкие жесты с малого расстояния, когда, например, большая часть захваченного кадра содержит крупное изображение кисти руки, или распознавать только крупные жесты, когда в кадр помещается пользователь целиком.
В общем случае, такое разделение является недостатком, который сужает функциональные возможности систем управления, основанных на распознавании жестов и накладывает на пользователя ограничения по месту подачи команд и разнообразию одновременно ожидаемых жестов.
Раскрытие изобретения
Задачей, на решение которой направлено заявленное изобретение, является увеличение разнообразия воспринимаемых жестов, включая одновременное восприятие крупных и мелких жестов, улучшение селективности распознавания жестов, а также минимизация времени, затрачиваемого на распознавание жеста и выдачу команды устройству.
Другой задачей является создание 3D-ceнcopa с улучшенными характеристиками разрешения и быстродействия, достаточными для одновременного восприятия крупных и мелких жестов, включая жесты руками, ногами, туловищем, головой, пальцами рук, подаваемых пользователем в произвольном, удобном для него темпе.
Сущность изобретения заключается в том, что предложен способ управления устройством с помощью жестов, позволяющий расширить возможности машинного распознавания жестов, а именно улучшить селективность распознавания жестов, уменьшить время отклика системы на подаваемые команды, увеличить допустимое количество жестов в жестовом интерфейсе, допустить подачу с одной дистанции жестов руками и жестов пальцами, а также уменьшить время, затрачиваемое на распознавание жеста и выдачу команды устройству. Предложен также 3D-сенсор с улучшенными характеристиками разрешения и быстродействия, позволяющий осуществить указанный способ.
Предложенный способ управления устройством с помощью жестов, подаваемых пользователем, заключается в том, что захватывают трехмерное изображение, распознают жест и выдают на управляемое устройство соответствующую жесту команду, при этом в окружающем пользователя пространстве выделяют, по меньшей мере, одну сенсорную область, с каждой сенсорной областью ассоциируют, по меньшей мере, один ожидаемый жест и с каждой комбинацией сенсорной области и жеста ассоциируют одну команду, определяют положение глаз пользователя, положение его головы и положение его руки, определяют условную линию взгляда, исходящую из органа зрения пользователя и направленную в видимую пользователем точку окружающего пространства, проверяют, направлена ли условная линия взгляда на сенсорную область, анализируют подаваемый рукой пользователя жест и в случае, если жест подают одновременно с наведением условной линии взгляда на сенсорную область, то на управляемое устройство выдают команду, ассоциированную с данной комбинацией сенсорной области и поданного жеста.
Предложенный 3D-сенсор для управления устройством с помощью жестов включает в себя вычислительный блок, ИК-проектор и ИК-камеру, причем ИК-проектор и ИК-камера соединены с локальной шиной вычислительного блока, а вычислительный блок сконфигурирован для создания ИК-проектором модулированной подсветки, анализа изображения, полученного с ИК-камеры, вычисления условной линии взгляда пользователя, вычисления сенсорной области, на которую направлена условная линия взгляда пользователя, распознавания жеста пользователя и выдачи команды для управляемого устройства.
Краткое описание чертежей
На фиг.1(а,б,в) изображены плоские сенсорные области прямоугольной формы.
На фиг.1,а изображены две раздельные сенсорные области.
На фиг.1,б изображены три смежные сенсорные области.
На фиг.1,в изображены две частично перекрывающиеся сенсорные области.
На фиг.2(а,б) изображены примеры возможного расположения сенсорных областей, связанных с дисплеем.
На фиг.2,а изображен дисплей с сенсорными областями, внешними по отношению к дисплею и внутренними по отношению к дисплею.
На фиг.2,б изображены сенсорные области, пересекающие границы дисплея.
На фиг.3(а,б,в) изображена условная линия взгляда, определенная тремя различными способами.
На фиг.3,a изображена условная линия взгляда, определенная по углам наклона и поворота лица пользователя.
На фиг.3,б изображена условная линия взгляда, определенная как луч, пересекающий точку, связанную с кистью руки пользователя.
На фиг.3,в изображена условная линия взгляда, определенная как луч, направление которого вычислено по положению зрачков и/или контуров радужных оболочек глаз пользователя.
На фиг.4 изображена сенсорная поверхность, расположенная в плоскости дисплея, закрепленного на стене.
На фиг.5(а,б) изображен 3D-сенсор.
На фиг.5,а изображена принципиальная схема 3D-сенсора.
На фиг.5,б условно изображен 3D-сенсор в одном корпусе с камерами и проектором.
Осуществление изобретения
Осуществление изобретения достигается следующим образом: при получении данных, свидетельствующих о подаче жеста пользователем, соответствующую жесту заранее предопределенную команду на управляемое устройство выдают только тогда, когда пользователь смотрит в направлении заранее определенной области пространства, с которой ассоциирован поданный жест.
Сенсорная область
Упомянутая заранее определенная область пространства далее в описании, а также в формуле изобретения, именуется сенсорной областью, поскольку назначение упомянутой заданной области - "почувствовать", что пользователь на нее смотрит. Сенсорная область, в общем случае, может быть объемной или двумерной. В большинстве случаев удобнее использовать двумерную плоскую сенсорную область, например, прямоугольной формы (см. фиг.1 и 2). Одновременно могут быть заданы одна сенсорная область или несколько раздельных сенсорных областей, как, например, раздельные сенсорные области 1 и 2 на фиг.1,а; смежных сенсорных областей, как, например, смежные сенсорные области 1, 2 и 3 на фиг.1,б или взаимно перекрывающихся сенсорных областей, как, например, перекрывающиеся сенсорные области 1 и 4 на фиг.1,в.
Задать сенсорную область - означает установить диапазон координат, все точки внутри которого принадлежат сенсорной области.
Ассоциация жеста с сенсорной областью
Еще одним условием выдачи команды на устройство является то, что поданный пользователем жест заранее поставлен в соответствие рассматриваемой сенсорной области, иначе говоря, ассоциирован с нею. С каждой сенсорной областью могут быть ассоциированы один или несколько жестов. Назначение предварительной ассоциации жестов с сенсорной областью - разрешить 3D-сенсору выдавать команды только в ответ на некоторые, заранее заданные жесты и таким образом ограничить число жестов, одновременно ожидаемых 3D-сенсором. В простейшем случае, с одной сенсорной областью ассоциирован единственный жест, что позволяет снизить требования к точности распознавания жеста и увеличить практическое быстродействие 3D-сенсора.
Перекрытие временных интервалов жеста и взгляда
Время подачи жеста, как правило, ограничено и невелико, поскольку продолжительная жестикуляция утомительна для пользователя. Продолжительность взгляда на сенсорную область может варьироваться и, в том числе, превышать продолжительность жеста.
Если временные интервалы жеста и взгляда имеют общий участок, то жест и взгляд считают одновременными.
В другом варианте выполнения предлагаемого способа, жест и взгляд считают одновременными, если некоторые участки временных интервалов жеста и взгляда укладываются в заранее установленный общий временной интервал.
Определение направления взгляда
Для определения направления взгляда предлагается использовать условную линию взгляда, которая в достаточной, для целей управления устройствами, мере совпадает с действительной линией взгляда пользователя.
Линия взгляда - это отрезок прямой линии, который берет начало в органе зрения пользователя и заканчивается на предмете, на который пользователь в данный момент времени смотрит.
В каждый момент пользователь способен отчетливо видеть некоторую область пространства вокруг точки, на которой сосредоточено его внимание. Указанная точка далее для краткости именуется истинной точкой внимания. Для осуществления предлагаемого изобретения, вместо истинной точки внимания допустимо использовать условную точку внимания, то есть найденную с некоторой погрешностью точку, также находящуюся в пределах упомянутой видимой пользователем области.
Условную точку внимания определяют как точку пересечения условной линии взгляда с поверхностью сенсорной области.
Условную линию взгляда можно определять различными способами. Частные примеры способов определения условной линии взгляда описаны ниже.
Определение положения органа зрения
Чтобы определить пространственное положение условной линии взгляда, необходимо прежде всего определить положение органа зрения пользователя. Известно, что степень бинокулярности зрения у разных людей может быть различной: у пользователя может функционировать один глаз или оба, причем во втором случае один глаз может функционально доминировать над другим глазом. В упомянутых случаях будет естественным считать положением органа зрения центр доминирующего глаза.
Если у пользователя доминирование одного из глаз не выражено, то есть глаза функционально равнозначны, то положением органа зрения можно считать середину отрезка 8, соединяющего центры глаз (см. фиг.3,в). В некоторых случаях может оказаться удобным считать положением органа зрения некую точку на отрезке 8, соединяющем центры глаз, занимающую промежуточное положение между концом и серединой отрезка, то есть смещенную в сторону одного из глаз. Целесообразно выбрать один из описанных вариантов расположения органа зрения до начала управления прибором. Выбор варианта можно осуществить автоматически, например, путем калибровки 3D-сенсора, или установить принудительно, путем ручной настройки 3D-сенсора. Целью такой настройки является комфорт пользователя и минимизация ошибок при управлении устройством.
Вышеописанные варианты определения положения органа зрения не исчерпывают всех возможных вариантов, но являются наиболее естественными и удобными.
Нахождение положения органа зрения
Различные способы нахождения глаз на изображении известны в существующем уровне техники. Задача нахождения глаз решается, например, в патентах RU 2382408, US 7620217, US 7876931.
На захваченном изображении находят глаза пользователя, вычисляют 3D-координаты центров глаз и вычисляют 3D-координаты органа зрения. А в случаях, когда зрачки или ирисы пользователя по какой-либо причине не видны или не находятся 3D-сенсором, центром глаза можно считать середину глазницы или середину линзы очков.
Определение направления условной линии взгляда
Использование условной линии взгляда вместо поиска истинного направления взгляда обусловлено следующими обстоятельствами.
Во-первых, истинное направление взгляда бывает трудно определить: нет уверенности, что глаза направлены в ту же точку, что и внимание, а кроме того, левый и правый глаза не у всех и не все время направлены в одну точку.
Во-вторых, известны только косвенные способы определения, куда направлен взгляд, и в данном смысле, любой из этих способов определяет именно условное направление взгляда.
В-третьих, нет необходимости в собственно взгляде. Достаточно определить, куда бы человек хотел посмотреть во время подачи команды.
Таким образом, возможно применение предлагаемого способа в том числе и незрячими пользователями.
В зависимости от поставленной цели можно выбирать наиболее простой способ определения условной линии взгляда, что снижает требования к быстродействию аппаратуры и позволяет применять более дешевые аппаратные решения.
Варианты способов определения направления условной линии взгляда
В одном из вариантов предлагаемого способа направление условной линии взгляда определяют по углам наклона и поворота лица пользователя (см. фиг.3,а). Для этого на захваченном изображении находят лицо, находят глаза и подбородок. Трехмерные координаты трех точек, а именно центров глаз и подбородка, задают плоскость 7, проходящую через указанные три точки.
В первом приближении, условной линией взгляда 6 считают перпендикуляр к этой плоскости, проведенный через точку, принятую за положение органа зрения. В действительности, пользователь может, к примеру, иметь привычку смотреть слегка искоса или исподлобья. Для того, чтобы учесть эти персональные особенности пользователя, можно скорректировать углы направления условной линии взгляда путем калибровки 3D-сенсора и предоставить пользователю возможность управлять устройством в привычной и комфортной для него манере.
В другом предлагаемом варианте (см. фиг.3,б) за условную линию взгляда 6 принимают луч, пересекающий точку, связанную с кистью руки пользователя. Например, это может быть крайняя верхняя точка кисти руки или крайняя верхняя точка удлиненного предмета в руке пользователя. Преимуществом данного варианта является быстродействие, поскольку для нахождения линии взгляда достаточно найти положение органа зрения и положение руки пользователя. Две найденные точки задают прямую, которую в данном варианте предлагаемого способа считают линией взгляда. Данный вариант может оказаться и наиболее комфортным для пользователя, поскольку избавляет его от необходимости двигать головой и даже перемещать точку внимания на сенсорную область. Достаточно держать сенсорную область 1 в поле зрения и указать на нее рукой, держа кисть на уровне глаз.
В третьем варианте (см. фиг.3,в) направление взгляда вычисляют по положению зрачков и/или контуров радужных оболочек глаз пользователя, и условную линию взгляда 6 определяют как луч, направленный в вычисленном направлении взгляда.
Для достижения наибольшей точности в определении направления условной линии взгляда можно использовать комбинацию двух или трех указанных вариантов, а также автоматически переходить от одного варианта определения направления условной линии взгляда к другому варианту, в зависимости от текущих изменений условий съемки. Предпочтительный вариант определения направления условной линии взгляда может быть выбран заранее путем ручной или автоматической настройки 3D-сенсора или управляемого устройства, частью которого является 3D-сенсор.
Множество сенсорных областей
По сравнению с единственной сенсорной областью, использование нескольких сенсорных областей позволяет уменьшить количество одновременно ожидаемых 3D-сенсором жестов, что в свою очередь позволяет снизить вероятность ложных срабатываний из-за непроизвольно выданных команд или ошибок классификации схожих жестов. Схожие жесты, которые легко принять один за другой, достаточно отнести к различным, отстоящим одна от другой сенсорным областям, чтобы исключить саму необходимость выбора между этими жестами. В результате смягчаются требования к аккуратности исполнения жеста, к амплитуде движений, к паузам между жестами. С другой стороны, в разных сенсорных областях одному и тому же жесту могут соответствовать различные команды, и при небольшом наборе распознаваемых 3D-сенсором жестов, в крайнем случае с использованием даже одного единственного жеста, можно реализовать обширное меню команд за счет множества сенсорных областей.
Визуализация сенсорной области
В некоторых вариантах выполнения предлагаемого способа, сенсорная область может быть визуализирована. Это позволяет пользователю более точно направить условную линию взгляда на сенсорную область. Наиболее просто визуализировать сенсорную область, расположенную вблизи реальной поверхности, например стены, окна, экрана телевизора. Визуализацию осуществляют с помощью индикации контуров, углов или всей площади сенсорной области световыми приборами, такими как лампы, светодиоды, лазер, а также дисплей или проектор. В другом варианте сенсорную область связывают с подвижным предметом, таким как, например, робот-пылесос. В этом случае сенсорную область перемещают по мере передвижения предмета-носителя сенсорной области.
Сенсорные области, связанные с дисплеем
Вариант визуализации сенсорной области при помощи дисплея осуществляют следующим образом (см. фиг.2). Сенсорную область выделяют в плоскости, совпадающей с поверхностью дисплея. Сенсорные области могут быть расположены в пределах дисплея 5, как, например, сенсорные области 3 и 4 на фиг.2,а, на границах или углах дисплея 5, как, например, сенсорные области 1 на фиг.2,б, а также вне дисплея 5, то есть в стороне, сверху или снизу от границ дисплея 5, как, например, сенсорные области 1 на фиг.2,в.
С помощью дисплея также визуализируют реакцию устройства на команды пользователя. В зависимости от состояния управляемого устройства, на дисплей может быть выведено визуальное обозначение сенсорных областей, сообщения для пользователя, меню или изображение каких-либо прочих объектов.
3D-сенсор
Для определения координат частей тела пользователя, вычисления условной линии взгляда пользователя, вычисления сенсорной области, на которую направлена условная линия взгляда пользователя, распознавания жеста и выдачи команды для управляемого устройства предлагается использовать 3D-сенсор, включающий в себя вычислительный блок, ИК-проектор и ИК-камеру. Новым в 3D-сенсоре является то, что ИК-проектор и ИК-камера соединены с локальной шиной вычислительного блока, а вычислительный блок сконфигурирован для создания ИК-проектором модулированной подсветки, анализа изображения, полученного с ИК-камеры, вычисления условной линии взгляда пользователя, вычисления сенсорной области, на которую направлена условная линия взгляда пользователя, распознавания жеста и выдачи команды для управляемого устройства.
Анализ изображения
В части анализа изображения, полученного с ИК-камеры, вычислительный блок сконфигурирован для фильтрации изображения, получения карты свернутых фаз, преобразования ее в карту развернутых фаз, вычисления карты глубин, вычисления 3D-координат частей тела пользователя.
Преимущества локальной шины
Соединение ИК-проектора и ИК-камеры с вычислительным блоком посредством локальной шины дает существенный выигрыш в скорости передачи данных между вычислительным блоком, ИК-проектором и ИК-камерой, по сравнению с используемым в известных 3D-устройствах соединением посредством внешнего интерфейса (USB и ему подобных). Это позволяет в целом ускорить отклик управляемого устройства на управляющий жест пользователя.
Преимущества общего корпуса
Чтобы сделать возможным использование только локальной шины вычислительного блока для соединения элементов 3D-сенсора, упомянутые элементы расположены в одном общем корпусе 9 (см. фиг.3,б и фиг.5,б).
Кроме того, совмещение всех компонентов 3D-сенсора в едином корпусе делает его мобильным, поскольку облегчает возможность, при желании, использовать 3D-сенсор поочередно с различными управляемыми устройствами.
Цветная видеокамера
В наиболее универсальном варианте исполнения, 3D-сенсор дополнительно включает в себя цветную видеокамеру, что расширяет возможности применения 3D-сенсора в мультимедийных приложениях.
В другом варианте, компоненты 3D-сенсора, например, цветная видеокамера, могут быть размещены вне общего корпуса.
Интерфейс для соединения с дисплеем
В одном из вариантов 3D-сенсора с цветной видеокамерой, вычислительный блок 3D-сенсора снабжен интерфейсом для передачи видеосигнала на дисплей. Дисплей может быть элементом управляемого устройства, такого как телевизор, бытовой прибор с небольшим жидкокристаллическим дисплеем или отдельным устройством вывода информации, таким как компьютерный монитор.
Наибольшие преимущества соединения 3D-сенсора с дисплеем могут быть получены при условии, что в плоскости дисплея заданы сенсорные области, связанные с дисплеем. Для того, чтобы знать взаимное расположение сенсорных областей и дисплея, должно быть известно взаимное расположение дисплея и 3D-сенсора, для чего можно либо выложить дисплей и 3D-сенсор в одном корпусе, либо предусмотреть постоянное место для точного разъемного крепления 3D-сенсора на корпусе или вблизи корпуса дисплея, например выполнить корпус дисплея с нишей в форме 3D-сенсора. Возможен и вариант размещения 3D-сенсора отдельно от дисплея, в этом случае требуется обеспечить неподвижность обоих устройств во время сеанса управления и перед сеансом управления получить данные об их взаимном положении путем проведения калибровки. Таким образом, один из вариантов исполнения 3D-сенсора предусматривает его размещение в едином корпусе с дисплеем, а в другом варианте 3D-сенсор и дисплей установлены в отдельных корпусах. При этом 3D-сенсор или дисплей или оба указанных компонента могут быть установлены как в одном корпусе с управляемым устройством, так и отдельно от него.
Жидкостные объективы
Одним из важных факторов, определяющих разрешающую способность 3D-сенсора, является способность объективов видеокамер фокусироваться на требуемое расстояние. Скорость фокусировки в свою очередь влияет на быстродействие 3D-сенсора в целом.
Для быстрой автоматической фокусировки используемых в 3D-сенсоре камер как ИК-камеры, так и цветной видеокамеры в одном из вариантов исполнения 3D-сенсора использованы жидкостные объективы. Жидкостный объектив электрически соединен с вычислительным блоком и может менять свое фокусное расстояние по его команде.
В совокупности, применение жидкостных объективов, соединения элементов 3D-сенсора через локальную шину, а также проведение всех вычислительных операций, вплоть до формирования управляющей команды, внутри вычислительного блока 3D-сенсора позволили поднять быстродействие 3D-сенсора настолько, чтобы иметь возможность распознавать жесты, включая жесты руками и пальцами рук, в органичном для пользователя темпе, без применения ограничений на скорость, частоту и амплитуду подачи жестов.
Описание работы 3D-сенсора
Работает 3D-сенсор следующим образом.
Используется известный в уровне техники принцип модулированной подсветки.
ИК-проектор освещает участок пространства, находящийся в области действия 3D-сенсора, так называемую сцену, и все предметы, находящиеся в пределах сцены, инфракрасным светом, изменяемым в пространстве и во времени. Для этого на сцену проецируется картина, в которой освещенность точек изменяется от нуля до максимального значения в горизонтальном направлении. Один кадр содержит несколько периодов указанного изменения освещенности. Таким образом, проецируемая картина представляет собой вертикальные полосы с пилообразным профилем яркости. Кроме того, в последовательно проецируемых кадрах картину смещают в горизонтальном направлении. ИК-камера воспринимает освещенные модулированным ИК-светом предметы сцены, в частности пользователя, и по локальной шине передает видеосигнал вычислительному блоку. Вычислительный блок сопоставляет изменения в яркости элементов принятого видеосигнала с изменениями яркости исходного видеосигнала, модулирующего проецируемую на сцену ИК-подсветку. Совокупность фаз яркости для всех точек воспринятого ИК-камерой кадра, полученных при полосчатой подсветке, называют картой свернутых фаз. Вычислительный блок преобразует карту свернутых фаз в карту развернутых фаз. Вычисленная для каждой точки принятого кадра развернутая фаза, с учетом известной соответствующей фазы подсветки в данной точке, позволяет вычислить расстояние от данной точки до 3D-сенсора, называемую координатой глубины, или просто глубиной точки. Совокупность вычисленных расстояний для всех точек воспринятого ИК-камерой кадра называют картой глубин. Координаты точки сцены, включая координату глубины, называют 3D-координатами данной точки. Совокупность 3D-координат всех точек, попавших в один кадр ИК-камеры, составляет 3D-карту сцены. Описанный способ получения 3D-карты сцены известен и детально излагается, например, в диссертации "High-resolution, Real-time 3-D Shape Measurement. A Dissertation Presented by Song Zhang to The Graduate School in Partial Fulfillment of the Requirements for the Degree of Doctor of Philosophy in Mechanical Engineering Stony Brook University May 2005".
В зависимости от текущего состояния управляемого устройства, вычислительный блок задает одну или несколько сенсорных областей, а также ассоциирует с заданными сенсорными областями соответствующие текущему состоянию управляемого устройства командные жесты. Вычислительный блок анализирует 3D-карту сцены и распознает в ней пользователя, определяет расположение частей тела пользователя, определяет условную линию взгляда и проверяет, находится ли условная точка внимания в одной из сенсорных областей. Кроме того, вычислительный блок распознает жесты пользователя. В том случае, если командный жест подан в то время, когда условная точка внимания оказывается внутри сенсорной области, 3D-сенсор выдает на управляемое устройство ассоциированную с данным жестом команду. Для передачи команды, в зависимости от конфигурации управляемого устройства, 3D-сенсор использует инфракрасный приемник-передатчик или другой интерфейс, например, проводную сеть LAN или беспроводную сеть Wi-Fi. Некоторые из командных жестов, подтвержденных взглядом пользователя, обрабатывает сам 3D-сенсор. Например, по жесту пользователя, 3D-сенсор загружает из сети интернет требуемый пользователем мультимедийный контент и направляет его на управляемое устройство - дисплей, по НDМI-интерфейсу.
Описание наилучшего варианта выполнения изобретения
Примером наиболее удачного применения предлагаемых способа и 3D-сенсора является использование системы, состоящей, по существу, из 3D-сенсора, соединенного с дисплеем, для интерактивного выбора и воспроизведения мультимедийного контента, получаемого из сети интернет.
3D-сенсор соединен с дисплеем по HDMI интерфейсу. Кроме того, 3D-сенсор оснащен LAN и Wi-Fi интерфейсами для связи с сетью Ethernet.
Аппаратная часть 3D-сенсора (см. фиг.5) содержит корпус 9, внутри которого установлены следующие элементы:
- Вычислительный блок 12, аналогичный модели Nvidia Tegra3, являющийся базовой платформой и включающий в себя центральный процессор, модуль обработки изображения и звука, графический процессор для формирования графического пользовательского интерфейса.
- Источник 13 ИК-подсветки с переменной во времени и пространстве модуляцией, соединенный с вычислительным блоком через локальную шину 17 типа PCI-E.
- ИК-камера 14 для получения 3D-изображения, соединенная с вычислительным блоком через локальную шину 17 типа PCI-E.
- Цветная камера 15 для получения цветного изображения.
- Жидкостные объективы 16 для быстрой фокусировки цветной камеры 15 и инфракрасной камеры 14.
- Модуль 18 НDМI-интерфейса для передачи видеоизображения в формате HD
- Модуль 19 аудиоинтерфейса.
- Модуль 20 для подключения к проводной сети LAN и беспроводной сети Wi-Fi.
- Блок питания 21.
Кроме приведенных на фиг.5 элементов, 3D-сенсор содержит:
- Микрофон для приема звуков сцены, в частности голоса пользователя, который может быть использован, например, для идентификации пользователя по голосу или для подачи дополнительных голосовых команд.
- ИК-приемник/передатчик для управления внешними устройствами.
- Модуль для подключения периферийных устройств через USB-интерфейс и SATA-интерфейс.
Назначением 3D-сенсора является получение трехмерного изображения, нахождение на снимаемой сцене пользователя, идентификация пользователя и подключение соответствующего пользовательского профиля, то есть заранее установленного для данного пользователя комплекта настроек и параметров доступа;
вычисление условной линии взгляда пользователя, проверка условия, находится ли условная точка внимания внутри одной из сенсорных областей, и при обнаружении условной точки внимания внутри сенсорной области - включение режима ожидания командных жестов, ассоциированных с данной сенсорной областью;
в случае определения командного жеста, подтвержденного взглядом на сенсорную область - выдача команды на управляемое устройство, которым в данном примере является дисплей.
Сенсорная поверхность
Для упрощения расчетов по определению расположения условной точки внимания относительно сенсорных областей в пространстве задают виртуальную плоскость, которая далее в тексте описания именуются сенсорной поверхностью. В данной реализации изобретения, сенсорная плоскость 10 (см. фиг.4) совпадает с плоскостью дисплея 5, установленного на стене 11. На прямоугольных участках сенсорной плоскости задают сенсорные области.
В зависимости от текущего состояния системы, состоящей из дисплея и 3D-сенсора, сенсорная поверхность может целиком состоять из сенсорных областей или содержать одну или несколько раздельных, смежных или взаимно перекрывающихся сенсорных областей.
Назначение сенсорной поверхности - нахождение условной точки внимания пользователя. Зная положение органа зрения и условной линии взгляда, вычисляют точку пересечения условной линии взгляда с сенсорной поверхностью и полагают ее условной точкой внимания. Зная положение условной точки внимания на сенсорной поверхности, проверяют, находится ли данная точка внутри сенсорной области. Если условная точка внимания оказывается внутри сенсорной области, 3D-сенсор ожидает от пользователя подачу жеста, единственного или одного из множества жестов, ассоциированных с этой сенсорной областью.
Сенсорная область, связанная с границей дисплея
В некоторых из режимов работы описываемой системы, на сенсорной поверхности выделяют сенсорные области, связанные с границами дисплея. Такая сенсорная область представляет собой прямоугольник на сенсорной поверхности, как правило, вытянутый вдоль границы дисплея и может включать в себя как участки сенсорной поверхности внутри дисплея, так и участки сенсорной поверхности снаружи дисплея. Связанная с границей дисплея сенсорная область может пересекать границу дисплея (см. фиг.2,б), или примыкать к границе дисплея, или лежать на некотором расстоянии от границы дисплея, как сенсорные области 1 на фиг.2,a. Сенсорная область, связанная с границей дисплея, используется для определения движения условной точки внимания поперек границы дисплея. Например, при перемещении условной точки внимания через границу дисплея в направлении снаружи дисплея - внутрь, на дисплей выводят ряд графических объектов, совокупность которых является визуализацией доступного к воспроизведению мультимедийного контента и может выполнять функцию меню.
Дополнительные условия выдачи жеста
В том режиме работы описываемой системы, в котором определение условной линии взгляда производится без учета положения руки, для выдачи командного жеста может быть поставлено более сложное условие: условную линию взгляда, направленную на сенсорную область, должна пересечь кисть руки или, как вариант, другая часть руки. Например, при жесте руки, пересекающем линию взгляда, направленную на сенсорную область, происходит визуализация мультимедийного контента, ассоциированного с данной сенсорной областью.
Получение трехмерного изображения
Получение трехмерного изображения осуществляется с помощью освещения снимаемой сцены модулированной ИК-подсветкой и последующей обработки полученной картинки. Обработка полученной картинки происходит на специализированном чипе SoC (System on chip) и блоке CPU.
Для получения модулируемой подсветки используется ЖК-панель с зеркальной подложкой, изготовленной по технологии FLCOS и источник ИК-освещения.
Для получения изображений используются матрицы с разрешением 1920×1080 и скоростью сканирования 60 кадров/сек.
Для настройки на резкость используются жидкостные объективы, обладающие большим быстродействием и большим временем наработки на отказ.
Первым результатом работы 3D-сенсора являются два потока изображений:
1. Поток с информацией о расстоянии до каждой точки изображения, называемый 3D-образом.
2. Поток с цветным изображением.
Полученный 3D-образ обрабатывается программной частью 3D-сенсора.
Программная часть 3D-сенсора содержит следующие модули:
- модуль классификации объектов и улучшения изображений;
- модуль управления доступом;
- модуль выделения частей тела;
- модуль построения общего скелета изображения;
- модуль интерпретации жестов и формирования команд.
Результатом работы программной части 3D-сенсора является распознавание пользователей, а также их движений, что является основой реализации пользовательского интерфейса на основе распознавания жестов для игровых, тренажерных и прочих интерактивных приложений.
3D-сенсор способен идентифицировать пользователя с одной из ранее зарегистрированных персон по изображению лица, проводить регистрацию нового пользователя, находить положение глаз пользователя, наклон и поворот головы, положение остальных частей тела, включая руки, ноги, пальцы рук, а именно две последние фаланги каждого видимого на изображении пальца, определять в пространстве сцены набор сенсорных областей, соответствующий текущему состоянию 3D-сенсора, обнаруживать факт присутствия условной точки внимания в одной или одновременно нескольких сенсорных областях, распознавать жест, подаваемый ногой, рукой, кистью руки или пальцами и, в зависимости от положения условной точки внимания, выдавать соответствующую команду управляемому устройству.

Claims (28)

1. Способ управления устройством с помощью жестов, включающий подачу жеста пользователем, захват трехмерного изображения, распознавание жеста и выдачу на управляемое устройство соответствующей жесту команды, отличающийся тем, что в окружающем пользователя пространстве выделяют, по меньшей мере, одну сенсорную область, с каждой сенсорной областью ассоциируют, по меньшей мере, один ожидаемый жест и с каждой комбинацией сенсорной области и жеста ассоциируют одну команду, определяют положение глаз пользователя, положение его головы и положение его руки, определяют условную линию взгляда, исходящую из органа зрения пользователя и направленную в видимую пользователем точку окружающего пространства, проверяют, направлена ли условная линия взгляда на сенсорную область, анализируют подаваемый рукой пользователя жест и в случае, если жест подают одновременно с наведением условной линии взгляда на сенсорную область, то на управляемое устройство выдают команду, ассоциированную с данной комбинацией сенсорной области и поданного жеста.
2. Способ по п.1, отличающийся тем, что направление условной линии взгляда определяют по углам наклона и поворота лица пользователя.
3. Способ по п.1, отличающийся тем, что за условную линию взгляда принимают луч, пересекающий точку, связанную с кистью руки пользователя.
4. Способ по п.1, отличающийся тем, что по положению зрачков и/или контуров радужных оболочек глаз пользователя вычисляют направление взгляда, и условную линию взгляда определяют как луч, направленный в вычисленном направлении взгляда.
5. Способ по п.1, отличающийся тем, что способ определения условной линии взгляда заранее выбирают путем ручной или автоматической настройки 3D-сенсора.
6. Способ по п.1, отличающийся тем, что положением органа зрения пользователя считают центр одного из глаз пользователя.
7. Способ по п.1, отличающийся тем, что положением органа зрения пользователя считают точку на отрезке, соединяющем центры глаз пользователя.
8. Способ по п.1, отличающийся тем, что сенсорная область имеет форму плоской фигуры и лежит в плоскости дисплея, связанного с управляемым устройством.
9. Способ по п.8, отличающийся тем, что, по крайней мере, одна сенсорная область находится в пределах дисплея.
10. Способ по п.9, отличающийся тем, что на дисплей выводят указатель и перемещают его по дисплею в соответствии с движениями руки или жезла.
11. Способ по п.9, отличающийся тем, что на дисплей выводят указатель и перемещают его в соответствии с перемещением условной точки внимания.
12. Способ по п.8, отличающийся тем, что, по крайней мере, одна сенсорная область находится снаружи дисплея.
13. Способ по п.8, отличающийся тем, что сенсорная область связана с границей дисплея.
14. Способ по п.1, отличающийся тем, что определяют условную точку внимания, в которую направлена условная линия взгляда, и отслеживают перемещения условной точки внимания.
15. Способ по п.14, отличающийся тем, что при перемещении условной точки внимания через границу дисплея в направлении снаружи дисплея - внутрь, на дисплей выводят ряд графических объектов.
16. Способ по п.15, отличающийся тем, что горизонтальное перемещение руки, направленной в сторону дисплея с выведенным на него рядом графических объектов ассоциируют с командой прокрутки.
17. Способ по п.1, отличающийся тем, что анализируют движение пальцев пользователя и распознают поданный пальцами жест.
18. Способ по п.17, отличающийся тем, что сгибание пальцев, предварительно выпрямленных и направленных в сторону сенсорной области, связанной с объектом на дисплее, ассоциируют с командой выбрать объект.
19. Способ по п.17, отличающийся тем, что раскрытие ладони, предварительно собранной в кулак или в щепоть, в сторону объекта на дисплее, ассоциируют с командой увеличить объект во весь дисплей.
20. Способ по п.1, отличающийся тем, что анализируют положение и движение жезла, удерживаемого в руке пользователя, при этом жезлом может быть любой удлиненный предмет.
21. Способ по п.20, отличающийся тем, что распознают одинарное или многократное прикосновение пальца руки к жезлу, удерживаемому остальными пальцами той же руки.
22. Способ по п.1, отличающийся тем, что в захваченном изображении распознают лицо и идентифицируют пользователя.
23. 3D-сенсор для выполнения способа по п.1, включающий в себя вычислительный блок, ИК-проектор и ИК-камеру, отличающийся тем, что ИК-проектор и ИК-камера соединены с локальной шиной вычислительного блока, а вычислительный блок сконфигурирован для создания ИК-проектором модулированной подсветки, анализа изображения, полученного с ИК-камеры, вычисления условной линии взгляда пользователя, вычисления сенсорной области, на которую направлена условная линия взгляда пользователя, распознавания жеста пользователя и выдачи команды для управляемого устройства.
24. 3D-сенсор по п.23, отличающийся тем, что в части анализа изображения, полученного с ИК-камеры, вычислительный блок сконфигурирован для фильтрации изображения, получения карты свернутых фаз, преобразования ее в карту развернутых фаз, вычисления карты глубин, вычисления 3D-координат частей тела пользователя.
25. 3D-сенсор по п.23, отличающийся тем, что дополнительно включает в себя цветную видеокамеру.
26. 3D-сенсор по п.23, отличающийся тем, что ИК-проектор, видеокамера и ИК-камера установлены в одном общем корпусе.
27. 3D-сенсор по п.23, отличающийся тем, что видеокамера и ИК-камера оснащены жидкостными объективами.
28. 3D-сенсор по п.23, отличающийся тем, что вычислительный блок оснащен интерфейсом для передачи видеосигнала на дисплей.
RU2011127116/08A 2011-07-04 2011-07-04 Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления RU2455676C2 (ru)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2011127116/08A RU2455676C2 (ru) 2011-07-04 2011-07-04 Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US13/478,378 US8823642B2 (en) 2011-07-04 2012-05-23 Methods and systems for controlling devices using gestures and related 3D sensor
US13/478,457 US20130010207A1 (en) 2011-07-04 2012-05-23 Gesture based interactive control of electronic equipment
US13/541,684 US20130010071A1 (en) 2011-07-04 2012-07-04 Methods and systems for mapping pointing device on depth map
US13/541,681 US8896522B2 (en) 2011-07-04 2012-07-04 User-centric three-dimensional interactive control environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2011127116/08A RU2455676C2 (ru) 2011-07-04 2011-07-04 Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления

Publications (2)

Publication Number Publication Date
RU2011127116A RU2011127116A (ru) 2011-10-10
RU2455676C2 true RU2455676C2 (ru) 2012-07-10

Family

ID=44804813

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011127116/08A RU2455676C2 (ru) 2011-07-04 2011-07-04 Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления

Country Status (2)

Country Link
US (4) US8823642B2 (ru)
RU (1) RU2455676C2 (ru)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014065697A1 (ru) * 2012-10-26 2014-05-01 Общество С Ограниченной Ответственностью Инновационное Предприятие "Дисплаир Компани" Способ и устройство жестового управления для мультимедийного дисплея
RU2522848C1 (ru) * 2013-05-14 2014-07-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ управления устройством с помощью глазных жестов в ответ на стимулы
WO2015076695A1 (en) * 2013-11-25 2015-05-28 Yandex Llc System, method and user interface for gesture-based scheduling of computer tasks
RU2618921C2 (ru) * 2014-05-22 2017-05-12 Сяоми Инк. Способ и устройство управления сенсорным вводом
RU2623805C2 (ru) * 2012-11-20 2017-06-29 Самсунг Электроникс Ко., Лтд. Ввод жеста пользователем на носимом электронном устройстве, включающий в себя движение устройства
RU2644520C2 (ru) * 2012-10-12 2018-02-12 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАНСЕНСИНГ, ЭлЭлСи Бесконтактный ввод
RU2649773C2 (ru) * 2013-11-29 2018-04-04 Интел Корпорейшн Управление камерой посредством функции распознавания лица
RU2662690C2 (ru) * 2013-03-14 2018-07-26 Самсунг Электроникс Ко., Лтд. Устройство и способ управления объектом пользовательского прибора
RU2667375C2 (ru) * 2013-07-24 2018-09-19 Гизеке+Девриент Каренси Текнолоджи Гмбх Способ и устройство обработки ценных документов
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
RU2685020C2 (ru) * 2014-03-26 2019-04-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Слежение за взглядом на основе адаптивного гомографического сопоставления
RU2693197C2 (ru) * 2017-05-04 2019-07-01 Федеральное государственное бюджетное образовательное учреждение высшего образования "Сибирский государственный университет телекоммуникаций и информатики" (СибГУТИ) Операторный универсальный интеллектуальный 3-D интерфейс
RU2695053C1 (ru) * 2018-09-18 2019-07-18 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для управления трехмерными объектами в виртуальном пространстве
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10444961B2 (en) 2014-08-12 2019-10-15 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
RU2705432C2 (ru) * 2014-10-08 2019-11-07 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Отслеживание взгляда через очковую оптику
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
RU2717145C2 (ru) * 2018-07-23 2020-03-18 Николай Дмитриевич Куликов Способ ввода координат (варианты), емкостный сенсорный экран (варианты), емкостная сенсорная панель (варианты) и электроемкостный преобразователь для определения координат геометрического центра двумерной области (варианты)
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US10775997B2 (en) 2013-09-24 2020-09-15 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
RU2806269C1 (ru) * 2021-08-11 2023-10-30 Шэньчжэнь Шокз Ко., Лтд. Системы и способы управления оконечным устройством

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
US9414051B2 (en) 2010-07-20 2016-08-09 Memory Engine, Incorporated Extensible authoring and playback platform for complex virtual reality interactions and immersive applications
US20150153715A1 (en) * 2010-09-29 2015-06-04 Google Inc. Rapidly programmable locations in space
US9477302B2 (en) * 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP4235365A3 (en) 2011-08-05 2023-11-01 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US10150028B2 (en) 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
US9459760B2 (en) 2012-11-16 2016-10-04 Xiaomi Inc. Method and device for managing a user interface
CN103019586B (zh) * 2012-11-16 2017-03-15 小米科技有限责任公司 用户界面管理方法及装置
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
CN105191289B (zh) * 2013-01-29 2019-01-22 奥普加尔光电工业有限公司 一种用于热成像照相机的系统和方法
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
JP2014153663A (ja) * 2013-02-13 2014-08-25 Sony Corp 音声認識装置、および音声認識方法、並びにプログラム
US9389779B2 (en) * 2013-03-14 2016-07-12 Intel Corporation Depth-based user interface gesture control
US9430044B2 (en) * 2013-03-15 2016-08-30 Lutron Electronics Co., Inc. Gesture-based load control
WO2014149700A1 (en) * 2013-03-15 2014-09-25 Intel Corporation System and method for assigning voice and gesture command areas
WO2014185808A1 (en) * 2013-05-13 2014-11-20 3Divi Company System and method for controlling multiple electronic devices
US9144744B2 (en) 2013-06-10 2015-09-29 Microsoft Corporation Locating and orienting device in space
KR102094347B1 (ko) * 2013-07-29 2020-03-30 삼성전자주식회사 자동 청소 시스템, 청소 로봇 및 그 제어 방법
CN104349197B (zh) * 2013-08-09 2019-07-26 联想(北京)有限公司 一种数据处理方法及装置
US10021247B2 (en) 2013-11-14 2018-07-10 Wells Fargo Bank, N.A. Call center interface
US10037542B2 (en) 2013-11-14 2018-07-31 Wells Fargo Bank, N.A. Automated teller machine (ATM) interface
US9864972B2 (en) 2013-11-14 2018-01-09 Wells Fargo Bank, N.A. Vehicle interface
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
WO2015117852A1 (en) * 2014-02-07 2015-08-13 Koninklijke Philips N.V. Method of operating a control system and control system therefore
US9911351B2 (en) 2014-02-27 2018-03-06 Microsoft Technology Licensing, Llc Tracking objects during processes
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
KR20150112337A (ko) * 2014-03-27 2015-10-07 삼성전자주식회사 디스플레이 장치 및 그 사용자 인터랙션 방법
US10203665B2 (en) * 2014-04-24 2019-02-12 Vivint, Inc. Managing home automation system based on behavior and user input
US10481561B2 (en) 2014-04-24 2019-11-19 Vivint, Inc. Managing home automation system based on behavior
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
WO2016003100A1 (en) * 2014-06-30 2016-01-07 Alticast Corporation Method for displaying information and displaying device thereof
EP3167445B1 (en) 2014-07-10 2021-05-26 Intelligent Platforms, LLC Apparatus and method for electronic labeling of electronic equipment
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105282375B (zh) * 2014-07-24 2019-12-31 钰立微电子股份有限公司 附着式立体扫描模块
US20160085958A1 (en) * 2014-09-22 2016-03-24 Intel Corporation Methods and apparatus for multi-factor user authentication with two dimensional cameras
US20160088804A1 (en) * 2014-09-29 2016-03-31 King Abdullah University Of Science And Technology Laser-based agriculture system
US10268277B2 (en) * 2014-09-30 2019-04-23 Hewlett-Packard Development Company, L.P. Gesture based manipulation of three-dimensional images
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
WO2016065149A1 (en) * 2014-10-23 2016-04-28 Vivint, Inc. Managing home automation system based on behavior and user input
US11078652B2 (en) 2014-12-18 2021-08-03 Delta Faucet Company Faucet including capacitive sensors for hands free fluid flow control
US10301801B2 (en) 2014-12-18 2019-05-28 Delta Faucet Company Faucet including capacitive sensors for hands free fluid flow control
US9454235B2 (en) 2014-12-26 2016-09-27 Seungman KIM Electronic apparatus having a sensing unit to input a user command and a method thereof
US10310080B2 (en) * 2015-02-25 2019-06-04 The Boeing Company Three dimensional manufacturing positioning system
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US9984686B1 (en) * 2015-03-17 2018-05-29 Amazon Technologies, Inc. Mapping device capabilities to a predefined set
US9594967B2 (en) 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
US9888090B2 (en) * 2015-04-27 2018-02-06 Intel Corporation Magic wand methods, apparatuses and systems
CN107787497B (zh) * 2015-06-10 2021-06-22 维塔驰有限公司 用于在基于用户的空间坐标系中检测手势的方法和装置
KR101697200B1 (ko) * 2015-06-12 2017-01-17 성균관대학교산학협력단 임베디드 시스템, 고속화된 구조광 기반 3차원 카메라 시스템 및 이를 이용한 3차원 이미지 획득 방법
US10655951B1 (en) 2015-06-25 2020-05-19 Amazon Technologies, Inc. Determining relative positions of user devices
US10365620B1 (en) 2015-06-30 2019-07-30 Amazon Technologies, Inc. Interoperability of secondary-device hubs
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
JP6650595B2 (ja) * 2015-09-24 2020-02-19 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
US9692756B2 (en) 2015-09-24 2017-06-27 Intel Corporation Magic wand methods, apparatuses and systems for authenticating a user of a wand
US10328342B2 (en) 2015-09-24 2019-06-25 Intel Corporation Magic wand methods, apparatuses and systems for defining, initiating, and conducting quests
KR20170048972A (ko) * 2015-10-27 2017-05-10 삼성전자주식회사 영상을 생성하는 방법 및 장치
US9408452B1 (en) 2015-11-19 2016-08-09 Khaled A. M. A. A. Al-Khulaifi Robotic hair dryer holder system with tracking
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US20180164895A1 (en) * 2016-02-23 2018-06-14 Sony Corporation Remote control apparatus, remote control method, remote control system, and program
JP6859999B2 (ja) * 2016-02-23 2021-04-14 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
CN109074819B (zh) * 2016-04-29 2023-05-16 维塔驰有限公司 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备
US11079915B2 (en) 2016-05-03 2021-08-03 Intelligent Platforms, Llc System and method of using multiple touch inputs for controller interaction in industrial control systems
US10845987B2 (en) * 2016-05-03 2020-11-24 Intelligent Platforms, Llc System and method of using touch interaction based on location of touch on a touch screen
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
WO2018084576A1 (en) 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
DE102016124906A1 (de) * 2016-12-20 2017-11-30 Miele & Cie. Kg Verfahren zum Steuern eines Bodenpflegegeräts und Bodenpflegegerät
US10764281B1 (en) * 2017-01-09 2020-09-01 United Services Automobile Association (Usaa) Systems and methods for authenticating a user using an image capture device
US11321951B1 (en) * 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
KR20180098079A (ko) 2017-02-24 2018-09-03 삼성전자주식회사 비전 기반의 사물 인식 장치 및 그 제어 방법
CN106919928A (zh) * 2017-03-08 2017-07-04 京东方科技集团股份有限公司 手势识别系统、方法及显示设备
TWI604332B (zh) * 2017-03-24 2017-11-01 緯創資通股份有限公司 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
US11290518B2 (en) * 2017-09-27 2022-03-29 Qualcomm Incorporated Wireless control of remote devices through intention codes over a wireless connection
CN110377145B (zh) * 2018-04-13 2021-03-30 北京京东尚科信息技术有限公司 电子设备确定方法、系统、计算机系统和可读存储介质
KR102524586B1 (ko) 2018-04-30 2023-04-21 삼성전자주식회사 전자 장치 및 그 동작방법
KR102728476B1 (ko) 2018-07-19 2024-11-12 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR102753924B1 (ko) * 2018-12-03 2025-01-14 삼성전자주식회사 사용자의 움직임에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법
EP3667460A1 (en) * 2018-12-14 2020-06-17 InterDigital CE Patent Holdings Methods and apparatus for user -device interaction
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
KR102236727B1 (ko) * 2019-05-10 2021-04-06 (주)엔플러그 사물인터넷 기반의 조명장치를 이용한 헬스 케어 시스템 및 방법
US11732994B1 (en) 2020-01-21 2023-08-22 Ibrahim Pasha Laser tag mobile station apparatus system, method and computer program product
RU2737231C1 (ru) * 2020-03-27 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" (СПб ФИЦ РАН) Способ многомодального бесконтактного управления мобильным информационным роботом
JP7057393B2 (ja) * 2020-06-24 2022-04-19 株式会社電通 プログラム、ヘッドマウントディスプレイ及び情報処理装置
JP7640672B2 (ja) * 2020-08-06 2025-03-05 華為技術有限公司 ポインティングジェスチャ認識を用いるクロスデバイス対話のアクティブ化
US12061873B2 (en) 2020-10-30 2024-08-13 Microsoft Technology Licensing, Llc Determining lexical difficulty in textual content
US12216836B2 (en) * 2021-02-10 2025-02-04 Universal City Studios Llc Interactive pepper's ghost effect system
CN113269075B (zh) * 2021-05-19 2024-08-23 广州繁星互娱信息科技有限公司 手势轨迹识别方法和装置、存储介质及电子设备
WO2023015490A1 (zh) 2021-08-11 2023-02-16 深圳市韶音科技有限公司 终端控制系统及方法
US11556183B1 (en) * 2021-09-30 2023-01-17 Microsoft Technology Licensing, Llc Techniques for generating data for an intelligent gesture detector
DE102022203677A1 (de) * 2022-04-12 2023-10-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einer Bestimmung einer momentanen Blickrichtung eines Nutzers einer Datenbrille mit einer virtuellen Netzhautanzeige und Datenbrille
US12248654B1 (en) * 2024-02-16 2025-03-11 Isovist Limited Systems and methods for generating and enabling interaction with an extended reality user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
RU2382408C2 (ru) * 2007-09-13 2010-02-20 Институт прикладной физики РАН Способ и система для идентификации человека по изображению лица
RU2410259C2 (ru) * 2006-03-22 2011-01-27 Фольксваген Аг Интерактивное устройство управления и способ эксплуатации интерактивного устройства управления
WO2011011029A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display to determine gestures

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
EP2256605B1 (en) * 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
US7224526B2 (en) * 1999-12-08 2007-05-29 Neurok Llc Three-dimensional free space image projection employing Fresnel lenses
GB0004165D0 (en) 2000-02-22 2000-04-12 Digimask Limited System for virtual three-dimensional object creation and use
EP1311803B8 (de) * 2000-08-24 2008-05-07 VDO Automotive AG Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7340077B2 (en) 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8019121B2 (en) * 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
EP1851955A4 (en) 2005-02-14 2009-08-12 Hillcrest Lab Inc METHODS AND SYSTEMS FOR ENHANCING TELEVISION APPLICATIONS USING 3D POINTING
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8549442B2 (en) * 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US20080001951A1 (en) 2006-05-07 2008-01-03 Sony Computer Entertainment Inc. System and method for providing affective characteristics to computer generated avatar during gameplay
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US7775439B2 (en) 2007-01-04 2010-08-17 Fuji Xerox Co., Ltd. Featured wands for camera calibration and as a gesture based 3D interface device
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
WO2008120217A2 (en) 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US20090128555A1 (en) 2007-11-05 2009-05-21 Benman William J System and method for creating and using live three-dimensional avatars and interworld operability
US20090140887A1 (en) * 2007-11-29 2009-06-04 Breed David S Mapping Techniques Using Probe Vehicles
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
CA2615406A1 (en) 2007-12-19 2009-06-19 Inspeck Inc. System and method for obtaining a live performance in a video game or movie involving massively 3d digitized human face and object
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US8192285B2 (en) 2008-02-11 2012-06-05 Nintendo Co., Ltd Method and apparatus for simulating games involving a ball
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP2009258884A (ja) * 2008-04-15 2009-11-05 Toyota Central R&D Labs Inc ユーザインタフェイス
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
JP2010086336A (ja) * 2008-09-30 2010-04-15 Fujitsu Ltd 画像制御装置、画像制御プログラムおよび画像制御方法
WO2010045406A2 (en) * 2008-10-15 2010-04-22 The Regents Of The University Of California Camera system with autonomous miniature camera and light source assembly and method for image enhancement
US20100199228A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US20100195867A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8502864B1 (en) * 2009-07-28 2013-08-06 Robert Watkins Systems, devices, and/or methods for viewing images
KR101596890B1 (ko) 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
KR20110071213A (ko) 2009-12-21 2011-06-29 한국전자통신연구원 스테레오 비젼과 얼굴 검출기를 이용한 3d 아바타 얼굴 생성 장치 및 그 방법
US20110216059A1 (en) 2010-03-03 2011-09-08 Raytheon Company Systems and methods for generating real-time three-dimensional graphics in an area of interest
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US20110292036A1 (en) 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US9008904B2 (en) * 2010-12-30 2015-04-14 GM Global Technology Operations LLC Graphical vehicle command system for autonomous vehicles on full windshield head-up display
JP5784818B2 (ja) * 2011-03-29 2015-09-24 クアルコム,インコーポレイテッド 拡張現実システムにおける実世界表面への仮想画像のアンカリング

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2410259C2 (ru) * 2006-03-22 2011-01-27 Фольксваген Аг Интерактивное устройство управления и способ эксплуатации интерактивного устройства управления
RU2382408C2 (ru) * 2007-09-13 2010-02-20 Институт прикладной физики РАН Способ и система для идентификации человека по изображению лица
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
WO2011011029A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display to determine gestures

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2644520C2 (ru) * 2012-10-12 2018-02-12 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАНСЕНСИНГ, ЭлЭлСи Бесконтактный ввод
US10019074B2 (en) 2012-10-12 2018-07-10 Microsoft Technology Licensing, Llc Touchless input
WO2014065697A1 (ru) * 2012-10-26 2014-05-01 Общество С Ограниченной Ответственностью Инновационное Предприятие "Дисплаир Компани" Способ и устройство жестового управления для мультимедийного дисплея
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
RU2623805C2 (ru) * 2012-11-20 2017-06-29 Самсунг Электроникс Ко., Лтд. Ввод жеста пользователем на носимом электронном устройстве, включающий в себя движение устройства
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
RU2662690C2 (ru) * 2013-03-14 2018-07-26 Самсунг Электроникс Ко., Лтд. Устройство и способ управления объектом пользовательского прибора
RU2522848C1 (ru) * 2013-05-14 2014-07-20 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ управления устройством с помощью глазных жестов в ответ на стимулы
RU2667375C2 (ru) * 2013-07-24 2018-09-19 Гизеке+Девриент Каренси Текнолоджи Гмбх Способ и устройство обработки ценных документов
US10775997B2 (en) 2013-09-24 2020-09-15 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
WO2015076695A1 (en) * 2013-11-25 2015-05-28 Yandex Llc System, method and user interface for gesture-based scheduling of computer tasks
RU2649773C2 (ru) * 2013-11-29 2018-04-04 Интел Корпорейшн Управление камерой посредством функции распознавания лица
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
RU2685020C2 (ru) * 2014-03-26 2019-04-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Слежение за взглядом на основе адаптивного гомографического сопоставления
RU2618921C2 (ru) * 2014-05-22 2017-05-12 Сяоми Инк. Способ и устройство управления сенсорным вводом
US9671911B2 (en) 2014-05-22 2017-06-06 Xiaomi Inc. Touch input control method and device
US10444961B2 (en) 2014-08-12 2019-10-15 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
RU2705432C2 (ru) * 2014-10-08 2019-11-07 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Отслеживание взгляда через очковую оптику
RU2693197C2 (ru) * 2017-05-04 2019-07-01 Федеральное государственное бюджетное образовательное учреждение высшего образования "Сибирский государственный университет телекоммуникаций и информатики" (СибГУТИ) Операторный универсальный интеллектуальный 3-D интерфейс
RU2717145C2 (ru) * 2018-07-23 2020-03-18 Николай Дмитриевич Куликов Способ ввода координат (варианты), емкостный сенсорный экран (варианты), емкостная сенсорная панель (варианты) и электроемкостный преобразователь для определения координат геометрического центра двумерной области (варианты)
RU2695053C1 (ru) * 2018-09-18 2019-07-18 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для управления трехмерными объектами в виртуальном пространстве
RU2806269C1 (ru) * 2021-08-11 2023-10-30 Шэньчжэнь Шокз Ко., Лтд. Системы и способы управления оконечным устройством

Also Published As

Publication number Publication date
US20130010071A1 (en) 2013-01-10
RU2011127116A (ru) 2011-10-10
US20130009865A1 (en) 2013-01-10
US20130010207A1 (en) 2013-01-10
US20130009861A1 (en) 2013-01-10
US8823642B2 (en) 2014-09-02
US8896522B2 (en) 2014-11-25

Similar Documents

Publication Publication Date Title
RU2455676C2 (ru) Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US20230205151A1 (en) Systems and methods of gestural interaction in a pervasive computing environment
US11586292B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
KR102658303B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
US9772720B2 (en) Flexible room controls
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
US20140037135A1 (en) Context-driven adjustment of camera parameters
US20080252596A1 (en) Display Using a Three-Dimensional vision System
US20140354602A1 (en) Interactive input system and method
US20130342572A1 (en) Control of displayed content in virtual environments
US20130086531A1 (en) Command issuing device, method and computer program product
US10878285B2 (en) Methods and systems for shape based training for an object detection algorithm
JP2015114818A (ja) 情報処理装置、情報処理方法及びプログラム
KR20150130495A (ko) 적어도 두 개의 제어 객체들에 의해 수행되는 제스처의 검출
US10048808B2 (en) Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
JP2012238293A (ja) 入力装置
JP2022546053A (ja) 仮想ミラーシステム及び方法
JP6643825B2 (ja) 装置及び方法
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
CN110888536B (zh) 基于mems激光扫描的手指交互识别系统
KR100660137B1 (ko) 레이저 포인터를 이용한 입력 장치와 그를 이용한프리젠테이션 제공 시스템