[go: up one dir, main page]

JP2015158747A - 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器 - Google Patents

制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器 Download PDF

Info

Publication number
JP2015158747A
JP2015158747A JP2014032265A JP2014032265A JP2015158747A JP 2015158747 A JP2015158747 A JP 2015158747A JP 2014032265 A JP2014032265 A JP 2014032265A JP 2014032265 A JP2014032265 A JP 2014032265A JP 2015158747 A JP2015158747 A JP 2015158747A
Authority
JP
Japan
Prior art keywords
image
control device
action table
operation event
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014032265A
Other languages
English (en)
Inventor
博隆 石川
Hirotaka Ishikawa
博隆 石川
泰樹 金間
Yasuki KANEMA
泰樹 金間
聰 赤川
Satoshi Akagawa
聰 赤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014032265A priority Critical patent/JP2015158747A/ja
Priority to US14/620,308 priority patent/US20150241957A1/en
Publication of JP2015158747A publication Critical patent/JP2015158747A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】通信遅延の発生を抑えてウェアラブル機器を適切に動作させることができる制御装置、またそのウェアラブル機器等を提供すること。【解決手段】制御装置は、取得部と、実行部とを具備する。前記取得部は、入力される操作イベントに関連付けられた、ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得するように構成される。前記実行部は、前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成される。【選択図】図6

Description

本技術は、ウェアラブル機器を制御する制御装置、情報処理装置、情報処理システム、制御方法、情報処理方法、およびウェアラブル機器に関する。
ユーザの頭部に装着され、眼前に配置されたディスプレイによってユーザに画像を提示することが可能な、ヘッドマウントディスプレイ(HMD)が知られている。
特許文献1に記載されたヘッドマウントディスプレイ(撮像表示装置)は、外部機器と通信可能に構成され、外部機器から送信されてきた画像を表示するようになっている(例えば、特許文献1の明細書段落[0023]参照)
特開2013−141272号公報
ウェアラブル機器が外部機器と通信する場合に、通信遅延が発生すると、ウェアラブル機器の動作が遅れるという問題がある。
本技術の目的は、通信遅延の発生を抑えてウェアラブル機器を適切に動作させることができる制御装置、またそのウェアラブル機器等を提供することにある。
上記目的を達成するため、本技術に係る制御装置は、取得部と、実行部とを具備する。
前記取得部は、入力される操作イベントに関連付けられた、ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得するように構成される。
前記実行部は、前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成される。
制御装置は、入力される操作イベントに対応する処理を、アクションテーブルに基づき実行する。したがって、制御装置が外部機器から処理の指示を受けてその処理を実行する場合に比べ、制御装置および外部機器間の遅延の発生を抑えて、制御装置はウェアラブル機器を適切に動作させることができる。
前記実行部は、前記操作イベントに対応する、前記ウェアラブル機器による画像の表示処理を実行するように構成されてもよい。
前記取得部は、前記アクションテーブルを含む複数のアクションテーブルを取得するように構成され、前記実行部は、前記複数のアクションテーブルにそれぞれ対応する複数の階層内の画像の表示処理を実行するように構成されてもよい。
これにより、実行部は、階層ごとに異なるアクションテーブルを用いることができる。
前記取得部は、前記複数のアクションテーブルを時間別でそれぞれ取得するように構成されてもよい。
これにより、制御装置は、例えば新たなアプリに対応する最新のアクションテーブルを随時取得することができる。
前記取得部は、前記外部機器で生成された画像をさらに取得するように構成され、前記実行部は、前記取得部で取得された前記画像を前記ウェアラブル機器の表示部に出力する処理を実行するように構成されてもよい。
これにより、制御装置は、外部機器で生成された画像をウェアラブル機器の表示部に表示することができる。
前記制御装置は、画像を前記ウェアラブル機器に表示するための、1以上の画像の配置を表す位置情報を記憶するように構成されたメモリをさらに具備してもよい。そして、前記実行部は、前記位置情報を参照して、前記画像を前記ウェアラブル機器の表示部に出力するように構成されてもよい。
実行部は、入力される操作イベントに基づき、位置情報を参照して、効率良く画像をウェアラブル機器に表示させることができる。
前記実行部は、前記1以上の画像としての複数の画像の切替表示処理を実行するように構成されてもよい。
前記1以上の画像は複数のオブジェクトで表現される画像であり、前記メモリは、前記複数のオブジェクトで表現される前記1以上の画像の前記位置情報を格納するように構成されてもよい。
これにより、実行部は、複数のオブジェクトのうち少なくとも1つのオブジェクトを対象に表示処理を実行することができ、多様な表示処理を提供することができる。
前記メモリは、複数の座標系上の前記位置情報を格納するように構成されてもよい。そして、前記実行部は、前記複数の座標系のうち、第1の座標系上の前記画像を表現する前記複数のオブジェクトのうち少なくとも1つのオブジェクトのフレーム内に、第2の座標系上の前記画像を配置させるように構成されてもよい。
本技術に係る情報処理装置は、作成部と、送信部とを具備する。
前記作成部は、ウェアラブル機器の制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成される。
前記送信部は、前記作成されたアクションテーブルを前記制御装置に送信するように構成される。
本技術に係る制御方法は、ウェアラブル機器の制御装置による制御方法であって、入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得することを含む。
前記操作イベントに対応する処理が、前記アクションテーブルに基づき実行される。
本技術に係る情報処理方法は、ウェアラブル機器の制御装置と通信可能な外部機器による情報処理方法であって、前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成することを含む。
前記作成されたアクションテーブルが前記制御装置に送信される。
本技術に係る情報処理システムは、ウェアラブル機器の制御装置と、前記制御装置と通信可能に構成された外部機器とを具備する。
前記外部機器は、前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成された作成部と、前記作成されたアクションテーブルを前記制御装置に送信するように構成された送信部とを含む。
前記制御装置は、前記アクションテーブルを、前記外部機器から取得するように構成された取得部と、前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部とを含む。
本技術に係るウェアラブル機器は、操作部と、取得部と、実行部とを具備する。
前記操作部は、操作イベントが入力されるように構成される。
前記取得部は、前記操作イベントに関連付けられた処理が記述されたアクションテーブルを、外部機器から取得するように構成される。
前記実行部は、前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成される。
以上のように、本技術によれば、通信遅延を発生を抑えてウェアラブル機器を適切に動作させることができる。
なお、ここに記載された効果は必ずしもこれに限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
図1は、本技術に係る情報処理システムとして、第1の実施形態に係るシステムの構成を示す。 図2は、本システムの各機器の構成を示すブロック図である。 図3は、携帯端末およびコントロールボックスにそれぞれ搭載されるソフトウェアの構成を示す。 図4は、ウェアラブル機器の表示部に表示される画面の例を示す。 図5A、Bは、カード画像やアプリ画像を配置させる場を表す座標系を示す。 図6は、左右スワイプ操作による、カード階層またはアプリ階層内での画像の切替処理のシーケンスを示す。 図7は、カード階層用のアクションテーブルの例を示す。 図8は、本技術との比較例に係るシーケンスの例を示す。 図9は、アニメーション効果を用いて、カード階層からアプリ階層への画面の切替の様子を示す。 図10は、図9に示す切替処理におけるシステムのシーケンス図である。 第1および第2の実施形態における操作イベントとは別の操作イベントを含むアクションテーブルに基づくシーケンスを示す。 図12は、アプリ階層用のアクションテーブルの例を示す。 図13は、表示用階層および文字用階層における画像を配置させるための座標系を示す。
以下、図面を参照しながら、本技術の実施形態を説明する。
1.第1の実施形態
1)ウェアラブル機器を用いた情報処理システムの全体構成
図1は、本技術に係る情報処理システムとして、第1の実施形態に係るシステム100の構成を示す。
このシステム100は、主に、携帯端末30、ウェアラブル機器(ウェアラブルディスプレイ)70、およびこのウェアラブル機器70を制御する制御装置として機能するコントロールボックス50を含む。
携帯端末30は、情報処理装置として機能し、典型的にはスマートホン等の携帯電話機である。携帯端末30は、タブレット機器、その他PC(Personal Computer)であってもよい。
ウェアラブル機器70は、図に示すようにヘッドマウント型のものであるが、これに限られず、例えばリストバンド型やネックバンド型のものであってもよい。
携帯端末30は、クラウドシステム10に接続可能に構成されている。クラウドシステム10は、例えばインターネット等の電気通信回線網に接続されたサーバコンピュータ等を含む。
コントロールボックス50は、典型的には、ウェアラブル機器70に有線により接続されている。ユーザは、ウェアラブル機器70を頭部に装着し、コントロールボックス50を手指により操作することにより、ウェアラブル機器70を操作することができる。
2)各機器の構成
図2は、本システム100の各機器の構成を示すブロック図である。
2−1)携帯端末
携帯端末30(例えばスマートホン)は、主に、CPU(Central Processing Unit)31、メモリ32、タッチパネル/表示部35、広域通信部33、および局域通信部34を有する。また、携帯端末30は、その他、モーションセンサやカメラ等を含む各種センサ37、GPS(Global Positioning System)受信部36、オーディオデバイス部38、バッテリ39等を有する。少なくとも携帯端末30(または、携帯端末30およびクラウドシステム10)は、ウェアラブル機器70の外部機器として機能する。
広域通信部33は、例えば3G(Third Generation)やLTE(Long Term Evolution)等の通信システムにより通信可能に構成される。局域通信部34は、例えばWiFi等の無線LAN(Local Area Network)通信システム、Bluetooth(登録商標)、および/または、赤外線等の短距離無線通信システムにより通信可能に構成される。局域通信部34は、コントロールボックス50との間の「受信部」や「送信部」として機能する。
携帯端末30は、局域通信部34とは別に、例えばRFID(Radio Frequency IDentification)等の、いわゆる近距離無線通信システムを利用する個体識別デバイスを有していてもよい。
オーディオデバイス部38は、マイクロフォンおよびスピーカを含む。
2−2)ウェアラブル機器
ウェアラブル機器70は、表示部71および各種のセンサ72〜75、カメラ78を有する。表示部71は、図1に示すように、例えばヘッドマウント型のウェアラブル機器70のフレーム76の左右に配置される小型のプロジェクタである。このヘッドマウント型のウェアラブル機器70では、各プロジェクタから出射された同一または視差を持つ画像光が導光板77でガイドされ、導光板77の所定領域からユーザの眼球に向けて出射されるようになっている。
ウェアラブル機器70の各種のセンサとしては、例えば、地磁気センサ72、ジャイロセンサ73、加速度センサ74、照度センサ75等がある。
なお、ウェアラブル機器70では、左右のうち一方にのみ表示部71が設けられていてもよい。ウェアラブル機器70は、プロジェクタタイプのものに限られず、眼球に直接画像光を照射するタイプの表示部71を備えていてもよい。
2−3)コントロールボックス
コントロールボックス50は、CPU51、メモリ52、局域通信部54、入力キー53、タッチパネル55、オーディオデバイス部58、バッテリ59等を有する。
CPU51は、コントロールボックス50内およびウェアラブル機器70内の各部を統括的に制御する。コントロールボックス50は、CPU51の代わりに、FPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)を備えていてもよい。
局域通信部54は、携帯端末30の局域通信部34と、上記した通信システムにより通信可能に構成される。局域通信部54は、携帯端末30との間の「受信部」として機能する。
入力キー53は、コントロールボックス50に配置された、ユーザにより操作される1以上の物理キーである。入力キー53は、例えば電源キー、バックキー、表示部71のON/OFFキー等を含む。
タッチパネル55は、コントロールボックス50の表面に配置された(図1参照)、ユーザにより操作される操作デバイスである。入力キー53およびタッチパネル55は、ウェアラブル機器70の「操作部」として機能する。
オーディオデバイス部58は、マイクロフォンおよびスピーカを含む。
コントロールボックス50は、局域通信部54とは別に、例えば上述したRFID等の近距離無線通信システムを利用する通信デバイスを有していてもよい。これにより、ユーザは、携帯端末30内の所定のアプリケーションソフトウェアを起動し、携帯端末30をコントロールボックス50に接近させることにより、ほぼ自動的にこれらの機器をペアリングすることができる。
また例えば、ユーザが携帯端末30をコントロールボックス50に接近させることにより、携帯端末30は、これらをペアリングするためのアプリケーションソフトウェアを、ほぼ自動的にクラウドからダウンロードしてこれがインストールされるようにすることもできる。
もちろん、コントロールボックス50は、このような近距離無線通信用のデバイスを有していない場合でも、局域通信部54を用いて携帯端末30とペアリングが可能である。
2−4)クラウドシステム
クラウドシステム10内の例えばサーバコンピュータは、CPU11、メモリ12、および携帯端末30と通信可能に構成された広域通信部13を有する。
3)ソフトウェアの構成
図3は、携帯端末30およびコントロールボックス50にそれぞれ搭載されるソフトウェアの構成を示す。
携帯端末30は、一般のアプリケーションソフトウェア(以下、単に「アプリ」という。)26およびコンパニオンアプリ25をメモリ32内に格納している。これらのアプリ25、26は、携帯端末30にデフォルトでインストールされたOS(Operating System)上で動作するように構成される。
一般のアプリ26の種類としては、例えば、ミニブログや交流サイト等のSNS(Social Networking Service)アプリ、音声認識アプリ、カメラアプリ、メディア再生、ニュース、天気予報サービス等がある。
コンパニオンアプリ25は、これらのアプリ26上のデフォルトデータやユーザデータを、ウェアラブル機器70の表示部71に表示可能な形式のデータに変換する機能を有する。携帯端末30は、例えば、コンパニオンアプリ25をクラウドシステム10からダウンロードすることにより、コンパニオンアプリ25がこの携帯端末30にインストールされる。
コントロールボックス50は、ペアリング後にコンパニオンアプリ25と協働するファームウェア45をメモリ52内に有する。ファームウェア45には、カメラ78を動作させるカメラアプリや、後述する設定画面での設定アプリ等がデフォルトでインストールされている。
4)ウェアラブル機器で表示される画面例および本システムの動作例
4−1)ウェアラブル機器に表示される画面例
図4は、ウェアラブル機器70の表示部71に表示される画面の例を示す。なお、以降では説明の便宜上、携帯端末30の処理の主体をコンパニオンアプリ25とし、コントロールボックス50の処理の主体をファームウェア45とする。
4−1a)カード階層の画面例
図4の上段に示す階層を「カード(Card)階層」という。カード階層200は、例えばデフォルトでホーム画面211および設定画面212等を含む、各種のカード画面210を含む。また、カード階層200は、その他、ユーザが登録したアプリ26(図3参照)のカード画面210(213)を含む。
カード画面210は、カード画面全体の領域のうち、例えば概ね下半分の領域に配置される画像215を主に含む。1つのカード画面210(および後述するアプリ画面310)が占める領域が、表示部71による表示領域(Viewport)である。以降の説明では、カード画面210が占める領域の画像を、「カード画像」という。ここでいうカード画像(ホーム画面211のカード画像を除く)とは、アイコンやウィジェットのようなものであり、アプリにアクセスするためのGUI(Graphical User Interface)である。1つのカード画面210につき1つのカード画像が備えられる。
ユーザは、登録によりカード画像、特に画像215を追加していくことができる。例えばユーザが携帯端末30を用いてその携帯端末30にインストールされたアプリ26に登録操作を行うことにより、コンパニオンアプリ25がそのアプリ26に応じたカード画像を生成する。
アプリに応じたカード画像とは、例えばカード画像内にそのアプリとわかるマークや文字を含む画像である。後述するように、基本的にはコンパニオンアプリ25が、自身で生成したカード画像をメモリ32に格納し、また、ファームウェア45もそれらのうち所定枚数のカード画像をメモリ52に格納する。
コントロールボックス50内のファームウェア45は、これらのカード画面210を1つずつ表示部71に表示するように構成される。同一階層内では、ユーザがタッチパネル55を介して左右スワイプ操作を入力することにより、ファームウェア45は、順にそれらのカード画面210を表示部71に表示させる。
なお、カード画面210のうち設定画面212からアクセス可能な「設定」もアプリケーションソフトウェアの1つであり、このコントロールボックス50に内蔵のデフォルトのアプリである。
4−1b)アプリ階層の画面例
図4の下段に示す階層を「アプリ階層300」という。アプリ階層300は、基本的にはカード階層200を介してアクセスされ得、各カード画面210のそれぞれのアプリが起動されたアプリ画面(でのアプリ画像)310を含む。
表示部71は、これらのアプリ画像310を1つずつ表示する。ユーザは、カード階層200を介してアプリ階層300にアクセスすることができる。ユーザがアプリ階層300にアクセスする場合、カード階層200内で選択したカード画面210を表示部71に表示させた状態で、タップ操作する。そうすると、ファームウェア45は、そのカード画面210に対応するアプリ画像310を表示部71に表示させる。
そのアプリ画像310からカード画面210に戻る場合、ユーザは、コントロールボックス50の入力キー53(図2参照)として設けられたバックキーを押す。
また、ユーザは、アプリ階層300内において任意の1つのアプリ画像310が表示されている状態で、タッチパネル55を左右にスワイプ操作することにより、その1つのアプリ内でアプリ画像310を切り替えることができる。例えば、1つのアプリ内の第1の機能と、そのアプリの第1の機能とは異なる機能を有する第2の機能とを切り替えることができる。その機能数(アプリ画像数)は、アプリにより異なる。
アプリがカメラアプリである場合、例えば、第1の機能が静止画撮影モードの画面を有し、第2の機能が動画撮影モードの画面である。なお、ファームウェア45にデフォルトでインストールされているカメラアプリは、カメラ78で得られている画像を表示部71に表示する。
なお、ユーザによる指のスワイプ操作の方向と、画像の移動方向とが一致していてもよいし、逆方向であってもよい。これはユーザの設定により変更可能とされる。
4−1c)画像配置の座標系
図5A、Bは、カード画面210やアプリ画像310を配置させる場を表す座標系を示す。コントロールボックス50は、このような座標系を、階層ごとにメモリ52内に記憶しており、またこの座標系で表されるカード画面210(カード画像)やアプリ画像310の座標(位置情報)をメモリ52に記憶する。ホーム画面211や設定画面212のカード画像、およびそれらの位置情報は、デフォルトで記憶されている。また、アプリ階層では、アプリが複数ある場合、アプリごとにこの座標系が記憶される。
図5Aに示す例では、カード階層の座標系においてカード画像がX軸に沿って配列され、各画像の代表点である例えば左上端部の点(黒丸で示す)の座標位置がそれぞれメモリに格納される。アプリ階層の座標系においても同様である。これにより、ファームウェア45は、ユーザにより、右スワイプまたは左スワイプの操作イベントが入力された場合、その操作イベントに応じて画像の座標を指定することにより、メモリ52からその座標に対応する画像を抽出して、表示部71に表示する。なお、図5Aに示す例では、例えばホーム画面211の座標(x,y)が原点(0,0)に設定されている。
また、ファームウェア45は、タップまたはバックキーによる操作イベントが入力された場合、その操作イベントに応じて、座標系に基づき指定された座標に対応するカード階層およびアプリ階層間を行き来する。また、ファームウェア45は、指定された座標に対応するカード画面210(カード画像)またはアプリ画像310を表示する。
図5に示す例のアプリ階層の座標系では、アプリ(a)を示すカード画像(a)に対応するアプリ画像が、X軸に沿って配置される(アプリ画像(a−1)、アプリ画像(a−2)、アプリ画像(a−3)、・・・)。アプリ(a)を示すカード画像(a)の座標(x,y)を(x1,0)とすると、カード画像(a)の表示状態からタップ操作により最初に表示されるアプリ画像(a−1)の位置は例えば(x1,0)とされる。カード画像(b)の場合、アプリ階層で最初に表示されるアプリ画像の位置は例えば(x2,0)とされる。
しかしながら、アプリ階層において、アプリごとに(0,0)が最初に表示されるアプリ画像の位置であってもよい。
後述するように、1つのカード画像が複数のオブジェクト210aで構成される場合、図5Bに示すように、それらのオブジェクト210aごとにそれらの座標位置がメモリ52内に記憶される。図5Bでは、カード階層の座標系のみ示したが、ファームウェア45は、アプリ階層でも同様に、複数のオブジェクト210aによる画像の表示処理を行うことができる。
以上のような座標系に基づく画像の表示処理により、ファームウェア45は、画像の位置情報を参照して、画像を効率良く表示することができる。
4−2)カード階層内またはアプリ階層内での画像の切替処理
図6は、左右スワイプ操作による、カード階層200またはアプリ階層300内での画像の切替処理のシーケンスを示す。
コンパニオンアプリ25は、例えばカード画像、またはアプリ画像等の画像を送信する(ステップ101)。例えばユーザが、タッチパネル55を操作してウェアラブル機器70の電源キーをONとしたことに応じて、あるいは、ユーザが何らかの操作イベントを入力したことに応じて、コンパニオンアプリ25は、画像を送信する。あるいは、コンパニオンアプリ25は、ユーザの操作イベントによらず、自動で画像を送る場合もある。
ファームウェア45は、その画像を受信し、受信した画像を上述した座標系に配置する(ステップ102)。一方、コンパニオンアプリ25は、画像の送信後、または送信している途中で、アクションテーブルを作成する(ステップ103)。この場合、コンパニオンアプリ25は、「作成部」として機能する。
アクションテーブルは、ユーザによって入力される操作イベントに関連付けられた、ウェアラブル機器70を動作させる処理が記述されたテーブルである。アクションテーブルには、典型的には、ユーザによるタッチパネル55を介して入力される操作イベントごとに関連付けられた、各階層(カード階層200およびアプリ階層300等)内での画像の表示処理が記述されている。コンパニオンアプリ25は、階層ごと、またアプリごとに異なる内容が記述された、アクションテーブルをメモリ32に格納している。
図7は、アクションテーブルの一例を示す。このアクションテーブルは、カード階層200またはアプリ階層300内における、カード画像またはアプリ画像の表示処理を記述している。
この例に係るアクションテーブルでは、アクション(処理)の定義数が3つある。3つの操作イベント「右スワイプ」、「タップ」、「左スワイプ」に対応する、アクション種別、およびアクション内容がそれぞれ記載されている。
例えば、イベント(操作イベント)「1」である「右スワイプ」に対応する、アクションの種別は表示領域をシフトさせるものである。そのアクション内容は、X軸上で右に100ピクセル分シフトさせ(Y軸上ではシフト量ゼロ)、そのシフトに要する時間を500msとするものである。
なお、この例に係るアクションテーブルの操作イベント「2」では、タップ操作により、カード階層200のカード画像からアプリ階層300のアプリ画像へ、フェードアウトのアニメーション処理により切り替わるアクションを示している。これについては、第2の実施形態で述べる。
例えば、コンパニオンアプリ25に対応した新たなアプリが携帯端末30にインストールされると、コンパニオンアプリ25は、そのアプリに対応する新たな1以上のアクションテーブルを作成するようになっている。
図6の説明に戻る。コンパニオンアプリ25は、このようなアクションテーブルを作成すると、これをファームウェア45に送信する(ステップ104)。この場合、コンパニオンアプリ25、局域通信部34は、「送信部」として機能する。ファームウェア45は、これを受信し、例えばメモリ52に記憶しておく。この場合、ファームウェア45、局域通信部54等は、「取得部」として機能する。
その後、ユーザによる操作イベントとして左右いずれかの「スワイプ」が入力された場合(ステップ105)、ファームウェア45は、この操作イベントをコンパニオンアプリ25に通知する(ステップ106)。
このステップ106の後、コンパニオンアプリ25は、図示しない所定の処理を実行する。この処理は、本技術には直接的には関連しないので、その説明を省略する。
ファームウェア45は、メモリに記憶されているアクションテーブルに基づき、そのスワイプの操作イベントに対応する処理(図7で示したアクション内容)を実行する。この場合、ファームウェア45またはCPU51は、「実行部」として機能する。
すなわち、ファームウェア45は、表示領域をシフトさせると判断し(ステップ107)、例えば画像1つ分をY軸に沿ってスライドさせる(ステップ108)。なお、ステップ108では、ファームウェア45は、アニメーションにより画像をスライドさせて表示する(ステップ108−1、2、3、・・・)。
図8に示す比較例に係るシーケンスを参照して、図6に係るシーケンスのメリットについて説明する。図8に示すシーケンスは、ファームウェア45が、アクションテーブルを用いないで、操作イベントに対するコンパニオンアプリ25の指示にしたがって表示処理を実行する形態を示す。
具体的には、コンパニオンアプリ25は、スワイプの操作イベントが通知された場合(ステップ203)、画像を1つスライドすると判断し(ステップ204)、その場合の表示領域のシフト量を、ファームウェア45に送信する(ステップ205)。ファームウェア45は、これを受け、表示領域のシフト量を解釈し(ステップ206)、画像をスライドさせる(ステップ207)。
すなわち、ステップ202で、スワイプの操作イベントが入力された後、ステップ207で画像をスライドするまでの間に、コンパニオンアプリ25によるステップ203、204、205、206の処理を経なればならない。この場合、ファームウェア45とコンパニオンアプリ25との間の通信遅延が、ユーザに不快感やストレスを与えるおそれがある。
これに対して、図6に示したシーケンスでは、ファームウェア45は、入力される操作イベントに対応する処理を、アクションテーブルに基づき実行する。すなわち、ステップ105で操作イベントが入力された後において、ファームウェア45とコンパニオンアプリ25との間の通信は、ステップ106のみである。しかも、ステップ106はファームウェア45からコンパニオンアプリ25への通知のみであり、遅延はほとんどない。これにより、ファームウェア45は、通信遅延の発生を抑えて、画像を適切に表示することができる。
このような技術によれば、コントロールボックス50のハードウェアの仕様が低いものであっても、ユーザにストレスのない見やすい画像の表示を提供することができる。また、これにより、コントロールボックス50の低消費電力化を実現することができる。
2.第2の実施形態
本実施形態では、操作イベントとして「タップ」操作が入力されることにより、カード階層200のカード画像から、アプリ階層のアプリ画像310へ、画像が切り替わる例について説明する。
図9は、例えばアニメーション処理を用いて、その画面の切替の様子を示したものである。
カード階層200の任意のカード画面210が表示されている状態で、ユーザによりタッチパネル55を介して、操作イベントとしてタップ操作が入力された場合、ファームウェア45は、図9右に示すように、(1)〜(5)の順で、アニメーションを表示する。
(1)〜(2)では、ファームウェア45は、それまで表示されていたカード画像(第1の画像)をフェードアウトさせる。ここでのフェードアウト処理は、時間順に段階的に低くなる表示輝度を持つ複数のカード画像を所定のフレームレートで表示する処理である。このフレームレートは、例えば15fpsであるが、これはあくまで例示であり、これより小さくても大きくてもよい。また、ファームウェア45は、このフェードアウト処理とともに、段階的にカード画像のサイズを拡大する処理も実行する。
(3)では、ファームウェア45は、フェードアウト処理を終了すると、カード画像の表示を消す。このように画像(第1の画像)が消えた後の画面であって、無模様でかつその第1の画像の表示時の背景色が維持される画面の画像(第3の画像)を、以降では、「空白画像」という。
(4)〜(5)では、ファームウェア45は、上記カード画像のアプリに対応するアプリ画面310上のアプリ画像(第2の画像)をフェードインさせる。ここでのフェードイン処理は、時間順に段階的に高くなる表示輝度を持つ複数のカード画像を所定のフレームレートで表示する処理である。このフレームレートは、例えば15fpsであるが、これはあくまで例示であり、これより小さくても大きくてもよい。また、ファームウェア45は、このフェードイン処理とともに、段階的にカード画像のサイズを拡大する処理(小さいサイズから元のサイズへ戻す処理)も実行する。
なお、上記ではカード画像を「第1の画像」と表現し、アプリ画像を「第2の画像」と表現したが、これは単に説明の便宜のためである。すなわち、2つの画像の切替時に、画像の表示順としてこれを「第1」、「第2」と表現したに過ぎない。
ファームウェア45は、(3)において空白画像150を挿入したが、これは無くてもよい。すなわち、フェードアウト処理に続くようにフェードイン処理が行われてもよい。このような形態であっても、第1の画像および第2の画像の表示輝度によっては、ユーザには空白画像150が挿入されていると認識される場合もある。
また、これらフェードイン処理およびフェードアウト処理では、フレームごとの輝度の変更およびサイズの変更のうちいずれか一方が実行されるようにしてもよい。
図10は、図9に示す切替処理におけるシーケンス図である。なお、図10に示すように、コンパニオンアプリ25およびファームウェア45間の斜めで示す矢印は、それらの間に通信遅延が発生する可能性があることを示すものである。
カード階層200でカード画面210が表示されている状態で、ユーザがタッチパネル55を介してタップ操作を入力する(ステップ301)。そうすると、コントロールボックス50のファームウェア45は、その操作イベントを携帯端末30に通知する(ステップ302)。
携帯端末30のコンパニオンアプリ25は、その操作イベントの通知を受け、その操作イベントに基づき、そのカード画面210のカード画像に対応するアプリ画像310を生成する(ステップ304)。
このアプリ画像は1つのオブジェクトで生成される。そして、コンパニオンアプリ25は、生成した1つのオブジェクトで構成されるアプリ画像310をコントロールボックス50に送信する(ステップ305)。
一方、ファームウェア45は、操作イベントを通知した後、現在表示しているカード画像に、上記のアニメーション処理を適用する(ステップ303)。カード画像へのアニメーション処理は、ステップ304で携帯端末30がアプリ画像を生成している時に行われる。このフェードアウト処理は、図7で示した例に係るアクションテーブルの操作イベント「2」に基づく処理である。
ステップ303のアニメーション処理は、ファームウェア45は、上述したフェードアウト処理である。すなわちファームウェア45は、サイズおよび輝度のそれぞれ異なる、アニメーションのための画像群を、上記したフレームレートで表示する。
ステップ303でのアニメーション処理のためのすべての画像群の表示が終了した時点で、ファームウェア45が、既にステップ305で送信されたアプリ画像310を受信している場合、受信したアプリ画像310にアニメーション処理、ここでは上述したフェードイン処理を適用する(ステップ306)。
一方、アニメーション処理のためのすべての画像群の表示が終了した時点で、ファームウェア45が、ステップ305で送信されたアプリ画像310を受信していない場合、その受信を待つ。受信後、上記同様に、受信したアプリ画像310にフェードイン処理が適用される(ステップ306)。
一方、コンパニオンアプリ25は、ステップ305の後、コントロールボックス50に送信したアプリ画像310と同一の画像であって、複数のオブジェクト210a(図5B参照)で構成されるアプリ画像を生成し(ステップ307)、このアプリ画像をコントロールボックス50に送信する(ステップ8)。ファームウェア45は、ステップ307でコンパニオンアプリ25が複数のオブジェクトで構成されるアプリ画像を生成している時に、上記アプリ画像のフェードイン処理を実行している(ステップ306)。
そして、ステップ306でのアニメーション処理のためのすべての画像群の表示が終了した時点で、ファームウェア45が、ステップ308で送信された複数オブジェクトで構成されるアプリ画像を受信している場合、次の処理を実行する。すなわちファームウェア45は、現在表示している1つのオブジェクトで構成されるアプリ画像310を、受信した複数オブジェクトで構成されるアプリ画像に置き換える(ステップ309)。
一方、アニメーション処理のためのすべての画像群の表示が終了した時点で、ファームウェア45が、ステップ308で送信された複数のオブジェクトで構成されたアプリ画像を受信していない場合、その受信を待つ。受信後、上記同様に、ファームウェア45は、現在表示している1つのオブジェクトで構成されるアプリ画像310を、受信した複数オブジェクトで構成されるアプリ画像に置き換える(ステップ310)。
以上のように、コントロールボックス50は、タップ操作による操作イベントの通知後、携帯端末30がその操作イベントに基づき画像を生成する処理と並行して、現在表示されている画像にアニメーション処理を適用するように構成される。したがって、通信遅延が発生する場合でも、コントロールボックス50は、タップ操作後のカード階層200からアプリ階層300への画面の切替時における、コマ落ちやぎくしゃくする状態の発生を抑えることができる。これにより、ユーザにストレスのない見やすい画像を提供することができる。
コンパニオンアプリ25は、ステップ308の後、上記第1の実施形態と同様に、アクションテーブルを作成し(ステップ309)、これをファームウェア45に送信する(ステップ311)。そして、ファームウェア45は、この新たなアクションテーブルを受信し、メモリに格納する。
このように、ファームウェア45は、複数のオブジェクトを取得することにより、それぞれのオブジェクトに対して表示処理を実行することができ、多様な表示処理が可能となる。オブジェクトに対する表示処理については、後の第3の実施形態で説明する。
この図10に示したシーケンスは、タップ操作による階層の切替、ここではカード画像からアプリ画像310への切替である。つまり、階層が変わるので、コンパニオンアプリは、カード階層での表示処理で用いられていたアクションテーブル(例えば図7)とは別の、新たなアクションテーブルが作成される(ステップ309)。この新たなアクションテーブルは、例えばアプリ階層内での表示処理に用いられるものである。つまり、本実施形態では、例えば空白画像150の表示(またはフェードアウト処理とフェードイン処理との間)のタイミングで、アクションテーブルが切り替えられる。
新たなアクションテーブルは、図示しないが、アプリ階層内での左右スワイプ操作による画像の切替処理の記述を含む他、例えばバックキーによる操作によりアプリ階層のアプリ画像からカード階層のカード画像への切替処理の記述を含む。
以上のように、ファームウェア45は、複数のアクションテーブルを時間別で取得するように構成される。したがって、ファームウェア45は、例えば新たなアプリに対応する最新のアクションテーブルを随時取得することができる。また、ファームウェア45は、前に用いていたアクションテーブルを破棄することができる。これにより、必要なメモリ容量を削減することができ、または、小容量のメモリを使用することができる。
なお、本実施形態では、カード画像からアプリ画像への切替処理について説明したが、その逆の切替処理の本質も、上記と同様である。なお、逆の切替処理におけるアニメーションによるフェードイン・アウト処理では、画像が時間経過とともに拡大されながら、フェードンアウトおよびフェードインするようになっている。
3.第3の実施形態
本技術に係る第3の実施形態では、上記第1および第2の実施形態の説明とは別の操作イベントを含むアクションテーブルに基づくシーケンスについて説明する。図11は、そのシーケンスを示す。
ステップ401〜404は、例えば図6に示したシーケンスのステップ101〜104と同様の処理である。
操作イベントとして、「ロングタップ・アンド・スワイプ」の操作が入力されたとする(ステップ405)。「ロングタップ」とは、例えばタップに用いた指をタッチパネル55にそのまま所定時間接触させておく操作である。「ロングタップ・アンド・スワイプ」は、当該所定時間の指のタッチパネル55への接触後に、接触させた指をそのままスワイプする操作である。
図12は、ステップ405で取得されたアクションテーブルの例を示す。この例では、操作イベント「1」(ロングタップ・アンド・右スワイプ)、操作イベント「3」(ロングタップ・アンド・左スワイプ)に対応する処理が、それぞれ部分表示領域を上下にシフトさせる処理として設定されている。部分表示領域とは、表示部71の画面全体のうち一部の表示領域である。なお、図11は、アプリ階層におけるアプリ画像の表示処理を記述している。
図13左は、この部分表示領域90を含む表示領域の画像の、座標系での位置を示す。図13左が表示用階層(カード階層およびアプリ階層)の座標系(第1の座標系)である。図13右は、その部分表示領域90内に表示される画像の座標系(第2の座標系)である。ここでは、部分表示領域90に対応するフレーム、例えば部分表示領域90と同じサイズのフレーム91が、文字用階層の座標系に設定されている。ファームウェア45は、これら複数の座標系をメモリ52内に記憶している。ファームウェア45は、文字用階層の座標系における、フレーム91内の画像を切り出し、これを表示用階層の座標系における部分表示領域90に割り当てる処理を実行するように構成される。
ファームウェア45は、上述したように、複数のオブジェクトで表現される画像を1つの画面内に表示することにより、このような部分表示領域90内の画像を変更する表示処理することができる。
ファームウェア45は、ステップ403で取得しているアクションテーブル(図12参照)に基づき、部分表示領域90を縦方向にシフトさせると判断する(ステップ407)。これにより、ファームウェア45は、文字用階層の座標系に設定されたフレーム91について、アクションテーブルに記述された通りの処理、ここでは縦方向のシフト(つまり所定距離分の自動スクロールによるアニメーション処理)を実行する(ステップ408−1、2、3、・・・)。
本実施形態によれば、ファームウェア45は、アプリごとに設定される多様の表示処理を、アクションテーブルに基づき遅延を発生させることなく実行することができる。
4.他の各種の実施形態
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記実施形態に係るウェアラブル機器70は、有線により、つまり電気ケーブルによりコントロールボックス50に接続されていた。しかし、ウェアラブル機器は、ウェアラブル機器とコントロールボックスが電気ケーブル無しに一体となることにより高機能化された機器であってもよい。
この場合、コントロールボックスは、ウェアラブル機器の制御装置として、ウェアラブル機器に内蔵されていてもよい。例えばこの場合、ユーザによりウェアラブル機器を操作される操作部(例えばタッチパネル)も、ウェアラブル機器に一体的に搭載されていてもよい。
上記の実施形態では、情報処理装置として機能する機器は、携帯電話機など、携帯性を有する機器であったが、デスクトップ型のPC等、携帯性を有しない機器であってもよい。
上記実施形態では、コントロールボックス50と携帯端末30とが通信可能に構成された。しかし、携帯端末30を介さず、コントロールボックス50(つまり、ウェアラブル機器側)とクラウドシステム10のサーバコンピュータとが、本技術に係る通信を行ってもよい。この場合、ウェアラブル機器の外部機器はサーバコンピュータとなる。
上記実施形態では、ウェアラブル機器がユーザに提供する情報として画像を例に挙げたが、画像に限られず音声であってもよい。
図7や12に示した例に係るアクションテーブルでは、アクション定義数がそれぞれ3であったが、もちろんこれより多くてもよい。
上記第1の実施形態では、カード階層200とアプリ階層300との間の画面の切替にアニメーション処理が適用された。しかし、これらの階層200、300以外の階層がある場合、それらの階層間での画面の切替にアニメーション処理が適用されてもよい。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。
なお、本技術は以下のような構成もとることができる。
(1)
入力される操作イベントに関連付けられた、ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得するように構成された取得部と、
前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部と
を具備する制御装置。
(2)
前記(1)に記載の制御装置であって、
前記実行部は、前記操作イベントに対応する、前記ウェアラブル機器による画像の表示処理を実行するように構成される
制御装置。
(3)
前記(2)に記載の制御装置であって、
前記取得部は、前記アクションテーブルを含む複数のアクションテーブルを取得するように構成され、
前記実行部は、前記複数のアクションテーブルにそれぞれ対応する複数の階層内の画像の表示処理を実行するように構成される
制御装置。
(4)
前記(3)に記載の制御装置であって、
前記取得部は、前記複数のアクションテーブルを時間別でそれぞれ取得するように構成される
制御装置。
(5)
前記(2)から(4)のうちいずれか1つに記載の制御装置であって、
前記取得部は、前記外部機器で生成された画像をさらに取得するように構成され、
前記実行部は、前記取得部で取得された前記画像を前記ウェアラブル機器の表示部に出力する処理を実行するように構成される
制御装置。
(6)
前記(2)に記載の制御装置であって、
画像を前記ウェアラブル機器に表示するための、1以上の画像の配置を表す位置情報を記憶するように構成されたメモリをさらに具備し、
前記実行部は、前記位置情報を参照して、前記画像を前記ウェアラブル機器の表示部に出力するように構成される
制御装置。
(7)
前記(6)に記載の制御装置であって、
前記実行部は、前記1以上の画像としての複数の画像の切替表示処理を実行するように構成される
制御装置。
(8)
前記(6)または(7)に記載の制御装置であって、
前記1以上の画像は複数のオブジェクトで表現される画像であり、
前記メモリは、前記複数のオブジェクトで表現される前記1以上の画像の前記位置情報を格納するように構成される
制御装置。
(9)
前記(7)に記載の制御装置であって、
前記メモリは、複数の座標系上の前記位置情報を格納するように構成され、
前記実行部は、前記複数の座標系のうち、第1の座標系上の前記画像を表現する前記複数のオブジェクトのうち少なくとも1つのオブジェクトのフレーム内に、第2の座標系上の前記画像を配置させるように構成される
制御装置。
(10)
前記(1)〜(9)のうちいずれか1つに記載の制御装置であって、
前記外部機器は、携帯端末、または、クラウドシステム内のサーバコンピュータである
制御装置。
(11)
ウェアラブル機器の制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成された作成部と、
前記作成されたアクションテーブルを前記制御装置に送信するように構成された送信部と
を具備する情報処理装置。
(12)
ウェアラブル機器の制御装置による制御方法であって、
入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得し、
前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行する
制御方法。
(13)
ウェアラブル機器の制御装置と通信可能な外部機器による情報処理方法であって、
前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成し、
前記作成されたアクションテーブルを前記制御装置に送信する
情報処理方法。
(14)
ウェアラブル機器の制御装置と、前記制御装置と通信可能に構成された外部機器とを具備し、
前記外部機器は、
前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成された作成部と、
前記作成されたアクションテーブルを前記制御装置に送信するように構成された送信部とを含み、
前記制御装置は、
前記アクションテーブルを、前記外部機器から取得するように構成された取得部と、
前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部とを含む
情報処理システム。
(15)
操作イベントが入力されるように構成された操作部と、
前記操作イベントに関連付けられた処理が記述されたアクションテーブルを、外部機器から取得するように構成された取得部と、
前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部と
を具備するウェアラブル機器。
25…コンパニオンアプリ
30…携帯端末
31、51…CPU
32、52…メモリ
34、54…局域通信部
36…受信部
45…ファームウェア
50…コントロールボックス
55…タッチパネル
70…ウェアラブル機器
71…表示部
100…システム
200…カード階層
210a…オブジェクト
300…アプリ階層

Claims (15)

  1. 入力される操作イベントに関連付けられた、ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得するように構成された取得部と、
    前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部と
    を具備する制御装置。
  2. 請求項1に記載の制御装置であって、
    前記実行部は、前記操作イベントに対応する、前記ウェアラブル機器による画像の表示処理を実行するように構成される
    制御装置。
  3. 請求項2に記載の制御装置であって、
    前記取得部は、前記アクションテーブルを含む複数のアクションテーブルを取得するように構成され、
    前記実行部は、前記複数のアクションテーブルにそれぞれ対応する複数の階層内の画像の表示処理を実行するように構成される
    制御装置。
  4. 請求項3に記載の制御装置であって、
    前記取得部は、前記複数のアクションテーブルを時間別でそれぞれ取得するように構成される
    制御装置。
  5. 請求項2に記載の制御装置であって、
    前記取得部は、前記外部機器で生成された画像をさらに取得するように構成され、
    前記実行部は、前記取得部で取得された前記画像を前記ウェアラブル機器の表示部に出力する処理を実行するように構成される
    制御装置。
  6. 請求項2に記載の制御装置であって、
    画像を前記ウェアラブル機器に表示するための、1以上の画像の配置を表す位置情報を記憶するように構成されたメモリをさらに具備し、
    前記実行部は、前記位置情報を参照して、前記画像を前記ウェアラブル機器の表示部に出力するように構成される
    制御装置。
  7. 請求項6に記載の制御装置であって、
    前記実行部は、前記1以上の画像としての複数の画像の切替表示処理を実行するように構成される
    制御装置。
  8. 請求項6に記載の制御装置であって、
    前記1以上の画像は複数のオブジェクトで表現される画像であり、
    前記メモリは、前記複数のオブジェクトで表現される前記1以上の画像の前記位置情報を格納するように構成される
    制御装置。
  9. 請求項7に記載の制御装置であって、
    前記メモリは、複数の座標系上の前記位置情報を格納するように構成され、
    前記実行部は、前記複数の座標系のうち、第1の座標系上の前記画像を表現する前記複数のオブジェクトのうち少なくとも1つのオブジェクトのフレーム内に、第2の座標系上の前記画像を配置させるように構成される
    制御装置。
  10. 請求項1に記載の制御装置であって、
    前記外部機器は、携帯端末、または、クラウドシステムのサーバコンピュータである
    制御装置。
  11. ウェアラブル機器の制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成された作成部と、
    前記作成されたアクションテーブルを前記制御装置に送信するように構成された送信部と
    を具備する情報処理装置。
  12. ウェアラブル機器の制御装置による制御方法であって、
    入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを、外部機器から取得し、
    前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行する
    制御方法。
  13. ウェアラブル機器の制御装置と通信可能な外部機器による情報処理方法であって、
    前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成し、
    前記作成されたアクションテーブルを前記制御装置に送信する
    情報処理方法。
  14. ウェアラブル機器の制御装置と、前記制御装置と通信可能に構成された外部機器とを具備し、
    前記外部機器は、
    前記制御装置に入力される操作イベントに関連付けられた、前記ウェアラブル機器を動作させる処理が記述されたアクションテーブルを作成するように構成された作成部と、
    前記作成されたアクションテーブルを前記制御装置に送信するように構成された送信部とを含み、
    前記制御装置は、
    前記アクションテーブルを、前記外部機器から取得するように構成された取得部と、
    前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部とを含む
    情報処理システム。
  15. 操作イベントが入力されるように構成された操作部と、
    前記操作イベントに関連付けられた処理が記述されたアクションテーブルを、外部機器から取得するように構成された取得部と、
    前記操作イベントに対応する処理を、前記アクションテーブルに基づき実行するように構成された実行部と
    を具備するウェアラブル機器。
JP2014032265A 2014-02-21 2014-02-21 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器 Pending JP2015158747A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014032265A JP2015158747A (ja) 2014-02-21 2014-02-21 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器
US14/620,308 US20150241957A1 (en) 2014-02-21 2015-02-12 Control apparatus, information processing apparatus, control method, information processing method, information processing system and wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032265A JP2015158747A (ja) 2014-02-21 2014-02-21 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器

Publications (1)

Publication Number Publication Date
JP2015158747A true JP2015158747A (ja) 2015-09-03

Family

ID=53882162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032265A Pending JP2015158747A (ja) 2014-02-21 2014-02-21 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器

Country Status (2)

Country Link
US (1) US20150241957A1 (ja)
JP (1) JP2015158747A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2797619C (en) * 2010-04-30 2015-11-24 Lg Electronics Inc. An apparatus of processing an image and a method of processing thereof
KR101413539B1 (ko) * 2010-11-22 2014-07-02 한국전자통신연구원 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법
US10083639B2 (en) * 2011-02-04 2018-09-25 Seiko Epson Corporation Control device for controlling image display device, head-mounted display device, image display system, control method for the image display device, and control method for the head-mounted display device
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
JP6160154B2 (ja) * 2013-03-22 2017-07-12 セイコーエプソン株式会社 頭部装着型表示装置を利用した情報表示システム、頭部装着型表示装置を利用した情報表示方法、および、頭部装着型表示装置
CN105706024A (zh) * 2013-10-24 2016-06-22 苹果公司 使用手腕移动的腕带设备输入
KR102201736B1 (ko) * 2014-01-15 2021-01-12 엘지전자 주식회사 탈착형 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
US20150241957A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP7674441B2 (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
CN107369197B (zh) 图片处理方法、装置及设备
JP7123128B2 (ja) インタフェース表示方法及び装置
US9829706B2 (en) Control apparatus, information processing apparatus, control method, information processing method, information processing system and wearable device
CN110134321B (zh) 用于发送数据的方法和设备,以及接收数据的方法和设备
US11604535B2 (en) Device and method for processing user input
US10303328B2 (en) Mobile terminal and method for controlling the same
US20160004425A1 (en) Method of displaying graphic user interface and electronic device implementing same
CN103677711A (zh) 连接移动终端和外部显示器的方法和实现该方法的装置
KR20160061133A (ko) 이미지 표시 방법 및 그 전자 장치
EP2947556B1 (en) Method and apparatus for processing input using display
US20160124599A1 (en) Method for controlling multi display and electronic device thereof
US20180239511A1 (en) Mobile terminal and control method therefor
EP2840517A2 (en) Method and apparatus for managing images in electronic device
WO2013164351A1 (en) Device and method for processing user input
JP6497381B2 (ja) ウェアラブル機器、電子機器、画像制御装置および表示制御方法
KR20130101801A (ko) 콘텐츠 처리 장치 및 그 방법
JP2015158747A (ja) 制御装置、情報処理装置、制御方法、情報処理方法、情報処理システム、およびウェアラブル機器
EP2660695A1 (en) Device and method for processing user input
KR20170078007A (ko) 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR20150146216A (ko) 디스플레이 장치 및 그 제어방법
CN116126176A (zh) 一种交互方法及装置
KR20170039517A (ko) 이동단말기 및 그 제어방법
KR20170032095A (ko) 이동단말기 및 그 제어방법