[go: up one dir, main page]

JP2007087100A - 電子機器システム - Google Patents

電子機器システム Download PDF

Info

Publication number
JP2007087100A
JP2007087100A JP2005274958A JP2005274958A JP2007087100A JP 2007087100 A JP2007087100 A JP 2007087100A JP 2005274958 A JP2005274958 A JP 2005274958A JP 2005274958 A JP2005274958 A JP 2005274958A JP 2007087100 A JP2007087100 A JP 2007087100A
Authority
JP
Japan
Prior art keywords
image
pointer
control
detection
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005274958A
Other languages
English (en)
Inventor
Masahiro Kitaura
正博 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005274958A priority Critical patent/JP2007087100A/ja
Priority to US11/523,568 priority patent/US20070064140A1/en
Priority to CNB200610154341XA priority patent/CN100559830C/zh
Publication of JP2007087100A publication Critical patent/JP2007087100A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Details Of Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、遠隔操作用機器を併用してより利便性を向上させることができる電子機器システムを提供する。
【解決手段】 ビデオカメラ2により操作者の画像を撮影し、鏡像変換を行う。操作用アイコンとポインタ450を含む操作用画像を生成し、鏡像変換した操作者の画像と、操作用画像とを重ねて表示装置23に表示する。表示される画面上において、操作者のボタン操作によるユニバーサルリモコン4Aの発光が検出部19により検出され、選択されたポインタ450がユニバーサルリモコン4Aの移動にしたがい画面上を移動し、所望の操作用アイコンに重ね合わされる。操作者のボタン操作により操作用アイコンに対応する制御が行われる。
【選択図】 図29

Description

本発明は電子機器システムに関し、特にテレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器の遠隔操作を行うための電子機器システムに関する。
1980年代に赤外線リモートコントローラ(通称リモコン)がテレビジョン受像機をはじめとする家電機器に付属するようになり、手元で制御できるユーザインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であり、リモコン操作は1機能を1押しで実行する仕組みが基本となっている。テレビジョン受像機用リモコンを例に取れば「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当する。リモコンはこれまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。
しかしながら、最近始まったデータ放送では、所望のメニュー画面を選択するためにはリモコンの「上下左右」や「決定」キーを何度も押下する必要がある。またEPG(電子プログラムガイド)では、マトリクスに配列された案内画面から所望の位置を選択し、録画予約をするためにはさらに何度もキーを押下する必要があり、データ放送での操作と同様リモコン操作は煩雑で使いづらくなっている。
特許文献1には、このような課題を解決するために、マウスまたはこれに類似する位置指定操作装置により得られる位置指定情報を、キー押下信号の時系列パターンであるキー押下時系列符号に符号化し、そのキー押下時系列符号をテレビジョン受像機に送信するようにした制御装置が提案されている。
特開2003−283866号公報
特許文献1に示された制御装置は、パーソナルコンピュータ(パソコン)のマウス操作と酷似したポインティングの操作により、テレビジョン受像機を遠隔操作するものである。したがって、パソコンを利用しない人にとっては使いづらいもので、情報リテラシー(情報を使いこなす能力)の観点から、パソコンの使い勝手をそのまま導入することは無理がある。遠隔操作が求められる今日のテレビジョン受像機の利用形態にマッチした新たな操作手段が必要になっている。
さらにネットワーク化の進展は、宅内のストレージメディアや宅外のインターネットから得られる多様な情報を、テレビジョン受像機やパソコンのディスプレイに表示することで情報を受容することになる。この場合の操作形態は情報源に依存するため、多様な操作形態に対応する必要があり、家電機器に付属する現状のリモコンでは充分な対応が出来なかった。
以上説明したように、従来のリモコンでは、テレビジョン受像機などの機能の多様化と複雑化に対して、リモコンが肥大化する。データ放送などのメニュー画面の選択操作を従来のリモコンで行うと、ポインティング装置としての役割がより重要となるため、従来のリモコンでは使い勝手の面で難点が多い。またネットワーク化は、ネットワークにつながるあらゆる機器の機能を、表示装置を介して制御することになり、つながる機器の数に比例してリモコンの数が増える問題がある。この問題は、テレビジョン受像機につながるVTR・ビデオディスク・その他オーディオ機器などでも現実にどのリモコンが該当のリモコンであるか判別がつかなくなるようなことで、現状でもよく経験している現象である。さらにインターネットに至っては、あらゆるウェッブサイトの情報を選択制御することになり、もはや従来のリモコンの形態では限界に達していることは自明である。
これに対して本出願人は、上述した点に着目して、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器の制御装置を提案している。この制御装置はユーザ(操作者)の手の動作をビデオカメラで撮影してその動作から操作内容を識別するものである。しかし、この装置では暗室においては機能を発揮できない問題があったが、自発光機能を具備した手元制御装置(ユニバーサルリモコン)の使用で暗室における問題点を解決すると共に明室においても操作性の向上が図られた。しかしながら、この手元制御装置(ユニバーサルリモコン)の操作においてポインティング機能上の不十分な点が存在した。
本発明はこの点に着目してなされたものであり、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、遠隔操作用機器の使用でより利便性を向上させることができる電子機器システムを提供することを目的とする。
上記目的を達成するため請求項1に記載の発明は、表示装置を有する電子機器と、前記表示装置の前に位置する操作者を撮影するビデオカメラと、前記電子機器を遠隔操作するための手元制御機器とを備える電子機器システムであって、前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換手段と、少なくとも1つの操作画像と指示画像を含む操作用画像を生成する操作用画像生成手段と、前記鏡像変換された画像の画像信号と、前記操作用画像の画像信号とを混合する混合手段と、該混合手段により混合された画像を前記表示装置の画面上に表示させた状態において、前記ビデオカメラで撮影され、前記画面上に表示された前記手元制御機器が前記指示画像に重ねられたとき、該指示画像が選択されたことを検出し、該検出後は、前記手元制御機器の動きに追従するように前記指示画像を移動させる表示制御手段と、前記指示画像の位置に応じて前記操作画像の指示動作を検出する指示動作検出手段と、該指示動作検出手段により指示動作が検出された操作画像に対応する、前記電子機器の制御動作を行う機器制御手段とを備えることを特徴とする。
請求項2に記載の発明は、表示装置を有する電子機器と、前記表示装置の前に位置する操作者を撮影するビデオカメラと、前記電子機器を遠隔操作するための手元制御機器とを備える電子機器システムであって、前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換手段と、少なくとも1つの操作画像を含む操作用画像を生成する操作用画像生成手段と、前記鏡像変換された画像の画像信号と、前記操作用画像の画像信号とを混合する混合手段と、該混合手段により混合された画像を前記表示装置の画面上に表示させた状態において、前記ビデオカメラで撮影され、前記画面上に表示された前記手元制御機器が前記操作画像に重ねられたとき、該操作画像が選択されたことを検出し、該検出後は、前記手元制御機器の動きに追従するように前記操作画像を移動させる表示制御手段とを備えることを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の電子機器システムにおいて、前記表示制御手段は、前記手元制御機器の動きを検出するための検出枠を分割した複数の検出エリアのそれぞれにおける、前記手元制御機器の画像の面積値を検出する複数個の検出器を備え、該検出器から出力される面積値の総和と、前記検出器から出力される面積値または前記検出枠の中心に対して対称の位置関係にある検出エリアに対応する前記面積値の差分とに応じて、前記手元制御機器の動きベクトルを算出し、該算出された動きベクトルにしたがって、前記指示画像または操作画像の移動制御を行うことを特徴とする。
請求項4に記載の発明は、請求項1に記載の電子機器システムにおいて、前記手元制御機器は、遠隔制御用の赤外線発光手段及び可視光を発光し、その発光内容を変動させる可視光発光手段の少なくとも一方と、前記赤外線発光手段または可視光発光手段を作動させるための操作ボタンとを備え、前記指示動作検出手段は、前記操作ボタンが操作されたときの前記指示画像の位置に応じて前記操作画像の指示動作を検出することを特徴とする。
請求項1に記載の発明によれば、操作者がビデオカメラで撮影され、鏡像変換された画像と、操作画像と指示画像を含む操作画像とが混合され、すなわち重ね合わされて表示装置に表示される。表示装置に映し出された操作者が持つ手元制御機器を表示画面上で指示画像に重ね合わせると、その重ね合わされたことが検出され、検出後は手元制御機器の動きに追従するように指示画像が移動する。したがって、操作者は手元制御機器を移動させることで指示画像を移動させ、指示画像を操作画像に重ね合わせることができる。指示動作検出手段により、指示画像が操作画像に重ね合わされたことが検出され、操作画像に対応する制御動作が行われる。これにより従来の操作内容に応じて多くのボタンの中から1つを選択して押下するという操作が不要になり、手元制御機器の移動と選択確定のための1つの操作で種々の制御動作が可能となる。
請求項2に記載の発明によれば、操作者がビデオカメラで撮影され、鏡像変換された画像と、操作画像を含む操作画像とが混合され、すなわち重ね合わされて表示装置に表示される。表示装置に映し出された操作者が持つ手元制御機器を表示画面上で操作画像に重ね合わせると、その重ね合わされたことが検出され、検出後は手元制御機器の動きに追従するように操作画像が移動する。これにより表示画面上の好きな位置に操作画像を移動させることができ、操作者の好みにあった操作画面を作ることができる。また、例えばボリューム操作のような連続的な移動の制御が可能となる。
請求項3に記載の発明によれば、手元制御機器の動きの検出には、動き検出のための検出枠を分割した複数の検出エリアにおける手元制御機器の画像の面積値が使われる。各検出器から出力された面積値の総和と、検出器から出力される面積値または検出枠の中心に対して対称の位置関係にある検出エリアに対応する面積値の差分とに応じて動きベクトルが算出される。そして算出された動きベクトルにしたがって、指示画像または操作画像の移動制御が行われる。これにより手元制御機器の動きに指示画像または操作画像を正確に追従させることができる。
請求項4に記載の発明によれば、赤外線発光手段または可視光発光手段を発光させる操作ボタンが操作されたときの指示画像の位置に応じて操作画像の指示動作が検出される。これにより操作画像の指示動作を確実に検出することができる。
以下本発明の実施の形態を図面を参照して説明する。
図1は、従来のリモコン装置による操作形態と、本発明の操作形態との違いを説明するための図である。ユーザ(操作者)3が、テレビジョン受像機1を操作する場合、従来はユーザ3がリモコン装置4を手に持って所望の機能を働かせるキーをテレビジョン受像機1に向けて押下することによって操作する。テレビジョン受像機の周辺機器が多いとリモコンも複数になり、どれが該当するリモコンなのか分からず、不便を強いられる場合を時々経験する。
これに対し、本実施形態では、テレビジョン受像機1にビデオカメラ2が設けられており、ビデオカメラ2によりユーザ3が撮影され、ビデオカメラ2の画像からユーザ3の動作を得て、テレビジョン受像機1及びそれに関連する機器の操作が行われる。ユーザ3の動作とは、具体的にはテレビジョン受像機1に表示されるメニュー画面から所望のボタンを選択するリモコンを持った動きのことである。
図2は、テレビジョン受像機1の構成を示すブロック図であり、テレビジョン受像機1は、基準同期発生器11、タイミングパルス発生器12、グラフィックス生成器16、ビデオカメラ2、鏡像変換器14、スケーラ15、第1の混合器17、画素数変換器21、第2の混合器22、表示装置23、検出部19、赤外線検出器24、及び制御情報判断器(CPU)20を備えている。
基準同期発生器11は、テレビジョン受像機1の基準になる水平周期パルスと垂直周期パルスを発生させる。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、その入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、図に示す各ブロックで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置してユーザ3、またはテレビジョン受像機前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号で、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。また、本実施形態では、ビデオカメラ2で撮像される画像の画素数は、表示装置23の画素数と一致しているものとする。なお、画素数が一致していない場合は画素数変換器を挿入すればよい。
鏡像変換器14は、ビデオカメラ2で撮影した被写体像を表示装置23上に鏡と同じように左右を反転して表示するためのものである。したがって、文字を表示する場合は鏡と同じように左右が反転することになる。本実施形態では、メモリを活用して水平方向の画像を反転させる手法により鏡像変換が行われる。表示装置23としてCRT(Cathode Ray Tube)を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転しておく必要がある。
スケーラ15は、ビデオカメラ2により撮影した被写体像の大きさを調整するもので、制御情報判断器(CPU)20の制御で拡大率と縮小率を2次元で調整する。また、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。
グラフィックス生成器16は、制御情報判断器(CPU)20から転送されるメニュー画面を展開するもので、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、Y(輝度)信号と色差信号(R−Y、B−Y)とする。また生成されるグラフィックスのプレーン数は限定するものではないが、説明に要するものは2プレーンである。画素数は、本実施形態では表示装置23の画素数に一致させるようにしている。一致していない場合は、画素数変換器を入れて一致させる必要がある。
第1の混合器17は、グラフィックス生成器16の出力信号Gsと、スケーラ15の出力信号S1とを、制御値α1により混合割合を制御して混合する。具体的には、下記式で出力信号M1oが表される。
M1o=α1・S1+(1−α1)・Gs
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ出力信号S1の割合が大きくなり、グラフィックス生成器出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
検出部19は、第1の検出器31、第2の検出器32、第3の検出器33、…第16の検出器46からなる。本実施形態では検出部19に含まれる検出器の数を16個としているが、検出器の数はこれに限定するものではなく、応用によって変動する。検出器31〜46は、グラフィックス生成器16で生成されるメニュー画面と連携した制御内容を表すアイコン、またはリンクを表すアイコンや、ユニバーサルリモコンのマーカ及び制御画面に展開されるカーソルやパーソナルコンピュータのマウスで操作する制御矢印に相当するポインタなどと連携する。これについては後程、詳細に記述する。
制御情報判断器(CPU)20は、検出部19から出力されるデータの解析を行い、各種制御信号を出力する。制御情報判断器(CPU)20の処理内容は、ソフトウェアで実現するものとなり、アルゴリズムについては詳細に記述する。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフト(CPU上で展開)処理が混在するが、特にここで示す切り分けに限定するものではない。
画素数変換器21は、外部から入力される外部入力信号の画素数と表示装置23の画素数を合わせるための画素数変換を行う。外部入力信号は、放送されてくるテレビ信号(データ放送なども含む)やビデオ(VTR)入力などテレビジョン受像機の外部から入力されてくる信号を想定している。外部入力信号の同期系については、ここでの説明から省いてあるが、同期信号(水平及び垂直)を取得し、基準同期発生器11にて同期を一致させている。
第2の混合器22は、第1の混合器17と同様の機能を有する。すなわち、第1の混合器17の出力信号M1oと、画素数変換器21の出力信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記式で出力信号M2oが表される。
M2o=α2・M1o+(1−α2)・S2
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器17の出力信号M1oの割合が大きくなり、画素数変換器出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
表示装置23は、CRT(陰極線管)、LCD(液晶ディスプレイ)、PDP(プラズマディスプレイ)、あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置23の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置23の内部にてRGB原色信号にマトリクス変換されて表示される。
赤外線検出器24は、赤外線リモコンの受光部で制御情報を解読して、制御情報判断器20に出力する。制御情報判断器20では、赤外線リモコンからの情報と検出器19から供給される情報を含めて制御情報を確定する。
以上のように構成されたテレビジョン受像機1の動作を、ユーザ3の動作を交えて説明する。図3は、グラフィックス画像410と、ビデオカメラ画像を鏡像変換し、スケーリングによりグラフィックス画像410と画素数を一致させたスケーラ出力画像430とを示している。スケーラ出力画像430にはユーザ3とユニバーサルリモコン4Aが描かれている。グラフィックス画像410は制御を行うためのメニュー画面プレーン410a及びポインタ(またはカーソル)プレーン410bの2つからなっており、メニュー画面プレーン410aには3つの四角形でプッシュボタン(操作ボタン)420が描かれ、ポインタプレーン410bにはポインタ450が描かれている。一方のスケーラ出力画像430は、ユーザ3とユニバーサルリモコン4Aを撮影し、鏡と同じように表示するものである。スケーラ出力画像430の中に破線の四角形で描かれた検出枠440は、複数の検出器31、32等からなる検出部19の検出エリアの集合を表したもので、ポインタプレーン410bに描かれているポインタ450と同一の位置に配置され、また同様に3つの破線の四角で描かれたプッシュボタン検出領域420dはメニュー画面プレーン410aのプッシュボタン420と同一の位置に配置されている。本実施形態のポインタはプッシュボタンによる制御にさらに追加される機能で、パーソナルコンピュータのマウスで制御される矢印と同様の役割を担うものであり、GUI(グラフィッカルユーザインタフェース)にとって大変重要なものである。
図4は、第1の混合器17における混合処理を説明するためのイメージ図である。図4(A)はグラフィックス生成器16で生成される制御メニュー画面プレーン410a及びポインタプレーン410bが合成されたものを表しており、ポインタ450及びプッシュボタン420が含まれている。図4(B)は、ビデオカメラ2でユーザ3とユニバーサルリモコン4Aを捉えた画面(鏡像変換、及びスケーラ処理済み)で、検出部19の各検出器に対応する検出枠440(画面上では見えないため破線を使って描いている)が含まれている。第1の混合器17にて、図4(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面が、図4(C)に示されている。なお、図4(C)に表示されるユーザ3とユニバーサルリモコン4Aの画像は、実際には、図4(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。
このように表示装置23には、ユーザ3の画像が鏡と同様に映ると共に、制御のメニュー画面も重畳されて表示される。これにより、ユーザ本人は、自分の動きと制御メニューの位置を認識することが出来る。制御はユーザ3が操作するリモコンの発光を利用して行う。すなわち、発光しているリモコンの動きが検出され、その検出結果にしたがって画面上のポインタ450を移動させ、所望のメニュー画面に展開されている制御情報を持ったアイコンやリンクがはられたアイコンまたは文字情報などのポジションに移動させる。そして、制御が行われる。リモコンの決定ボタンの押下、または決定と同じ機能の動作を介して、該当するアイコンの制御情報が制御情報判断器(CPU)20に出力される。その際グラフィックスのポインタ450が機能しているときは、ポインタ450の形状または色を変化させて、動作が認識されたことを表示上に表し、ユーザ3にフィードバックする。
図5は、ビデオカメラ2からの画像上に設定している図3に示す検出枠440と、検出部19の検出器31〜46との対応関係を示している。検出枠440は検出エリア1a〜16aの16エリアに分割され、それぞれが第1〜第16の検出器31〜46に対応している。さらに検出エリア1a及び6aを特定するタイミングパルス(水平垂直)が示されている。
各検出器31〜46は、図6に示すように、オブジェクト抽出器51と、タイミングゲート器52と、オブジェクト特徴データ検出部53とを備えている。タイミングゲート器52は、図5に示したタイミングパルスでビデオカメラ2からの画像信号の通過を制御する。通過する領域は図5に破線の四角形で示す検出枠440内である。この検出枠440内に限定した信号を、さらにさまざまなフィルタ処理してビデオカメラ2で捉えたユーザ3の手やユニバーサルリモコン4Aの発光部を抽出する。
オブジェクト抽出器51は、画像の特徴に添ったフィルタを備えている。本実施形態ではリモコンの発光色を肌色にし、リモコンの発光を検出するためのオブジェクト抽出器51も肌色に対応したフィルタ処理を行う。オブジェクト抽出器51は、具体的には、図7に示されるように、特定色フィルタ71と、階調限定器72と、合成器73と、オブジェクトゲート74を備えている。特定色フィルタ71を、図8を参照して説明する。図8は、色差平面図で、縦軸をR−Y、横軸をB−Yとしたものである。テレビ信号のすべての色信号はこの座標上のベクトルで表すことができ、極座標で評価できる。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定するものである。これを特定するために色相は、第1象限のB−Y軸を基準(零度)として左回りの角度で表現するものとする。また飽和度は、ベクトルのスカラ量となり、色差平面の原点が飽和度零で色がない状態となり、原点から離れるにしたがい飽和度が大きくなり色が濃いことを示す。
図8では、特定色フィルタ71により抽出される範囲は、等色相線L1に対応する角度θ1より小さくかつ等色相線L2に対応する角度θ2の範囲に設定され、また色の濃さは等飽和度線S2より小さくS1より大きい範囲に設定されている。第2象限のこの範囲は本実施形態で抽出する人間の手の色である肌色の領域に相当するが、特にこれに限定するものではない。特定色フィルタ71は、ビデオカメラ2からくる色差信号(R−Y、B−Y)が等色相線と等飽和度線で囲まれた領域に入っているか否かを検出する。そのためには色差信号から角度と飽和度を算出して判定する。
角度算出は、一例として図10に示すような処理によって、入力画素それぞれについて、図8に示す色差平面上でなす角度を算出する。図10は、角度算出処理をフローチャートにて図示しているが、角度算出処理はソフトウェア、ハードウェアのいずれで実現してもよい。本実施形態では、ハードウェアで実現するようにしている。図10のステップS401にて、入力画素それぞれの色差信号R−Y,B−Y成分の符号より、入力画素の色相が、色差平面上の第何象限に位置しているかを検出する。ステップS402にて、色差信号R−Y,B−Y成分それぞれの絶対値の大きい方をA、小さい方をBとして算出する。
そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。ステップS404にて、Aが|R−Y|であるか、即ち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)に置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。
ステップS403において検出する角度T1を0〜45°としているのは、tan-1((R−Y)/(B−Y))のカーブは45°を超えると急激に勾配が大きくなり、角度の算出に不適であるからである。
さらに、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、角度TをT1とする(ステップS412)。そして、最終的に、ステップS413にて、入力画素それぞれの図8の色差平面上でなす角度Tを出力する。
以上の処理により、入力された色差信号R−Y,B−Yの色差平面上での角度を0〜360°の範囲で求めることができる。ステップS404〜S411は、ステップS403にて検出した角度T1を角度Tに補正する処理である。また、ステップS404〜S411は、角度T1を、第1〜第4象限に応じて補正している。
次に色の濃さである飽和度の算出は、下記の式により行われる。
Vc=sqrt(Cr×Cr+Cb×Cb)
但し、Crは、図8に示すように色信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
ここでの処理はソフトウェアまたはハードウェアを特定するものではないが、乗算と平方根はハードウェアでは実現が容易でなく、またソフトでも演算のステップが多く好ましくないので以下のように近似することも出来る。
Vc=max(|Cr|,|Cb|)
+0.4×min(|Cr|,|Cb|)
但し、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。またVcはベクトルのスカラ量であり、ここでは飽和度を表す。
以上より求めた角度(色相)Tと飽和度Vcが、等色相線の角度θ1からθ2の範囲、色の濃さは等飽和度線S2より小さくかつS1より大きい範囲に入っているか否かを評価する。範囲に入っている信号を通過させるのが、図7に示す特定色フィルタ71の役割である。
図7の階調限定器72は、図9に示すように、輝度信号の特定の階調を限定するものである。8ビットデジタル信号の場合、0〜255までの256階調を有するが、この範囲の階調を限定する最大レベルLmax及び最小レベルLminを設定し、レベルがその間にある輝度信号を出力する。
合成器73は、特定色フィルタ71と階調限定器72から入力される信号を、領域パルスに変換する。すなわち、特定色フィルタ71を通過した信号と、階調限定器72を通過した信号の両方が存在(AND)する場合に、高レベルとなるパルスを出力する。
合成器73で生成された領域パルスは、オブジェクトゲート74に供給される。オブジェクトゲート74は、領域パルスが高レベルであるとき、輝度信号と色差信号を通過させる。領域パルス外の範囲(領域パルスが低レベルであるとき)、すなわち入力信号を通過させない場合は、規定した値の信号を出力する。本実施形態では、通過させない範囲では、黒レベルの輝度信号、及び飽和度ゼロの色差信号を出力する。
図6に示すタイミングゲート器52は検出器の画面内での領域を限定するもので、図5に示す垂直と水平のパルスで規制している。また図6に示すオブジェクト特徴データ検出部53は、画像からさまざまな特徴を検出する機能ブロック、すなわち、ヒストグラム検出器61、平均輝度(APL)検出器62、高域頻度検出器63、最小値検出器64及び最大値検出器65からなる。この他にも画像を特徴づける項目はあるが本実施形態では、これらの内容にてリモコンの発光を判別すると共にその動作を認識する。
図11は図6に示すオブジェクト特徴データ検出部53内のヒストグラム検出器61及び平均輝度検出器62の出力データを示す図である。これは8つに区切った階調毎のヒストグラムと、平均輝度(APL)を示し、APLについては大きさを感覚的に分かるように矢印で示している。図11では縦紬に頻度、横軸に階調(明るさ)をとっている。ケース1は特定のステップにリモコンの発光が集中している場合であり、ケース2は分散した場合である。また平均輝度(APL)も特定の値を示している。これらヒストグラムとAPLのデータは制御情報判断器(CPU)20に転送される。
制御情報判断器20はCPUで実現されておりソフトウェアで処理される。入力されたヒストグラムのデータで黒以外の階調の総和が求められる。この総和は各検出エリアに入ったリモコンの発光面積を表している。これについては後で詳しく述べる。
図12(A)〜(C)に示されたリモコンは発光機能を備えており、本実施形態ではユニバーサルリモコンと呼称する。同図(A)はユニバーサルリモコン4Aの操作するユーザ3に面する表面(おもてめん)を示す平面図であり、本体301の上部にユニバーサル決定ボタン310が配置されている。ハッチングが付されている長方形の領域302には従来のリモコンボタンが配置されており、従来のリモコンと連続性を持っている。ユニバーサル決定ボタン310のまわりに上下左右キーを配置し、従来のリモコンの決定キーと共用してもよい。同図(B)はユニバーサルリモコン4Aの裏面を示す平面図であり、上部にさまざまな色を発光することができる第1の発光部303が配置され、第1の発光部303の下側に赤外線リモコン用の第2の発光部304が配置されている。同図(C)はユニバーサルリモコン4Aの側面図であり、少し傾けた状態が示されている。同図(C)に示す矢印は発光部303及び304から出る光をイメージしたものである。このユニバーサルリモコン4Aの発光部303及び304をテレビ受像機1の方向に向け、操作ボタンを押下して光を発生させる。
図13はユニバーサルリモコン4Aの利用形態を表した図である。同図(A)は本出願人が別に提案しているユニバーサルリモコンを使った制御方法の例を示している。固定されたポジションにあるプッシュボタンにユニバーサルリモコン4Aをかざして、ユニバーサル決定キー310にてユニバーサルリモコン4Aの第1の発光部303を発光させて、プッシュボタンの制御内容を判定するものである。本実施形態ではこの利用形態に加えて、同図(B)に示す多様な制御画像、例えばさまざまな制御情報を持ったプッシュボタンとは形が異なるもの、表になったもの、さらにリンク情報を持った文字などにも柔軟に対応できるようにしている。パーソナルコンピュータでマウスを使って矢印(ポインタ)を動かしてアイコンを選択することやリンクがはってある文字列や画像をポインタでクリックすることと同じ効果をテレビジョン受像機の遠隔操作において得ることができる。但し本実施形態ではこの遠隔操作はビデオカメラを介して行う。まずポインタを使った操作方法を第1の実施形態として説明する。またアイコンをユニバーサルリモコンでドラッグすることも可能で、これを第2の実施形態として説明する。
第1の実施形態の操作方法を、図14を使って説明する。図14(A)〜(D)はテレビジョン受像機の表示画面に表示されている制御画面が描かれている。制御画面内に示されている四角形のA、B、C、Dは各々制御情報が与えられたアイコンとなっており、図2に示すグラフィックス生成器16で生成されたものである。四角形A、B、C、Dに与えられる制御情報は、例えばCS、BS、地上、インターネットなどメディア情報やメディアの中のチャンネル情報またはインターネットのホームページなどにあるリンク情報など、さまざまなものが考えられる。ポインタ450とマーカ460はポインティング操作のためにテレビジョン受像機の表示画面に表示されており、これはユニバーサルリモコン4Aの操作にしたがって表示画面上を移動する。同図(A)はポインティング操作をはじめる直前で図12(A)に示すユニバーサル決定ボタンを押下して第1の発光部303が発光したときの状態を示している。ここで第1の発光部303は、ユニバーサル決定ボタン310が押下されている期間発光する。第1の発光部303の発光をビデオカメラ2で撮影した映像が同図(A)のマーカ460となっている。ポインタ450は前記グラフィックス生成器16で生成されているもので、好みの形が作れるが、ここでは四角い枠の中に矢印的な柄を描いてあり左上端がポインティング機能としての指し示す点となっている。
図14(B)はユニバーサルリモコン4Aを動かし、第1の発光部303の映像であるマーカ460をポインタ450に重ね合わせた状態を描いている。マーカ460がポインタ450に重ね合わされて特定の時間が経過するとポインタ450が活性化し、活性化された様子はポインタ450の色が変わることで操作しているユーザ3にフィードバックされる。同図(B)ではポインタ450にハッチングを入れて色の変化を表している。これはポインタ450の形を変えたり、音を出したりすることによるフィードバックでも同様の効果が得られる。ユーザ3はポインタ450の変化をとらえてポインタ450の活性化を確認する。活性化したポインタ450は重ね合わされているマーカ460の動きにしたがって画面上を移動できる状態になっている。同図(B)のマーカ460から四角形Cに伸びる矢印は、ユーザ3が所望の制御情報を持ったアイコンである四角形Cに向けてユニバーサル決定ボタンを押下しつつ重なり合うポインタ450とマーカ460を移動しようとしているところを描いている。移動の状態を表したものが同図(C)で、ユニバーサルリモコン4Aのポジションを示すマーカ460の移動に添ってポインタ450がそれに追従して移動する。同図(D)はポインタ450及びマーカ460が四角形Cにたどり着いたところを描いている。この時ユーザ3はユニバーサル決定ボタン310を離し、ユニバーサルリモコン4Aの第1の発光部303は消灯する。同時に第2の発光部304から赤外線リモコンの決定コードが出力され、四角形Cの制御情報が確定する。ここで言う確定とは、アイコンが持っている情報を発行することで、例えばアイコンが持っている情報が番組のチャンネル切り替え情報であれば、そのチャンネルに画面が切り替わることである。
次に前記したマーカ460によるポインタ450の移動の手法を実現するための技術的な手段について説明する。図15は、ビデオカメラ2で撮影され表示装置23に表示された第1の発光部303の映像であるマーカ460及び画像の特徴を検出する検出枠440の関係を説明するための図である。検出枠440は16の検出エリア1a〜16aに分けられ、それぞれ図2に示した検出部19内の第1の検出器31から第16の検出器46に対応している。特に検出枠440の中心部に位置する4つまとまった検出エリア6a、7a、10a、11aをポインタ枠441とし、図14(A)に示したポインタ450と同様の矢印に似た柄が描かれている。ポインタ枠に対応する第6、第7、第10、第11の検出器36、37、40、41はマーカ460を認識するための検出器として機能する。ポインタ450の大きさは必ずしもポインタ枠441に一致している必要はなくデザイン上自由度があるが、あまりにも大きさが異なるものはマーカ460の認識率が悪くなり、またユーザにマーカとポインタとの関係が分かりづらくなるため好ましくない。図15(B)はポインタ450にマーカ460が重ね合わされてポインタ450が活性化するまでの状態を示している。ユーザ3への見え方はポインタ450がマーカ460に捕まえられたような感じになる。この捕まえられた感じをユーザ3はポインタの色や形の変化として認識する。
図16はユニバーサル決定ボタン310の押下及び離す動作と、検出部19に入った信号の変化について説明するためのタイムチャート図である。同図(A)はユニバーサル決定ボタン310を押下している期間を表している。同図(B)は前記ポインタ枠441に対応する第6、第7、第10、第11の検出器36、37、40、41で検出されたヒストグラムの総和の変化を表しており、このヒストグラムの総和はマーカ460が覆っているポインタ枠441の面積を表している。マーカ460の色、すなわちユニバーサルリモコン4Aの第1の発光部303の発光色は本実施形態では黄色とし、検出部19で適切に検出されるよう、図7に示すオブジェクト抽出器の特定色フィルタ71の色相及び階調限定器72の階調は適切に設定されている。
図16(A)に示す第1の矢印の期間はユニバーサル決定ボタン310が押下されている期間を表しており、同図(A)の波形は第1の矢印の期間を通して低レベルになり、ユニバーサルリモコン4Aの第1の発光部303が発光していることを表している。第1の実施形態ではユニバーサルボタン310の押下と同時にユーザ3は、画面を見ながらマーカ460をポインタ450に重ね合わせる。同図(B)に示す第2の矢印の期間はマーカ460が動き始めポインタ450に完全に重なるまでの期間を示している。マーカ460とポインタ450が重なり始めるとポインタ枠441を通過するユニバーサルリモコン4Aの発光の面積が増え、第6、第7、第10、第11の検出器36、37、40、41で検出されるヒストグラムの総和が増加し、やがてマーカ460がポインタ450を完全に覆った状態になるとヒストグラムの総和は最大になる。この時の第6、第7、第10、第11の検出器36、37、40、41で検出されるヒストグラムの総和の変化が同図(B)に示されている。
同図(C)に示す第3の矢印はこのユニバーサルリモコン4Aの発光が通過するポインタ枠441の面積の累積が一定のレベルになるまでの期間を表し、一定のレベルに達した時刻teでマーカ460がポインタ450に重ねられたことが認識され活性領域に入る。活性領域は同図(C)の波形のようにフラグが立てられ、第4の矢印が示す活性領域となる。この時前記したとおりポインタ450の色(または形)が変化し、ユーザ3はマーカ460がポインタ450を捕まえたことを知る。これを知ったユーザ3は、メニュー画面を見ながら所望の制御情報を持った領域までユニバーサルリモコン4Aを移動させる。この際、検出枠440は対応する全検出器が検出したフレーム単位の移動量(ベクトル)に基づいてユニバーサルリモコン4Aの移動に追従する。そして画面上の所定の領域、本実施形態の場合図14に示したアイコンCに移動したところでユーザ3はユニバーサル決定ボタン310を離す。この移動の期間が同図(A)に示す第5の矢印であり、時刻teからユニバーサル決定ボタン310を離した時点までの期間である。
前記したとおりユニバーサル決定ボタン310を離した時点で通常のリモコンの決定コードがユニバーサルリモコン4Aの第2の発光部304から出力される。同図(D)に示す第6の矢印はリモコンの決定コードの赤外線が発光している期間であり、またこの期間はテレビジョン受像機がリモコンコードを解読している期間となる。これに要する期間は日常経験している感覚であり実用上障害になるものでないのでここでは言及しない。同図16(E)の波形がハイレベルになった時点がリモコンコードが解読され、アイコンCに付与された制御情報が発行された時点となっている。尚、本実施形態では、画像(アイコン)が持っている制御情報を確定する手段として、赤外線リモコンコードを活用しているが、赤外線リモコン以外のたとえばユニバーサルリモコン4Aの発光部の面積を変動させて、その変動を解読し、制御情報を確定させる方式を利用しても良い。
図17は本実施形態のユニバーサルリモコン4Aと従来のリモコンの操作の違いを説明するための図である。同図(A)は図14に示されているテレビジョン受像機の表示画面と同じものであり、表示されている四角形のA、B、C、Dは各々制御情報が与えられたアイコンとなっている。いまユーザ3はアイコンCの制御を所望しておりポインタ450をアイコンCに移動させようとしている。同図(A)に示す矢印Y1は、本実施形態の操作で取りうる経路を表しており、矢印Y2が従来のリモコン操作でとりうる経路を表している。従来のリモコン操作は同図(B)に示す上下左右決定ボタンで行われる。従来のリモコンでは、「上」、「左」、「決定ボタン」の順序で押下して矢印Y2の経路をたどりアイコンCにポインタ450が導かれる。このとき「上」ボタンでの操作で行き過ぎて矢印Y3のように戻る場合もある。またユーザはリモコンの操作ボタンと画面の両方に注意をはらうことになり、目線が定まらない問題がある。本実施形態ではマーカ460がポインタ450を捕まえて、マーカ460をアイコンCに向かって直線で動かしポインタ450をアイコンCに導くことができる。また、押下するボタンは一つであり、且つ目線は常に画面に向けられている。方向修正を画面を見ながら行い、マーカ460をアイコンCへ誘導することができる。ユニバーサルリモコン4Aを使うことで、離れたところにある大画面のテレビジョン受像機に対する遠隔操作において通常のパーソナルコンピュータのマウスの使用と同じ効果を得ることができる。
ポインタ450がマーカ460を検出して活性化し、所望のアイコンまで移動し、制御が確定されるまでの操作は図14に示した表示画面と図16に示したタイムチャート図で説明したとおりである。次にユニバーサルリモコン4Aの第1の発光部303の映像であるマーカ460の移動にポインタ450を追従させる手法について説明する。図18はマーカ460と検出枠440とその内側にあるポインタ枠441との移相関係を示した図である。同図(A)〜(J)にはポインタの移動方向10通りついて、それぞれマーカ460と検出枠440の位置関係を想定される操作形態の代表的なものとして表されており、(A)は右へ移動、(B)は左へ移動、(C)は上へ移動、(D)は下へ移動、(E)は右上へ移動、(F)は左下へ移動、(G)は左上へ移動、(H)は右下へ移動、(I)は傾いたマーカが右へ移動、(J)は傾いたマーカが上へ移動するものとなっている。
この中の(A)(E)(F)(I)を使いポインタ450をマーカ460の移動に追従させる方法についてさらに詳しく説明する。図19(A)には、検出枠440の第1〜第16の検出器31〜46がそれぞれ対応する検出エリア1aから16aの枠の中心(重心)が、基準座標で示されている。この基準座標の値を変化させることで画面内の任意の位置にポインタ450を設定することができる。各検出器31〜46から制御情報判断器(CPU)20に入力される基準座標データは、配列A(y,x)に代入され、配列の要素y,xは同図(B)に示すように、各検出エリア1a〜16aの重心の座標を表しており、これは原点からのベクトル先端の座標になっている。本実施形態では各検出器出力の面積値とその座標データから動きベクトル補正値を算出する。
図20は第1の動きベクトル補正値を算出する手法を説明するための図である。同図に示すフレーム0〜フレーム3がビデオカメラからの映像信号で、1フレームの周期は1/60秒である。一般にNTSCの映像信号であればインターレースを順次走査にした画像になる。またインターレースであってもかまわないが、各垂直方向の処理がフィールド単位となるため、奇数ラインと偶数ライン(ライン:水平周期)が別々の処理となるが機能は同一である。
各フレーム内に示されている表a0、a1、a2及びa3には第1〜第16の検出器31〜46から入力される値が並べられており、その配列は検出枠440内の検出エリアの配列と同じになっている。各検出器から入力される値はマーカ460が各検出エリアと重なった面積値である。また各検出エリアの座標の値は、
a(n,y,x)
で表されている。ここでnはフレーム番号0、1、2、3で、y,xは各検出エリア1a〜16aの重心の座標である。そして各フレーム内に表示されているグラフは各検出エリアの座標を2次元平面に表現して、前記各検出エリアで検出された面積値を縦棒で示している。
フレーム0の表a0は、図15(B)に示すポインタ450とマーカ460の重心が一致している関係のものである。フレーム1の表a1及びフレーム2の表a2は、ポインタ450に対してマーカ460すなわちユニバーサルリモコンを右に動かしたために、マーカ460の重心がポインタ450の重心に対して右にずれた場合に対応する。フレーム3はフレーム2を動きベクトル補正してポインタ450の重心をマーカ460の重心に一致させ、フレーム0と同様の状態に戻った場合を示す。
このようにマーカ460の動きにポインタ450を追従させるには、マーカ460とポインタ450の重心のずれを動きベクトル補正値として算出し、グラフィックス上で生成されるポインタの位置とマーカの位置を検出する検出器19の検出エリアの位置を補正する。その動きベクトル補正値の第1の算出方法について説明する。図20の表a0に示す各検出エリアの面積値の総和ATS0を求める。これはマーカ460が検出枠440の16個の検出エリアからはみ出ない限り、またノイズが入らない条件下ではほぼ同一の値を示す。このATS0を各フレームに対して一般化すると下記の式(1)で表される。
Figure 2007087100
但しN=M=2、i及びjは整数で本実施形態では、−2、−1、0、1で、座標値は図20のとおり−3、−1、1、3となる。また、nはフレーム番号でフレーム0ではnが0(零)である。
次に各検出エリアの面積値に対して位置情報を加味した値を求める。図20では水平方向のx軸と垂直方向のy軸に分けてbx0及びby0の配列として記載している。そして配列bx0及びby0のそれぞれの総和をとったものがBXSa0とBYSa0である。このBXSa0とBYSa0を各フレームに対して一般化すると下記の式(2)、(3)で表される。
Figure 2007087100
重心の変動値をx軸ではBXG0、y軸ではBYG0とし、この重心の変動値を各フレームに対して一般化すると前記式(1)、(2)及び(3)を使い下記式(4)、(5)より求められる。
Figure 2007087100
ポインタ450と検出枠440を移動させる動きベクトル補正値Vx,Vyは下記式(6)、(7)で表される。
Vx(n)=Cx・BXG(n) (6)
Vy(n)=Cy・BYG(n) (7)
尚、Cx,Cyは変換係数である。
図20では各検出エリアにマーカ460の存在する面積の最大値を9としている。フレーム1及び2ではマーカ460が右に移動することで、検出枠440に対する相対的な重心が右に移動した場合である。重心の移動量は同図に示すとおりフレーム1及び2ではBXG1及びBXG2が0.75、BYG1及び、BYG2が0(零)である。これに変換係数Cx,Cyを掛けたものが動きベクトル補正値となる。このCx,Cyは検出器枠内の画素数やアスペクト比及び追従速度などを踏まえて決定される重要な係数である。上述の計算で求められた動きベクトル補正値Vx,Vyは、第1〜16の検出器31〜46に対応する検出枠440とポインタ450のx軸方向及びy軸方向の移動量となる。
図21はマーカ460がポインタ450に対し右上に移動する場合を表している。フレーム1及びフレーム2にマーカ460が右上に移動している時の動きベクトル値が示されており、重心の移動量はBXG1及びBXG2が0.75、BYG1及びBYG2が0.75となり、検出枠440とポインタ450は右上に移動することになる。
図22はマーカ460がポインタ450に対し左下に移動する場合を表している。フレーム1及びフレーム2にマーカ460が左下に移動している時の動きベクトル値が示されており、重心の移動量はBXG1及びBXG2が−0.75、BYG1及びBYG2が−0.75となり、検出枠440とポインタ450は左下に移動することになる。
図23は第2の動きベクトル補正値を算出する方法を説明する図である。同図各フレーム内に示されている表a0、a1、a2及びa3は図20に示す第1の動きベクトル補正値を算出する方法の内容と同じである。フレーム0の表a0は、図15(B)に示すポインタ450とマーカ460の重心が一致している関係のものである。このときポインタ450は動かずに停止している状態である。まずこの状態での動きベクトル値を算出する。表a0の値は各検出エリア1a〜16aにマーカ460が重なっている部分の面積値である。この値は重心が一致しているので表の原点を中心として対称である。次ぎに表b0は表a0に対して以下の式(8)で表される。
b(n,y,x)=a(n,x,y)−a(n,−x,−y) (8)
x=2i+1, y=2j+1
但しi,jは整数で、本実施形態では、−2,−1,0,1となり、座標値は−3,−1,1,3となる。また、フレーム0ではnが0(零)である。
数式(8)は原点を対称に差分を求める式である。検出枠440とマーカ460の重心が一致している場合は差分値が零となる。
図23のフレーム1は、図18(A)に示したようにユニバーサルリモコン4Aを右に移動させた場合に対応する。このとき重心は右に移動し、各検出エリア1a〜16aの値は表a1のとおりとなる。原点対称差分値は表b1のとおりとなり、右側(xが正側)に正の値を示し、左側(xが負側)に負の値を示す。次に表b1の右側に記載している表bx1、表by1はx,yの各座標値を含めた値であり、下記式(9)、(10)により算出される。
bx(n,y,x)=x・b(n,y,x) (9)
by(n,y,x)=y・b(n,y,x) (10)
x=2i+1, y=2j+1
但しi,jは整数で、本実施形態では、−2,−1,0,1となり、座標値は−3,−1,1,3となる。また、フレーム1ではnが1である。
フレーム1のbx(1,y,x)及びby(1,y,x)は、座標が値に加わりベクトル情報が加味されたことになる。
フレーム1に示しているBXSb1及びBYSb1の値は、表bx1及びby1のそれぞれの総和を求めたものであり、一般化すると下記の式(11)、(12)で表される。
Figure 2007087100
重心の移動量BXGb1及びBYGb1の値は、数式(1)から求まる配列a1の総和ATS(n)と前記BXSb(n)を使って一般化された下記数式(13)、(14)より求められる。
Figure 2007087100
尚、第1の動きベクトル算出方法のBXSa(n)及びBYSa(n)と第2の動きベクトル算出法のBXSb(n)及びBYSb(n)は、算出結果は同じになるが算出過程が異なるので、a,bを付加して区別している。
マーカ460の移動に対する検出枠440の移動量のベクトル補正値Vx及びVyは、第1の動きベクトル算出方法と同様に数式(6)及び(7)で求められる。
フレーム2はマーカ460が右に移動する動きに検出枠440が図18(A)に示した状態を保ち等速に動いているときのデータを表しており、フレーム1と同じ結果が得られる。そしてフレーム3はマーカ460がストップしてベクトル値が0(零)となった状態が示されている。
図24のフレーム1及びフレーム2はマーカ460が右上に移動している時の動きベクトルの値を示している。
図25のフレーム1及びフレーム2はマーカ460が左下に移動している時の動きベクトルの値を示している。
図26のフレーム1及びフレーム2は傾いたマーカ460が右に移動している時の動きベクトルの値を示している。ユニバーサルリモコン4Aは人が操作するものであり、マーカ460が傾いた状態も考慮しておかなければならないが、重心の移動量が動きベクトルとして補正されるので、前記の数式(8)で算出される原点における対称性が大きく崩れない限り問題はない。
図27は検出枠440とマーカ460との4種類の位置関係(第1〜4)を描いたもので、第2の動きベクトル補正値を算出する手法における、動きベクトル検出手法の特徴を説明するための図である。これまでの説明に使った図20〜26は時間経過に添ってフレーム単位に描かれていたが、図27は時間に関係なく、独立して検出枠440とマーカ460の4種類の位置関係を表している。本実施形態では16個の限定された検出枠440を用いており、特定の領域まで検出枠440とマーカ460が離れた場合を想定して、マーカ460の移動に対応したポインタ450の大きな変動に対する保護を掛ける。これについて、ここでは第1の位置関係を用いて具体的に処理内容を説明する。
図27に示す第1の位置関係にある表a1は各検出エリアの面積値を表し、表b1は原点を対称として差分値を求めた値を表し(数式(8)参照)、BXSb1及びBYSb1は表b1のそれぞれの値に座標を掛けて総和を取った値(数式(11)(12)参照)、BXG1及びBYG1は検出枠を基準にしたマーカ重心値である。ここまでは動きベクトル検出の説明のとおりであるが、特に位置関係を説明するために、下記の処理を付加している。ACS1はポインタ枠441の検出エリア(図19(A)に示すa(1,1),a(1,−1),a(−1,1),a(−1,−1))の総和値であり、BCS1は前記b1と同様にポインタ枠441の検出エリアの絶対値の総和値であり、BXCS1及びBYCS1はbx1及びby1のポインタ枠441の4個の検出エリアの総和値となっている。同図に示す第2〜4の位置関係内の各表及び値についても上記第1の位置関係の説明と同じ方法で求められている。
第1の位置関係はマーカ460及び検出枠440の重心が一致していて且つポインタ枠441の4個の検出エリアがマーカ460で満たされている状態である。第2の位置関係はマーカ460が検出枠440に対して右上に位置して且つポインタ枠441の4個の検出エリアから少し外れている状態である。第3の位置関係はマーカ460が検出エリア440に対して下方に位置して且つポインタ枠441の検出エリアから少し外れている状態である。第4の位置関係はマーカ460が検出枠440に対して右上に位置して且つポインタ枠441の検出エリアから大きく外れている状態を示している。
図27に示されている各部の計算結果を整理したものが図28に示す表である。図28の表は、マーカ460とポインタ枠441の位置関係の4つの場合について、それぞれの場合においてポインタ枠441で検出された値から算出された指標と、4つの位置関係の評価が示されている。この評価に基づき算出された動きベクトル補正値が有効であるか否かが判断される。判断の結果は、図16(C)の活性化領域を示す活性化パルスに反映される。活性化パルスは動きベクトル補正値に応じてポインタ450と検出枠440を移動させる制御に対する保護となっている。またこれはマーカ460とポインタ450の位置関係だけではなく、意図しない信号すなわちノイズなどへの反応を避けるためにも有効となっている。
図28の表に示すポインタ枠441の面積値の総和であるACSは、第1の位置関係では完全にマーカ460がポインタ枠441を満たしていて、最大値を示している。その他の位置関係ではマーカ460がポインタ枠441からはずれるに従いACSの値は減少している。次に原点対称差分の絶対値の総和であるBCSは、第1の位置関係では原点対称なので0(零)になり、第2及び第3の位置関係では対称性が崩れて大きな値を示している。第4の位置関係ではマーカ460がポインタ枠441の外に大きくはみ出しているので、結果として0(零)に近い値を示している。第1と第4の位置関係では同じような値を示すのでBCSのみでは評価できない。このためACSとBCSの値の評価の組合せを用いて、マーカ460とポインタ450の位置関係検知し、おこなうべき制御内容が判断される。
判断される制御内容は以下の通りである。
1)ユニバーサルリモコン4Aの検出
これは検出領域に相当し、図16(C)に示す第3の矢印の期間である。この期間はユニバーサルリモコン4A(マーカ460)が一定期間ポインタ450(ポインタ枠441)上にかざされていることが判断される期間で、ACSが一定以上の値をしめし且つ対称性があることを示すBCSの値が一定値以下であることが条件となる。そしてその条件の下で図16(C)に示す活性化パルスが立ち上げられる。
2)活性化パルスの保持
これは活性化領域に相当し、図16(C)に示す第4の矢印の期間である。この期間は活性化パルスが保持されていて、ユニバーサルリモコン4A(マーカ460)を動かして、検出された動きベクトル補正値に添ってポインタ450と検出枠440がマーカ460の動きに追従している期間である。ACSとBCSの和が一定以上、または各値が一定以上の値を示し続けるときは活性化パルスが保持し続けられる。
3)活性化パルスの断
ユニバーサルリモコン4A(マーカ460)の動きが速く、ポインタ450が追従できないとき、またはポインタ440にマーカ460を重ね始める最初の期間や予期せぬノイズ成分が存在したときに相当する。この場合はマーカ460とポインタ450は第4の位置関係にあり、ポインタ枠441で検出される面積ACSの値が小さければBCSの値が小さく対称性があっても有効でないと判断し、活性化パルスを断とする。図16(C)に示す活性化パルスを低レベルにして動きベクトル制御を切る。
以上の3とおりの判断を表にしたものが図28に示されており、検出可能は○、検出不可は×、活性化パルスを保持するは○、保持しないは×で表している。
さらに図28の表に示してある原点対称差分値BCSにかえて、ポインタ枠441の4つの検出エリアのx軸とy軸の座標値を掛けて総和をとったBXCS、BYCSを評価することで、対称性をx軸とy軸でそれぞれで評価することができる。例えば第3の位置関係では、x軸については対称性が失われていないので、x軸のみ動きベクトル補正を有効にして、対称性のないy軸については無効にするなどの応用が考えられる。このようにポインタ枠441を設定することで、ポインタ枠441の4つの検出エリアにあるマーカ460の面積と、対称性を評価することで動きベクトル補正の有効性を判別することができ、安定した動きベクトル補正を掛けることができる。
以上により、マーカ460の動きベクトルを検出して、検出器の検出位置とグラフィックスのポインタ座標を移動させること、すなわち動き補正をかけることにより、きめ細かなポインティング操作を行うことができる。
図29はこの動きベクトルによる補正信号の流れを加味した構成を示すブロック図である。図29は図2に示したブロック図と基本的に同じであり、同一機能ブロックについては同じ番号を付している。表示装置23には、制御情報を含むメニュー画面プレーン410a及びポインタプレーン410bがグラフィックス生成器16において混合された画像と、ユニバーサルリモコン4Aを持ったユーザ3の鏡像画像とが混合された画像が映し出されている。ユーザ3は所望の制御情報を選択するためにユニバーサルリモコン4Aのユニバーサル決定ボタン310を押下させるとともにマーカ460をポインタ450に充てて移動させる。ユニバーサルリモコン4Aの第1の発光部303は、ビデオカメラ2によって撮影されて鏡像変換器14、スケーラ15を経てグラフィックス生成器16の画像と混合されてマーカ460として表示装置23に映し出されている。ここで先ず1つ目のループが形成される。このループはユーザ3がユニバーサルリモコン4Aを操作して所望の位置にポインタ450を導くための制御ループとなる。
前記スケーラ15から得られるユーザ3及びユニバーサルリモコン4Aの画像は、検出部19にて図15等に示す検出枠440内の検出エリア1a〜16aごとにヒストグラム等のデータを制御情報判断器20に出力する。制御情報判断器20は動作検出器201、制御情報発生器210、動きベクトル検出器20a、ループフィルタ20bを備えている。動作検出器201はユニバーサルリモコン4Aの第1の発光部303の発光をビデオカメラ2で撮影した映像であるマーカ460が、一定期間ポインタ450上に配置されることで図16(C)に示した活性化領域に入ったことを検出して、動きベクトル検出器20aを動作させるフラグを立てる。動きベクトル検出器20aは前記図19〜24を用いて説明したように動作し、ベクトル補正値を算出する。ループフィルタ20bは、ユーザ3の動作の変動に対して急峻な動きを抑圧する作用と、マーカ460以外のものが検出されたインパルス状のノイズを抑圧する作用とを行う。ループフィルタ20bの出力は、検出部19の検出枠440の位置をユニバーサルリモコン4Aの移動方向にシフトさせる。また、グラフィックス生成器16のポインタプレーン410bの位置を同様にシフトさせてメニュー画面プレーン410aと第3の混合器16aにて混合する。ここで動きベクトルによる検出部19の検出枠440の移動、及びポインタプレーン410bの移動を介して第2のループが形成され、ユニバーサルリモコン4Aの移動量に添ったポインタ450の移動を適切に導く制御ループとなる。
図30は前記ループフィルタの1つの例を示している。同図(A)はループフィルタの構成を示すブロック図であり、ループフィルタは加算器20b1、乗算器20b2、減算器20b3、1垂直周期遅延器20b4からなる。これの特性は以下の式(15)で示される。
Figure 2007087100
nは0以上の整数で、nが0のときはY(Z)=X(Z)となりフィルタは入力をそのまま出力する。このフィルタは低域通過フィルタで入力信号の急峻な変動を抑圧する作用がある。ユーザ3の意図していないような急峻な動きや、不規則なノイズ成分を抑圧する働きがあり、nの値はこれらを踏まえて最適値が決定される。
以上のようにユニバーサルリモコン4Aの動きベクトルを検出して検出枠440の位置とグラフィックス生成器16のポインタ450の位置を補正することで、ユーザ3を介したフィードバックループが形成されて的確な制御が実現できる。
次に第2の実施形態について説明する。第2の実施形態は特定の画像または制御情報を持ったアイコンなどをマーカ460を使ってドラッグする応用例で、基本的な技術手法は第1の実施形態と同じである。図31(A)及び(B)には、第2の実施形態で取り上げるユニバーサルリモコン4Bの操作する表面(おもてめん)が左側に示され、右側にはユニバーサルリモコン4Bの発光部を備えた裏面が描かれている。同図に示されているユニバーサルリモコン4Bには、第1の実施形態で説明したユニバーサル決定ボタン310に加え、ユニバーサル移動ボタン320が設けられている。同図の(A)には、ユニバーサル決定ボタン310を押下している状態が描かれており、ユニバーサル決定ボタン310に格子状のハッチングを入れて表現している。この時、右側に描いたユニバーサルリモコン4Bの裏面の第1の発光部303と第2の発光部304の両方が所定のタイミングで発光している様子が描かれている。第1の発光部303及び第2の発光部304に描かれているハッチングが、発光を表現している。所定のタイミングとは前記図16のタイムチャートに記載したとおりである。
同図(B)にはユニバーサル移動ボタン320を押下している状態が描かれており、ユニバーサル移動ボタン320に格子状のハッチングを入れて表現している。この時、ユニバーサルリモコン4Bの裏面の第1の発光部303のみ発光している。第2の発光部304は発光することなく、赤外線リモコンによる決定機能は使用されない。ポインタ450の移動のみを行うときにユニバーサル移動ボタン320を活用する。ユニバーサルリモコン4Bの第1の発光部303の発光の検出機能でポインタ450を移動し、アイコンを選択したあと、そのアイコンの制御情報を確定したいときは左側のユニバーサル決定ボタン310を押下すれば制御が確定する。また最初からユニバーサル決定ボタン310でアイコンを移動させて押下しているボタンを離すことでそのままアイコンの制御情報を確定させることができる。
図32はユニバーサルリモコン4Bの活用例を説明するための図である。図32(A)〜(D)は表示装置23に表示されたメニュー画面が描かれており、この画面には8つのアイコンW1、W2、X1、X2、U1、U2、Z1、Z2とポインタ450とビデオカメラ2から得られるマーカ460とが混合されて描かれている。ポインタ450のまわりには画面では見えないが、16個の検出器31〜46と対応する検出枠440があり、これは破線を使って描いてある。この検出器31〜46は第1の実施形態で詳しく説明したものと全く同じもので、ポインタ450をユニバーサルリモコン4B(マーカ)で遠隔操作するためのものであった。但し第2の実施形態ではポインタ450に変わって、マーカ460とアイコンとの間でドラッグ&ドロップ操作を行う。
図32(A)に示すマーカ460は、ユニバーサルリモコン4Bのユニバーサル移動ボタン320(右ボタン)を押下して第1の発光部303が発光しているものの鏡像画像である。図32(A)〜(D)ではマーカ460を使い、アイコンU1をドラッグして画面右上に移動させる操作方法について説明する。同図(B)はマーカ460を移動させてアイコンU1に重ねてアイコンが活性化して色が変わったところが描かれている。ユーザ3はアイコンの色の変化でアイコンU1がマーカ460を認識したことを知る。これと同時にアイコンU1のまわりには、ポインタ460のまわりにあった16の検出エリアからなる検出枠440が移動する。ここから先の操作ではポインタ460が不要になるので画面上からは消しているが、デザイン上消さなくても問題はない。また16個の検出器31〜46はポインタ460の検出用に設けたものを流用しているが、これはハードウェアやソフトウェアの規模を抑えるためであり、アイコン用、ポインタ用別々に検出器群を備えても良い。
同図(C)にはそのままユニバーサルリモコン4Bを移動させ、それに添ってアイコンU1も移動する様子が描かれている。これは第1の実施形態のポインタ450がマーカ460の動きにしたがって移動したのと同じ原理が使われており、ただ動かされる対象が、ポインタ450からアイコンU1に変わっている。そして所望の位置でユニバーサル移動ボタン320(右ボタン)を離すことによりトラッキングが切り離される。同図(D)ではアイコンU1が移動してポインタ450のまわりに検出枠440が戻ったところを描いたものである。ポインタ450の位置は同図(A)に示したポジションに戻っても良いが、ここでは移動させたアイコンの上に配置させて、直前に配置したアイコンU1を機能させ易いようにしている。機能させるためにはこのままユニバーサル決定ボタン(左ボタン)を押下すれば、第2の発光部320から赤外線リモコンの決定コードが送られてアイコンU1の制御情報が確定に導かれる。また、最初からユニバーサル決定ボタン310(左ボタン)を使って移動させた場合は、移動させてユニバーサル決定ボタン310を離したときに制御情報も確定される。
このように左側のユニバーサル決定ボタン310にはポインタやアイコンを活性化させ、移動させ、制御の確定まで導く機能が付与されており、一方右側のユニバーサル移動ボタン320にはポインタやアイコンを活性化させ、移動させるまでにとどめた機能を付与することでより多様な制御方式となっている。例えばポインタ450を使って線を引くような場合は、特に他には制御を必要としないので、ポインタ450の移動だけでとどめておきたく、ユニバーサル移動ボタン320を使った操作の方が良い。また、ユーザ3が制御するまでには至っていなく、特定のアイコンまたはパーソナルコンピュータの制御のようなコントローラ上でスタンバイ状態にしておきたい場合なども、ポインタ450を移動させるだけにとどめておきたい場合である。第2の実施形態はこのような場合に対応するためのもので、より多様な制御方法を提供するものである。第2の実施形態で取り上げたユニバーサルリモコン4Bの2つのボタンは、パーソナルコンピュータのマウスの左右に配置した2つのボタンの使い分けによる活用に似た機能を有しており、ユニバーサルリモコンの使い勝手を良くするものとなっている。
上述した実施形態は、特定の制御画像に対するビデオカメラを使った制御方式を、あらゆる形態の制御画像(メニュー画像)に対応させたものである。上述した制御方式を適用することによる効果を、応用例を用いて説明する。図33はEPGを用いた番組予約画面を表している。この中の特定の番組を指定する場合、各番組の時間枠は番組の長さに応じて画面に占める大きさが異なっているのためきめ細かなポインティング操作が必要である。従来のリモコンでは上下左右キーを押下して所定の番組までポインタを運ぶことになるが、番組情報が多くなればなるほど煩雑な作業となる。上述した制御方式によれば、ポインタを直接目標の番組の箇所に移動できるので使い勝手が向上する。
図34は記録メディアの再生画像を再生機(プレーヤ)で見る場合の表示画面を表している。同図には再生画面と制御画像(GUI)部が同じ画面内に存在している場合が描かれており、制御画像の各々のアイコンはポインタで制御できるものとなっている。画面右側に描かれているボリュームついては第2の実施形態で説明したドラッグ&ドロップの機能でスライド操作が可能となっている。
図35はパーソナルコンピュータで標準的に使われている制御方式を表したもので、上述した制御方式で操作が可能なコントローラである。各々説明はしないが、文字入力以外のほとんどの機能を上述した制御方式で扱うことができる。
上述した制御方式の効果を整理すると以下のとおりである。
1)上述した制御方式によれば、従来のリモコンでは複数のボタン押下をともなうため、リモコンと画面を繰り返し見なければならず使い勝手が悪いものであったが、ユニバーサルリモコンの操作は1つまたは2つのボタン操作のみのため、ブラインド操作が可能であり、ユーザは常に画面を見て操作を完了することができる。
2)大画面のテレビジョン受像機を遠隔でポインティング操作することができる。これはパーソナルコンピュータの操作環境(GUI)が遠隔で可能なことであり、複雑な操作が簡単に扱える効果がある。
3)デザイン上の自由度があり、見た目の扱い易さ、かっこ良さが追求できる。
4)ON/OFFのような2値ではなくボリュームのような連続的な移動の制御が可能である。
データ放送やEPGなどの放送番組内容の多様化、ホームネットワークやインターネットなどメディアの多様化、このようなテレビジョン受像機を取りまく環境が大きく変化してきている。上述した制御方式は、このような環境に適応するテレビジョン受像機及び表示装置を持った電子機器のユーザインターフェースとして有効な方式である。
本発明の電子機器操作方法の概要を説明するための図である。 本発明の一実施形態にかかる電子機器(テレビジョン受像機)の要部の構成を示すブロック図である。 操作者の画像と、操作用画像とを示す図である。 操作者の画像と、操作用画像とを重畳(混合)した状態を説明するための図である。 図2に示す検出器と、表示装置の画面上の検出領域との対応を説明するための図である。 図2に示す検出器の構成を示すブロック図である。 図6に示すオブジェクト抽出器の構成を示すブロック図である。 オブジェクト抽出器で抽出する対象物の色相及び飽和度を説明するための図である。 オブジェクト抽出器で抽出する対象物の輝度信号レベルを示す図である。 色差信号から色相を算出する処理のフローチャートである。 図6に示すオブジェクト特徴データ検出部のヒストグラムとAPL値を示す図である。 ユニバーサルリモコンの構成例を示す図である。 ユニバーサルリモコンを用いた操作の概要を説明するための図である。 ユニバーサルリモコンを用いたポインタの操作を説明するための図である。 マーカとポインタ及び検出器の関係を説明するための図である。 ユニバーサルリモコンの発光と制御の確定を説明するためのタイムチャートである。 従来のリモコン操作とユニバーサルリモコンの操作の違いを説明するための図である。 ポインタの移動方向に関するマーカとポインタ及び検出枠の位置7関係を説明するための図である。 検出エリアに与えられた重心座標について説明するための図である。 第1の動きベクトル補正値を算出する手法(マーカが右方向へ移動する場合)を説明するための図である。 第1の動きベクトル補正値を算出する手法(マーカが右上方向へ移動する場合)を説明するための図である。 第1の動きベクトル補正値を算出する手法(マーカが左下方向へ移動する場合)を説明するための図である。 第2の動きベクトル補正値を算出する手法(マーカが右方向へ移動する場合)を説明するための図である。 第2の動きベクトル補正値を算出する手法(マーカが右上方向へ移動する場合)を説明するための図である。 第2の動きベクトル補正値を算出する手法(マーカが左下方向へ移動する場合)を説明するための図である。 第2の動きベクトル補正値を算出する手法(傾いたマーカが右方向へ移動する場合)を説明するための図である。 第2の動きベクトル補正値を算出する手法における、動きベクトル検出手法の特徴を説明するための図である。 算出された動きベクトル補正値の有効性判断を説明するための図である。 第2の実施形態の電子機器(テレビジョン受像機)の要部の構成を示すブロック図である。 ループフィルタの構成を示すブロック図である。 第2の実施形態のユニバーサルリモコンの構成を示す図である。 ユニバーサルリモコンを使用したアイコンのドラッグを説明する図である。 実施形態で示した制御方式のEPG画面での一応用例を示す図である。 実施形態で示した制御方式の一応用例として記録メディア再生画面のボリューム操作を説明するための図である。 実施形態で示した制御方式の一応用例としてパーソナルコンピュータの制御方式と同様に操作できることを説明するための図である。
符号の説明
1 テレビジョン受像機(電子機器)
2 ビデオカメラ
3 ユーザ(操作者)
4A,4B ユニバーサルリモコン(手元制御機器)
12 タイミングパルス発生器
13 鏡像変換器(鏡像変換手段)
15 スケーラ(混合手段)
16 グラフィックス生成器(操作用画像生成手段)
17 第1の混合器(混合手段)
19 検出部(表示制御手段)
20 制御情報判断器(CPU)(機器制御手段)
20a 動きベクトル検出器(表示制御手段)
20b ループフィルタ(表示制御手段)
22 第2の混合器(混合手段)
23 表示装置
24 赤外線検出器(指示動作検出手段)
31〜46 検出器
310 ユニバーサル決定ボタン(操作ボタン)
320 ユニバーサル移動ボタン
303 第1の発光部(表示制御手段)
304 第2の発光部(赤外線発光手段)
440 検出枠(表示制御手段)
441 ポインタ枠(表示制御手段)
450 ポインタ(指示画像)
460 マーカ(操作画像)
51 オブジェク抽出器(表示制御手段)
52 タイミングゲート器(表示制御手段)
53 オブジェクト特徴データ検出部(表示制御手段)

Claims (4)

  1. 表示装置を有する電子機器と、前記表示装置の前に位置する操作者を撮影するビデオカメラと、前記電子機器を遠隔操作するための手元制御機器とを備える電子機器システムであって、
    前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換手段と、
    少なくとも1つの操作画像と指示画像を含む操作用画像を生成する操作用画像生成手段と、
    前記鏡像変換された画像の画像信号と、前記操作用画像の画像信号とを混合する混合手段と、
    該混合手段により混合された画像を前記表示装置の画面上に表示させた状態において、前記ビデオカメラで撮影され、前記画面上に表示された前記手元制御機器が前記指示画像に重ねられたとき、該指示画像が選択されたことを検出し、該検出後は、前記手元制御機器の動きに追従するように前記指示画像を移動させる表示制御手段と、
    前記指示画像の位置に応じて前記操作画像の指示動作を検出する指示動作検出手段と、
    該指示動作検出手段により指示動作が検出された操作画像に対応する、前記電子機器の制御動作を行う機器制御手段とを備えることを特徴とする電子機器システム。
  2. 表示装置を有する電子機器と、前記表示装置の前に位置する操作者を撮影するビデオカメラと、前記電子機器を遠隔操作するための手元制御機器とを備える電子機器システムであって、
    前記ビデオカメラで撮影された画像の鏡像変換を行う鏡像変換手段と、
    少なくとも1つの操作画像を含む操作用画像を生成する操作用画像生成手段と、
    前記鏡像変換された画像の画像信号と、前記操作用画像の画像信号とを混合する混合手段と、
    該混合手段により混合された画像を前記表示装置の画面上に表示させた状態において、前記ビデオカメラで撮影され、前記画面上に表示された前記手元制御機器が前記操作画像に重ねられたとき、該操作画像が選択されたことを検出し、該検出後は、前記手元制御機器の動きに追従するように前記操作画像を移動させる表示制御手段とを備えることを特徴とする電子機器システム。
  3. 前記表示制御手段は、前記手元制御機器の動きを検出するための検出枠を分割した複数の検出エリアのそれぞれにおける、前記手元制御機器の画像の面積値を検出する複数個の検出器を備え、該検出器から出力される面積値の総和と、前記検出器から出力される面積値または前記検出枠の中心に対して対称の位置関係にある検出エリアに対応する前記面積値の差分とに応じて、前記手元制御機器の動きベクトルを算出し、該算出された動きベクトルにしたがって、前記指示画像または操作画像の移動制御を行うことを特徴とする請求項1または2に記載の電子機器システム。
  4. 前記手元制御機器は、遠隔制御用の赤外線発光手段及び可視光を発光し、その発光内容を変動させる可視光発光手段の少なくとも一方と、前記赤外線発光手段または可視光発光手段を作動させるための操作ボタンとを備え、
    前記指示動作検出手段は、前記操作ボタンが操作されたときの前記指示画像の位置に応じて前記操作画像の指示動作を検出することを特徴とする請求項1に記載の電子機器の制御システム。
JP2005274958A 2005-09-22 2005-09-22 電子機器システム Pending JP2007087100A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005274958A JP2007087100A (ja) 2005-09-22 2005-09-22 電子機器システム
US11/523,568 US20070064140A1 (en) 2005-09-22 2006-09-20 Electronics System
CNB200610154341XA CN100559830C (zh) 2005-09-22 2006-09-22 电子设备系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005274958A JP2007087100A (ja) 2005-09-22 2005-09-22 電子機器システム

Publications (1)

Publication Number Publication Date
JP2007087100A true JP2007087100A (ja) 2007-04-05

Family

ID=37883665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005274958A Pending JP2007087100A (ja) 2005-09-22 2005-09-22 電子機器システム

Country Status (3)

Country Link
US (1) US20070064140A1 (ja)
JP (1) JP2007087100A (ja)
CN (1) CN100559830C (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075685A (ja) * 2007-09-19 2009-04-09 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
JP2011523138A (ja) * 2008-06-04 2011-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. コンピュータを遠隔制御するためのシステム及び方法
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
JP2012523630A (ja) * 2009-04-08 2012-10-04 クゥアルコム・インコーポレイテッド 改良されたハンドヘルド画面検知ポインタ
WO2014061322A1 (ja) * 2012-10-15 2014-04-24 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
US9690392B2 (en) 2012-10-15 2017-06-27 Sony Corporation Operating device including a touch sensor

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
KR20090063679A (ko) * 2007-12-14 2009-06-18 삼성전자주식회사 포인팅 기능을 구비한 영상표시장치 및 그 방법
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP5442393B2 (ja) * 2009-10-29 2014-03-12 日立コンシューマエレクトロニクス株式会社 表示装置
CN102110361A (zh) * 2009-12-24 2011-06-29 康佳集团股份有限公司 遥控器位置获取方法、装置及遥控器
JP5373191B2 (ja) * 2010-03-31 2013-12-18 楽天株式会社 情報処理装置、情報処理方法、情報処理プログラム、および、記録媒体
KR20120054741A (ko) * 2010-11-22 2012-05-31 삼성전자주식회사 디스플레이장치 및 그 제어방법
TW201227399A (en) * 2010-12-24 2012-07-01 Hon Hai Prec Ind Co Ltd Motion recognition module, electronic device appling the motion recognition module and method thereof
CN105912146B (zh) * 2012-03-02 2019-02-05 联想(北京)有限公司 控制方法和电子设备
CN103139631A (zh) * 2013-03-25 2013-06-05 山东泰信电子股份有限公司 一种机顶盒与电视机共用遥控器的系统和方法
KR102215072B1 (ko) * 2014-01-03 2021-02-10 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
CN104811793B (zh) * 2015-03-18 2019-01-04 四川长虹电器股份有限公司 电视共享电脑输入设备来进行外设输入的方法
EP3541064A4 (en) * 2016-11-10 2019-11-20 Sony Corporation IMAGE PROCESSING APPARATUS AND METHOD AND PROGRAM
CN106817545B (zh) * 2016-12-30 2019-08-02 成都傅立叶电子科技有限公司 一种快速多分辨率视频图像镜像旋转处理系统
KR102394190B1 (ko) * 2017-11-13 2022-05-09 엘지전자 주식회사 유기 발광 다이오드 디스플레이 장치 및 그의 동작 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127674A (ja) * 1990-09-18 1992-04-28 Sony Corp 画像処理装置及び画像処理方法
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH07141098A (ja) * 1993-11-17 1995-06-02 Nippon Telegr & Teleph Corp <Ntt> 座標入力装置
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2000242427A (ja) * 1999-02-22 2000-09-08 Hitachi Ltd 会議支援方法および装置
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2003005904A (ja) * 2001-06-19 2003-01-10 Matsushita Electric Ind Co Ltd ポインタ遠隔制御装置、及びポインタ遠隔制御装置を用いたインターフェースシステム
WO2004012073A2 (en) * 2002-07-27 2004-02-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
JP2005056054A (ja) * 2003-08-01 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> 携帯情報端末に対する情報提供システム、情報提供方法、情報提供プログラム、および、情報提供プログラムを記録した記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424371B1 (en) * 1997-09-24 2002-07-23 Sheree H. Wen Intelligent video monitor system
US6636273B1 (en) * 2001-02-01 2003-10-21 Savvy Frontiers Patent Trust Remote control dedicated keybutton for confirming tuner setting of a TV set to a specific channel setting

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127674A (ja) * 1990-09-18 1992-04-28 Sony Corp 画像処理装置及び画像処理方法
JPH07141098A (ja) * 1993-11-17 1995-06-02 Nippon Telegr & Teleph Corp <Ntt> 座標入力装置
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2000242427A (ja) * 1999-02-22 2000-09-08 Hitachi Ltd 会議支援方法および装置
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2003005904A (ja) * 2001-06-19 2003-01-10 Matsushita Electric Ind Co Ltd ポインタ遠隔制御装置、及びポインタ遠隔制御装置を用いたインターフェースシステム
WO2004012073A2 (en) * 2002-07-27 2004-02-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
JP2005535022A (ja) * 2002-07-27 2005-11-17 株式会社ソニー・コンピュータエンタテインメント 変形可能な装置を使用したマンマシンインターフェース
JP2005056054A (ja) * 2003-08-01 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> 携帯情報端末に対する情報提供システム、情報提供方法、情報提供プログラム、および、情報提供プログラムを記録した記録媒体

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075685A (ja) * 2007-09-19 2009-04-09 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
US8736549B2 (en) 2008-06-04 2014-05-27 Hewlett-Packard Development Company, L.P. System and method for remote control of a computer
JP2011523138A (ja) * 2008-06-04 2011-08-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. コンピュータを遠隔制御するためのシステム及び方法
KR101494350B1 (ko) * 2008-06-04 2015-02-17 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 컴퓨터의 원격 제어를 위한 시스템 및 방법
JP2012507068A (ja) * 2008-10-27 2012-03-22 株式会社ソニー・コンピュータエンタテインメント 視覚情報を通信するためのコントロールデバイス
US9189082B2 (en) 2009-04-08 2015-11-17 Qualcomm Incorporated Enhanced handheld screen-sensing pointer
JP2012523630A (ja) * 2009-04-08 2012-10-04 クゥアルコム・インコーポレイテッド 改良されたハンドヘルド画面検知ポインタ
US10146298B2 (en) 2009-04-08 2018-12-04 Qualcomm Incorporated Enhanced handheld screen-sensing pointer
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
WO2014061322A1 (ja) * 2012-10-15 2014-04-24 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
JP5939553B2 (ja) * 2012-10-15 2016-06-22 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
JP2016122454A (ja) * 2012-10-15 2016-07-07 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス
US9690392B2 (en) 2012-10-15 2017-06-27 Sony Corporation Operating device including a touch sensor
US9789395B2 (en) 2012-10-15 2017-10-17 Sony Interactive Entertainment Inc. Operating device
RU2647695C2 (ru) * 2012-10-15 2018-03-16 Сони Компьютер Энтертейнмент Инк. Устройство управления
US10507386B2 (en) 2012-10-15 2019-12-17 Sony Interactive Entertainment Inc. Operating device
US10603576B2 (en) 2012-10-15 2020-03-31 Sony Interactive Entertainment Inc. Operating device including a touch sensor

Also Published As

Publication number Publication date
US20070064140A1 (en) 2007-03-22
CN1937710A (zh) 2007-03-28
CN100559830C (zh) 2009-11-11

Similar Documents

Publication Publication Date Title
JP2007087100A (ja) 電子機器システム
US10671175B2 (en) Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image
US7681137B2 (en) Display apparatus and control method for displaying user menu
JP4720738B2 (ja) 電子機器
US8237655B2 (en) Information processing apparatus, method and program
US8144121B2 (en) Method and apparatus for controlling electronic appliance
US8179367B2 (en) Electronic appliance having a display and a detector for generating a detection signal
JP4419768B2 (ja) 電子機器の制御装置
US9704028B2 (en) Image processing apparatus and program
KR100711264B1 (ko) 전자기기 및 그 제어방법
US20110061023A1 (en) Electronic apparatus including touch panel and displaying method of the electronic apparatus
JP2009089068A (ja) 電子機器の制御装置、制御方法及び制御プログラム
JP2009087095A (ja) 電子機器の制御装置、制御方法及び制御プログラム
JP4544195B2 (ja) 電子機器
CN101556788A (zh) 具无遮蔽式屏幕选单的显示器及其屏幕选单的工作方法
CN100502461C (zh) 电子设备
KR20180071725A (ko) 디스플레이 장치 및 방법
JP2008118633A (ja) 電子機器の制御装置及び制御方法
JP2009010849A (ja) 電子機器の制御装置
JP2008282131A (ja) 電子機器の制御装置
JP2010003303A (ja) 電子機器の制御装置
EP2403227A1 (en) Method for moving a cursor and display apparatus
JP2008020775A (ja) 映像表示システム、映像表示装置およびリモコン送信機
JP2006085343A (ja) 表示装置および表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100608