JP2013250479A - Information display device, program, and information display recording medium - Google Patents
Information display device, program, and information display recording medium Download PDFInfo
- Publication number
- JP2013250479A JP2013250479A JP2012126130A JP2012126130A JP2013250479A JP 2013250479 A JP2013250479 A JP 2013250479A JP 2012126130 A JP2012126130 A JP 2012126130A JP 2012126130 A JP2012126130 A JP 2012126130A JP 2013250479 A JP2013250479 A JP 2013250479A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- camera
- projection
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示画面上に投影された投影画像と、投影画像を合成した合成画像を表示させる情報表示装置、プログラムおよび情報記録媒体に関する。 The present invention relates to an information display device, a program, and an information recording medium for displaying a projected image projected on a display screen and a synthesized image obtained by synthesizing the projected image.
カメラとプロジェクタを組み合わせて、カメラにて状況を捉えて、プロジェクタにて何らかの指示を出すことが考えられている。 It is considered to combine a camera and a projector, capture the situation with the camera, and issue some instruction with the projector.
例えば、料理で魚を3枚におろす際に、カメラで取得した画像から、魚オブジェクトを抽出し、料理に関する知識ベースからその切るべき位置を検索して、魚の上に切るべき指示線を投影する。操作者はその指示線に従って切れ目を入れるので、本人に知識がなくても、操作が可能となる。 For example, when dropping three fish in a dish, a fish object is extracted from an image acquired by a camera, a position to be cut is searched from a knowledge base on cooking, and an instruction line to be cut on the fish is projected. . Since the operator cuts according to the instruction line, the operation can be performed without knowledge of the user.
また、遠隔地より指導者がカメラの映像を見ながら、切れ目のような指示線や注意すべき部分などの情報を入力して、操作者に対してプロジェクタにて投影することで目と、音声にて指示するようなシステムも考えられている。 In addition, while viewing the camera image from a remote location, the instructor inputs information such as cut lines and parts to watch out for, and projects them to the operator with a projector. There is also a system that gives instructions in
また、特許文献1には、画像投影面とユーザが書き込む書込み面とが同一画面上に配することで操作性が高められ、且つ安価な投影型表示装置が開示されている。
Further,
操作者は、作業に取り掛かる前は、操作対象物(以下、対象オブジェクトと称する。)から離れていると考えられるので、指示線などの投影画像をよく認識できる。 Since the operator is assumed to be away from the operation target (hereinafter referred to as a target object) before starting work, the operator can recognize the projection image such as the instruction line well.
しかし、従来技術や特許文献1に開示されている技術では、一旦実際の作業に入ると、自分の手などの影に邪魔されて、投影されている画像を見失ってしまう場合がある。確認のためには、いちいち作業をとめる必要があるが、それは、面倒なだけではなく、料理や医療の場面では操作の早さが重要なので、いちいち作業を中断することはできない問題があった。
However, with the prior art and the technique disclosed in
本発明は、前記課題を解決するためのものであり、その目的とするところは、作業を中断することなく、指示が確認できる情報表示装置を提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide an information display device capable of confirming an instruction without interrupting work.
かかる目的を達成するために、本発明は、以下の特徴を有する。 In order to achieve this object, the present invention has the following features.
本発明に係る情報表示装置は、カメラ撮影した画像を解析して、所定の対象オブジェクトを検出して、該対象オブジェクトに対して、何らかの操作指示や補助情報をプロジェクタにて投影する情報表示装置であって、前記カメラ画像から前記対象オブジェクト画像を抽出するオブジェクト抽出手段と、前記抽出された対象オブジェクトを保存するオブジェクト画像保存手段と、前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成する合成画像生成手段と、前記プロジェクタの投影面内の前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示する合成画像表示手段と、を有することを特徴とする。 An information display device according to the present invention is an information display device that analyzes an image captured by a camera, detects a predetermined target object, and projects some operation instruction or auxiliary information to the target object by a projector. An object extracting unit for extracting the target object image from the camera image, an object image storing unit for storing the extracted target object, the stored target object image, the operation instruction and auxiliary information. A composite image generation unit configured to combine the projection image; and a composite image display unit configured to display the composite image at a location different from a position where the operation instruction or auxiliary information is projected within the projection plane of the projector. It is characterized by that.
本発明によれば、操作指示や補助情報を、指示線などを投影している場所と別の場所に、対象オブジェクト画像と投影画像を合成した画像として投影するので、操作者は、自分の手などの影で、本来の操作指示や補助情報が見えなくなったとしても、投影されている合成画像を脇目で確認しながら操作を進めることが可能となる。 According to the present invention, the operation instruction and the auxiliary information are projected as an image obtained by synthesizing the target object image and the projection image at a place different from the place where the instruction line or the like is projected. Even if the original operation instruction or auxiliary information becomes invisible due to a shadow such as, it is possible to proceed with the operation while confirming the projected composite image with the side eyes.
以下、本実施形態について図面により詳細に説明する。 Hereinafter, the present embodiment will be described in detail with reference to the drawings.
図1は、第1の実施形態に係る情報表示装置の構成を示す図である。情報表示装置は、UI1とCPU2とメモリ3と対象オブジェクト抽出部4とオブジェクト保存部5と合成画像生成部6とカメラ7とプロジェクタ8と操作指示保持部9と投影位置決定部10とマイク11とスピーカ12とHDD13とを含んで構成される。
FIG. 1 is a diagram illustrating the configuration of the information display device according to the first embodiment. The information display device includes a
UI1は、ユーザインターフェース部で操作者の指示を入力する部分である。操作者は手が空かない場合もありうるので、マイク11にて操作者の声を入力して音声認識を利用した入力なども考えられる。ユーザは、指示・補助を受けたい「操作メニュー」を選択する入力なども考えられる。所定の操作の専用システムであれば、そのような選択メニューは不要である。
The
CPU2は、システム全体を制御する部分である。メモリ3は、プログラムや一時的な計算用のワークバッファなどに利用される。カメラ7から入力された画像信号なども一旦ここに入る。
The
対象オブジェクト抽出部4は、カメラ7から入力されたメモリ3上の画像信号を解析して、操作対象の物体抽出を行う。オブジェクト保存部5は、対象オブジェクト抽出部4にて抽出された対象オブジェクト画像を保存する。カメラ画像から入力された画像がメモリ3に一旦入り、そこでオブジェクトが抽出される。抽出できたら、そのメモリ3からオブジェクト部の画像を、別の保存用メモリやHDD13に保存する。
The target
合成画像生成部6は、保存されている対象オブジェクト画像と操作指示に関する情報(切り込みの補助線など)を合成画像にしてメモリ3に保存する。
The composite
カメラ7は画像入力装置である。プロジェクタ8は投影装置である。対象オブジェクト上に操作指示を映し出すと同時に合成画像生成部6が作り出す合成画像を投影位置決定部10が決めた位置に映す。
The
操作指示保持部9は、ユーザに対してどのような操作指示や補助情報を投影するかを保持しておく。保存デバイスとしては、メモリ3やHDD13であるが明示的に示した。投影位置決定部10は、合成画像を投影する位置を決定する。例えば、画面の右上と決めておくことなどである。
The operation instruction holding unit 9 holds what operation instructions and auxiliary information are projected to the user. As the storage device, the
マイク11は、操作者の声を入力し、音声認識装置を付属している。スピーカ12は、操作者に対して、音声による指示を出す。HDD13は記憶装置である。
The
図2は、第1の実施形態における処理フロー図である。カメラ7から画像を入力し(ステップS1)、その画像から対象オブジェクト抽出部4で対象オブジェクトを抽出する(ステップS2)。 FIG. 2 is a processing flow diagram according to the first embodiment. An image is input from the camera 7 (step S1), and the target object is extracted from the image by the target object extraction unit 4 (step S2).
対象オブジェクトを抽出できた場合は(ステップS3、Yes)、対象オブジェクト画像をオブジェクト保存部5に保存し(ステップS4)、操作指示情報と対象オブジェクト画像を合成画像生成部6で合成して(ステップS5)、合成画像を投影する(ステップS6)。対象オブジェクトが抽出できなかった場合は(ステップS3、No)、終了チェックをして(ステップS7)、カメラからの画像入力に戻る。 When the target object can be extracted (step S3, Yes), the target object image is stored in the object storage unit 5 (step S4), and the operation instruction information and the target object image are combined by the composite image generation unit 6 (step S4). S5) A composite image is projected (step S6). If the target object could not be extracted (step S3, No), an end check is performed (step S7), and the process returns to image input from the camera.
画像からのオブジェクト抽出は、既に多くの技術が提案されており、OSS(オープンソースソフトウエア)などでの提供もある。指示情報は、対象オブジェクトのどの位置にどのような図形や文字を記載するかを保持しており、その情報によって、対象オブジェクトと操作指示情報の合成を行う。 Many techniques have already been proposed for extracting objects from images, and there are also provisions using OSS (open source software) and the like. The instruction information holds what figure or character is to be written at which position of the target object, and the target object and the operation instruction information are synthesized based on the information.
図3は、指示情報の例を示す図である。手順は、どの操作段階で提示するものかを示す。指示の属性1は、指示の形態を表している。”Line"は、対象オブジェクトに対する線画像表示による指示を、"Audio"は、音声による指示を、"Text"は、文字表示による指示を表す。属性2はそれぞれの詳細な指示情報である。
FIG. 3 is a diagram illustrating an example of instruction information. The procedure indicates at which operation stage it is presented. An
まず、手順1のLineが対象オブジェクトに投影される。また、対象オブジェクト画像とLineが合成されて投影画面の別の位置に投影される。
First, the line in
図4は、操作補助システムの概略図である。カメラ7とプロジェクタ8が作業台15の上部に位置しており、カメラ7は作業台15の映像を操作補助システム本体14に入力する。操作補助システム本体14は、対象オブジェクト16を抽出し、その上に指示線等をプロジェクタ8にて投影する。操作者17は、対象オブジェクト16上の指示線等を視認できる。また、操作補助システム本体14にマイク11とスピーカ12が接続されている。
FIG. 4 is a schematic diagram of the operation assistance system. The
図5は、始めの操作者17の視界を示す図である。この画像をカメラ7で撮影し、作業台15上の対象オブジェクト16を抽出して、プロジェクタ8にて切り込みのための指示線を投影する。
FIG. 5 is a diagram showing the field of view of the
図6は、投影した指示線18の画像を示す図である。作業台15上に指示線が投影されていることが確認できる。
FIG. 6 is a diagram showing an image of the projected
図7は、指示線18を投影した時の操作者17の視界を示す図である。操作者17の視界で、対象オブジェクト16上に指示線18が載っていることが確認できる。
FIG. 7 is a diagram illustrating the field of view of the
図8は本発明の投影画像19を示す図である。図6で示した指示線18以外に、対象オブジェクトと指示線と文字画像「切り終えたら「次」と指示ください」との合成画像19を画面の右上に投影している。
FIG. 8 is a diagram showing a projected
図9は、合成画像19を投影した時の操作者17の視界を示す図である。指示線18が載っている対象オブジェクト16の右上に合成画像19が投影されている。
FIG. 9 is a diagram illustrating the field of view of the
図3の説明に戻って、属性1のAudioは、スピーカ12を通して音声指示を与える。この例では、手順1の時に、「補助線に沿って切り込みを入れてください」、手順2の時は、「裏返してください」である。また、属性1のTextは、Lineと同様、文字画像「切り終えたら「次」と指示ください」をオブジェクト画像の近辺に投影する。操作者17が、「次」と発声すると、システムは、マイク11を介して音声認識により、手順1が終了したことを知り、手順2の指示に移る。
Returning to the description of FIG. 3, Audio of
この例では、操作者17が発声することで手順終了を検出しているが、対象オブジェクト16の状態によって自動で判定することも考えられる。
In this example, the end of the procedure is detected by the
本実施形態によれば、操作指示や補助情報等を、別の場所に、対象オブジェクト画像と投影画像を合成した画像として投影するので、操作者は、自分の手などの影で、本来の操作指示や補助情報が見えなくなったとしても、投影されている合成画像を脇目で確認しながら操作を進めることが可能となる。 According to the present embodiment, the operation instruction, auxiliary information, and the like are projected on another place as a composite image of the target object image and the projection image, so that the operator can perform the original operation with the shadow of his / her hand or the like. Even if the instruction or the auxiliary information becomes invisible, the operation can be performed while confirming the projected composite image with the side eyes.
図10は、第2の実施形態に係る情報表示装置の構成を示す図である。第1の実施形態と同一の構成要件は同一の符号を付して説明を省略する。 FIG. 10 is a diagram illustrating a configuration of an information display device according to the second embodiment. The same constituent elements as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
情報表示装置は、UI1とCPU2とメモリ3とオブジェクト抽出部21とオブジェクト辞書22とオブジェクト保存部5とオブジェクト位置関係抽出部23と合成画像生成部6とカメラ7とプロジェクタ8と操作指示辞書24と投影位置決定部10と色補正部25とHDD13と外部IF26とを含んで構成される。
The information display device includes a
オブジェクト抽出部21は、カメラ7から入力されたメモリ3上の画像信号を解析して、物体抽出を行う。何を抽出するかは、選択された「操作メニュー」に従って決定され、その特徴量はオブジェクト辞書より読み込む。
The
オブジェクト辞書22は、対象オブジェクトや器具オブジェクトの特徴量を保存しておく。保存デバイスとしては、メモリ3やHDD13であるが明示的に示した。
The
オブジェクト保存部5は、オブジェクト抽出部にて抽出された対象オブジェクトや器具オブジェクトの画像を保存する。カメラ画像から入力された画像がメモリ3に一旦入り、そこでオブジェクトが抽出される。抽出できたら、そのメモリ3からオブジェクト部の画像を別の保存用メモリ3やHDD13に保存する。
The
オブジェクト位置関係抽出部23は、抽出された対象オブジェクトと器具オブジェクトの位置関係を抽出する。対象オブジェクトの検出位置と器具オブジェクトの検出位置から相対的な位置関係を抽出する。
The object positional
合成画像生成部6は、保存されているオブジェクト画像と抽出されたオブジェクト位置関係を保持するようにオブジェクト画像を合成し、さらに、操作指示に関する情報(切り込みの補助線など)を合成してメモリ3に保存する。
The synthesized
操作指示辞書24は、選択された「操作メニュー」に従って決定される。ユーザに対してどのような操作指示や補助情報を投影するかを保存しておく。保存デバイスとしてはメモリ3やHDD13であるが明示的に示した。
The
投影位置決定部10は、合成画像を投影する位置を決定する。抽出された対象オブジェクトの位置を避けた位置にする。さらに、例えば、操作者の位置も抽出して、対象オブジェクトの位置と操作者の位置を結ぶ線以外で、なるべく白い面を選択するなどである。
The projection
色補正部25は、カメラ7から合成画像を投影する位置の画像を取得して、合成画像を投影した場合に元の色に近づくように、補正を行う。外部IF26は、ネットワーク27に接続されている。
The
図11は、第2の実施形態における処理フロー図である。このフローは、図3での1つの手順に対してのフローである。始めに、当該手順に関する指示情報を取得する(ステップS11)。そして、カメラ7から画像を取得して(ステップS12)、オブジェクト抽出部21で対象オブジェクトを抽出する(ステップS13)。対象オブジェクトが抽出できなければ(ステップS14、No)、終了チェックをして(ステップS25)、カメラ入力に戻る。 FIG. 11 is a processing flow diagram according to the second embodiment. This flow is for one procedure in FIG. First, instruction information related to the procedure is acquired (step S11). And an image is acquired from the camera 7 (step S12), and a target object is extracted by the object extraction part 21 (step S13). If the target object cannot be extracted (No in step S14), the end check is performed (step S25), and the process returns to the camera input.
抽出できた場合は(ステップS14、Yes)、その対象オブジェクト画像をオブジェクト保存部5に保存する(ステップS15)。次に、オブジェクト抽出部21で器具オブジェクトを抽出する(ステップS16)。器具オブジェクトが抽出できた場合は(ステップS17、Yes)、器具オブジェクト画像が保存済みかをチェックして未保存であれば(ステップS18、No)、器具オブジェクト画像をオブジェクト保存部5に保存する(ステップS19)。 If it can be extracted (step S14, Yes), the target object image is stored in the object storage unit 5 (step S15). Next, an appliance object is extracted by the object extraction unit 21 (step S16). If the appliance object can be extracted (step S17, Yes), it is checked whether the appliance object image has been saved, and if not saved (step S18, No), the appliance object image is saved in the object storage unit 5 (step S18, No). Step S19).
さらに、対象オブジェクトと器具オブジェクトの位置関係をオブジェクト位置関係抽出部23で抽出する(ステップS20)。そして、対象オブジェクトと器具オブジェクトは上で抽出された位置関係に従って、合成画像生成部6で両者を合成し、指示情報についても合成する(ステップS21)。
Further, the positional relationship between the target object and the appliance object is extracted by the object positional relationship extraction unit 23 (step S20). And according to the positional relationship extracted above, a target object and an instrument object synthesize | combine both by the synthetic | combination
もし、器具オブジェクトが抽出されていない場合は(ステップS17、No)、対象オブジェクトと指示情報のみを合成画像生成部6で合成する(ステップS21)。次は、合成画像の投影位置を投影位置決定部10で決定し(ステップS22)、投影位置から投影画像の色補正を色補正部25で行い(ステップS23)、合成画像を投影する(ステップS24)。 If the appliance object has not been extracted (No at Step S17), only the target object and the instruction information are synthesized by the synthesized image generation unit 6 (Step S21). Next, the projection position of the composite image is determined by the projection position determination unit 10 (step S22), the color correction of the projection image is performed from the projection position by the color correction unit 25 (step S23), and the composite image is projected (step S24). ).
本実施形態によれば、器具オブジェクトも合成画像として投影するので、操作者は、対象オブジェクトと器具オブジェクトの位置関係を確認できるので、より精度の高い確認が可能となる。 According to the present embodiment, since the instrument object is also projected as a composite image, the operator can confirm the positional relationship between the target object and the instrument object, so that confirmation with higher accuracy is possible.
図12は、器具オブジェクト28が合成されている投影画像29のイメージを示す図である。色補正とは、投影位置のカメラ入力画像から取得できる色成分を投影画像する画像の色成分から引いてから投影することで、原色に近くなるようにすることである。
FIG. 12 is a diagram showing an image of the
投影位置の色成分を引いてから合成画像を投影するので、合成画像の色が原色に近くなり、操作者は、対象/器具オブジェクト、操作指示や補助情報等の確認が、より正確に行える。 Since the composite image is projected after subtracting the color component at the projection position, the color of the composite image becomes close to the primary color, and the operator can check the target / appliance object, the operation instruction, auxiliary information, and the like more accurately.
オブジェクト画像の保存は、必ずしもオブジェクト抽出と連動する必要はない。オブジェクトとして抽出できても、オブジェクト画像は、操作者の手によって一部隠れていたりする場合がありうる。それをそのまま、対象オブジェクト画像として保存してしまうと合成される画像自体も一部が隠れてしまったような画像になりうる。したがって、オブジェクト抽出ができて、なおかつ、オブジェクト全体の画像が全部見えている、もしくは隠れている部分が直前のオブジェクト保存画像から復元できるような画像の時にのみ保存するのがよい。 Saving an object image does not necessarily have to be linked with object extraction. Even if it can be extracted as an object, the object image may be partially hidden by the operator's hand. If it is stored as the target object image as it is, the synthesized image itself can be an image in which a part is hidden. Therefore, it is preferable to store the image only when the object can be extracted and the entire image of the object can be seen or hidden can be restored from the immediately preceding object storage image.
さらに、対象オブジェクトの表面で変化があった部分のみを差し替えるなども考えられる。そうすれば、操作者の手で一部隠されていたとしても、オブジェクトに変化があった部分については最新の状態に更新が可能となる。対象オブジェクト画像は適宜更新されるので、最新の加工が入った状態で対象オブジェクトは確認できる。 Furthermore, it is also conceivable to replace only the part that has changed on the surface of the target object. By doing so, even if the object is partially hidden by the operator, it is possible to update the part where the object has changed to the latest state. Since the target object image is updated as appropriate, the target object can be confirmed with the latest processing.
器具オブジェクト28については、操作中は握りつづけられている可能性が高いので、器具オブジェクト28の完全な画像が取得できない可能性がある。そこで、操作者が操作に入る前に、器具単体でカメラ7に撮影させてから操作に入るよう、システムが操作者に対して促すようなことも考えられる。
Since the
図13は、第3の実施形態に係る情報表示装置の構成を示す図である。オブジェクト抽出から投影画像の生成処理量が大きくなるので、操作者側では、カメラ7とプロジェクタ8のみで構成し、それ以外の処理を外部のサーバに任せる構成が考えられる。ネットワーク27を介して操作者側と指示側がつながっており、操作者側からカメラ画像を指示側へ送信し、指示側で一連のオブジェクト抽出から合成画像の生成、投影位置の決定、色補正までを行って、投影画像を操作者側へ送り返し、操作者側のプロジェクタ8によって投影を行う。指示側は、ディスプレイ31やUI1を備えており、場合によっては、人が介在して指示を与えるようなことも考えられる。
FIG. 13 is a diagram illustrating a configuration of an information display device according to the third embodiment. Since the amount of projection image generation processing increases from object extraction, it is conceivable that the operator side is configured only by the
情報表示装置の操作者側は、UI1とCPU2とメモリ3とカメラ7とプロジェクタ8と画像符号化器32と画像復号化器33と外部IF26とを含んで構成される。
The operator side of the information display device includes a
情報表示装置の指示側は、UI1とCPU2とメモリ3とオブジェクト抽出部21とオブジェクト辞書22と合成画像生成部6とHDD13と外部IF26とディスプレイ31と操作指示辞書24と投影位置決定部10と色補正部25と画像符号化器34と画像復号化器35とを含んで構成される。
The instruction side of the information display device includes UI1, CPU2,
本実施形態の新規な要素は、画像符号化器32,34と画像復号化器33,35である。第1および第2の実施形態と同一の構成要件は、同一の符号を付して説明を省略する。
New elements of this embodiment are
画像符号化器32,34は、操作者側が、カメラ画像を圧縮して指示側へ送るための符号化器であり、指示側は合成画像を操作者側へ送るための符号化器である。画像復号化器33,35は、操作者側が、指示側から送られてきた投影画像を復号して投影するための復号化器であり、指示側は、オブジェクトを抽出するために操作者側から送られてくるカメラ画像を復号する復号化器である。 The image encoders 32 and 34 are encoders for the operator side to compress the camera image and send it to the instruction side, and the instruction side is an encoder for sending the composite image to the operator side. The image decoders 33 and 35 are decoders for the operator side to decode and project the projection image sent from the instruction side, and the instruction side from the operator side to extract an object. It is a decoder that decodes a camera image that is sent.
図14は、第3の実施形態における操作者側のフロー図である。カメラ7から画像を取得する(ステップS31)。画像符号化器32で撮影画像を符号化する(ステップS32)。撮影画像を指示側に送信し(ステップS33)、投影画像を指示側から受信する(ステップS34)。画像復号化器33で撮影画像を復号し(ステップS35)、投影する(ステップS36)。終了チェックをして(ステップS37)、カメラ入力に戻る。 FIG. 14 is a flowchart on the operator side in the third embodiment. An image is acquired from the camera 7 (step S31). The captured image is encoded by the image encoder 32 (step S32). The captured image is transmitted to the instruction side (step S33), and the projection image is received from the instruction side (step S34). The captured image is decoded by the image decoder 33 (step S35) and projected (step S36). An end check is performed (step S37), and the process returns to camera input.
図15は、第3の実施形態における指示側のフロー図である。始めに、当該手順に関する指示情報を取得する(ステップS41)。 FIG. 15 is a flowchart of the instruction side in the third embodiment. First, instruction information related to the procedure is acquired (step S41).
そして、撮影画像を受信/復号し(ステップS42)、オブジェクト抽出部21で対象オブジェクトを抽出する(ステップS43)。対象オブジェクトが抽出できなければ(ステップS44、No)、終了チェックをして(ステップS55)、カメラ入力に戻る。
The photographed image is received / decoded (step S42), and the
抽出できた場合は(ステップS44、Yes)、その対象オブジェクト画像をオブジェクト保存部5に保存する(ステップS45)。次に、オブジェクト抽出部21で器具オブジェクトを抽出する(ステップS46)。器具オブジェクトが抽出できた場合は(ステップS47、Yes)、器具オブジェクト画像が保存済みかをチェックして未保存であれば(ステップS48、No)、器具オブジェクト画像をオブジェクト保存部5に保存する(ステップS49)。 If it can be extracted (step S44, Yes), the target object image is stored in the object storage unit 5 (step S45). Next, an appliance object is extracted by the object extraction unit 21 (step S46). If the appliance object can be extracted (step S47, Yes), it is checked whether the appliance object image has been saved, and if not saved (step S48, No), the appliance object image is saved in the object storage unit 5 (step S48, No). Step S49).
さらに、対象オブジェクトと器具オブジェクトの位置関係をオブジェクト位置関係抽出部23で抽出する(ステップS50)。そして、対象オブジェクトと器具オブジェクトは上で抽出された位置関係に従って、合成画像生成部6で両者を合成し、指示情報についても合成する(ステップS51)。
Furthermore, the positional relationship between the target object and the appliance object is extracted by the object positional relationship extraction unit 23 (step S50). Then, in accordance with the positional relationship extracted above, the target object and the appliance object are combined by the combined
もし、器具オブジェクトが抽出されていない場合は(ステップS47、No)、対象オブジェクトと指示情報のみを合成画像生成部6で合成する(ステップS51)。次は、合成画像の投影位置を投影位置決定部10で決定し(ステップS52)、投影位置から投影画像の色補正を色補正部25で行い(ステップS53)、合成画像を投影する(ステップS54)。
If the appliance object has not been extracted (No at Step S47), only the target object and the instruction information are synthesized by the synthesized image generation unit 6 (Step S51). Next, the projection position of the composite image is determined by the projection position determination unit 10 (step S52), the color correction of the projection image is performed by the
本実施形態によれば、計算性能の低い端末(操作者側)であっても、処理量の大きな処理を外部のサーバ側にて計算を実施することで、端末の性能制約に限定されることなく処理を実施できるので、より正確な指示を提示できる。 According to the present embodiment, even a terminal with low calculation performance (operator side) is limited to terminal performance constraints by performing calculations with a large processing amount on the external server side. More accurate instructions can be presented.
4 対象オブジェクト抽出部
5 オブジェクト保存部
6 合成画像生成部
7 カメラ
8 プロジェクタ
10 投影位置決定部
16 対象オブジェクト
19 合成画像
23 オブジェクト位置関係抽出部
25 色補正部
28 器具オブジェクト
DESCRIPTION OF
Claims (8)
前記カメラ画像から前記対象オブジェクト画像を抽出するオブジェクト抽出手段と、
前記抽出された対象オブジェクトを保存するオブジェクト画像保存手段と、
前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成する合成画像生成手段と、
前記プロジェクタの投影面内の前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示する合成画像表示手段と、
を有することを特徴とする情報表示装置。 An information display device that analyzes an image captured by a camera, detects a predetermined target object, and projects some operation instruction or auxiliary information on the target object by a projector,
Object extraction means for extracting the target object image from the camera image;
Object image storage means for storing the extracted target object;
A synthesized image generating means for synthesizing the stored target object image and the projection image of the operation instruction and auxiliary information;
Composite image display means for displaying the composite image at a location different from the position where the operation instructions and auxiliary information are projected on the projection plane of the projector;
An information display device comprising:
前記カメラ画像から前記器具オブジェクトと前記対象オブジェクトの位置関係を取得するオブジェクト位置関係取得手段と、
前記対象オブジェクトと前記器具オブジェクトおよび前記操作指示や補助情報の投影画像を合成する前記合成画像生成手段と、
を有することを特徴とする請求項1記載の情報表示装置。 The object image storage means for extracting and storing an appliance object handled by an operator from the camera image;
Object positional relationship acquisition means for acquiring a positional relationship between the instrument object and the target object from the camera image;
The synthesized image generating means for synthesizing the target object, the appliance object, and a projection image of the operation instruction and auxiliary information;
The information display device according to claim 1, further comprising:
前記オブジェクト抽出手段、前記オブジェクト画像保存手段、前記合成画像生成手段、前記オブジェクト位置関係取得手段、前記投影位置決定手段、前記色補正手段を有するサーバ機とを備え、
両者がネットワークで接続されていることを特徴とする請求項1から5のいずれか1項に記載の情報表示装置。 A client machine having the camera, the projector, and the composite image display means;
A server machine having the object extraction means, the object image storage means, the composite image generation means, the object positional relationship acquisition means, the projection position determination means, and the color correction means;
The information display device according to claim 1, wherein the two are connected via a network.
前記カメラ画像から前記対象オブジェクト画像を抽出するステップと、
前記抽出された対象オブジェクトを保存するステップと、
前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成するステップと、
前記プロジェクタの投影面内の、前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示するステップと、
をコンピュータに実行させることを特徴とするプログラム。 Analyzing a camera-captured image, detecting a predetermined target object, and projecting any operation instruction or auxiliary information to the target object with a projector;
Extracting the target object image from the camera image;
Storing the extracted target object;
Combining the stored target object image with the projection image of the operation instruction and auxiliary information;
Displaying the composite image at a location different from the position where the operation instructions and auxiliary information are projected within the projection plane of the projector;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012126130A JP2013250479A (en) | 2012-06-01 | 2012-06-01 | Information display device, program, and information display recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012126130A JP2013250479A (en) | 2012-06-01 | 2012-06-01 | Information display device, program, and information display recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013250479A true JP2013250479A (en) | 2013-12-12 |
Family
ID=49849208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012126130A Pending JP2013250479A (en) | 2012-06-01 | 2012-06-01 | Information display device, program, and information display recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013250479A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016084151A1 (en) * | 2014-11-26 | 2016-06-02 | 三菱電機エンジニアリング株式会社 | Operation support system, operation support device and operation support method |
JP2018165973A (en) * | 2017-03-28 | 2018-10-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Display device, display method, and program |
-
2012
- 2012-06-01 JP JP2012126130A patent/JP2013250479A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016084151A1 (en) * | 2014-11-26 | 2016-06-02 | 三菱電機エンジニアリング株式会社 | Operation support system, operation support device and operation support method |
JPWO2016084151A1 (en) * | 2014-11-26 | 2017-04-27 | 三菱電機エンジニアリング株式会社 | Work support system, work support device, and work support method |
EP3226090A4 (en) * | 2014-11-26 | 2018-07-25 | Mitsubishi Electric Engineering Company, Limited | Operation support system, operation support device and operation support method |
JP2018165973A (en) * | 2017-03-28 | 2018-10-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Display device, display method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107026973B (en) | Image processing device, image processing method and photographic auxiliary equipment | |
JP6573755B2 (en) | Display control method, information processing program, and information processing apparatus | |
JP7441926B2 (en) | Computer program that performs video coding | |
JP6582626B2 (en) | Transmission control method, display terminal, and transmission control program | |
CN103491327A (en) | Projection type image display apparatus, image projecting method, and computer program | |
JP5177154B2 (en) | Standard work execution support device and standard work execution support method | |
WO2015142971A1 (en) | Receiver-controlled panoramic view video share | |
JP2009094867A (en) | Information processing apparatus, remote indication system, and control program | |
JP2017162103A (en) | Inspection work support system, inspection work support method, and inspection work support program | |
JP2009169768A (en) | Information processor and program | |
KR20130056529A (en) | Apparatus and method for providing augmented reality service in portable terminal | |
JP2011023814A (en) | Imaging apparatus | |
JP2015153302A (en) | Display controller, display control method and recording medium | |
JP2020149142A (en) | Work support system, work support method, and program | |
WO2016152200A1 (en) | Information processing system and information processing method | |
JP6108925B2 (en) | Imaging device, focus adjustment system, focus instruction device, focus adjustment method, and program | |
US10283005B2 (en) | Image display method and apparatus | |
JP2013250479A (en) | Information display device, program, and information display recording medium | |
JP2016500959A (en) | Method and system for image capture and easy annotation | |
JP7234718B2 (en) | Information processing device, information processing system and program | |
EP2800349B1 (en) | Method and electronic device for generating thumbnail image | |
JP6364721B2 (en) | Image processing program | |
JP4568121B2 (en) | Remote work support system, remote work support method and program | |
CN115280408A (en) | Image display device and image display method | |
JP6579925B2 (en) | Image reproducing apparatus, control method therefor, program, and recording medium |