[go: up one dir, main page]

JP2013250479A - Information display device, program, and information display recording medium - Google Patents

Information display device, program, and information display recording medium Download PDF

Info

Publication number
JP2013250479A
JP2013250479A JP2012126130A JP2012126130A JP2013250479A JP 2013250479 A JP2013250479 A JP 2013250479A JP 2012126130 A JP2012126130 A JP 2012126130A JP 2012126130 A JP2012126130 A JP 2012126130A JP 2013250479 A JP2013250479 A JP 2013250479A
Authority
JP
Japan
Prior art keywords
image
target object
camera
projection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012126130A
Other languages
Japanese (ja)
Inventor
Hiroshi Shimura
浩 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012126130A priority Critical patent/JP2013250479A/en
Publication of JP2013250479A publication Critical patent/JP2013250479A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display device such that an instruction can be confirmed without interrupting an operation.SOLUTION: There is provided an information display device which analyzes an image photographed by a camera 7 to detect a predetermined target object 16, and projects some operation instruction and auxiliary information for the target object 16 by a projector 8, the information display device including object extracting means 4 of extracting a target object image from the camera image, object image saving means 5 of saving the extracted target object 16, composite image generating means 6 of putting a projection image of the operation instruction and auxiliary information together with the saved target object image, and composite image display means of displaying the composite image 19 at a different place from the position on a projection screen of the projector 8 where the operation instruction and auxiliary information are displayed.

Description

本発明は、表示画面上に投影された投影画像と、投影画像を合成した合成画像を表示させる情報表示装置、プログラムおよび情報記録媒体に関する。   The present invention relates to an information display device, a program, and an information recording medium for displaying a projected image projected on a display screen and a synthesized image obtained by synthesizing the projected image.

カメラとプロジェクタを組み合わせて、カメラにて状況を捉えて、プロジェクタにて何らかの指示を出すことが考えられている。   It is considered to combine a camera and a projector, capture the situation with the camera, and issue some instruction with the projector.

例えば、料理で魚を3枚におろす際に、カメラで取得した画像から、魚オブジェクトを抽出し、料理に関する知識ベースからその切るべき位置を検索して、魚の上に切るべき指示線を投影する。操作者はその指示線に従って切れ目を入れるので、本人に知識がなくても、操作が可能となる。   For example, when dropping three fish in a dish, a fish object is extracted from an image acquired by a camera, a position to be cut is searched from a knowledge base on cooking, and an instruction line to be cut on the fish is projected. . Since the operator cuts according to the instruction line, the operation can be performed without knowledge of the user.

また、遠隔地より指導者がカメラの映像を見ながら、切れ目のような指示線や注意すべき部分などの情報を入力して、操作者に対してプロジェクタにて投影することで目と、音声にて指示するようなシステムも考えられている。   In addition, while viewing the camera image from a remote location, the instructor inputs information such as cut lines and parts to watch out for, and projects them to the operator with a projector. There is also a system that gives instructions in

また、特許文献1には、画像投影面とユーザが書き込む書込み面とが同一画面上に配することで操作性が高められ、且つ安価な投影型表示装置が開示されている。   Further, Patent Document 1 discloses a projection display device that is improved in operability by arranging an image projection surface and a writing surface written by a user on the same screen, and is inexpensive.

操作者は、作業に取り掛かる前は、操作対象物(以下、対象オブジェクトと称する。)から離れていると考えられるので、指示線などの投影画像をよく認識できる。   Since the operator is assumed to be away from the operation target (hereinafter referred to as a target object) before starting work, the operator can recognize the projection image such as the instruction line well.

しかし、従来技術や特許文献1に開示されている技術では、一旦実際の作業に入ると、自分の手などの影に邪魔されて、投影されている画像を見失ってしまう場合がある。確認のためには、いちいち作業をとめる必要があるが、それは、面倒なだけではなく、料理や医療の場面では操作の早さが重要なので、いちいち作業を中断することはできない問題があった。   However, with the prior art and the technique disclosed in Patent Document 1, once the actual work is started, the projected image may be lost due to being disturbed by the shadow of one's hand or the like. For confirmation, it is necessary to stop the work one by one, but this is not only cumbersome, but also because there is a problem that the speed of operation is important in cooking and medical situations, so the work cannot be interrupted one by one.

本発明は、前記課題を解決するためのものであり、その目的とするところは、作業を中断することなく、指示が確認できる情報表示装置を提供することにある。   The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide an information display device capable of confirming an instruction without interrupting work.

かかる目的を達成するために、本発明は、以下の特徴を有する。   In order to achieve this object, the present invention has the following features.

本発明に係る情報表示装置は、カメラ撮影した画像を解析して、所定の対象オブジェクトを検出して、該対象オブジェクトに対して、何らかの操作指示や補助情報をプロジェクタにて投影する情報表示装置であって、前記カメラ画像から前記対象オブジェクト画像を抽出するオブジェクト抽出手段と、前記抽出された対象オブジェクトを保存するオブジェクト画像保存手段と、前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成する合成画像生成手段と、前記プロジェクタの投影面内の前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示する合成画像表示手段と、を有することを特徴とする。   An information display device according to the present invention is an information display device that analyzes an image captured by a camera, detects a predetermined target object, and projects some operation instruction or auxiliary information to the target object by a projector. An object extracting unit for extracting the target object image from the camera image, an object image storing unit for storing the extracted target object, the stored target object image, the operation instruction and auxiliary information. A composite image generation unit configured to combine the projection image; and a composite image display unit configured to display the composite image at a location different from a position where the operation instruction or auxiliary information is projected within the projection plane of the projector. It is characterized by that.

本発明によれば、操作指示や補助情報を、指示線などを投影している場所と別の場所に、対象オブジェクト画像と投影画像を合成した画像として投影するので、操作者は、自分の手などの影で、本来の操作指示や補助情報が見えなくなったとしても、投影されている合成画像を脇目で確認しながら操作を進めることが可能となる。   According to the present invention, the operation instruction and the auxiliary information are projected as an image obtained by synthesizing the target object image and the projection image at a place different from the place where the instruction line or the like is projected. Even if the original operation instruction or auxiliary information becomes invisible due to a shadow such as, it is possible to proceed with the operation while confirming the projected composite image with the side eyes.

第1の実施形態に係る情報表示装置の構成を示す図である。It is a figure which shows the structure of the information display apparatus which concerns on 1st Embodiment. 第1の実施形態における処理フロー図である。It is a processing flow figure in a 1st embodiment. 指示情報の例を示す図である。It is a figure which shows the example of instruction information. 操作補助システムの概略図である。It is the schematic of an operation assistance system. 始めの操作者の視界を示す図である。It is a figure which shows the visual field of the first operator. 投影した指示線の画像を示す図である。It is a figure which shows the image of the projected instruction | indication line. 指示線を投影した時の操作者の視界を示す図である。It is a figure which shows an operator's visual field when an instruction line is projected. 本実施形態の投影画像を示す図である。It is a figure which shows the projection image of this embodiment. 合成画像を投影した時の操作者の視界を示す図である。It is a figure which shows an operator's visual field at the time of projecting a synthesized image. 第2の実施形態に係る情報表示装置の構成を示す図である。It is a figure which shows the structure of the information display apparatus which concerns on 2nd Embodiment. 第2の実施形態における処理フロー図である。It is a processing flow figure in a 2nd embodiment. 器具オブジェクトが合成されている投影画像のイメージを示す図である。It is a figure which shows the image of the projection image with which the instrument object was synthesize | combined. 第3の実施形態に係る情報表示装置の構成を示す図である。It is a figure which shows the structure of the information display apparatus which concerns on 3rd Embodiment. 第3の実施形態における操作者側のフロー図である。It is a flowchart by the side of the operator in 3rd Embodiment. 第3の実施形態における指示側のフロー図である。It is a flowchart of the instruction | indication side in 3rd Embodiment.

以下、本実施形態について図面により詳細に説明する。   Hereinafter, the present embodiment will be described in detail with reference to the drawings.

図1は、第1の実施形態に係る情報表示装置の構成を示す図である。情報表示装置は、UI1とCPU2とメモリ3と対象オブジェクト抽出部4とオブジェクト保存部5と合成画像生成部6とカメラ7とプロジェクタ8と操作指示保持部9と投影位置決定部10とマイク11とスピーカ12とHDD13とを含んで構成される。   FIG. 1 is a diagram illustrating the configuration of the information display device according to the first embodiment. The information display device includes a UI 1, a CPU 2, a memory 3, a target object extraction unit 4, an object storage unit 5, a composite image generation unit 6, a camera 7, a projector 8, an operation instruction holding unit 9, a projection position determination unit 10, and a microphone 11. The speaker 12 and the HDD 13 are included.

UI1は、ユーザインターフェース部で操作者の指示を入力する部分である。操作者は手が空かない場合もありうるので、マイク11にて操作者の声を入力して音声認識を利用した入力なども考えられる。ユーザは、指示・補助を受けたい「操作メニュー」を選択する入力なども考えられる。所定の操作の専用システムであれば、そのような選択メニューは不要である。   The UI 1 is a part for inputting an operator's instruction in the user interface unit. Since the operator may be out of hand, an input using voice recognition by inputting the voice of the operator with the microphone 11 is also conceivable. The user may consider an input for selecting an “operation menu” for which instruction / assistance is desired. In the case of a dedicated system for a predetermined operation, such a selection menu is unnecessary.

CPU2は、システム全体を制御する部分である。メモリ3は、プログラムや一時的な計算用のワークバッファなどに利用される。カメラ7から入力された画像信号なども一旦ここに入る。   The CPU 2 is a part that controls the entire system. The memory 3 is used as a program, a temporary work buffer, and the like. An image signal or the like input from the camera 7 once enters here.

対象オブジェクト抽出部4は、カメラ7から入力されたメモリ3上の画像信号を解析して、操作対象の物体抽出を行う。オブジェクト保存部5は、対象オブジェクト抽出部4にて抽出された対象オブジェクト画像を保存する。カメラ画像から入力された画像がメモリ3に一旦入り、そこでオブジェクトが抽出される。抽出できたら、そのメモリ3からオブジェクト部の画像を、別の保存用メモリやHDD13に保存する。   The target object extraction unit 4 analyzes the image signal on the memory 3 input from the camera 7 and extracts an operation target object. The object storage unit 5 stores the target object image extracted by the target object extraction unit 4. An image input from the camera image once enters the memory 3, where an object is extracted. After the extraction, the image of the object part is stored in another storage memory or HDD 13 from the memory 3.

合成画像生成部6は、保存されている対象オブジェクト画像と操作指示に関する情報(切り込みの補助線など)を合成画像にしてメモリ3に保存する。   The composite image generation unit 6 stores the stored target object image and information on operation instructions (such as a cutting auxiliary line) in the memory 3 as a composite image.

カメラ7は画像入力装置である。プロジェクタ8は投影装置である。対象オブジェクト上に操作指示を映し出すと同時に合成画像生成部6が作り出す合成画像を投影位置決定部10が決めた位置に映す。   The camera 7 is an image input device. The projector 8 is a projection device. The operation instruction is projected on the target object, and at the same time, the composite image created by the composite image generation unit 6 is projected at the position determined by the projection position determination unit 10.

操作指示保持部9は、ユーザに対してどのような操作指示や補助情報を投影するかを保持しておく。保存デバイスとしては、メモリ3やHDD13であるが明示的に示した。投影位置決定部10は、合成画像を投影する位置を決定する。例えば、画面の右上と決めておくことなどである。   The operation instruction holding unit 9 holds what operation instructions and auxiliary information are projected to the user. As the storage device, the memory 3 and the HDD 13 are explicitly shown. The projection position determination unit 10 determines a position where the composite image is projected. For example, deciding the upper right corner of the screen.

マイク11は、操作者の声を入力し、音声認識装置を付属している。スピーカ12は、操作者に対して、音声による指示を出す。HDD13は記憶装置である。   The microphone 11 inputs an operator's voice and is attached with a voice recognition device. The speaker 12 issues a voice instruction to the operator. The HDD 13 is a storage device.

図2は、第1の実施形態における処理フロー図である。カメラ7から画像を入力し(ステップS1)、その画像から対象オブジェクト抽出部4で対象オブジェクトを抽出する(ステップS2)。   FIG. 2 is a processing flow diagram according to the first embodiment. An image is input from the camera 7 (step S1), and the target object is extracted from the image by the target object extraction unit 4 (step S2).

対象オブジェクトを抽出できた場合は(ステップS3、Yes)、対象オブジェクト画像をオブジェクト保存部5に保存し(ステップS4)、操作指示情報と対象オブジェクト画像を合成画像生成部6で合成して(ステップS5)、合成画像を投影する(ステップS6)。対象オブジェクトが抽出できなかった場合は(ステップS3、No)、終了チェックをして(ステップS7)、カメラからの画像入力に戻る。   When the target object can be extracted (step S3, Yes), the target object image is stored in the object storage unit 5 (step S4), and the operation instruction information and the target object image are combined by the composite image generation unit 6 (step S4). S5) A composite image is projected (step S6). If the target object could not be extracted (step S3, No), an end check is performed (step S7), and the process returns to image input from the camera.

画像からのオブジェクト抽出は、既に多くの技術が提案されており、OSS(オープンソースソフトウエア)などでの提供もある。指示情報は、対象オブジェクトのどの位置にどのような図形や文字を記載するかを保持しており、その情報によって、対象オブジェクトと操作指示情報の合成を行う。   Many techniques have already been proposed for extracting objects from images, and there are also provisions using OSS (open source software) and the like. The instruction information holds what figure or character is to be written at which position of the target object, and the target object and the operation instruction information are synthesized based on the information.

図3は、指示情報の例を示す図である。手順は、どの操作段階で提示するものかを示す。指示の属性1は、指示の形態を表している。”Line"は、対象オブジェクトに対する線画像表示による指示を、"Audio"は、音声による指示を、"Text"は、文字表示による指示を表す。属性2はそれぞれの詳細な指示情報である。   FIG. 3 is a diagram illustrating an example of instruction information. The procedure indicates at which operation stage it is presented. An instruction attribute 1 represents an instruction form. “Line” represents an instruction by line image display for the target object, “Audio” represents an instruction by voice, and “Text” represents an instruction by character display. The attribute 2 is each detailed instruction information.

まず、手順1のLineが対象オブジェクトに投影される。また、対象オブジェクト画像とLineが合成されて投影画面の別の位置に投影される。   First, the line in step 1 is projected onto the target object. Also, the target object image and the line are combined and projected onto another position on the projection screen.

図4は、操作補助システムの概略図である。カメラ7とプロジェクタ8が作業台15の上部に位置しており、カメラ7は作業台15の映像を操作補助システム本体14に入力する。操作補助システム本体14は、対象オブジェクト16を抽出し、その上に指示線等をプロジェクタ8にて投影する。操作者17は、対象オブジェクト16上の指示線等を視認できる。また、操作補助システム本体14にマイク11とスピーカ12が接続されている。   FIG. 4 is a schematic diagram of the operation assistance system. The camera 7 and the projector 8 are positioned above the work table 15, and the camera 7 inputs an image of the work table 15 to the operation assisting system main body 14. The operation assisting system main body 14 extracts the target object 16 and projects an instruction line or the like on the target object 16 by the projector 8. The operator 17 can visually recognize an instruction line or the like on the target object 16. Further, a microphone 11 and a speaker 12 are connected to the operation assistance system main body 14.

図5は、始めの操作者17の視界を示す図である。この画像をカメラ7で撮影し、作業台15上の対象オブジェクト16を抽出して、プロジェクタ8にて切り込みのための指示線を投影する。   FIG. 5 is a diagram showing the field of view of the first operator 17. This image is taken by the camera 7, the target object 16 on the work table 15 is extracted, and an instruction line for cutting is projected by the projector 8.

図6は、投影した指示線18の画像を示す図である。作業台15上に指示線が投影されていることが確認できる。   FIG. 6 is a diagram showing an image of the projected instruction line 18. It can be confirmed that the instruction line is projected on the work table 15.

図7は、指示線18を投影した時の操作者17の視界を示す図である。操作者17の視界で、対象オブジェクト16上に指示線18が載っていることが確認できる。   FIG. 7 is a diagram illustrating the field of view of the operator 17 when the instruction line 18 is projected. In the field of view of the operator 17, it can be confirmed that the instruction line 18 is placed on the target object 16.

図8は本発明の投影画像19を示す図である。図6で示した指示線18以外に、対象オブジェクトと指示線と文字画像「切り終えたら「次」と指示ください」との合成画像19を画面の右上に投影している。   FIG. 8 is a diagram showing a projected image 19 of the present invention. In addition to the instruction line 18 shown in FIG. 6, a composite image 19 of the target object, the instruction line, and the character image “Please indicate“ next ”when cut” is projected on the upper right of the screen.

図9は、合成画像19を投影した時の操作者17の視界を示す図である。指示線18が載っている対象オブジェクト16の右上に合成画像19が投影されている。   FIG. 9 is a diagram illustrating the field of view of the operator 17 when the composite image 19 is projected. A composite image 19 is projected on the upper right of the target object 16 on which the instruction line 18 is placed.

図3の説明に戻って、属性1のAudioは、スピーカ12を通して音声指示を与える。この例では、手順1の時に、「補助線に沿って切り込みを入れてください」、手順2の時は、「裏返してください」である。また、属性1のTextは、Lineと同様、文字画像「切り終えたら「次」と指示ください」をオブジェクト画像の近辺に投影する。操作者17が、「次」と発声すると、システムは、マイク11を介して音声認識により、手順1が終了したことを知り、手順2の指示に移る。   Returning to the description of FIG. 3, Audio of attribute 1 gives a voice instruction through the speaker 12. In this example, “Please cut along the auxiliary line” at the time of step 1, and “Turn it over” at the time of step 2. Similarly to Line, Text of attribute 1 projects a character image “Please indicate“ next ”when cut” to the vicinity of the object image. When the operator 17 utters “next”, the system knows that the procedure 1 has been completed by voice recognition via the microphone 11, and moves to the procedure 2 instruction.

この例では、操作者17が発声することで手順終了を検出しているが、対象オブジェクト16の状態によって自動で判定することも考えられる。   In this example, the end of the procedure is detected by the operator 17 uttering, but it is also conceivable to determine automatically based on the state of the target object 16.

本実施形態によれば、操作指示や補助情報等を、別の場所に、対象オブジェクト画像と投影画像を合成した画像として投影するので、操作者は、自分の手などの影で、本来の操作指示や補助情報が見えなくなったとしても、投影されている合成画像を脇目で確認しながら操作を進めることが可能となる。   According to the present embodiment, the operation instruction, auxiliary information, and the like are projected on another place as a composite image of the target object image and the projection image, so that the operator can perform the original operation with the shadow of his / her hand or the like. Even if the instruction or the auxiliary information becomes invisible, the operation can be performed while confirming the projected composite image with the side eyes.

図10は、第2の実施形態に係る情報表示装置の構成を示す図である。第1の実施形態と同一の構成要件は同一の符号を付して説明を省略する。   FIG. 10 is a diagram illustrating a configuration of an information display device according to the second embodiment. The same constituent elements as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

情報表示装置は、UI1とCPU2とメモリ3とオブジェクト抽出部21とオブジェクト辞書22とオブジェクト保存部5とオブジェクト位置関係抽出部23と合成画像生成部6とカメラ7とプロジェクタ8と操作指示辞書24と投影位置決定部10と色補正部25とHDD13と外部IF26とを含んで構成される。   The information display device includes a UI 1, a CPU 2, a memory 3, an object extraction unit 21, an object dictionary 22, an object storage unit 5, an object positional relationship extraction unit 23, a composite image generation unit 6, a camera 7, a projector 8, and an operation instruction dictionary 24. The projection position determination unit 10, the color correction unit 25, the HDD 13, and the external IF 26 are configured.

オブジェクト抽出部21は、カメラ7から入力されたメモリ3上の画像信号を解析して、物体抽出を行う。何を抽出するかは、選択された「操作メニュー」に従って決定され、その特徴量はオブジェクト辞書より読み込む。   The object extraction unit 21 analyzes the image signal on the memory 3 input from the camera 7 and performs object extraction. What is extracted is determined according to the selected “operation menu”, and the feature amount is read from the object dictionary.

オブジェクト辞書22は、対象オブジェクトや器具オブジェクトの特徴量を保存しておく。保存デバイスとしては、メモリ3やHDD13であるが明示的に示した。   The object dictionary 22 stores feature quantities of target objects and appliance objects. As the storage device, the memory 3 and the HDD 13 are explicitly shown.

オブジェクト保存部5は、オブジェクト抽出部にて抽出された対象オブジェクトや器具オブジェクトの画像を保存する。カメラ画像から入力された画像がメモリ3に一旦入り、そこでオブジェクトが抽出される。抽出できたら、そのメモリ3からオブジェクト部の画像を別の保存用メモリ3やHDD13に保存する。   The object storage unit 5 stores images of target objects and appliance objects extracted by the object extraction unit. An image input from the camera image once enters the memory 3, where an object is extracted. After the extraction, the image of the object portion is stored in another storage memory 3 or HDD 13 from the memory 3.

オブジェクト位置関係抽出部23は、抽出された対象オブジェクトと器具オブジェクトの位置関係を抽出する。対象オブジェクトの検出位置と器具オブジェクトの検出位置から相対的な位置関係を抽出する。   The object positional relationship extraction unit 23 extracts the positional relationship between the extracted target object and the appliance object. A relative positional relationship is extracted from the detection position of the target object and the detection position of the instrument object.

合成画像生成部6は、保存されているオブジェクト画像と抽出されたオブジェクト位置関係を保持するようにオブジェクト画像を合成し、さらに、操作指示に関する情報(切り込みの補助線など)を合成してメモリ3に保存する。   The synthesized image generating unit 6 synthesizes the object image so as to maintain the extracted object positional relationship with the stored object image, and further synthesizes information related to the operation instruction (such as an auxiliary cutting line) to store the memory 3. Save to.

操作指示辞書24は、選択された「操作メニュー」に従って決定される。ユーザに対してどのような操作指示や補助情報を投影するかを保存しておく。保存デバイスとしてはメモリ3やHDD13であるが明示的に示した。   The operation instruction dictionary 24 is determined according to the selected “operation menu”. It stores what operation instructions and auxiliary information are projected to the user. The storage devices are the memory 3 and the HDD 13 but are explicitly shown.

投影位置決定部10は、合成画像を投影する位置を決定する。抽出された対象オブジェクトの位置を避けた位置にする。さらに、例えば、操作者の位置も抽出して、対象オブジェクトの位置と操作者の位置を結ぶ線以外で、なるべく白い面を選択するなどである。   The projection position determination unit 10 determines a position where the composite image is projected. The position of the extracted target object is avoided. Further, for example, the operator's position is also extracted, and a white surface as much as possible is selected other than the line connecting the position of the target object and the operator's position.

色補正部25は、カメラ7から合成画像を投影する位置の画像を取得して、合成画像を投影した場合に元の色に近づくように、補正を行う。外部IF26は、ネットワーク27に接続されている。   The color correction unit 25 acquires an image at a position where the composite image is projected from the camera 7 and performs correction so as to approach the original color when the composite image is projected. The external IF 26 is connected to the network 27.

図11は、第2の実施形態における処理フロー図である。このフローは、図3での1つの手順に対してのフローである。始めに、当該手順に関する指示情報を取得する(ステップS11)。そして、カメラ7から画像を取得して(ステップS12)、オブジェクト抽出部21で対象オブジェクトを抽出する(ステップS13)。対象オブジェクトが抽出できなければ(ステップS14、No)、終了チェックをして(ステップS25)、カメラ入力に戻る。   FIG. 11 is a processing flow diagram according to the second embodiment. This flow is for one procedure in FIG. First, instruction information related to the procedure is acquired (step S11). And an image is acquired from the camera 7 (step S12), and a target object is extracted by the object extraction part 21 (step S13). If the target object cannot be extracted (No in step S14), the end check is performed (step S25), and the process returns to the camera input.

抽出できた場合は(ステップS14、Yes)、その対象オブジェクト画像をオブジェクト保存部5に保存する(ステップS15)。次に、オブジェクト抽出部21で器具オブジェクトを抽出する(ステップS16)。器具オブジェクトが抽出できた場合は(ステップS17、Yes)、器具オブジェクト画像が保存済みかをチェックして未保存であれば(ステップS18、No)、器具オブジェクト画像をオブジェクト保存部5に保存する(ステップS19)。   If it can be extracted (step S14, Yes), the target object image is stored in the object storage unit 5 (step S15). Next, an appliance object is extracted by the object extraction unit 21 (step S16). If the appliance object can be extracted (step S17, Yes), it is checked whether the appliance object image has been saved, and if not saved (step S18, No), the appliance object image is saved in the object storage unit 5 (step S18, No). Step S19).

さらに、対象オブジェクトと器具オブジェクトの位置関係をオブジェクト位置関係抽出部23で抽出する(ステップS20)。そして、対象オブジェクトと器具オブジェクトは上で抽出された位置関係に従って、合成画像生成部6で両者を合成し、指示情報についても合成する(ステップS21)。   Further, the positional relationship between the target object and the appliance object is extracted by the object positional relationship extraction unit 23 (step S20). And according to the positional relationship extracted above, a target object and an instrument object synthesize | combine both by the synthetic | combination image generation part 6, and also synthesize | combine instruction information (step S21).

もし、器具オブジェクトが抽出されていない場合は(ステップS17、No)、対象オブジェクトと指示情報のみを合成画像生成部6で合成する(ステップS21)。次は、合成画像の投影位置を投影位置決定部10で決定し(ステップS22)、投影位置から投影画像の色補正を色補正部25で行い(ステップS23)、合成画像を投影する(ステップS24)。   If the appliance object has not been extracted (No at Step S17), only the target object and the instruction information are synthesized by the synthesized image generation unit 6 (Step S21). Next, the projection position of the composite image is determined by the projection position determination unit 10 (step S22), the color correction of the projection image is performed from the projection position by the color correction unit 25 (step S23), and the composite image is projected (step S24). ).

本実施形態によれば、器具オブジェクトも合成画像として投影するので、操作者は、対象オブジェクトと器具オブジェクトの位置関係を確認できるので、より精度の高い確認が可能となる。   According to the present embodiment, since the instrument object is also projected as a composite image, the operator can confirm the positional relationship between the target object and the instrument object, so that confirmation with higher accuracy is possible.

図12は、器具オブジェクト28が合成されている投影画像29のイメージを示す図である。色補正とは、投影位置のカメラ入力画像から取得できる色成分を投影画像する画像の色成分から引いてから投影することで、原色に近くなるようにすることである。   FIG. 12 is a diagram showing an image of the projection image 29 in which the instrument object 28 is synthesized. Color correction is to bring a color component that can be acquired from a camera input image at a projection position from a color component of an image to be projected and then project it so that it is close to the primary color.

投影位置の色成分を引いてから合成画像を投影するので、合成画像の色が原色に近くなり、操作者は、対象/器具オブジェクト、操作指示や補助情報等の確認が、より正確に行える。   Since the composite image is projected after subtracting the color component at the projection position, the color of the composite image becomes close to the primary color, and the operator can check the target / appliance object, the operation instruction, auxiliary information, and the like more accurately.

オブジェクト画像の保存は、必ずしもオブジェクト抽出と連動する必要はない。オブジェクトとして抽出できても、オブジェクト画像は、操作者の手によって一部隠れていたりする場合がありうる。それをそのまま、対象オブジェクト画像として保存してしまうと合成される画像自体も一部が隠れてしまったような画像になりうる。したがって、オブジェクト抽出ができて、なおかつ、オブジェクト全体の画像が全部見えている、もしくは隠れている部分が直前のオブジェクト保存画像から復元できるような画像の時にのみ保存するのがよい。   Saving an object image does not necessarily have to be linked with object extraction. Even if it can be extracted as an object, the object image may be partially hidden by the operator's hand. If it is stored as the target object image as it is, the synthesized image itself can be an image in which a part is hidden. Therefore, it is preferable to store the image only when the object can be extracted and the entire image of the object can be seen or hidden can be restored from the immediately preceding object storage image.

さらに、対象オブジェクトの表面で変化があった部分のみを差し替えるなども考えられる。そうすれば、操作者の手で一部隠されていたとしても、オブジェクトに変化があった部分については最新の状態に更新が可能となる。対象オブジェクト画像は適宜更新されるので、最新の加工が入った状態で対象オブジェクトは確認できる。   Furthermore, it is also conceivable to replace only the part that has changed on the surface of the target object. By doing so, even if the object is partially hidden by the operator, it is possible to update the part where the object has changed to the latest state. Since the target object image is updated as appropriate, the target object can be confirmed with the latest processing.

器具オブジェクト28については、操作中は握りつづけられている可能性が高いので、器具オブジェクト28の完全な画像が取得できない可能性がある。そこで、操作者が操作に入る前に、器具単体でカメラ7に撮影させてから操作に入るよう、システムが操作者に対して促すようなことも考えられる。   Since the instrument object 28 is likely to be held during operation, there is a possibility that a complete image of the instrument object 28 cannot be acquired. Therefore, it is conceivable that the system prompts the operator to start the operation after having the camera 7 take a picture of the device alone before the operator enters the operation.

図13は、第3の実施形態に係る情報表示装置の構成を示す図である。オブジェクト抽出から投影画像の生成処理量が大きくなるので、操作者側では、カメラ7とプロジェクタ8のみで構成し、それ以外の処理を外部のサーバに任せる構成が考えられる。ネットワーク27を介して操作者側と指示側がつながっており、操作者側からカメラ画像を指示側へ送信し、指示側で一連のオブジェクト抽出から合成画像の生成、投影位置の決定、色補正までを行って、投影画像を操作者側へ送り返し、操作者側のプロジェクタ8によって投影を行う。指示側は、ディスプレイ31やUI1を備えており、場合によっては、人が介在して指示を与えるようなことも考えられる。   FIG. 13 is a diagram illustrating a configuration of an information display device according to the third embodiment. Since the amount of projection image generation processing increases from object extraction, it is conceivable that the operator side is configured only by the camera 7 and the projector 8 and the other processing is left to an external server. The operator side and the instruction side are connected via the network 27, and the operator side transmits a camera image to the instruction side, and the instruction side performs a series of object extraction, generation of a composite image, determination of a projection position, and color correction. Then, the projection image is sent back to the operator side and projected by the projector 8 on the operator side. The instructing side includes a display 31 and a UI 1, and in some cases, it may be possible for a person to intervene to give an instruction.

情報表示装置の操作者側は、UI1とCPU2とメモリ3とカメラ7とプロジェクタ8と画像符号化器32と画像復号化器33と外部IF26とを含んで構成される。   The operator side of the information display device includes a UI 1, a CPU 2, a memory 3, a camera 7, a projector 8, an image encoder 32, an image decoder 33, and an external IF 26.

情報表示装置の指示側は、UI1とCPU2とメモリ3とオブジェクト抽出部21とオブジェクト辞書22と合成画像生成部6とHDD13と外部IF26とディスプレイ31と操作指示辞書24と投影位置決定部10と色補正部25と画像符号化器34と画像復号化器35とを含んで構成される。   The instruction side of the information display device includes UI1, CPU2, memory 3, object extraction unit 21, object dictionary 22, composite image generation unit 6, HDD 13, external IF 26, display 31, operation instruction dictionary 24, projection position determination unit 10, and color. The correction unit 25 includes an image encoder 34 and an image decoder 35.

本実施形態の新規な要素は、画像符号化器32,34と画像復号化器33,35である。第1および第2の実施形態と同一の構成要件は、同一の符号を付して説明を省略する。   New elements of this embodiment are image encoders 32 and 34 and image decoders 33 and 35. The same constituent elements as those in the first and second embodiments are denoted by the same reference numerals, and description thereof is omitted.

画像符号化器32,34は、操作者側が、カメラ画像を圧縮して指示側へ送るための符号化器であり、指示側は合成画像を操作者側へ送るための符号化器である。画像復号化器33,35は、操作者側が、指示側から送られてきた投影画像を復号して投影するための復号化器であり、指示側は、オブジェクトを抽出するために操作者側から送られてくるカメラ画像を復号する復号化器である。   The image encoders 32 and 34 are encoders for the operator side to compress the camera image and send it to the instruction side, and the instruction side is an encoder for sending the composite image to the operator side. The image decoders 33 and 35 are decoders for the operator side to decode and project the projection image sent from the instruction side, and the instruction side from the operator side to extract an object. It is a decoder that decodes a camera image that is sent.

図14は、第3の実施形態における操作者側のフロー図である。カメラ7から画像を取得する(ステップS31)。画像符号化器32で撮影画像を符号化する(ステップS32)。撮影画像を指示側に送信し(ステップS33)、投影画像を指示側から受信する(ステップS34)。画像復号化器33で撮影画像を復号し(ステップS35)、投影する(ステップS36)。終了チェックをして(ステップS37)、カメラ入力に戻る。   FIG. 14 is a flowchart on the operator side in the third embodiment. An image is acquired from the camera 7 (step S31). The captured image is encoded by the image encoder 32 (step S32). The captured image is transmitted to the instruction side (step S33), and the projection image is received from the instruction side (step S34). The captured image is decoded by the image decoder 33 (step S35) and projected (step S36). An end check is performed (step S37), and the process returns to camera input.

図15は、第3の実施形態における指示側のフロー図である。始めに、当該手順に関する指示情報を取得する(ステップS41)。   FIG. 15 is a flowchart of the instruction side in the third embodiment. First, instruction information related to the procedure is acquired (step S41).

そして、撮影画像を受信/復号し(ステップS42)、オブジェクト抽出部21で対象オブジェクトを抽出する(ステップS43)。対象オブジェクトが抽出できなければ(ステップS44、No)、終了チェックをして(ステップS55)、カメラ入力に戻る。   The photographed image is received / decoded (step S42), and the object extraction unit 21 extracts the target object (step S43). If the target object cannot be extracted (No at Step S44), an end check is performed (Step S55), and the process returns to the camera input.

抽出できた場合は(ステップS44、Yes)、その対象オブジェクト画像をオブジェクト保存部5に保存する(ステップS45)。次に、オブジェクト抽出部21で器具オブジェクトを抽出する(ステップS46)。器具オブジェクトが抽出できた場合は(ステップS47、Yes)、器具オブジェクト画像が保存済みかをチェックして未保存であれば(ステップS48、No)、器具オブジェクト画像をオブジェクト保存部5に保存する(ステップS49)。   If it can be extracted (step S44, Yes), the target object image is stored in the object storage unit 5 (step S45). Next, an appliance object is extracted by the object extraction unit 21 (step S46). If the appliance object can be extracted (step S47, Yes), it is checked whether the appliance object image has been saved, and if not saved (step S48, No), the appliance object image is saved in the object storage unit 5 (step S48, No). Step S49).

さらに、対象オブジェクトと器具オブジェクトの位置関係をオブジェクト位置関係抽出部23で抽出する(ステップS50)。そして、対象オブジェクトと器具オブジェクトは上で抽出された位置関係に従って、合成画像生成部6で両者を合成し、指示情報についても合成する(ステップS51)。   Furthermore, the positional relationship between the target object and the appliance object is extracted by the object positional relationship extraction unit 23 (step S50). Then, in accordance with the positional relationship extracted above, the target object and the appliance object are combined by the combined image generation unit 6 and the instruction information is also combined (step S51).

もし、器具オブジェクトが抽出されていない場合は(ステップS47、No)、対象オブジェクトと指示情報のみを合成画像生成部6で合成する(ステップS51)。次は、合成画像の投影位置を投影位置決定部10で決定し(ステップS52)、投影位置から投影画像の色補正を色補正部25で行い(ステップS53)、合成画像を投影する(ステップS54)。   If the appliance object has not been extracted (No at Step S47), only the target object and the instruction information are synthesized by the synthesized image generation unit 6 (Step S51). Next, the projection position of the composite image is determined by the projection position determination unit 10 (step S52), the color correction of the projection image is performed by the color correction unit 25 from the projection position (step S53), and the composite image is projected (step S54). ).

本実施形態によれば、計算性能の低い端末(操作者側)であっても、処理量の大きな処理を外部のサーバ側にて計算を実施することで、端末の性能制約に限定されることなく処理を実施できるので、より正確な指示を提示できる。   According to the present embodiment, even a terminal with low calculation performance (operator side) is limited to terminal performance constraints by performing calculations with a large processing amount on the external server side. More accurate instructions can be presented.

4 対象オブジェクト抽出部
5 オブジェクト保存部
6 合成画像生成部
7 カメラ
8 プロジェクタ
10 投影位置決定部
16 対象オブジェクト
19 合成画像
23 オブジェクト位置関係抽出部
25 色補正部
28 器具オブジェクト
DESCRIPTION OF SYMBOLS 4 Target object extraction part 5 Object preservation | save part 6 Composite image generation part 7 Camera 8 Projector 10 Projection position determination part 16 Target object 19 Composite image 23 Object positional relationship extraction part 25 Color correction part 28 Instrument object

特許第4037128号公報Japanese Patent No. 4037128

Claims (8)

カメラ撮影した画像を解析して、所定の対象オブジェクトを検出して、該対象オブジェクトに対して、何らかの操作指示や補助情報をプロジェクタにて投影する情報表示装置であって、
前記カメラ画像から前記対象オブジェクト画像を抽出するオブジェクト抽出手段と、
前記抽出された対象オブジェクトを保存するオブジェクト画像保存手段と、
前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成する合成画像生成手段と、
前記プロジェクタの投影面内の前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示する合成画像表示手段と、
を有することを特徴とする情報表示装置。
An information display device that analyzes an image captured by a camera, detects a predetermined target object, and projects some operation instruction or auxiliary information on the target object by a projector,
Object extraction means for extracting the target object image from the camera image;
Object image storage means for storing the extracted target object;
A synthesized image generating means for synthesizing the stored target object image and the projection image of the operation instruction and auxiliary information;
Composite image display means for displaying the composite image at a location different from the position where the operation instructions and auxiliary information are projected on the projection plane of the projector;
An information display device comprising:
前記カメラ画像から、操作者が扱う器具オブジェクトを抽出して保存する前記オブジェクト画像保存手段と、
前記カメラ画像から前記器具オブジェクトと前記対象オブジェクトの位置関係を取得するオブジェクト位置関係取得手段と、
前記対象オブジェクトと前記器具オブジェクトおよび前記操作指示や補助情報の投影画像を合成する前記合成画像生成手段と、
を有することを特徴とする請求項1記載の情報表示装置。
The object image storage means for extracting and storing an appliance object handled by an operator from the camera image;
Object positional relationship acquisition means for acquiring a positional relationship between the instrument object and the target object from the camera image;
The synthesized image generating means for synthesizing the target object, the appliance object, and a projection image of the operation instruction and auxiliary information;
The information display device according to claim 1, further comprising:
さらに前記対象オブジェクトを避けた位置に前記合成画像を投影するような投影位置決定手段とを有することを特徴とする請求項1または2記載の情報表示装置。   The information display apparatus according to claim 1, further comprising a projection position determining unit that projects the composite image at a position avoiding the target object. 前記オブジェクト画像保存手段は、カメラ画像からの前記対象オブジェクトが抽出できる毎に保存画像を更新することを特徴とする請求項1から3のいずれか1項に記載の情報表示装置。   The information display apparatus according to claim 1, wherein the object image storage unit updates the stored image every time the target object can be extracted from the camera image. さらに前記投影位置決定手段により決定された投影位置のカメラ入力画像から取得できる色成分を投影する合成画像の色成分から引く色補正手段とを有することを特徴とする請求項3または4記載の情報表示装置。   5. The information according to claim 3, further comprising color correction means for subtracting a color component obtainable from a camera input image at the projection position determined by the projection position determination means from a color component of a composite image to be projected. Display device. 前記カメラ、前記プロジェクタ、前記合成画像表示手段を有するクライアント機と、
前記オブジェクト抽出手段、前記オブジェクト画像保存手段、前記合成画像生成手段、前記オブジェクト位置関係取得手段、前記投影位置決定手段、前記色補正手段を有するサーバ機とを備え、
両者がネットワークで接続されていることを特徴とする請求項1から5のいずれか1項に記載の情報表示装置。
A client machine having the camera, the projector, and the composite image display means;
A server machine having the object extraction means, the object image storage means, the composite image generation means, the object positional relationship acquisition means, the projection position determination means, and the color correction means;
The information display device according to claim 1, wherein the two are connected via a network.
カメラ撮影した画像を解析して、所定の対象オブジェクトを検出して、その対象オブジェクトに対して、何らかの操作指示や補助情報をプロジェクタにて投影するステップと、
前記カメラ画像から前記対象オブジェクト画像を抽出するステップと、
前記抽出された対象オブジェクトを保存するステップと、
前記保存されている対象オブジェクト画像と前記操作指示や補助情報の投影画像を合成するステップと、
前記プロジェクタの投影面内の、前記操作指示や補助情報を投影している位置とは別の場所に前記合成画像を表示するステップと、
をコンピュータに実行させることを特徴とするプログラム。
Analyzing a camera-captured image, detecting a predetermined target object, and projecting any operation instruction or auxiliary information to the target object with a projector;
Extracting the target object image from the camera image;
Storing the extracted target object;
Combining the stored target object image with the projection image of the operation instruction and auxiliary information;
Displaying the composite image at a location different from the position where the operation instructions and auxiliary information are projected within the projection plane of the projector;
A program that causes a computer to execute.
請求項7に記載のプログラムを記録した情報記録媒体。   An information recording medium on which the program according to claim 7 is recorded.
JP2012126130A 2012-06-01 2012-06-01 Information display device, program, and information display recording medium Pending JP2013250479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012126130A JP2013250479A (en) 2012-06-01 2012-06-01 Information display device, program, and information display recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012126130A JP2013250479A (en) 2012-06-01 2012-06-01 Information display device, program, and information display recording medium

Publications (1)

Publication Number Publication Date
JP2013250479A true JP2013250479A (en) 2013-12-12

Family

ID=49849208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012126130A Pending JP2013250479A (en) 2012-06-01 2012-06-01 Information display device, program, and information display recording medium

Country Status (1)

Country Link
JP (1) JP2013250479A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084151A1 (en) * 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 Operation support system, operation support device and operation support method
JP2018165973A (en) * 2017-03-28 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Display device, display method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084151A1 (en) * 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 Operation support system, operation support device and operation support method
JPWO2016084151A1 (en) * 2014-11-26 2017-04-27 三菱電機エンジニアリング株式会社 Work support system, work support device, and work support method
EP3226090A4 (en) * 2014-11-26 2018-07-25 Mitsubishi Electric Engineering Company, Limited Operation support system, operation support device and operation support method
JP2018165973A (en) * 2017-03-28 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Display device, display method, and program

Similar Documents

Publication Publication Date Title
CN107026973B (en) Image processing device, image processing method and photographic auxiliary equipment
JP6573755B2 (en) Display control method, information processing program, and information processing apparatus
JP7441926B2 (en) Computer program that performs video coding
JP6582626B2 (en) Transmission control method, display terminal, and transmission control program
CN103491327A (en) Projection type image display apparatus, image projecting method, and computer program
JP5177154B2 (en) Standard work execution support device and standard work execution support method
WO2015142971A1 (en) Receiver-controlled panoramic view video share
JP2009094867A (en) Information processing apparatus, remote indication system, and control program
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
JP2009169768A (en) Information processor and program
KR20130056529A (en) Apparatus and method for providing augmented reality service in portable terminal
JP2011023814A (en) Imaging apparatus
JP2015153302A (en) Display controller, display control method and recording medium
JP2020149142A (en) Work support system, work support method, and program
WO2016152200A1 (en) Information processing system and information processing method
JP6108925B2 (en) Imaging device, focus adjustment system, focus instruction device, focus adjustment method, and program
US10283005B2 (en) Image display method and apparatus
JP2013250479A (en) Information display device, program, and information display recording medium
JP2016500959A (en) Method and system for image capture and easy annotation
JP7234718B2 (en) Information processing device, information processing system and program
EP2800349B1 (en) Method and electronic device for generating thumbnail image
JP6364721B2 (en) Image processing program
JP4568121B2 (en) Remote work support system, remote work support method and program
CN115280408A (en) Image display device and image display method
JP6579925B2 (en) Image reproducing apparatus, control method therefor, program, and recording medium