[go: up one dir, main page]

JP6950548B2 - Transmission program, method and device, and image synthesis program, method and device - Google Patents

Transmission program, method and device, and image synthesis program, method and device Download PDF

Info

Publication number
JP6950548B2
JP6950548B2 JP2018012253A JP2018012253A JP6950548B2 JP 6950548 B2 JP6950548 B2 JP 6950548B2 JP 2018012253 A JP2018012253 A JP 2018012253A JP 2018012253 A JP2018012253 A JP 2018012253A JP 6950548 B2 JP6950548 B2 JP 6950548B2
Authority
JP
Japan
Prior art keywords
image
acquired
unit
pickup device
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018012253A
Other languages
Japanese (ja)
Other versions
JP2019133217A (en
Inventor
昌美 茅野
昌美 茅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018012253A priority Critical patent/JP6950548B2/en
Publication of JP2019133217A publication Critical patent/JP2019133217A/en
Application granted granted Critical
Publication of JP6950548B2 publication Critical patent/JP6950548B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置に関する。 The present invention relates to transmission programs, methods and devices, and image synthesis programs, methods and devices.

近年、在宅勤務に代表されるテレワークを検討・導入する企業が増加している。テレワークを導入した場合、複数の人が異なる場所で働くことになるため、情報の共有が重要である。 In recent years, an increasing number of companies are considering and introducing telework represented by working from home. When telework is introduced, information sharing is important because multiple people will work in different places.

情報共有技術としては、例えば電子会議システムなどを用いることで、デジタルデータを共有する技術が知られている。また、紙やホワイトボード等、アナログデータを共有する場合には、紙やホワイトボードを撮影した画像を共有する必要がある。 As an information sharing technology, a technology for sharing digital data by using, for example, an electronic conference system is known. In addition, when sharing analog data such as paper and whiteboard, it is necessary to share images taken of paper and whiteboard.

特開2010−34739号公報JP-A-2010-34739 特開2006−162692号公報Japanese Unexamined Patent Publication No. 2006-162692 特開2008−117235号公報Japanese Unexamined Patent Publication No. 2008-117235

画像を撮影して共有する場合において、例えば1枚の画像でホワイトボード全体をカバーできない場合には、複数の画像を合成することが考えられる。 When images are taken and shared, for example, when one image cannot cover the entire whiteboard, it is conceivable to combine a plurality of images.

複数の画像を合成する技術としては、複数の画像を解析したうえで局所的な特徴を検出し、各画像の重なり具合に基づいて各画像を合成する技術が知られているが、この技術では、画像合成を行う処理装置に大きな負荷をかけるおそれがある。 As a technique for synthesizing a plurality of images, a technique is known in which a plurality of images are analyzed, local features are detected, and each image is combined based on the degree of overlap of the images. , There is a risk of imposing a heavy load on the processing device that performs image composition.

1つの側面では、本発明は、画像合成の際の処理負荷を軽減することが可能な送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置を提供することを目的とする。 In one aspect, it is an object of the present invention to provide a transmission program, method and apparatus capable of reducing a processing load during image composition, and an image composition program, method and apparatus.

一つの態様では、送信プログラムは、撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、処理をコンピュータに実行させるための送信プログラムである。 In one embodiment, the transmission program refers to a storage unit that receives designation of a part of the subject included in the first image captured by the imaging device and stores the position of the part of the subject in association with the part. When the plane including the position associated with the designated portion is specified and the second image newly captured by the imaging device is acquired, the specified plane and the acquired second image are obtained. Based on the orientation of the imaging device at the time of imaging, information indicating a range corresponding to the acquired second image in the plane is generated, and the acquired second image and the generated information are used. Is a transmission program for causing a computer to execute a process of transmitting an image to a specific destination.

画像合成の際の処理負荷を軽減することができる。 The processing load at the time of image composition can be reduced.

一実施形態に係る情報共有システムの構成を概略的に示す図である。It is a figure which shows roughly the structure of the information sharing system which concerns on one Embodiment. サーバのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of a server. 図3(a)は、HMDの構成を示す図であり、図3(b)は、図3(a)の制御装置のハードウェア構成を示す図である。FIG. 3A is a diagram showing the configuration of the HMD, and FIG. 3B is a diagram showing the hardware configuration of the control device of FIG. 3A. サーバ、メイン側HMD及びリモート側HMDの機能ブロック図である。It is a functional block diagram of a server, a main side HMD and a remote side HMD. メイン側HMDの処理を示すフローチャートである。It is a flowchart which shows the processing of the main side HMD. 図5の処理を説明するための図(その1)である。It is a figure (the 1) for demonstrating the process of FIG. 図5の処理を説明するための図(その2)である。It is a figure (the 2) for demonstrating the process of FIG. 図8(a)、図8(b)は、図5の処理を説明するための図(その3)である。8 (a) and 8 (b) are diagrams (No. 3) for explaining the process of FIG. 図5の処理を説明するための図(その4)である。It is a figure (the 4) for demonstrating the process of FIG. 図5の処理を説明するための図(その5)である。FIG. 5 is a diagram (No. 5) for explaining the process of FIG. 図5の処理を説明するための図(その6)である。FIG. 6 is a diagram (No. 6) for explaining the process of FIG. 図5の処理を説明するための図(その7)である。FIG. 7 is a diagram (No. 7) for explaining the process of FIG. 二次元配列P、Hを示す図である。It is a figure which shows the two-dimensional array P, H. リモート側HMDにおける表示例を示す図である。It is a figure which shows the display example in the remote side HMD. 図5の処理を説明するための図(その8)である。FIG. 8 is a diagram (No. 8) for explaining the process of FIG. 変形例に係るメイン側HMD及びリモート側HMDの機能ブロック図である。It is a functional block diagram of the main side HMD and the remote side HMD which concerns on a modification. 変形例に係るメイン側HMDの処理を示すフローチャートである。It is a flowchart which shows the process of the main side HMD which concerns on a modification.

以下、情報共有システムの一実施形態について、図1〜図15に基づいて詳細に説明する。図1には、一実施形態に係る情報共有システム100の構成が概略的に示されている。 Hereinafter, one embodiment of the information sharing system will be described in detail with reference to FIGS. 1 to 15. FIG. 1 schematically shows the configuration of the information sharing system 100 according to the embodiment.

情報共有システム100は、例えばオフィスで働くユーザと、テレワークにより自宅等で働くユーザとが音声通話により会議を行う際に用いるシステムである。例えば、情報共有システム100においては、オフィスで働くユーザがホワイトボードなどに記載した情報を自宅等で働くユーザに対して送信することで、ユーザ間における情報共有を実現する。 The information sharing system 100 is a system used when, for example, a user working in an office and a user working at home or the like by telework hold a conference by voice call. For example, in the information sharing system 100, information sharing between users is realized by a user working in an office transmitting information described on a whiteboard or the like to a user working at home or the like.

情報共有システム100は、図1に示すように、サーバ10と、複数のヘッドマウントディスプレイ(HMD)70と、を備える。サーバ10とHMD70とは、インターネットなどのネットワーク80に接続されている。 As shown in FIG. 1, the information sharing system 100 includes a server 10 and a plurality of head-mounted displays (HMDs) 70. The server 10 and the HMD 70 are connected to a network 80 such as the Internet.

(サーバ10)
サーバ10は、複数のHMD70において、ホワイトボードなどに記載した情報を共有する場合に、画像の合成処理等を実行する装置である。図2には、サーバ10のハードウェア構成が示されている。図2に示すように、サーバ10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive)、SSD(Solid State Drive)やフラッシュメモリなど)96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これらサーバ10の構成各部は、バス98に接続されている。サーバ10では、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムをCPU90が実行することにより、図4に示す各部の機能が実現される。なお、図4の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。なお、図4の各部の詳細については後述する。
(Server 10)
The server 10 is a device that executes image composition processing and the like when sharing information described on a whiteboard or the like in a plurality of HMD 70s. FIG. 2 shows the hardware configuration of the server 10. As shown in FIG. 2, the server 10 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, a storage unit (here, an HDD (Hard Disk Drive), and an SSD (Solid). State Drive), flash memory, etc.) 96, network interface 97, portable storage medium drive 99, and the like. Each component of the server 10 is connected to the bus 98. In the server 10, the functions of each part shown in FIG. 4 are realized by the CPU 90 executing the program stored in the ROM 92 or the HDD 96 or the program read from the portable storage medium 91 by the portable storage medium drive 99. NS. The functions of each part in FIG. 4 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The details of each part of FIG. 4 will be described later.

(HMD70)
HMD70は、ユーザが頭部に装着できる装置である。HMD70としては、例えば、単眼の透過型のHMDを用いることができる。なお、HMD70としては、例えば、両眼用や没入型等の各種のHMDを用いるようにしてもよい。
(HMD70)
The HMD 70 is a device that can be worn by the user on the head. As the HMD 70, for example, a monocular transmissive HMD can be used. As the HMD 70, for example, various HMDs for both eyes or immersive type may be used.

図3(a)には、HMD70のハードウェア構成が示されている。図3(a)に示すように、HMD70は、加速度センサ12と、ジャイロセンサ14と、地磁気センサ15と、カメラ16と、距離画像カメラ17と、マイク18と、入力装置20と、表示装置22と、音声出力装置24と、通信装置26と、制御装置30と、を備える。 FIG. 3A shows the hardware configuration of the HMD 70. As shown in FIG. 3A, the HMD 70 includes an acceleration sensor 12, a gyro sensor 14, a geomagnetic sensor 15, a camera 16, a distance image camera 17, a microphone 18, an input device 20, and a display device 22. A voice output device 24, a communication device 26, and a control device 30 are provided.

加速度センサ12は、HMD70の加速度を検出するセンサである。加速度センサ12としては、例えば、ピエゾ抵抗型や静電容量型等の3軸加速度センサを用いることができる。加速度センサ12による計測結果は制御装置30に送信される。 The acceleration sensor 12 is a sensor that detects the acceleration of the HMD 70. As the acceleration sensor 12, for example, a three-axis acceleration sensor such as a piezoresistive type or a capacitance type can be used. The measurement result by the acceleration sensor 12 is transmitted to the control device 30.

ジャイロセンサ14は、HMD70の角度(姿勢)や角速度あるいは角加速度を検出するセンサである。ジャイロセンサ14としては、例えば振動型のジャイロセンサを用いることができる。ジャイロセンサ14による計測結果は制御装置30に送信される。 The gyro sensor 14 is a sensor that detects the angle (posture), angular velocity, or angular acceleration of the HMD 70. As the gyro sensor 14, for example, a vibration type gyro sensor can be used. The measurement result by the gyro sensor 14 is transmitted to the control device 30.

地磁気センサ15は、例えば3軸の地磁気センサであり、地磁気を検出することで、HMD70が向いている方角を計測する。地磁気センサ15による計測結果は制御装置30に送信される。 The geomagnetic sensor 15 is, for example, a three-axis geomagnetic sensor, and by detecting the geomagnetism, it measures the direction in which the HMD 70 is facing. The measurement result by the geomagnetic sensor 15 is transmitted to the control device 30.

なお、HMD70は、加速度センサ12、ジャイロセンサ14、地磁気センサ15の他、方位センサ、GPS(Global Positioning System)等を備えていてもよい。 The HMD 70 may include an acceleration sensor 12, a gyro sensor 14, a geomagnetic sensor 15, a directional sensor, a GPS (Global Positioning System), and the like.

カメラ16は、ユーザの目の近傍に設けられ、HMD70を装着したユーザが向いている方向を撮影(撮像)する。カメラ16で撮影された画像は制御装置30に送信される。なお、本実施形態では、カメラ16の画角は、所定の画角で固定されているものとする。 The camera 16 is provided near the user's eyes and captures (imaging) the direction in which the user wearing the HMD 70 is facing. The image taken by the camera 16 is transmitted to the control device 30. In the present embodiment, the angle of view of the camera 16 is fixed at a predetermined angle of view.

距離画像カメラ17は、例えば、TOF(Time of Flight)方式の測距技術を用いて、3次元の対象物までの距離を表わす距離画像を生成する。例えば、HMD70を装着したユーザが、図6に示すような部屋(企業内の会議室など)にいる場合には、距離画像として、図7に示すような3Dマッピングデータが生成される。なお、本実施形態では、距離画像カメラ17で撮影される範囲とカメラ16で撮影される範囲とが同一となるように調整されているものとする。 The distance image camera 17 uses, for example, a TOF (Time of Flight) distance measuring technique to generate a distance image showing the distance to a three-dimensional object. For example, when the user wearing the HMD 70 is in a room as shown in FIG. 6 (such as a conference room in a company), 3D mapping data as shown in FIG. 7 is generated as a distance image. In this embodiment, it is assumed that the range captured by the distance image camera 17 and the range captured by the camera 16 are adjusted to be the same.

マイク18は、ユーザの声や周辺の音を集音する。入力装置20は、タッチパッドやボタン等であり、電源ボタンやホームボタン、音量調節ボタン等を含む。 The microphone 18 collects the user's voice and surrounding sounds. The input device 20 is a touch pad, a button, or the like, and includes a power button, a home button, a volume control button, and the like.

表示装置22は、各種情報を表示するための表示デバイスである。表示装置22は、例えば、ハーフミラーに情報を投影する装置であるものとする。すなわち、表示装置22は、ユーザが情報とともに外部の風景を透過して見ることができる透過型の表示装置であるものとする。なお、表示装置22は、没入型、ビデオ透過型、網膜投影型等の表示装置であってもよい。 The display device 22 is a display device for displaying various types of information. The display device 22 is, for example, a device that projects information onto a half mirror. That is, the display device 22 is a transparent display device that allows the user to see through the external landscape together with the information. The display device 22 may be an immersive type, a video transmission type, a retinal projection type, or the like.

音声出力装置24は、スピーカやイヤホンであり、制御装置30の指示の下、音声情報を出力する。ユーザは、HMD70において通話アプリを起動し、他の端末(HMD70を含む)と通信を行うことで、マイク18と音声出力装置24を利用した他の端末のユーザとの通話(電話会議など)を行うことができる。 The audio output device 24 is a speaker or earphone, and outputs audio information under the instruction of the control device 30. The user activates the call application on the HMD70 and communicates with other terminals (including the HMD70) to make a call (conference call, etc.) with the user of the other terminal using the microphone 18 and the voice output device 24. It can be carried out.

通信装置26は、ネットワーク80を介して、サーバ10や他のHMD70と情報のやり取りを行う。 The communication device 26 exchanges information with the server 10 and other HMD 70s via the network 80.

制御装置30は、HMD70の各部を統括的に制御する。特に、本実施形態では、制御装置30は、電話会議などが行われるときに、複数のユーザ間において予め定めた共有領域(例えばホワイトボードや紙などが存在する領域)の画像を共有させるための機能を有している。図3(b)には、制御装置30のハードウェア構成が示されている。図3(b)に示すように、制御装置30は、CPU190、ROM192、RAM194、記憶部(ここではSSDやフラッシュメモリなど)196、入出力インタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これら制御装置30の構成各部は、バス198に接続されている。入出力インタフェース197には、図3(a)の制御装置30以外の各装置が接続されている。制御装置30では、ROM192あるいはHDD196に格納されているプログラム(送信プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラムをCPU190が実行することにより、図4に示す各部の機能が実現される。なお、図4の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。ここで、図4には、メイン側HMD70aとリモート側HMD70bの機能ブロック図が図示されている。HMD70においては、制御装置30のCPU190がプログラムを実行することにより、メイン側HMD70aとして機能したり、リモート側HMD70bとして機能したりする。なお、HMD70がメイン側HMD70aとリモート側HMD70bのいずれとして機能するかは、ユーザの設定による。なお、メイン側HMD70aは、サーバ10に対して撮影した画像や撮影した画像に関する情報を送信する送信装置としての機能を有する。 The control device 30 comprehensively controls each part of the HMD 70. In particular, in the present embodiment, the control device 30 is for sharing an image of a predetermined shared area (for example, an area where a whiteboard, paper, etc.) exists among a plurality of users when a telephone conference or the like is held. It has a function. FIG. 3B shows the hardware configuration of the control device 30. As shown in FIG. 3B, the control device 30 includes a CPU 190, a ROM 192, a RAM 194, a storage unit (here, SSD, flash memory, etc.) 196, an input / output interface 197, a portable storage medium drive 199, and the like. ing. Each component of the control device 30 is connected to the bus 198. Each device other than the control device 30 shown in FIG. 3A is connected to the input / output interface 197. In the control device 30, the CPU 190 executes a program (including a transmission program) stored in the ROM 192 or the HDD 196, or a program read from the portable storage medium 191 by the portable storage medium drive 199, so that FIG. 4 shows. The functions of each part shown are realized. The functions of each part in FIG. 4 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Here, FIG. 4 shows a functional block diagram of the main HMD70a and the remote HMD70b. In the HMD 70, the CPU 190 of the control device 30 executes a program to function as the main HMD 70a or as the remote HMD 70b. Whether the HMD70 functions as the main HMD70a or the remote HMD70b depends on the user's setting. The main HMD70a has a function as a transmission device for transmitting an image taken and information about the photographed image to the server 10.

(メイン側HMD70aの機能)
メイン側HMD70aは、CPU190がプログラムを実行することにより、原点取得部31、3Dマッピングデータ取得部32、受付部及び特定部としての共有領域設定部33、視線ベクトル取得部34、判定部としてのブレ検出部35、判断部としての撮影要否判断部36、画像取得部37、撮影済範囲データ取得部38、生成部としての位置関係特定部39、送信部40、として機能する。
(Function of main side HMD70a)
When the CPU 190 executes a program, the main HMD70a has an origin acquisition unit 31, a 3D mapping data acquisition unit 32, a reception unit and a shared area setting unit 33 as a specific unit, a line-of-sight vector acquisition unit 34, and a blur as a determination unit. It functions as a detection unit 35, a shooting necessity determination unit 36 as a determination unit, an image acquisition unit 37, a photographed range data acquisition unit 38, a positional relationship specifying unit 39 as a generation unit, and a transmission unit 40.

原点取得部31は、メイン側HMD70aの電源がONにされたタイミングなどにおいて、メイン側HMD70aの位置(本実施形態ではカメラ16の位置とする)を原点として取得する。 The origin acquisition unit 31 acquires the position of the main HMD70a (which is the position of the camera 16 in the present embodiment) as the origin at the timing when the power of the main HMD70a is turned on.

3Dマッピングデータ取得部32は、距離画像カメラ17が生成した第1の画像としての3Dマッピングデータ(図7参照)を取得する。 The 3D mapping data acquisition unit 32 acquires 3D mapping data (see FIG. 7) as the first image generated by the distance image camera 17.

共有領域設定部33は、3Dマッピングデータに含まれる被写体のうちユーザが指定した領域(例えばホワイトボードの描画範囲)を共有領域として設定する。共有領域設定部33は、原点取得部31が取得した原点や3Dマッピングデータに基づいて、共有領域の情報(共有領域が長方形状の領域である場合には、長方形の4つの頂点の情報)を特定し、記憶部としての共有領域DB29に格納する。また、共有領域設定部33は、共有領域を含む平面を特定し、特定した平面の情報も共有領域DB29に格納する。 The shared area setting unit 33 sets an area (for example, a drawing range of a whiteboard) specified by the user among the subjects included in the 3D mapping data as a shared area. The shared area setting unit 33 obtains information on the shared area (information on four vertices of the rectangle when the shared area is a rectangular area) based on the origin and 3D mapping data acquired by the origin acquisition unit 31. It is specified and stored in the shared area DB 29 as a storage unit. Further, the shared area setting unit 33 specifies a plane including the shared area, and stores the information of the specified plane in the shared area DB 29.

視線ベクトル取得部34は、原点取得部31が取得した原点や地磁気センサ15等の計測結果に基づいて、ユーザの視線ベクトルを取得する。なお、本実施形態においてユーザの視線ベクトルとは、HMD70が向いている方向(カメラ16が撮影する方向)を示すベクトルであり、原点とカメラ16の画角の中心を結ぶベクトルであるものとする。 The line-of-sight vector acquisition unit 34 acquires the user's line-of-sight vector based on the measurement results of the origin and the geomagnetic sensor 15 acquired by the origin acquisition unit 31. In the present embodiment, the user's line-of-sight vector is a vector indicating the direction in which the HMD 70 is facing (the direction in which the camera 16 shoots), and is a vector connecting the origin and the center of the angle of view of the camera 16. ..

ブレ検出部35は、カメラ16による撮影の前後において視線ベクトル取得部34が取得した視線ベクトルを取得し、取得した視線ベクトルに基づいて撮影時におけるユーザの頭(メイン側HMD70a)のブレを検出する。ブレ検出部35は、検出したブレの情報を位置関係特定部39に対して出力する。なお、ブレ検出部35は、ブレを検出する際に、共有領域DB29に格納されている情報を参照する。 The blur detection unit 35 acquires the line-of-sight vector acquired by the line-of-sight vector acquisition unit 34 before and after shooting by the camera 16, and detects the blur of the user's head (main side HMD70a) at the time of shooting based on the acquired line-of-sight vector. .. The blur detection unit 35 outputs the detected blur information to the positional relationship specifying unit 39. The blur detection unit 35 refers to the information stored in the shared area DB 29 when detecting the blur.

撮影要否判断部36は、HMD70のカメラ16が向いている方向(視線ベクトル)と、共有領域DB29に格納されている共有領域の情報と、撮影済範囲データ取得部38が取得した撮影済範囲データと、に基づいて、カメラ16を用いた撮影を行うか否かを判断する。なお、撮影済範囲データは、共有領域内においてこれまでに撮影されていない範囲(未撮影領域)を示すデータである。なお、撮影済範囲データの詳細及び撮影要否判断部36の判断方法の詳細については、後述する。 The shooting necessity determination unit 36 includes the direction in which the camera 16 of the HMD 70 is facing (line-of-sight vector), information on the shared area stored in the shared area DB 29, and the shooting range acquired by the shooting range data acquisition unit 38. Based on the data, it is determined whether or not to perform shooting using the camera 16. The photographed range data is data indicating a range (unphotographed area) that has not been photographed so far in the shared area. The details of the photographed range data and the details of the determination method of the imaging necessity determination unit 36 will be described later.

画像取得部37は、カメラ16により撮影された画像(第2の画像)を取得し、送信部40に対して出力する。 The image acquisition unit 37 acquires an image (second image) taken by the camera 16 and outputs the image (second image) to the transmission unit 40.

撮影済範囲データ取得部38は、サーバ10から送信されてくる撮影済範囲データを取得し、撮影要否判断部36に対して送信する。 The photographed range data acquisition unit 38 acquires the photographed range data transmitted from the server 10 and transmits the photographed range data to the photographing necessity determination unit 36.

位置関係特定部39は、共有領域を含む平面において、共有領域とカメラ16が撮影した範囲(撮影範囲)の位置関係を特定する。位置関係特定部39により特定された情報は、送信部40に通知される。なお、位置関係特定部39は、ブレ検出部35により検出されたブレが許容範囲内である場合に、位置関係の特定を行う。 The positional relationship specifying unit 39 specifies the positional relationship between the shared area and the range (shooting range) photographed by the camera 16 on the plane including the shared area. The information specified by the positional relationship specifying unit 39 is notified to the transmitting unit 40. The positional relationship specifying unit 39 specifies the positional relationship when the blur detected by the blur detecting unit 35 is within the permissible range.

送信部40は、画像取得部37が取得した画像と、位置関係特定部39により特定された共有領域と撮影範囲の位置関係の情報と、をサーバ10に対して送信する。 The transmission unit 40 transmits the image acquired by the image acquisition unit 37 and the information on the positional relationship between the shared area and the shooting range specified by the positional relationship specifying unit 39 to the server 10.

(リモート側HMD70bの機能)
リモート側HMD70bは、CPU190がプログラムを実行することで、合成画像受信部41、合成画像表示部42として機能する。
(Function of remote side HMD70b)
The remote-side HMD70b functions as a composite image receiving unit 41 and a composite image display unit 42 when the CPU 190 executes a program.

合成画像受信部41は、サーバ10で合成された共有領域の画像を受信し、合成画像表示部42に送信する。 The composite image receiving unit 41 receives the image of the shared area synthesized by the server 10 and transmits it to the composite image display unit 42.

合成画像表示部42は、合成画像受信部41から合成画像を受信し、リモート側HMD70bの表示装置22に表示させる。この場合、リモート側HMD70bを装着するユーザの視野内の所定位置に、図14に示すような共有領域の合成画像を表示するためのウィンドウ102が表示されることになる。 The composite image display unit 42 receives the composite image from the composite image reception unit 41 and displays it on the display device 22 of the remote HMD 70b. In this case, the window 102 for displaying the composite image of the shared area as shown in FIG. 14 is displayed at a predetermined position in the field of view of the user who wears the remote side HMD70b.

(サーバ10の機能)
サーバ10は、CPU90がプログラムを実行することで、受信部51、画像合成部54、撮影済範囲データ作成部52、撮影済範囲データ送信部53、合成画像送信部55、として機能する。
(Function of server 10)
The server 10 functions as a receiving unit 51, an image synthesizing unit 54, a captured range data creating unit 52, a captured range data transmitting unit 53, and a composite image transmitting unit 55 when the CPU 90 executes a program.

受信部51は、メイン側HMD70aから送信されてくる画像と、共有領域と撮影範囲の位置関係の情報とを受信し、画像合成部54に送信する。 The receiving unit 51 receives the image transmitted from the main HMD 70a and the information on the positional relationship between the shared area and the shooting range, and transmits the information to the image synthesizing unit 54.

画像合成部54は、受信部51がメイン側HMD70aから受信した共有領域と撮影範囲の位置関係の情報と、撮影済範囲データと、に基づいて、画像合成を実行する。 The image synthesizing unit 54 executes image synthesizing based on the information on the positional relationship between the shared area and the photographing range received from the main side HMD 70a by the receiving unit 51 and the photographed range data.

撮影済範囲データ作成部52は、画像合成部54において画像を合成した範囲を撮影済範囲データに反映させる。撮影済範囲データ送信部53は、撮影済範囲データを、画像合成部54及びメイン側HMD70aの撮影済範囲データ取得部38に送信する。 The captured range data creation unit 52 reflects the range in which the images are combined by the image synthesizing unit 54 in the captured range data. The captured range data transmission unit 53 transmits the captured range data to the image synthesizing unit 54 and the captured range data acquisition unit 38 of the main HMD 70a.

合成画像送信部55は、画像合成部54が合成した画像をリモート側HMD70bに対して適宜送信する。 The composite image transmission unit 55 appropriately transmits the image synthesized by the image synthesis unit 54 to the remote HMD 70b.

(メイン側HMD70aの処理について)
次に、メイン側HMD70aの処理について、図5のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。図5の処理は、一例として、メイン側HMD70aの電源がONにされた段階で開始される処理であるものとする。
(About the processing of HMD70a on the main side)
Next, the processing of the main HMD 70a will be described in detail with reference to other drawings according to the flowchart of FIG. As an example, the process of FIG. 5 is assumed to be a process started when the power of the main HMD70a is turned on.

まず、ステップS10では、原点取得部31が、原点を取得する。本実施形態では、原点は、メイン側HMD70aの所定点の位置(本実施形態ではカメラ16の位置)であるものとする。 First, in step S10, the origin acquisition unit 31 acquires the origin. In the present embodiment, the origin is assumed to be the position of a predetermined point on the main side HMD70a (the position of the camera 16 in the present embodiment).

次いで、ステップS12では、3Dマッピングデータ取得部32が、距離画像カメラ17から図7に示すような3Dマッピングデータを取得する。なお、3Dマッピングデータは、ステップS10で取得された原点を基準としたデータである。 Next, in step S12, the 3D mapping data acquisition unit 32 acquires 3D mapping data as shown in FIG. 7 from the distance image camera 17. The 3D mapping data is data based on the origin acquired in step S10.

次いで、ステップS14では、共有領域設定部33が、ユーザから共有領域の指定要求があるまで待機する。ユーザは、所定の入力(例えば入力装置20やマイク18を用いた入力)を行うことで、共有領域の指定要求を入力する。ユーザから所定の入力があると、共有領域設定部33は、ステップS16に移行する。 Next, in step S14, the shared area setting unit 33 waits until there is a request from the user to specify the shared area. The user inputs a request for designating the shared area by performing a predetermined input (for example, an input using an input device 20 or a microphone 18). When there is a predetermined input from the user, the shared area setting unit 33 proceeds to step S16.

ステップS16に移行すると、共有領域設定部33は、共有領域の設定処理を実行する。具体的には、以下のような処理を実行する。なお、本実施形態では、ユーザは共有領域として矩形状の領域を指定するものとする。 When the process proceeds to step S16, the shared area setting unit 33 executes the shared area setting process. Specifically, the following processing is executed. In the present embodiment, the user specifies a rectangular area as the shared area.

ユーザは、共有領域を指定する場合、メイン側HMD70aの視野中心を、共有領域の4つの頂点に順次合わせるようにする。なお、メイン側HMD70aの視野中心にマーカ等の目印が付されている場合には、ユーザは目印の位置を各頂点の位置に合わせるようにすればよい。 When the user specifies the shared area, the center of the field of view of the main HMD70a is sequentially aligned with the four vertices of the shared area. When a mark such as a marker is attached to the center of the visual field of the main HMD70a, the user may adjust the position of the mark to the position of each apex.

共有領域設定部33は、ユーザによる共有領域の指定(各頂点の指定)を受け付けると、ユーザが各頂点を指定したときの視線ベクトルと、3Dマッピングデータの交点を計算する。ここで、視線ベクトルは、メイン側HMD70aの所定点(カメラ16の位置)Pを通り、メイン側HMD70aが向く方向に延びるベクトル(図8(a)において破線矢印で示すベクトル)であり、地磁気センサ15等の計測結果に基づいて視線ベクトル取得部34により取得される。図8(a)には、この計算により求められた4つの交点A、B、C、Dが図示されている。なお、図8(a)では、所定点Pの座標が(Xp,Yp,Zp)、交点Aの座標が(Xa,Ya,Za)、交点Bの座標が(Xb,Yb,Zb)、交点Cの座標が(Xc,Yc,Zc)、交点Dの座標が(Xd,Yd,Zd)とされている。 When the shared area setting unit 33 receives the designation of the shared area (designation of each vertex) by the user, the shared area setting unit 33 calculates the intersection of the line-of-sight vector when the user specifies each vertex and the 3D mapping data. Here, the line-of-sight vector is a vector (vector indicated by a broken line arrow in FIG. 8A) that passes through a predetermined point (position of the camera 16) P of the main HMD70a and extends in the direction in which the main HMD70a faces, and is a geomagnetic sensor. It is acquired by the line-of-sight vector acquisition unit 34 based on the measurement result of 15 or the like. FIG. 8A shows the four intersections A, B, C, and D obtained by this calculation. In FIG. 8A, the coordinates of the predetermined point P are (Xp, Yp, Zp), the coordinates of the intersection A are (Xa, Ya, Za), the coordinates of the intersection B are (Xb, Yb, Zb), and the intersection. The coordinates of C are (Xc, Yc, Zc), and the coordinates of the intersection D are (Xd, Yd, Zd).

次いで、共有領域設定部33は、4点(A、B、C、D)の中心点Eを計算する。この場合、共有領域設定部33は、4点の座標の平均を中心点Eの座標とする。なお、図8(a)においては、中心点Eの座標が(Xe,Ye,Ze)とされている。 Next, the shared area setting unit 33 calculates the center points E of the four points (A, B, C, D). In this case, the shared area setting unit 33 sets the average of the coordinates of the four points as the coordinates of the center point E. In FIG. 8A, the coordinates of the center point E are (Xe, Ye, Ze).

次いで、共有領域設定部33は、中心点Eを含み、交点A、B、C、Dの4点の近傍に広がる平面fを求め、平面fの情報を共有領域DB29に格納する。 Next, the shared area setting unit 33 obtains a plane f including the center point E and spreads in the vicinity of the four points A, B, C, and D, and stores the information of the plane f in the shared area DB 29.

次いで、共有領域設定部33は、平面f上で中心点Eを中心とし、幅が線分AD間の長さと線分BC間の長さの平均の長さであり、高さが線分AB間の長さと線分CD間の長さの平均の長さである長方形rを求める。図8(b)においては、長方形rが太破線にて示されている。 Next, the shared area setting unit 33 is centered on the center point E on the plane f, the width is the average length between the lengths between the line segments AD and the lengths between the line segments BC, and the height is the line segment AB. The rectangle r, which is the average length between the length between the lines and the length between the line segments CD, is obtained. In FIG. 8B, the rectangle r is indicated by a thick broken line.

次いで、共有領域設定部33は、長方形rの4つの頂点を頂点A’、B’、C’、D’とする。なお、図8(b)では、頂点A’の座標が(Xa’,Ya’,Za’)、頂点B’の座標が(Xb’,Yb’,Zb’)、頂点C’の座標が(Xc’,Yc’,Zc’)、頂点D’の座標が(Xd’,Yd’,Zd’)、とされている。 Next, the shared area setting unit 33 sets the four vertices of the rectangle r as vertices A', B', C', and D'. In FIG. 8B, the coordinates of the vertex A'are (Xa', Ya', Za'), the coordinates of the vertex B'are (Xb', Yb', Zb'), and the coordinates of the vertex C'are (Xa', Yb', Zb'). Xc', Yc', Zc'), and the coordinates of the vertex D'are (Xd', Yd', Zd').

そして、共有領域設定部33は、4つの頂点A’〜D’を有する長方形rを共有領域rとして設定し、頂点A’〜D’の座標を共有領域DB29に格納する。 Then, the shared area setting unit 33 sets a rectangle r having four vertices A'to D'as the shared area r, and stores the coordinates of the vertices A'to D'in the shared area DB 29.

以上により、ステップS16の共有領域の設定処理が終了する。なお、本実施形態では、共有領域設定部33が平面fを求めることは、ユーザによって指定された部位に対応付けられた位置(各頂点)を含む平面を特定することを意味している。 As a result, the setting process of the shared area in step S16 is completed. In the present embodiment, the fact that the shared area setting unit 33 obtains the plane f means that the plane including the position (each vertex) associated with the portion designated by the user is specified.

次いで、ステップS18に移行すると、視線ベクトル取得部34は、視線ベクトルを取得する。なお、ここで取得される視線ベクトルは、画像取得前の視線ベクトルであると言える。 Next, when the process proceeds to step S18, the line-of-sight vector acquisition unit 34 acquires the line-of-sight vector. It can be said that the line-of-sight vector acquired here is the line-of-sight vector before image acquisition.

次いで、ステップS19では、撮影要否判断部36が、撮影要否を確認する。具体的には、撮影要否判断部36は、以下の処理を実行する。 Next, in step S19, the shooting necessity determination unit 36 confirms the shooting necessity. Specifically, the shooting necessity determination unit 36 executes the following processing.

まず、撮影要否判断部36は、視線ベクトル取得部34から視線ベクトルPv(図9参照)を取得する。次いで、撮影要否判断部36は、図9に示すように、視線ベクトルPvと平面fとの交点Phの位置を求める。 First, the shooting necessity determination unit 36 acquires the line-of-sight vector Pv (see FIG. 9) from the line-of-sight vector acquisition unit 34. Next, as shown in FIG. 9, the photographing necessity determination unit 36 obtains the position of the intersection Ph of the line-of-sight vector Pv and the plane f.

次いで、撮影要否判断部36は、交点Phが以下の条件(1)、(2)の両方を満たしているか否かを確認する。
条件(1):交点Phが共有領域r内である。
条件(2):交点Phがすでに撮影された領域にない。
そして、撮影要否判断部36は、条件(1)、(2)の両方を満たしている場合に、撮影が必要であると判断する。
Next, the shooting necessity determination unit 36 confirms whether or not the intersection Ph satisfies both of the following conditions (1) and (2).
Condition (1): The intersection Ph is in the shared area r.
Condition (2): The intersection Ph is not in the area already photographed.
Then, the shooting necessity determination unit 36 determines that shooting is necessary when both the conditions (1) and (2) are satisfied.

なお、条件(1)を満たしているか否かを判断する場合、撮影要否判断部36は、共有領域DB29を参照して、共有領域rの情報を取得する。なお、条件(2は最初の撮影時に判断する必要がない条件であるため、条件(2)の詳細については後述する。 When determining whether or not the condition (1) is satisfied, the shooting necessity determination unit 36 refers to the shared area DB 29 and acquires the information of the shared area r. The details of the condition (2) will be described later because the condition (2 is a condition that does not need to be determined at the time of the first shooting.

なお、条件は、上記(1)、(2)に限られるものではない。すなわち、条件の数は増やしてもよいし、減らしてもよい。 The conditions are not limited to the above (1) and (2). That is, the number of conditions may be increased or decreased.

図5に戻り、次のステップS20では、撮影要否判断部36が、ステップS19の処理の結果、撮影が必要であるか否かを判断する。このステップS20の判断が否定された場合にはステップS18に戻るが、肯定された場合にはステップS21に移行する。 Returning to FIG. 5, in the next step S20, the shooting necessity determination unit 36 determines whether or not shooting is necessary as a result of the processing in step S19. If the determination in step S20 is denied, the process returns to step S18, but if the determination is affirmed, the process proceeds to step S21.

ステップS21に移行すると、画像取得部37は、カメラ16に指示を出して画像を撮影し、撮影された画像を取得する。また、視線ベクトル取得部34は、画像を撮影したタイミングにおける視線ベクトルを取得する。 When the process proceeds to step S21, the image acquisition unit 37 issues an instruction to the camera 16 to take an image, and acquires the taken image. In addition, the line-of-sight vector acquisition unit 34 acquires the line-of-sight vector at the timing when the image is taken.

次いで、ステップS22では、視線ベクトル取得部34が、視線ベクトルを取得する。なお、ここで取得される視線ベクトルは、画像取得後の視線ベクトルであると言える。 Next, in step S22, the line-of-sight vector acquisition unit 34 acquires the line-of-sight vector. It can be said that the line-of-sight vector acquired here is the line-of-sight vector after the image is acquired.

次いで、ステップS26では、ブレ検出部35が、ブレ具合を算出する。この場合、ブレ検出部35は、まず、図10に示すように、撮影前の視線ベクトルと、平面fとの交点(P1)を特定する。なお、ブレ検出部35は、平面fの情報を共有領域DB29から取得する。次いで、ブレ検出部35は、撮影後の視線ベクトルと、平面fとの交点(P2)を特定する。そして、ブレ検出部35は、交点P1と交点P2を結ぶベクトル(V)を求め、ベクトルVの大きさ(スカラー量)をブレ具合とする。 Next, in step S26, the blur detection unit 35 calculates the degree of blur. In this case, the blur detection unit 35 first identifies the intersection (P1) of the line-of-sight vector before shooting and the plane f, as shown in FIG. The blur detection unit 35 acquires the information on the plane f from the shared area DB 29. Next, the blur detection unit 35 identifies the intersection (P2) of the line-of-sight vector after photographing and the plane f. Then, the blur detection unit 35 obtains a vector (V) connecting the intersection P1 and the intersection P2, and sets the magnitude (scalar amount) of the vector V as the degree of blur.

ステップS28では、ブレ検出部35が、ブレ具合が許容範囲内か否かを判断する。ここでは、ブレ検出部35は、ベクトルVの大きさ(スカラー量)が予め定めた許容範囲内でない場合に、ブレが大きい画像が撮影されたと判断する。なお、ブレ具合が許容範囲外の場合、撮影されたデータは処理しない(サーバ10に送信しない)こととする。これにより、ブレが大きい画像を合成に用いないようにすることができる。ステップS28の判断が肯定された場合、ステップS30に移行し、否定された場合には、ステップS18に戻る。 In step S28, the blur detection unit 35 determines whether or not the degree of blur is within the permissible range. Here, the blur detection unit 35 determines that an image with a large blur has been captured when the magnitude (scalar amount) of the vector V is not within a predetermined allowable range. If the degree of blurring is out of the permissible range, the captured data is not processed (not transmitted to the server 10). As a result, it is possible to prevent an image having a large blur from being used for compositing. If the determination in step S28 is affirmed, the process proceeds to step S30, and if it is denied, the process returns to step S18.

ステップS30に移行すると、位置関係特定部39が、平面fにおいて、共有領域rと撮影範囲の位置関係を特定するとともに、送信部40がデータ送信を行う。 In step S30, the positional relationship specifying unit 39 specifies the positional relationship between the shared area r and the photographing range on the plane f, and the transmitting unit 40 transmits data.

このステップS30では、位置関係特定部39は、図11に示すように、視線ベクトルPvと、カメラ16の画角とから、撮影された範囲を表す四角錐を特定する。具体的には、カメラ16からカメラ16の撮影範囲の四隅に向かって延びるベクトルAv、Bv、Cv、Dvの方向を四角錘の側辺の方向とする四角錘(ただし、底面の位置は特定されていない)を特定する。 In step S30, as shown in FIG. 11, the positional relationship specifying unit 39 identifies a quadrangular pyramid representing a captured range from the line-of-sight vector Pv and the angle of view of the camera 16. Specifically, a square weight whose directions of the vectors Av, Bv, Cv, and Dv extending from the camera 16 toward the four corners of the shooting range of the camera 16 are the directions of the side sides of the square weight (however, the position of the bottom surface is specified. Not).

次いで、位置関係特定部39は、平面fのうち、特定した四角錘に含まれる範囲を四角錘の底面とし、該底面を撮影範囲Crとして特定する。 Next, the positional relationship specifying unit 39 specifies the range included in the specified square pyramid in the plane f as the bottom surface of the square pyramid, and the bottom surface as the photographing range Cr.

次いで、位置関係特定部39は、図12に示すように、撮影範囲Crの左上の点Caを原点(座標(0,0))とし、撮影範囲Crの右下の点Ccの座標を(1,1)とした二次元座標系を定義する。なお、図12の二次元座標系は、平面f上に配置された二次元座標系である。なお、撮影範囲Crの頂点のうち、点Ca、Cc以外の点Cb、Cdの座標は、それぞれ(0,1)、(1,0)となっている。 Next, as shown in FIG. 12, the positional relationship specifying unit 39 sets the upper left point Ca of the imaging range Cr as the origin (coordinates (0,0)) and the coordinates of the lower right point Cc of the imaging range Cr as (1). , 1) Define the two-dimensional coordinate system. The two-dimensional coordinate system of FIG. 12 is a two-dimensional coordinate system arranged on the plane f. Of the vertices of the photographing range Cr, the coordinates of the points Cb and Cd other than the points Ca and Cc are (0,1) and (1,0), respectively.

次いで、位置関係特定部39は、定義した座標系上において、長方形状の共有領域rの4つの頂点(ra、rb、rc、rd)を特定する。そして、位置関係特定部39は、特定した4つの頂点の情報(すなわち、共有領域rと撮影範囲Crの位置関係の情報)を送信部40に対して出力する。送信部40は、撮影画像と、共有領域rと撮影範囲Crの位置関係の情報をサーバ10に対して送信する。なお、共有領域rと撮影範囲Crの位置関係の情報は、平面fのうち撮影画像において撮影された範囲を示す情報であるといえる。 Next, the positional relationship specifying unit 39 identifies four vertices (ra, rb, rc, rd) of the rectangular shared area r on the defined coordinate system. Then, the positional relationship specifying unit 39 outputs information on the specified four vertices (that is, information on the positional relationship between the shared area r and the photographing range Cr) to the transmitting unit 40. The transmission unit 40 transmits the captured image and the information on the positional relationship between the shared area r and the photographing range Cr to the server 10. It can be said that the information on the positional relationship between the shared area r and the shooting range Cr is information indicating the range shot in the shot image of the plane f.

(サーバ10の処理)
ここで、メイン側HMD70aから撮影画像と共有領域rの4つの頂点(ra、rb、rc、rd)の情報を受け取ったサーバ10の処理について説明する。
(Processing of server 10)
Here, the processing of the server 10 that has received the captured image and the information of the four vertices (ra, rb, rc, rd) of the shared area r from the main HMD 70a will be described.

サーバ10においては、リモート側HMD70bに提供する画像の合成処理を行うとともに、撮影済範囲データの作成を行う。まず、サーバ10は、図13に示すように、合成した画像を格納する二次元配列(ビットマップ)Pを作成するとともに、二次元配列Pと同じサイズの管理データとしての二次元配列(ビットマップ)Hを作成する。ここで、二次元配列Hは、二次元配列Pの各要素(ビット)について、画像を合成済み(撮影済み)であるか否かを判断するために使用される撮影済範囲データである。二次元配列Hは、0〜255の数値を要素とし、0は未合成、1〜255は合成済みを表す。また、1〜255の数値は、値が大きいほど合成された画像が鮮明であることを表す。なお、二次元配列Hの各要素の初期値は0であるものとする。ここで、鮮明さは、撮影画像において撮影された範囲の大きさに基づいて計算することができる。具体的には、撮影画像において撮影された範囲が小さい(すなわち、図12の座標から求められる共有領域rの面積が大きい)ほど鮮明であるとして、数値を大きくする。 The server 10 performs a compositing process of images provided to the remote HMD70b and creates captured range data. First, as shown in FIG. 13, the server 10 creates a two-dimensional array (bitmap) P for storing the synthesized image, and also creates a two-dimensional array (bitmap) as management data having the same size as the two-dimensional array P. ) Create H. Here, the two-dimensional array H is photographed range data used for determining whether or not an image has been synthesized (photographed) for each element (bit) of the two-dimensional array P. The two-dimensional array H has a numerical value of 0 to 255 as an element, 0 represents unsynthesized, and 1 to 255 represents synthesized. Further, the numerical values of 1 to 255 indicate that the larger the value, the clearer the combined image. It is assumed that the initial value of each element of the two-dimensional array H is 0. Here, the sharpness can be calculated based on the size of the captured range in the captured image. Specifically, the smaller the captured range in the captured image (that is, the larger the area of the shared area r obtained from the coordinates in FIG. 12), the clearer the image, and the larger the value.

サーバ10では、受信部51が、撮影画像と、共有領域rの4つの頂点(ra、rb、rc、rd)の座標を受信すると、画像合成部54が、4つの頂点の座標から、撮影画像のうち共有領域rと重なった部分(共有領域rのうち撮影画像において撮影された部分)を切り出す。なお、撮影画像は、共有領域rの正面から撮影した画像であるとは限らないため、画像合成部54は、受信した撮影画像を台形補正等して、共有領域rの正面から撮影した画像に補正したうえで、共有領域rと重なった部分を切り出すものとする。 In the server 10, when the receiving unit 51 receives the captured image and the coordinates of the four vertices (ra, rb, rc, rd) of the shared area r, the image synthesizing unit 54 receives the captured image from the coordinates of the four vertices. The portion of the shared area r that overlaps with the shared area r (the portion of the shared area r that was captured in the captured image) is cut out. Since the captured image is not necessarily an image captured from the front of the shared area r, the image synthesizing unit 54 performs trapezoidal correction or the like on the received captured image to obtain an image captured from the front of the shared area r. After correction, it is assumed that the portion overlapping with the shared area r is cut out.

次いで、画像合成部54は、撮影画像の重なった部分の各要素(ビット)の鮮明さの数値と、二次元配列Hの対応する要素(ビット)の鮮明さの数値とを比較し、撮影画像のほうが数値が大きい要素については、二次元配列Pの対応する要素に撮影画像の要素を転写する。 Next, the image synthesizing unit 54 compares the numerical value of the sharpness of each element (bit) of the overlapping portion of the captured image with the numerical value of the sharpness of the corresponding element (bit) of the two-dimensional array H, and compares the numerical value of the sharpness of the corresponding element (bit) of the captured image. For the element with a larger numerical value, the element of the captured image is transferred to the corresponding element of the two-dimensional array P.

また、撮影済範囲データ作成部52は、画像合成部54が二次元配列Pに転写した撮影画像の要素の鮮明さの数値を取得し、二次元配列Hの各要素の数値とする。 Further, the captured range data creation unit 52 acquires the numerical value of the sharpness of the elements of the captured image transferred to the two-dimensional array P by the image synthesizing unit 54, and sets the numerical value of each element of the two-dimensional array H.

合成画像送信部55は、画像合成部54が合成した画像(二次元配列P)が更新されるたびに、二次元配列Pをリモート側HMD70bの合成画像受信部41に対して送信する。なお、リモート側HMD70bにおいては、図14に示すように、合成画像表示部42が、受信した合成画像(二次元配列P)を含むウィンドウ102を表示装置22に表示する。 The composite image transmission unit 55 transmits the two-dimensional array P to the composite image reception unit 41 of the remote HMD 70b each time the image (two-dimensional array P) synthesized by the image composition unit 54 is updated. In the remote side HMD 70b, as shown in FIG. 14, the composite image display unit 42 displays the window 102 including the received composite image (two-dimensional array P) on the display device 22.

また、撮影済範囲データ送信部53は、二次元配列H(撮影済範囲データ)が更新されるたびに、メイン側HMD70aの撮影済範囲データ取得部38に対して二次元配列Hを送信する。 Further, the photographed range data transmission unit 53 transmits the two-dimensional array H to the photographed range data acquisition unit 38 of the main HMD 70a every time the two-dimensional array H (photographed range data) is updated.

図5に戻り、メイン側HMD70aにおいては、ステップS30が実施された後、ステップS32に移行し、撮影済範囲データ取得部38が、サーバ10(撮影済範囲データ送信部53)から送信されてきた撮影済範囲データを受信する。 Returning to FIG. 5, in the main side HMD70a, after step S30 is executed, the process proceeds to step S32, and the captured range data acquisition unit 38 is transmitted from the server 10 (photographed range data transmission unit 53). Receives the captured range data.

次いで、ステップS34では、位置関係特定部39が、撮影済範囲データを参照して、画像合成が完了したか否かを判断する。すなわち、位置関係特定部39は、撮影済範囲データ(二次元配列H)の全要素の数が0以外であるか否かを判断し、全要素の数が0以外であれば、ステップS34の判断が肯定され、ステップS36に移行する。一方、二次元配列Hの少なくとも一つの要素の数が0である場合には、ステップS34の判断は否定されて、ステップS18に戻る。ステップS18に戻った場合、ステップS34の判断が肯定されるまで、ステップS18〜S34の処理・判断が繰り返し実行される。 Next, in step S34, the positional relationship specifying unit 39 refers to the captured range data and determines whether or not the image composition is completed. That is, the positional relationship specifying unit 39 determines whether or not the number of all elements of the photographed range data (two-dimensional array H) is other than 0, and if the number of all elements is other than 0, step S34. The judgment is affirmed, and the process proceeds to step S36. On the other hand, when the number of at least one element of the two-dimensional array H is 0, the determination in step S34 is denied and the process returns to step S18. When returning to step S18, the processing / determination of steps S18 to S34 is repeatedly executed until the determination in step S34 is affirmed.

ここで、ステップS32において撮影済範囲データをサーバ10から受信した後に行われるステップS19では、撮影要否判断部36が、上述した条件(2)「交点Phがすでに撮影された領域にない。」を満たしているか否かを判断する。この場合、撮影要否判断部36は、共有領域rを受信した撮影済範囲データ(二次元配列H)で置き換え、図15に示すように、視線ベクトルPvと平面fとの交点(視線ベクトルと共有領域rとの交点)Phを求める。そして、撮影要否判断部36は、交点Phに対応する二次元配列Hの要素の値を取得し、取得した値が0であれば、条件(2)「交点Phがすでに撮影された領域にない。」を満たしていると判断する。このような判断を行うことで、不要な撮影を減らすことができるため、撮影の効率を向上することが可能となる。 Here, in step S19, which is performed after receiving the photographed range data from the server 10 in step S32, the imaging necessity determination unit 36 determines the above-mentioned condition (2) "The intersection Ph is not in the already photographed area." Judge whether or not the above is satisfied. In this case, the photographing necessity determination unit 36 replaces the shared area r with the received photographed range data (two-dimensional array H), and as shown in FIG. 15, the intersection of the line-of-sight vector Pv and the plane f (the line-of-sight vector and the line-of-sight vector). (Intersection with shared area r) Ph is obtained. Then, the shooting necessity determination unit 36 acquires the value of the element of the two-dimensional array H corresponding to the intersection Ph, and if the acquired value is 0, the condition (2) “In the region where the intersection Ph has already been taken” It is judged that "No." is satisfied. By making such a judgment, unnecessary shooting can be reduced, so that shooting efficiency can be improved.

ステップS34の判断が肯定されて、ステップS36に移行すると、位置関係特定部39は、新たな画像合成の要求が入力されるまで待機する。ユーザ(メイン側HMD70aのユーザ又はリモート側HMD70bのユーザのいずれか)により新たな画像合成の要求が入力されると、ステップS38に移行し、位置関係特定部39は、撮影済範囲データ(二次元配列H)を破棄し、ステップS18に戻る。なお、メイン側HMD70aにおいてステップS38の処理が実行される段階では、サーバ10においても撮影済範囲データ(二次元配列H)は破棄されているものとする。その後は上述したステップS18以降の処理が繰り返し実行されるようになっている。 When the determination in step S34 is affirmed and the process proceeds to step S36, the positional relationship specifying unit 39 waits until a new image composition request is input. When a new image composition request is input by the user (either the user of the main HMD70a or the user of the remote HMD70b), the process proceeds to step S38, and the positional relationship specifying unit 39 uses the captured range data (two-dimensional). The sequence H) is discarded, and the process returns to step S18. At the stage where the process of step S38 is executed on the main side HMD70a, it is assumed that the captured range data (two-dimensional array H) is also discarded on the server 10. After that, the processes after step S18 described above are repeatedly executed.

なお、図5の処理は、ユーザからの終了要求を受信した場合や、メイン側HMD70a又はリモート側HMD70bの電源がOFFにされた場合に終了する。 The process of FIG. 5 ends when a termination request from the user is received or when the power of the main HMD70a or the remote HMD70b is turned off.

なお、リモート側HMD70bでは、図14のウィンドウ102に表示されている共有領域の合成画像に対して、矩形、直線、曲線などを描画できるものとする。例えば、制御装置30は、ユーザがウィンドウ102内のアイコンを用いて描画する図形を選択し、ウィンドウ102上で指を動かしたことを検出すると、指の動きに応じた図形(文字等でもよい)をウィンドウ102内に描画する。なお、制御装置30は描画した図形の情報をメイン側HMD70aに送信してもよい。この場合、メイン側HMD70aの制御装置30は、受信した情報に基づいて、ユーザの視野内のホワイトボードに重ねるようにして、表示装置22に図形を表示するようにしてもよい。これにより、リモート側HMD70bのユーザが描画した図形を、ユーザ間で共有することができる。 It should be noted that the remote-side HMD70b can draw a rectangle, a straight line, a curved line, or the like with respect to the composite image of the shared area displayed in the window 102 of FIG. For example, when the control device 30 selects a figure to be drawn using the icon in the window 102 and detects that the user has moved a finger on the window 102, the control device 30 detects that the user has moved the finger, and the figure (character or the like) corresponding to the movement of the finger may be used. Is drawn in the window 102. The control device 30 may transmit the information of the drawn figure to the main HMD 70a. In this case, the control device 30 of the main HMD 70a may display the graphic on the display device 22 by superimposing it on the whiteboard in the user's field of view based on the received information. As a result, the figure drawn by the user of the remote HMD 70b can be shared among the users.

これまでの説明から明らかなように、本実施形態では、共有領域の設定の際に利用する3Dマッピングデータ(第1の画像)を生成する距離画像カメラ17と、サーバ10に送信する画像(第2の画像)を撮影するカメラ16とを含んで、撮影装置としての機能が実現されている。 As is clear from the above description, in the present embodiment, the distance image camera 17 that generates the 3D mapping data (first image) used when setting the shared area and the image to be transmitted to the server 10 (the first image). The function as a photographing device is realized including the camera 16 that captures the image of 2).

以上、詳細に説明したように、本実施形態によると、共有領域設定部33は、共有領域rの各頂点の指定を受け付けて、共有領域DB29に共有領域rの各頂点の座標を格納するとともに、各頂点を含む平面fを特定して、共有領域DB29に格納する。また、画像取得部37が撮影画像を取得すると、位置関係特定部39は、平面fと、撮影時の視線ベクトルPvとに基づき、平面fのうち撮影された範囲を示す情報(共有領域rと撮影範囲Crの位置関係の情報)を生成する。そして、送信部40は、撮影画像と、生成した情報とをサーバ10に対して送信する。このため、サーバ10では、共有領域rと撮影範囲Crの位置関係の情報(平面fのうち撮影範囲を示す情報)に基づいて撮影画像を合成して、共有領域r内の画像を生成することができる。これにより、例えば、画像解析により画像の特徴を検出し、複数の画像の重なり具合を特定して画像を合成する場合と比較して、画像合成の際のサーバ10の処理負荷を軽減することができる。 As described in detail above, according to the present embodiment, the shared area setting unit 33 accepts the designation of each vertex of the shared area r and stores the coordinates of each vertex of the shared area r in the shared area DB 29. , The plane f including each vertex is specified and stored in the shared area DB 29. Further, when the image acquisition unit 37 acquires the captured image, the positional relationship specifying unit 39 obtains information (shared area r) indicating the captured range of the plane f based on the plane f and the line-of-sight vector Pv at the time of shooting. Information on the positional relationship of the shooting range Cr) is generated. Then, the transmission unit 40 transmits the captured image and the generated information to the server 10. Therefore, the server 10 synthesizes the captured images based on the information on the positional relationship between the shared area r and the photographing range Cr (information indicating the photographing range in the plane f) to generate an image in the shared area r. Can be done. Thereby, for example, the processing load of the server 10 at the time of image composition can be reduced as compared with the case where the feature of the image is detected by image analysis, the overlapping condition of a plurality of images is specified and the images are combined. can.

また、本実施形態では、ブレ検出部35は、画像取得部37が取得した画像が撮影されたときのカメラ16の動き(ブレ)が許容範囲に含まれるか否かを判断する。そして、送信部40は、許容範囲に含まれている場合に、撮影画像と、共有領域rと撮影範囲Crとの位置関係の情報と、をサーバ10に送信する。これにより、ブレの少ない撮影画像と該撮影画像に対応する情報とをサーバ10に送信することができるため、サーバ10は合成画像として鮮明な画像を生成することができる。 Further, in the present embodiment, the blur detection unit 35 determines whether or not the movement (blur) of the camera 16 when the image acquired by the image acquisition unit 37 is taken is included in the allowable range. Then, the transmission unit 40 transmits the captured image and the information on the positional relationship between the shared area r and the photographing range Cr to the server 10 when it is included in the allowable range. As a result, the captured image with less blur and the information corresponding to the captured image can be transmitted to the server 10, so that the server 10 can generate a clear image as a composite image.

また、本実施形態では、撮影要否判断部36は、撮影済範囲データと、カメラ16の向き(視線ベクトル)とに基づいて、撮影要否を判断するので、合成に必要な画像に限定して撮影することができ、無駄な撮影を減らすことができる。 Further, in the present embodiment, the shooting necessity determination unit 36 determines the shooting necessity based on the photographed range data and the direction (line-of-sight vector) of the camera 16, so that the image is limited to the images required for compositing. It is possible to take pictures and reduce unnecessary shooting.

なお、上記実施形態では、共有領域rが1か所設定される場合について説明したが、これに限らず、共有領域rは複数設定されてもよい。この場合、各共有領域について、図5のステップS18以降の処理を繰り返し実行することで、共有領域それぞれの合成画像を生成し、リモート側HMD70bの表示装置22上に並べて表示するようにしてもよい。 In the above embodiment, the case where one shared area r is set has been described, but the present invention is not limited to this, and a plurality of shared areas r may be set. In this case, by repeatedly executing the processes after step S18 in FIG. 5 for each shared area, a composite image of each shared area may be generated and displayed side by side on the display device 22 of the remote HMD 70b. ..

なお、上記実施形態では、共有領域が長方形である場合について説明したが、これに限られるものではない。共有領域は、三角形であってもよいし、五角形、六角形…であってもよい。 In the above embodiment, the case where the shared area is rectangular has been described, but the present invention is not limited to this. The common area may be a triangle, a pentagon, a hexagon, and so on.

なお、上記実施形態では、リモート側HMD70bが複数台あってもよい。この場合、サーバ10は、共有領域rの合成画像を複数台のリモート側HMD70bに送信するようにすればよい。 In the above embodiment, there may be a plurality of remote-side HMD70bs. In this case, the server 10 may transmit the composite image of the shared area r to a plurality of remote side HMDs 70b.

なお、上記実施形態では、画像合成が完了した後(図5のステップS34の判断が肯定された後)、ステップS36において、ユーザの入力に応じて画像合成を再開する場合について説明したが、これに限られるものではない。例えば、所定タイミングごとに画像合成を行うこととしてもよい。具体的には、1枚の画像合成が終了した段階で、新たな画像合成を開始することとしてもよい。また、1枚の画像合成が終了してから所定時間が経過した段階で、新たな画像合成を開始することとしてもよい。 In the above embodiment, after the image composition is completed (after the determination in step S34 in FIG. 5 is affirmed), the case where the image composition is restarted in response to the user's input in step S36 has been described. It is not limited to. For example, image composition may be performed at predetermined timing intervals. Specifically, a new image composition may be started when the image composition of one image is completed. Further, a new image composition may be started when a predetermined time has elapsed from the completion of the image composition of one image.

なお、上記実施形態では、画像合成をサーバ10において実行する場合について説明したが、これに限られるものではない。例えば、上記実施形態においてサーバ10において実行した処理(画像合成処理や撮影済範囲データの作成処理)をメイン側HMD70aにおいて実行することとしてもよい。すなわち、図16に示すように、メイン側HMD70aは、位置関係特定部39が特定した撮影画像や共有領域rと撮影範囲Crの位置関係の情報とに基づいて画像合成を行う合成部としての画像合成部54’や、撮影済範囲データを作成する作成部としての撮影済範囲データ作成部52’の機能を有する画像合成装置であってもよい。この場合、制御装置30は、図17に示すように、図5のステップS30、S32に代えて、ステップS30’、S32’の処理を実行すればよい。ステップS30’では、制御装置30の画像合成部54’は、共有領域rと撮影範囲Crの位置関係の情報に基づいて画像合成を行う。また、ステップS32’では、制御装置30の撮影済範囲データ作成部52’は、撮影済範囲データ(二次元配列H)を作成する。なお、送信部40は、ステップS30’において、画像合成部54’が合成した画像をリモート側HMD70bの合成画像受信部41に送信する。 In the above embodiment, the case where the image composition is executed on the server 10 has been described, but the present invention is not limited to this. For example, the process executed on the server 10 in the above embodiment (image composition process or captured range data creation process) may be executed on the main HMD 70a. That is, as shown in FIG. 16, the main side HMD70a is an image as a compositing unit that performs image composition based on a captured image specified by the positional relationship specifying unit 39 and information on the positional relationship between the shared area r and the photographing range Cr. It may be an image compositing device having a function of a compositing unit 54'or a photographed range data creating unit 52' as a creating unit for creating the photographed range data. In this case, as shown in FIG. 17, the control device 30 may execute the processes of steps S30'and S32'instead of steps S30 and S32 of FIG. In step S30', the image synthesizing unit 54'of the control device 30 performs image synthesizing based on the information on the positional relationship between the shared area r and the photographing range Cr. Further, in step S32', the photographed range data creation unit 52'of the control device 30 creates the photographed range data (two-dimensional array H). In step S30', the transmission unit 40 transmits the image synthesized by the image synthesis unit 54'to the composite image reception unit 41 of the remote HMD 70b.

また、上記実施形態においてサーバ10が実行した処理をリモート側HMD70bにおいて実行することとしてもよい。すなわち、リモート側HMD70bの制御装置30が、画像合成を行う画像合成部や、撮影済範囲データを作成する撮影済範囲データ作成部の機能を有していてもよい。 Further, the process executed by the server 10 in the above embodiment may be executed on the remote side HMD 70b. That is, the control device 30 of the remote side HMD 70b may have a function of an image synthesizing unit that performs image composition and a photographed range data creating unit that creates captured range data.

なお、リモート側HMD70bは、PCなどの端末であってもよい。この場合、端末の表示装置に共有領域の合成画像を表示することで、ユーザ間で共有領域の情報を共有することが可能となる。 The remote side HMD70b may be a terminal such as a PC. In this case, by displaying the composite image of the shared area on the display device of the terminal, it is possible to share the information of the shared area between the users.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing function can be realized by a computer. In that case, a program that describes the processing content of the function that the processing device should have is provided. By executing the program on a computer, the above processing function is realized on the computer. The program describing the processing content can be recorded on a computer-readable recording medium (however, the carrier wave is excluded).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable recording medium and execute the processing according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are examples of preferred embodiments of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.

なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータに実行させるための送信プログラム。
(付記2) 取得した前記第2の画像の撮像時の前記撮像装置の動きが許容範囲に含まれるか否かの判定を行い、
判定結果が肯定的である場合、取得した前記第2の画像と、生成した前記情報とを送信する、
処理を前記コンピュータに更に実行させることを特徴とする付記1に記載の送信プログラム。
(付記3) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データと、前記撮像装置の向きと、に基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理を前記コンピュータに更に実行させることを特徴とする付記1又は2に記載の送信プログラム。
(付記4) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータが実行することを特徴とする送信方法。
(付記5) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する送信部と、
を備える送信装置。
(付記6) 取得した前記第2の画像の撮像時の前記撮像装置の動きが許容範囲に含まれるか否かの判定を行う判定部を更に備え、
前記送信部は、前記判定部の判定結果が肯定的である場合に、取得した前記第2の画像と、生成した前記情報とを送信する、ことを特徴とする付記5に記載の送信装置。
(付記7) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データと、前記撮像装置の向きと、に基づいて、前記撮像装置による撮像を行うか否かを判断する判断部を更に備える付記5又は6に記載の送信装置。
(付記8) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータに実行させるための画像合成プログラム。
(付記9) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データを作成し、
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理をコンピュータに更に実行させることを特徴とする付記8に記載の画像合成プログラム。
(付記10) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータが実行することを特徴とする画像合成方法。
(付記11) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する合成部と、
を備える画像合成装置。
(付記12) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データを作成する作成部と、
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する判断部と、を更に備える付記11に記載の画像合成装置。
Regarding the above description of the embodiment, the following additional notes will be further disclosed.
(Appendix 1) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A sending program that lets a computer perform processing.
(Appendix 2) It is determined whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
If the determination result is affirmative, the acquired second image and the generated information are transmitted.
The transmission program according to Appendix 1, wherein the computer further executes the process.
(Appendix 3) Based on the management data for managing the range of the subject imaged by the image pickup device and the orientation of the image pickup device, it is determined whether or not to perform the image pickup by the image pickup device.
The transmission program according to Appendix 1 or 2, wherein the computer further executes the process.
(Appendix 4) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A transmission method characterized in that the processing is performed by a computer.
(Appendix 5) A reception unit that accepts the designation of the part of the subject included in the first image captured by the imaging device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
A transmission unit that transmits the acquired second image and the generated information to a specific destination.
A transmitter equipped with.
(Appendix 6) Further provided with a determination unit for determining whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
The transmission device according to Appendix 5, wherein the transmission unit transmits the acquired second image and the generated information when the determination result of the determination unit is positive.
(Appendix 7) Further, a determination unit for determining whether or not to perform imaging by the imaging device is further provided based on the management data for managing the range of the subject imaged by the imaging device and the orientation of the imaging device. The transmitter according to Appendix 5 or 6.
(Appendix 8) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image synthesis program that allows a computer to perform processing.
(Appendix 9) Create management data for managing the range of the subject imaged by the imaging device, and create management data.
Based on the management data and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The image synthesis program according to Appendix 8, wherein the processing is further executed by a computer.
(Appendix 10) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image composition method characterized in that processing is performed by a computer.
(Appendix 11) A reception unit that accepts designation of a part of the subject included in the first image captured by the imaging device, and a reception unit.
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
When a plurality of the second images are acquired, a compositing unit that synthesizes the plurality of the second images based on information indicating a range corresponding to the plurality of the second images, and a compositing unit.
An image synthesizer comprising.
(Appendix 12) A creation unit that creates management data that manages the range of the subject imaged by the imaging device, and a creation unit.
The image synthesizer according to Appendix 11, further comprising a determination unit for determining whether or not to perform imaging by the image pickup device based on the management data and the orientation of the image pickup device.

16 カメラ(撮像装置の一部)
17 距離画像カメラ(撮像装置の一部)
29 共有領域DB(記憶部)
33 共有領域設定部(受付部、特定部)
35 ブレ検出部(判定部)
36 撮影要否判断部(判断部)
39 位置関係特定部(生成部)
40 送信部
52’ 撮影済範囲データ作成部(作成部)
54’ 画像合成部(合成部)
70a メイン側HMD(送信装置、画像合成装置)
16 Camera (part of imaging device)
17 Distance image camera (part of imaging device)
29 Shared area DB (storage unit)
33 Shared area setting department (reception department, specific department)
35 Blur detection unit (judgment unit)
36 Shooting Necessity Judgment Department (Judgment Department)
39 Positional relationship identification part (generation part)
40 Transmitter 52'Captured range data creation unit (creation unit)
54'Image Synthesis Department (Composite Department)
70a Main side HMD (transmitter, image synthesizer)

Claims (9)

撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータに実行させるための送信プログラム。
Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A sending program that lets a computer perform processing.
取得した前記第2の画像の撮像時の前記撮像装置の動きが許容範囲に含まれるか否かの判定を行い、
判定結果が肯定的である場合、取得した前記第2の画像と、生成した前記情報とを送信する、
処理を前記コンピュータに更に実行させることを特徴とする請求項1に記載の送信プログラム。
It is determined whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
If the determination result is affirmative, the acquired second image and the generated information are transmitted.
The transmission program according to claim 1, wherein the computer further executes the process.
前記撮像装置により撮像された前記被写体の範囲を管理する管理データと、前記撮像装置の向きと、に基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理を前記コンピュータに更に実行させることを特徴とする請求項1又は2に記載の送信プログラム。
Based on the management data for managing the range of the subject captured by the imaging device and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The transmission program according to claim 1 or 2, wherein the computer further executes the process.
撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータが実行することを特徴とする送信方法。
Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A transmission method characterized in that the processing is performed by a computer.
撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する送信部と、
を備える送信装置。
A reception unit that accepts the designation of the part of the subject included in the first image captured by the image pickup device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
A transmission unit that transmits the acquired second image and the generated information to a specific destination.
A transmitter equipped with.
撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータに実行させるための画像合成プログラム。
Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image synthesis program that allows a computer to perform processing.
前記撮像装置により撮像された前記被写体の範囲を管理する管理データを作成し、
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理をコンピュータに更に実行させることを特徴とする請求項6に記載の画像合成プログラム。
Create management data that manages the range of the subject captured by the imaging device, and create management data.
Based on the management data and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The image synthesis program according to claim 6, wherein the processing is further executed by a computer.
撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータが実行することを特徴とする画像合成方法。
Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image composition method characterized in that processing is performed by a computer.
撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する合成部と、
を備える画像合成装置。
A reception unit that accepts the designation of the part of the subject included in the first image captured by the image pickup device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
When a plurality of the second images are acquired, a compositing unit that synthesizes the plurality of the second images based on information indicating a range corresponding to the plurality of the second images, and a compositing unit.
An image synthesizer comprising.
JP2018012253A 2018-01-29 2018-01-29 Transmission program, method and device, and image synthesis program, method and device Expired - Fee Related JP6950548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018012253A JP6950548B2 (en) 2018-01-29 2018-01-29 Transmission program, method and device, and image synthesis program, method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018012253A JP6950548B2 (en) 2018-01-29 2018-01-29 Transmission program, method and device, and image synthesis program, method and device

Publications (2)

Publication Number Publication Date
JP2019133217A JP2019133217A (en) 2019-08-08
JP6950548B2 true JP6950548B2 (en) 2021-10-13

Family

ID=67547492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018012253A Expired - Fee Related JP6950548B2 (en) 2018-01-29 2018-01-29 Transmission program, method and device, and image synthesis program, method and device

Country Status (1)

Country Link
JP (1) JP6950548B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594980B1 (en) * 2015-01-19 2017-03-14 Ricoh Co., Ltd. Image acquisition user interface for linear panoramic image stitching
WO2016203282A1 (en) * 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
JP6886236B2 (en) * 2015-09-30 2021-06-16 富士通株式会社 Visual field guidance method, visual field guidance program, and visual field guidance device
JP6065084B2 (en) * 2015-10-30 2017-01-25 ソニー株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2019133217A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP7026819B2 (en) Camera positioning method and equipment, terminals and computer programs
JP6643357B2 (en) Full spherical capture method
JP6919334B2 (en) Image processing device, image processing method, program
CN114170349B (en) Image generation method, device, electronic device and storage medium
JP7582287B2 (en) Communication terminal, image communication system, display method, and program
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
JP6732617B2 (en) Information processing apparatus and image generation method
WO2013069047A1 (en) Image generation device, and image generation method
CN111696213A (en) Image generation device, image generation method, and computer-readable medium
WO2013069050A1 (en) Image generation device and image generation method
WO2013069049A1 (en) Image generation device, and image generation method
WO2013069048A1 (en) Image generating device and image generating method
JP2019144958A (en) Image processing device, image processing method, and program
WO2019012803A1 (en) Designation device and designation method
JP2018033107A (en) Video distribution device and distribution method
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
CN109714585B (en) Image transmission method and device, display method and device, and storage medium
US20250322581A1 (en) Information processing apparatus, screen generation method, non-transitory recording medium, and information processing system
JP2020204973A (en) Information processing equipment, programs and information processing systems
JP6950548B2 (en) Transmission program, method and device, and image synthesis program, method and device
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium
JP2018157314A (en) Information processing system, information processing method and program
JP6631193B2 (en) Video sound recording system, video sound recording device, video sound recording program, and video sound recording method
US12506967B2 (en) Display terminal, communication system, display method, and recording medium which displays an image of predetermined area in a wide visual field image and the wide visual field image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees