JP6950548B2 - Transmission program, method and device, and image synthesis program, method and device - Google Patents
Transmission program, method and device, and image synthesis program, method and device Download PDFInfo
- Publication number
- JP6950548B2 JP6950548B2 JP2018012253A JP2018012253A JP6950548B2 JP 6950548 B2 JP6950548 B2 JP 6950548B2 JP 2018012253 A JP2018012253 A JP 2018012253A JP 2018012253 A JP2018012253 A JP 2018012253A JP 6950548 B2 JP6950548 B2 JP 6950548B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- acquired
- unit
- pickup device
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置に関する。 The present invention relates to transmission programs, methods and devices, and image synthesis programs, methods and devices.
近年、在宅勤務に代表されるテレワークを検討・導入する企業が増加している。テレワークを導入した場合、複数の人が異なる場所で働くことになるため、情報の共有が重要である。 In recent years, an increasing number of companies are considering and introducing telework represented by working from home. When telework is introduced, information sharing is important because multiple people will work in different places.
情報共有技術としては、例えば電子会議システムなどを用いることで、デジタルデータを共有する技術が知られている。また、紙やホワイトボード等、アナログデータを共有する場合には、紙やホワイトボードを撮影した画像を共有する必要がある。 As an information sharing technology, a technology for sharing digital data by using, for example, an electronic conference system is known. In addition, when sharing analog data such as paper and whiteboard, it is necessary to share images taken of paper and whiteboard.
画像を撮影して共有する場合において、例えば1枚の画像でホワイトボード全体をカバーできない場合には、複数の画像を合成することが考えられる。 When images are taken and shared, for example, when one image cannot cover the entire whiteboard, it is conceivable to combine a plurality of images.
複数の画像を合成する技術としては、複数の画像を解析したうえで局所的な特徴を検出し、各画像の重なり具合に基づいて各画像を合成する技術が知られているが、この技術では、画像合成を行う処理装置に大きな負荷をかけるおそれがある。 As a technique for synthesizing a plurality of images, a technique is known in which a plurality of images are analyzed, local features are detected, and each image is combined based on the degree of overlap of the images. , There is a risk of imposing a heavy load on the processing device that performs image composition.
1つの側面では、本発明は、画像合成の際の処理負荷を軽減することが可能な送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置を提供することを目的とする。 In one aspect, it is an object of the present invention to provide a transmission program, method and apparatus capable of reducing a processing load during image composition, and an image composition program, method and apparatus.
一つの態様では、送信プログラムは、撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、処理をコンピュータに実行させるための送信プログラムである。 In one embodiment, the transmission program refers to a storage unit that receives designation of a part of the subject included in the first image captured by the imaging device and stores the position of the part of the subject in association with the part. When the plane including the position associated with the designated portion is specified and the second image newly captured by the imaging device is acquired, the specified plane and the acquired second image are obtained. Based on the orientation of the imaging device at the time of imaging, information indicating a range corresponding to the acquired second image in the plane is generated, and the acquired second image and the generated information are used. Is a transmission program for causing a computer to execute a process of transmitting an image to a specific destination.
画像合成の際の処理負荷を軽減することができる。 The processing load at the time of image composition can be reduced.
以下、情報共有システムの一実施形態について、図1〜図15に基づいて詳細に説明する。図1には、一実施形態に係る情報共有システム100の構成が概略的に示されている。
Hereinafter, one embodiment of the information sharing system will be described in detail with reference to FIGS. 1 to 15. FIG. 1 schematically shows the configuration of the
情報共有システム100は、例えばオフィスで働くユーザと、テレワークにより自宅等で働くユーザとが音声通話により会議を行う際に用いるシステムである。例えば、情報共有システム100においては、オフィスで働くユーザがホワイトボードなどに記載した情報を自宅等で働くユーザに対して送信することで、ユーザ間における情報共有を実現する。
The
情報共有システム100は、図1に示すように、サーバ10と、複数のヘッドマウントディスプレイ(HMD)70と、を備える。サーバ10とHMD70とは、インターネットなどのネットワーク80に接続されている。
As shown in FIG. 1, the
(サーバ10)
サーバ10は、複数のHMD70において、ホワイトボードなどに記載した情報を共有する場合に、画像の合成処理等を実行する装置である。図2には、サーバ10のハードウェア構成が示されている。図2に示すように、サーバ10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive)、SSD(Solid State Drive)やフラッシュメモリなど)96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これらサーバ10の構成各部は、バス98に接続されている。サーバ10では、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムをCPU90が実行することにより、図4に示す各部の機能が実現される。なお、図4の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。なお、図4の各部の詳細については後述する。
(Server 10)
The
(HMD70)
HMD70は、ユーザが頭部に装着できる装置である。HMD70としては、例えば、単眼の透過型のHMDを用いることができる。なお、HMD70としては、例えば、両眼用や没入型等の各種のHMDを用いるようにしてもよい。
(HMD70)
The HMD 70 is a device that can be worn by the user on the head. As the
図3(a)には、HMD70のハードウェア構成が示されている。図3(a)に示すように、HMD70は、加速度センサ12と、ジャイロセンサ14と、地磁気センサ15と、カメラ16と、距離画像カメラ17と、マイク18と、入力装置20と、表示装置22と、音声出力装置24と、通信装置26と、制御装置30と、を備える。
FIG. 3A shows the hardware configuration of the HMD 70. As shown in FIG. 3A, the HMD 70 includes an
加速度センサ12は、HMD70の加速度を検出するセンサである。加速度センサ12としては、例えば、ピエゾ抵抗型や静電容量型等の3軸加速度センサを用いることができる。加速度センサ12による計測結果は制御装置30に送信される。
The
ジャイロセンサ14は、HMD70の角度(姿勢)や角速度あるいは角加速度を検出するセンサである。ジャイロセンサ14としては、例えば振動型のジャイロセンサを用いることができる。ジャイロセンサ14による計測結果は制御装置30に送信される。
The
地磁気センサ15は、例えば3軸の地磁気センサであり、地磁気を検出することで、HMD70が向いている方角を計測する。地磁気センサ15による計測結果は制御装置30に送信される。
The
なお、HMD70は、加速度センサ12、ジャイロセンサ14、地磁気センサ15の他、方位センサ、GPS(Global Positioning System)等を備えていてもよい。
The
カメラ16は、ユーザの目の近傍に設けられ、HMD70を装着したユーザが向いている方向を撮影(撮像)する。カメラ16で撮影された画像は制御装置30に送信される。なお、本実施形態では、カメラ16の画角は、所定の画角で固定されているものとする。
The
距離画像カメラ17は、例えば、TOF(Time of Flight)方式の測距技術を用いて、3次元の対象物までの距離を表わす距離画像を生成する。例えば、HMD70を装着したユーザが、図6に示すような部屋(企業内の会議室など)にいる場合には、距離画像として、図7に示すような3Dマッピングデータが生成される。なお、本実施形態では、距離画像カメラ17で撮影される範囲とカメラ16で撮影される範囲とが同一となるように調整されているものとする。
The distance image camera 17 uses, for example, a TOF (Time of Flight) distance measuring technique to generate a distance image showing the distance to a three-dimensional object. For example, when the user wearing the
マイク18は、ユーザの声や周辺の音を集音する。入力装置20は、タッチパッドやボタン等であり、電源ボタンやホームボタン、音量調節ボタン等を含む。
The
表示装置22は、各種情報を表示するための表示デバイスである。表示装置22は、例えば、ハーフミラーに情報を投影する装置であるものとする。すなわち、表示装置22は、ユーザが情報とともに外部の風景を透過して見ることができる透過型の表示装置であるものとする。なお、表示装置22は、没入型、ビデオ透過型、網膜投影型等の表示装置であってもよい。 The display device 22 is a display device for displaying various types of information. The display device 22 is, for example, a device that projects information onto a half mirror. That is, the display device 22 is a transparent display device that allows the user to see through the external landscape together with the information. The display device 22 may be an immersive type, a video transmission type, a retinal projection type, or the like.
音声出力装置24は、スピーカやイヤホンであり、制御装置30の指示の下、音声情報を出力する。ユーザは、HMD70において通話アプリを起動し、他の端末(HMD70を含む)と通信を行うことで、マイク18と音声出力装置24を利用した他の端末のユーザとの通話(電話会議など)を行うことができる。
The
通信装置26は、ネットワーク80を介して、サーバ10や他のHMD70と情報のやり取りを行う。
The
制御装置30は、HMD70の各部を統括的に制御する。特に、本実施形態では、制御装置30は、電話会議などが行われるときに、複数のユーザ間において予め定めた共有領域(例えばホワイトボードや紙などが存在する領域)の画像を共有させるための機能を有している。図3(b)には、制御装置30のハードウェア構成が示されている。図3(b)に示すように、制御装置30は、CPU190、ROM192、RAM194、記憶部(ここではSSDやフラッシュメモリなど)196、入出力インタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これら制御装置30の構成各部は、バス198に接続されている。入出力インタフェース197には、図3(a)の制御装置30以外の各装置が接続されている。制御装置30では、ROM192あるいはHDD196に格納されているプログラム(送信プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラムをCPU190が実行することにより、図4に示す各部の機能が実現される。なお、図4の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。ここで、図4には、メイン側HMD70aとリモート側HMD70bの機能ブロック図が図示されている。HMD70においては、制御装置30のCPU190がプログラムを実行することにより、メイン側HMD70aとして機能したり、リモート側HMD70bとして機能したりする。なお、HMD70がメイン側HMD70aとリモート側HMD70bのいずれとして機能するかは、ユーザの設定による。なお、メイン側HMD70aは、サーバ10に対して撮影した画像や撮影した画像に関する情報を送信する送信装置としての機能を有する。
The
(メイン側HMD70aの機能)
メイン側HMD70aは、CPU190がプログラムを実行することにより、原点取得部31、3Dマッピングデータ取得部32、受付部及び特定部としての共有領域設定部33、視線ベクトル取得部34、判定部としてのブレ検出部35、判断部としての撮影要否判断部36、画像取得部37、撮影済範囲データ取得部38、生成部としての位置関係特定部39、送信部40、として機能する。
(Function of main side HMD70a)
When the
原点取得部31は、メイン側HMD70aの電源がONにされたタイミングなどにおいて、メイン側HMD70aの位置(本実施形態ではカメラ16の位置とする)を原点として取得する。
The
3Dマッピングデータ取得部32は、距離画像カメラ17が生成した第1の画像としての3Dマッピングデータ(図7参照)を取得する。
The 3D mapping
共有領域設定部33は、3Dマッピングデータに含まれる被写体のうちユーザが指定した領域(例えばホワイトボードの描画範囲)を共有領域として設定する。共有領域設定部33は、原点取得部31が取得した原点や3Dマッピングデータに基づいて、共有領域の情報(共有領域が長方形状の領域である場合には、長方形の4つの頂点の情報)を特定し、記憶部としての共有領域DB29に格納する。また、共有領域設定部33は、共有領域を含む平面を特定し、特定した平面の情報も共有領域DB29に格納する。
The shared
視線ベクトル取得部34は、原点取得部31が取得した原点や地磁気センサ15等の計測結果に基づいて、ユーザの視線ベクトルを取得する。なお、本実施形態においてユーザの視線ベクトルとは、HMD70が向いている方向(カメラ16が撮影する方向)を示すベクトルであり、原点とカメラ16の画角の中心を結ぶベクトルであるものとする。
The line-of-sight
ブレ検出部35は、カメラ16による撮影の前後において視線ベクトル取得部34が取得した視線ベクトルを取得し、取得した視線ベクトルに基づいて撮影時におけるユーザの頭(メイン側HMD70a)のブレを検出する。ブレ検出部35は、検出したブレの情報を位置関係特定部39に対して出力する。なお、ブレ検出部35は、ブレを検出する際に、共有領域DB29に格納されている情報を参照する。
The
撮影要否判断部36は、HMD70のカメラ16が向いている方向(視線ベクトル)と、共有領域DB29に格納されている共有領域の情報と、撮影済範囲データ取得部38が取得した撮影済範囲データと、に基づいて、カメラ16を用いた撮影を行うか否かを判断する。なお、撮影済範囲データは、共有領域内においてこれまでに撮影されていない範囲(未撮影領域)を示すデータである。なお、撮影済範囲データの詳細及び撮影要否判断部36の判断方法の詳細については、後述する。
The shooting
画像取得部37は、カメラ16により撮影された画像(第2の画像)を取得し、送信部40に対して出力する。
The
撮影済範囲データ取得部38は、サーバ10から送信されてくる撮影済範囲データを取得し、撮影要否判断部36に対して送信する。
The photographed range
位置関係特定部39は、共有領域を含む平面において、共有領域とカメラ16が撮影した範囲(撮影範囲)の位置関係を特定する。位置関係特定部39により特定された情報は、送信部40に通知される。なお、位置関係特定部39は、ブレ検出部35により検出されたブレが許容範囲内である場合に、位置関係の特定を行う。
The positional
送信部40は、画像取得部37が取得した画像と、位置関係特定部39により特定された共有領域と撮影範囲の位置関係の情報と、をサーバ10に対して送信する。
The transmission unit 40 transmits the image acquired by the
(リモート側HMD70bの機能)
リモート側HMD70bは、CPU190がプログラムを実行することで、合成画像受信部41、合成画像表示部42として機能する。
(Function of remote side HMD70b)
The remote-side HMD70b functions as a composite image receiving unit 41 and a composite
合成画像受信部41は、サーバ10で合成された共有領域の画像を受信し、合成画像表示部42に送信する。
The composite image receiving unit 41 receives the image of the shared area synthesized by the
合成画像表示部42は、合成画像受信部41から合成画像を受信し、リモート側HMD70bの表示装置22に表示させる。この場合、リモート側HMD70bを装着するユーザの視野内の所定位置に、図14に示すような共有領域の合成画像を表示するためのウィンドウ102が表示されることになる。
The composite
(サーバ10の機能)
サーバ10は、CPU90がプログラムを実行することで、受信部51、画像合成部54、撮影済範囲データ作成部52、撮影済範囲データ送信部53、合成画像送信部55、として機能する。
(Function of server 10)
The
受信部51は、メイン側HMD70aから送信されてくる画像と、共有領域と撮影範囲の位置関係の情報とを受信し、画像合成部54に送信する。
The receiving unit 51 receives the image transmitted from the
画像合成部54は、受信部51がメイン側HMD70aから受信した共有領域と撮影範囲の位置関係の情報と、撮影済範囲データと、に基づいて、画像合成を実行する。
The
撮影済範囲データ作成部52は、画像合成部54において画像を合成した範囲を撮影済範囲データに反映させる。撮影済範囲データ送信部53は、撮影済範囲データを、画像合成部54及びメイン側HMD70aの撮影済範囲データ取得部38に送信する。
The captured range
合成画像送信部55は、画像合成部54が合成した画像をリモート側HMD70bに対して適宜送信する。
The composite
(メイン側HMD70aの処理について)
次に、メイン側HMD70aの処理について、図5のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。図5の処理は、一例として、メイン側HMD70aの電源がONにされた段階で開始される処理であるものとする。
(About the processing of HMD70a on the main side)
Next, the processing of the
まず、ステップS10では、原点取得部31が、原点を取得する。本実施形態では、原点は、メイン側HMD70aの所定点の位置(本実施形態ではカメラ16の位置)であるものとする。
First, in step S10, the
次いで、ステップS12では、3Dマッピングデータ取得部32が、距離画像カメラ17から図7に示すような3Dマッピングデータを取得する。なお、3Dマッピングデータは、ステップS10で取得された原点を基準としたデータである。
Next, in step S12, the 3D mapping
次いで、ステップS14では、共有領域設定部33が、ユーザから共有領域の指定要求があるまで待機する。ユーザは、所定の入力(例えば入力装置20やマイク18を用いた入力)を行うことで、共有領域の指定要求を入力する。ユーザから所定の入力があると、共有領域設定部33は、ステップS16に移行する。
Next, in step S14, the shared
ステップS16に移行すると、共有領域設定部33は、共有領域の設定処理を実行する。具体的には、以下のような処理を実行する。なお、本実施形態では、ユーザは共有領域として矩形状の領域を指定するものとする。
When the process proceeds to step S16, the shared
ユーザは、共有領域を指定する場合、メイン側HMD70aの視野中心を、共有領域の4つの頂点に順次合わせるようにする。なお、メイン側HMD70aの視野中心にマーカ等の目印が付されている場合には、ユーザは目印の位置を各頂点の位置に合わせるようにすればよい。 When the user specifies the shared area, the center of the field of view of the main HMD70a is sequentially aligned with the four vertices of the shared area. When a mark such as a marker is attached to the center of the visual field of the main HMD70a, the user may adjust the position of the mark to the position of each apex.
共有領域設定部33は、ユーザによる共有領域の指定(各頂点の指定)を受け付けると、ユーザが各頂点を指定したときの視線ベクトルと、3Dマッピングデータの交点を計算する。ここで、視線ベクトルは、メイン側HMD70aの所定点(カメラ16の位置)Pを通り、メイン側HMD70aが向く方向に延びるベクトル(図8(a)において破線矢印で示すベクトル)であり、地磁気センサ15等の計測結果に基づいて視線ベクトル取得部34により取得される。図8(a)には、この計算により求められた4つの交点A、B、C、Dが図示されている。なお、図8(a)では、所定点Pの座標が(Xp,Yp,Zp)、交点Aの座標が(Xa,Ya,Za)、交点Bの座標が(Xb,Yb,Zb)、交点Cの座標が(Xc,Yc,Zc)、交点Dの座標が(Xd,Yd,Zd)とされている。
When the shared
次いで、共有領域設定部33は、4点(A、B、C、D)の中心点Eを計算する。この場合、共有領域設定部33は、4点の座標の平均を中心点Eの座標とする。なお、図8(a)においては、中心点Eの座標が(Xe,Ye,Ze)とされている。
Next, the shared
次いで、共有領域設定部33は、中心点Eを含み、交点A、B、C、Dの4点の近傍に広がる平面fを求め、平面fの情報を共有領域DB29に格納する。
Next, the shared
次いで、共有領域設定部33は、平面f上で中心点Eを中心とし、幅が線分AD間の長さと線分BC間の長さの平均の長さであり、高さが線分AB間の長さと線分CD間の長さの平均の長さである長方形rを求める。図8(b)においては、長方形rが太破線にて示されている。
Next, the shared
次いで、共有領域設定部33は、長方形rの4つの頂点を頂点A’、B’、C’、D’とする。なお、図8(b)では、頂点A’の座標が(Xa’,Ya’,Za’)、頂点B’の座標が(Xb’,Yb’,Zb’)、頂点C’の座標が(Xc’,Yc’,Zc’)、頂点D’の座標が(Xd’,Yd’,Zd’)、とされている。
Next, the shared
そして、共有領域設定部33は、4つの頂点A’〜D’を有する長方形rを共有領域rとして設定し、頂点A’〜D’の座標を共有領域DB29に格納する。
Then, the shared
以上により、ステップS16の共有領域の設定処理が終了する。なお、本実施形態では、共有領域設定部33が平面fを求めることは、ユーザによって指定された部位に対応付けられた位置(各頂点)を含む平面を特定することを意味している。
As a result, the setting process of the shared area in step S16 is completed. In the present embodiment, the fact that the shared
次いで、ステップS18に移行すると、視線ベクトル取得部34は、視線ベクトルを取得する。なお、ここで取得される視線ベクトルは、画像取得前の視線ベクトルであると言える。
Next, when the process proceeds to step S18, the line-of-sight
次いで、ステップS19では、撮影要否判断部36が、撮影要否を確認する。具体的には、撮影要否判断部36は、以下の処理を実行する。
Next, in step S19, the shooting
まず、撮影要否判断部36は、視線ベクトル取得部34から視線ベクトルPv(図9参照)を取得する。次いで、撮影要否判断部36は、図9に示すように、視線ベクトルPvと平面fとの交点Phの位置を求める。
First, the shooting
次いで、撮影要否判断部36は、交点Phが以下の条件(1)、(2)の両方を満たしているか否かを確認する。
条件(1):交点Phが共有領域r内である。
条件(2):交点Phがすでに撮影された領域にない。
そして、撮影要否判断部36は、条件(1)、(2)の両方を満たしている場合に、撮影が必要であると判断する。
Next, the shooting
Condition (1): The intersection Ph is in the shared area r.
Condition (2): The intersection Ph is not in the area already photographed.
Then, the shooting
なお、条件(1)を満たしているか否かを判断する場合、撮影要否判断部36は、共有領域DB29を参照して、共有領域rの情報を取得する。なお、条件(2は最初の撮影時に判断する必要がない条件であるため、条件(2)の詳細については後述する。
When determining whether or not the condition (1) is satisfied, the shooting
なお、条件は、上記(1)、(2)に限られるものではない。すなわち、条件の数は増やしてもよいし、減らしてもよい。 The conditions are not limited to the above (1) and (2). That is, the number of conditions may be increased or decreased.
図5に戻り、次のステップS20では、撮影要否判断部36が、ステップS19の処理の結果、撮影が必要であるか否かを判断する。このステップS20の判断が否定された場合にはステップS18に戻るが、肯定された場合にはステップS21に移行する。
Returning to FIG. 5, in the next step S20, the shooting
ステップS21に移行すると、画像取得部37は、カメラ16に指示を出して画像を撮影し、撮影された画像を取得する。また、視線ベクトル取得部34は、画像を撮影したタイミングにおける視線ベクトルを取得する。
When the process proceeds to step S21, the
次いで、ステップS22では、視線ベクトル取得部34が、視線ベクトルを取得する。なお、ここで取得される視線ベクトルは、画像取得後の視線ベクトルであると言える。
Next, in step S22, the line-of-sight
次いで、ステップS26では、ブレ検出部35が、ブレ具合を算出する。この場合、ブレ検出部35は、まず、図10に示すように、撮影前の視線ベクトルと、平面fとの交点(P1)を特定する。なお、ブレ検出部35は、平面fの情報を共有領域DB29から取得する。次いで、ブレ検出部35は、撮影後の視線ベクトルと、平面fとの交点(P2)を特定する。そして、ブレ検出部35は、交点P1と交点P2を結ぶベクトル(V)を求め、ベクトルVの大きさ(スカラー量)をブレ具合とする。
Next, in step S26, the
ステップS28では、ブレ検出部35が、ブレ具合が許容範囲内か否かを判断する。ここでは、ブレ検出部35は、ベクトルVの大きさ(スカラー量)が予め定めた許容範囲内でない場合に、ブレが大きい画像が撮影されたと判断する。なお、ブレ具合が許容範囲外の場合、撮影されたデータは処理しない(サーバ10に送信しない)こととする。これにより、ブレが大きい画像を合成に用いないようにすることができる。ステップS28の判断が肯定された場合、ステップS30に移行し、否定された場合には、ステップS18に戻る。
In step S28, the
ステップS30に移行すると、位置関係特定部39が、平面fにおいて、共有領域rと撮影範囲の位置関係を特定するとともに、送信部40がデータ送信を行う。
In step S30, the positional
このステップS30では、位置関係特定部39は、図11に示すように、視線ベクトルPvと、カメラ16の画角とから、撮影された範囲を表す四角錐を特定する。具体的には、カメラ16からカメラ16の撮影範囲の四隅に向かって延びるベクトルAv、Bv、Cv、Dvの方向を四角錘の側辺の方向とする四角錘(ただし、底面の位置は特定されていない)を特定する。
In step S30, as shown in FIG. 11, the positional
次いで、位置関係特定部39は、平面fのうち、特定した四角錘に含まれる範囲を四角錘の底面とし、該底面を撮影範囲Crとして特定する。
Next, the positional
次いで、位置関係特定部39は、図12に示すように、撮影範囲Crの左上の点Caを原点(座標(0,0))とし、撮影範囲Crの右下の点Ccの座標を(1,1)とした二次元座標系を定義する。なお、図12の二次元座標系は、平面f上に配置された二次元座標系である。なお、撮影範囲Crの頂点のうち、点Ca、Cc以外の点Cb、Cdの座標は、それぞれ(0,1)、(1,0)となっている。
Next, as shown in FIG. 12, the positional
次いで、位置関係特定部39は、定義した座標系上において、長方形状の共有領域rの4つの頂点(ra、rb、rc、rd)を特定する。そして、位置関係特定部39は、特定した4つの頂点の情報(すなわち、共有領域rと撮影範囲Crの位置関係の情報)を送信部40に対して出力する。送信部40は、撮影画像と、共有領域rと撮影範囲Crの位置関係の情報をサーバ10に対して送信する。なお、共有領域rと撮影範囲Crの位置関係の情報は、平面fのうち撮影画像において撮影された範囲を示す情報であるといえる。
Next, the positional
(サーバ10の処理)
ここで、メイン側HMD70aから撮影画像と共有領域rの4つの頂点(ra、rb、rc、rd)の情報を受け取ったサーバ10の処理について説明する。
(Processing of server 10)
Here, the processing of the
サーバ10においては、リモート側HMD70bに提供する画像の合成処理を行うとともに、撮影済範囲データの作成を行う。まず、サーバ10は、図13に示すように、合成した画像を格納する二次元配列(ビットマップ)Pを作成するとともに、二次元配列Pと同じサイズの管理データとしての二次元配列(ビットマップ)Hを作成する。ここで、二次元配列Hは、二次元配列Pの各要素(ビット)について、画像を合成済み(撮影済み)であるか否かを判断するために使用される撮影済範囲データである。二次元配列Hは、0〜255の数値を要素とし、0は未合成、1〜255は合成済みを表す。また、1〜255の数値は、値が大きいほど合成された画像が鮮明であることを表す。なお、二次元配列Hの各要素の初期値は0であるものとする。ここで、鮮明さは、撮影画像において撮影された範囲の大きさに基づいて計算することができる。具体的には、撮影画像において撮影された範囲が小さい(すなわち、図12の座標から求められる共有領域rの面積が大きい)ほど鮮明であるとして、数値を大きくする。
The
サーバ10では、受信部51が、撮影画像と、共有領域rの4つの頂点(ra、rb、rc、rd)の座標を受信すると、画像合成部54が、4つの頂点の座標から、撮影画像のうち共有領域rと重なった部分(共有領域rのうち撮影画像において撮影された部分)を切り出す。なお、撮影画像は、共有領域rの正面から撮影した画像であるとは限らないため、画像合成部54は、受信した撮影画像を台形補正等して、共有領域rの正面から撮影した画像に補正したうえで、共有領域rと重なった部分を切り出すものとする。
In the
次いで、画像合成部54は、撮影画像の重なった部分の各要素(ビット)の鮮明さの数値と、二次元配列Hの対応する要素(ビット)の鮮明さの数値とを比較し、撮影画像のほうが数値が大きい要素については、二次元配列Pの対応する要素に撮影画像の要素を転写する。
Next, the
また、撮影済範囲データ作成部52は、画像合成部54が二次元配列Pに転写した撮影画像の要素の鮮明さの数値を取得し、二次元配列Hの各要素の数値とする。
Further, the captured range
合成画像送信部55は、画像合成部54が合成した画像(二次元配列P)が更新されるたびに、二次元配列Pをリモート側HMD70bの合成画像受信部41に対して送信する。なお、リモート側HMD70bにおいては、図14に示すように、合成画像表示部42が、受信した合成画像(二次元配列P)を含むウィンドウ102を表示装置22に表示する。
The composite
また、撮影済範囲データ送信部53は、二次元配列H(撮影済範囲データ)が更新されるたびに、メイン側HMD70aの撮影済範囲データ取得部38に対して二次元配列Hを送信する。
Further, the photographed range data transmission unit 53 transmits the two-dimensional array H to the photographed range
図5に戻り、メイン側HMD70aにおいては、ステップS30が実施された後、ステップS32に移行し、撮影済範囲データ取得部38が、サーバ10(撮影済範囲データ送信部53)から送信されてきた撮影済範囲データを受信する。
Returning to FIG. 5, in the main side HMD70a, after step S30 is executed, the process proceeds to step S32, and the captured range
次いで、ステップS34では、位置関係特定部39が、撮影済範囲データを参照して、画像合成が完了したか否かを判断する。すなわち、位置関係特定部39は、撮影済範囲データ(二次元配列H)の全要素の数が0以外であるか否かを判断し、全要素の数が0以外であれば、ステップS34の判断が肯定され、ステップS36に移行する。一方、二次元配列Hの少なくとも一つの要素の数が0である場合には、ステップS34の判断は否定されて、ステップS18に戻る。ステップS18に戻った場合、ステップS34の判断が肯定されるまで、ステップS18〜S34の処理・判断が繰り返し実行される。
Next, in step S34, the positional
ここで、ステップS32において撮影済範囲データをサーバ10から受信した後に行われるステップS19では、撮影要否判断部36が、上述した条件(2)「交点Phがすでに撮影された領域にない。」を満たしているか否かを判断する。この場合、撮影要否判断部36は、共有領域rを受信した撮影済範囲データ(二次元配列H)で置き換え、図15に示すように、視線ベクトルPvと平面fとの交点(視線ベクトルと共有領域rとの交点)Phを求める。そして、撮影要否判断部36は、交点Phに対応する二次元配列Hの要素の値を取得し、取得した値が0であれば、条件(2)「交点Phがすでに撮影された領域にない。」を満たしていると判断する。このような判断を行うことで、不要な撮影を減らすことができるため、撮影の効率を向上することが可能となる。
Here, in step S19, which is performed after receiving the photographed range data from the
ステップS34の判断が肯定されて、ステップS36に移行すると、位置関係特定部39は、新たな画像合成の要求が入力されるまで待機する。ユーザ(メイン側HMD70aのユーザ又はリモート側HMD70bのユーザのいずれか)により新たな画像合成の要求が入力されると、ステップS38に移行し、位置関係特定部39は、撮影済範囲データ(二次元配列H)を破棄し、ステップS18に戻る。なお、メイン側HMD70aにおいてステップS38の処理が実行される段階では、サーバ10においても撮影済範囲データ(二次元配列H)は破棄されているものとする。その後は上述したステップS18以降の処理が繰り返し実行されるようになっている。
When the determination in step S34 is affirmed and the process proceeds to step S36, the positional
なお、図5の処理は、ユーザからの終了要求を受信した場合や、メイン側HMD70a又はリモート側HMD70bの電源がOFFにされた場合に終了する。 The process of FIG. 5 ends when a termination request from the user is received or when the power of the main HMD70a or the remote HMD70b is turned off.
なお、リモート側HMD70bでは、図14のウィンドウ102に表示されている共有領域の合成画像に対して、矩形、直線、曲線などを描画できるものとする。例えば、制御装置30は、ユーザがウィンドウ102内のアイコンを用いて描画する図形を選択し、ウィンドウ102上で指を動かしたことを検出すると、指の動きに応じた図形(文字等でもよい)をウィンドウ102内に描画する。なお、制御装置30は描画した図形の情報をメイン側HMD70aに送信してもよい。この場合、メイン側HMD70aの制御装置30は、受信した情報に基づいて、ユーザの視野内のホワイトボードに重ねるようにして、表示装置22に図形を表示するようにしてもよい。これにより、リモート側HMD70bのユーザが描画した図形を、ユーザ間で共有することができる。
It should be noted that the remote-side HMD70b can draw a rectangle, a straight line, a curved line, or the like with respect to the composite image of the shared area displayed in the
これまでの説明から明らかなように、本実施形態では、共有領域の設定の際に利用する3Dマッピングデータ(第1の画像)を生成する距離画像カメラ17と、サーバ10に送信する画像(第2の画像)を撮影するカメラ16とを含んで、撮影装置としての機能が実現されている。
As is clear from the above description, in the present embodiment, the distance image camera 17 that generates the 3D mapping data (first image) used when setting the shared area and the image to be transmitted to the server 10 (the first image). The function as a photographing device is realized including the
以上、詳細に説明したように、本実施形態によると、共有領域設定部33は、共有領域rの各頂点の指定を受け付けて、共有領域DB29に共有領域rの各頂点の座標を格納するとともに、各頂点を含む平面fを特定して、共有領域DB29に格納する。また、画像取得部37が撮影画像を取得すると、位置関係特定部39は、平面fと、撮影時の視線ベクトルPvとに基づき、平面fのうち撮影された範囲を示す情報(共有領域rと撮影範囲Crの位置関係の情報)を生成する。そして、送信部40は、撮影画像と、生成した情報とをサーバ10に対して送信する。このため、サーバ10では、共有領域rと撮影範囲Crの位置関係の情報(平面fのうち撮影範囲を示す情報)に基づいて撮影画像を合成して、共有領域r内の画像を生成することができる。これにより、例えば、画像解析により画像の特徴を検出し、複数の画像の重なり具合を特定して画像を合成する場合と比較して、画像合成の際のサーバ10の処理負荷を軽減することができる。
As described in detail above, according to the present embodiment, the shared
また、本実施形態では、ブレ検出部35は、画像取得部37が取得した画像が撮影されたときのカメラ16の動き(ブレ)が許容範囲に含まれるか否かを判断する。そして、送信部40は、許容範囲に含まれている場合に、撮影画像と、共有領域rと撮影範囲Crとの位置関係の情報と、をサーバ10に送信する。これにより、ブレの少ない撮影画像と該撮影画像に対応する情報とをサーバ10に送信することができるため、サーバ10は合成画像として鮮明な画像を生成することができる。
Further, in the present embodiment, the
また、本実施形態では、撮影要否判断部36は、撮影済範囲データと、カメラ16の向き(視線ベクトル)とに基づいて、撮影要否を判断するので、合成に必要な画像に限定して撮影することができ、無駄な撮影を減らすことができる。
Further, in the present embodiment, the shooting
なお、上記実施形態では、共有領域rが1か所設定される場合について説明したが、これに限らず、共有領域rは複数設定されてもよい。この場合、各共有領域について、図5のステップS18以降の処理を繰り返し実行することで、共有領域それぞれの合成画像を生成し、リモート側HMD70bの表示装置22上に並べて表示するようにしてもよい。
In the above embodiment, the case where one shared area r is set has been described, but the present invention is not limited to this, and a plurality of shared areas r may be set. In this case, by repeatedly executing the processes after step S18 in FIG. 5 for each shared area, a composite image of each shared area may be generated and displayed side by side on the display device 22 of the
なお、上記実施形態では、共有領域が長方形である場合について説明したが、これに限られるものではない。共有領域は、三角形であってもよいし、五角形、六角形…であってもよい。 In the above embodiment, the case where the shared area is rectangular has been described, but the present invention is not limited to this. The common area may be a triangle, a pentagon, a hexagon, and so on.
なお、上記実施形態では、リモート側HMD70bが複数台あってもよい。この場合、サーバ10は、共有領域rの合成画像を複数台のリモート側HMD70bに送信するようにすればよい。
In the above embodiment, there may be a plurality of remote-side HMD70bs. In this case, the
なお、上記実施形態では、画像合成が完了した後(図5のステップS34の判断が肯定された後)、ステップS36において、ユーザの入力に応じて画像合成を再開する場合について説明したが、これに限られるものではない。例えば、所定タイミングごとに画像合成を行うこととしてもよい。具体的には、1枚の画像合成が終了した段階で、新たな画像合成を開始することとしてもよい。また、1枚の画像合成が終了してから所定時間が経過した段階で、新たな画像合成を開始することとしてもよい。 In the above embodiment, after the image composition is completed (after the determination in step S34 in FIG. 5 is affirmed), the case where the image composition is restarted in response to the user's input in step S36 has been described. It is not limited to. For example, image composition may be performed at predetermined timing intervals. Specifically, a new image composition may be started when the image composition of one image is completed. Further, a new image composition may be started when a predetermined time has elapsed from the completion of the image composition of one image.
なお、上記実施形態では、画像合成をサーバ10において実行する場合について説明したが、これに限られるものではない。例えば、上記実施形態においてサーバ10において実行した処理(画像合成処理や撮影済範囲データの作成処理)をメイン側HMD70aにおいて実行することとしてもよい。すなわち、図16に示すように、メイン側HMD70aは、位置関係特定部39が特定した撮影画像や共有領域rと撮影範囲Crの位置関係の情報とに基づいて画像合成を行う合成部としての画像合成部54’や、撮影済範囲データを作成する作成部としての撮影済範囲データ作成部52’の機能を有する画像合成装置であってもよい。この場合、制御装置30は、図17に示すように、図5のステップS30、S32に代えて、ステップS30’、S32’の処理を実行すればよい。ステップS30’では、制御装置30の画像合成部54’は、共有領域rと撮影範囲Crの位置関係の情報に基づいて画像合成を行う。また、ステップS32’では、制御装置30の撮影済範囲データ作成部52’は、撮影済範囲データ(二次元配列H)を作成する。なお、送信部40は、ステップS30’において、画像合成部54’が合成した画像をリモート側HMD70bの合成画像受信部41に送信する。
In the above embodiment, the case where the image composition is executed on the
また、上記実施形態においてサーバ10が実行した処理をリモート側HMD70bにおいて実行することとしてもよい。すなわち、リモート側HMD70bの制御装置30が、画像合成を行う画像合成部や、撮影済範囲データを作成する撮影済範囲データ作成部の機能を有していてもよい。
Further, the process executed by the
なお、リモート側HMD70bは、PCなどの端末であってもよい。この場合、端末の表示装置に共有領域の合成画像を表示することで、ユーザ間で共有領域の情報を共有することが可能となる。 The remote side HMD70b may be a terminal such as a PC. In this case, by displaying the composite image of the shared area on the display device of the terminal, it is possible to share the information of the shared area between the users.
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing function can be realized by a computer. In that case, a program that describes the processing content of the function that the processing device should have is provided. By executing the program on a computer, the above processing function is realized on the computer. The program describing the processing content can be recorded on a computer-readable recording medium (however, the carrier wave is excluded).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable recording medium and execute the processing according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are examples of preferred embodiments of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.
なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータに実行させるための送信プログラム。
(付記2) 取得した前記第2の画像の撮像時の前記撮像装置の動きが許容範囲に含まれるか否かの判定を行い、
判定結果が肯定的である場合、取得した前記第2の画像と、生成した前記情報とを送信する、
処理を前記コンピュータに更に実行させることを特徴とする付記1に記載の送信プログラム。
(付記3) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データと、前記撮像装置の向きと、に基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理を前記コンピュータに更に実行させることを特徴とする付記1又は2に記載の送信プログラム。
(付記4) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータが実行することを特徴とする送信方法。
(付記5) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する送信部と、
を備える送信装置。
(付記6) 取得した前記第2の画像の撮像時の前記撮像装置の動きが許容範囲に含まれるか否かの判定を行う判定部を更に備え、
前記送信部は、前記判定部の判定結果が肯定的である場合に、取得した前記第2の画像と、生成した前記情報とを送信する、ことを特徴とする付記5に記載の送信装置。
(付記7) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データと、前記撮像装置の向きと、に基づいて、前記撮像装置による撮像を行うか否かを判断する判断部を更に備える付記5又は6に記載の送信装置。
(付記8) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータに実行させるための画像合成プログラム。
(付記9) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データを作成し、
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理をコンピュータに更に実行させることを特徴とする付記8に記載の画像合成プログラム。
(付記10) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付け、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータが実行することを特徴とする画像合成方法。
(付記11) 撮像装置により撮像された第1の画像に含まれる被写体の部位の指定を受け付ける受付部と、
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する合成部と、
を備える画像合成装置。
(付記12) 前記撮像装置により撮像された前記被写体の範囲を管理する管理データを作成する作成部と、
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する判断部と、を更に備える付記11に記載の画像合成装置。
Regarding the above description of the embodiment, the following additional notes will be further disclosed.
(Appendix 1) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A sending program that lets a computer perform processing.
(Appendix 2) It is determined whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
If the determination result is affirmative, the acquired second image and the generated information are transmitted.
The transmission program according to Appendix 1, wherein the computer further executes the process.
(Appendix 3) Based on the management data for managing the range of the subject imaged by the image pickup device and the orientation of the image pickup device, it is determined whether or not to perform the image pickup by the image pickup device.
The transmission program according to
(Appendix 4) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A transmission method characterized in that the processing is performed by a computer.
(Appendix 5) A reception unit that accepts the designation of the part of the subject included in the first image captured by the imaging device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
A transmission unit that transmits the acquired second image and the generated information to a specific destination.
A transmitter equipped with.
(Appendix 6) Further provided with a determination unit for determining whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
The transmission device according to Appendix 5, wherein the transmission unit transmits the acquired second image and the generated information when the determination result of the determination unit is positive.
(Appendix 7) Further, a determination unit for determining whether or not to perform imaging by the imaging device is further provided based on the management data for managing the range of the subject imaged by the imaging device and the orientation of the imaging device. The transmitter according to Appendix 5 or 6.
(Appendix 8) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image synthesis program that allows a computer to perform processing.
(Appendix 9) Create management data for managing the range of the subject imaged by the imaging device, and create management data.
Based on the management data and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The image synthesis program according to Appendix 8, wherein the processing is further executed by a computer.
(Appendix 10) Accepting the designation of the part of the subject included in the first image captured by the imaging device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image composition method characterized in that processing is performed by a computer.
(Appendix 11) A reception unit that accepts designation of a part of the subject included in the first image captured by the imaging device, and a reception unit.
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
When a plurality of the second images are acquired, a compositing unit that synthesizes the plurality of the second images based on information indicating a range corresponding to the plurality of the second images, and a compositing unit.
An image synthesizer comprising.
(Appendix 12) A creation unit that creates management data that manages the range of the subject imaged by the imaging device, and a creation unit.
The image synthesizer according to Appendix 11, further comprising a determination unit for determining whether or not to perform imaging by the image pickup device based on the management data and the orientation of the image pickup device.
16 カメラ(撮像装置の一部)
17 距離画像カメラ(撮像装置の一部)
29 共有領域DB(記憶部)
33 共有領域設定部(受付部、特定部)
35 ブレ検出部(判定部)
36 撮影要否判断部(判断部)
39 位置関係特定部(生成部)
40 送信部
52’ 撮影済範囲データ作成部(作成部)
54’ 画像合成部(合成部)
70a メイン側HMD(送信装置、画像合成装置)
16 Camera (part of imaging device)
17 Distance image camera (part of imaging device)
29 Shared area DB (storage unit)
33 Shared area setting department (reception department, specific department)
35 Blur detection unit (judgment unit)
36 Shooting Necessity Judgment Department (Judgment Department)
39 Positional relationship identification part (generation part)
40 Transmitter 52'Captured range data creation unit (creation unit)
54'Image Synthesis Department (Composite Department)
70a Main side HMD (transmitter, image synthesizer)
Claims (9)
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータに実行させるための送信プログラム。 Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A sending program that lets a computer perform processing.
判定結果が肯定的である場合、取得した前記第2の画像と、生成した前記情報とを送信する、
処理を前記コンピュータに更に実行させることを特徴とする請求項1に記載の送信プログラム。 It is determined whether or not the movement of the imaging device at the time of capturing the acquired second image is included in the permissible range.
If the determination result is affirmative, the acquired second image and the generated information are transmitted.
The transmission program according to claim 1, wherein the computer further executes the process.
処理を前記コンピュータに更に実行させることを特徴とする請求項1又は2に記載の送信プログラム。 Based on the management data for managing the range of the subject captured by the imaging device and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The transmission program according to claim 1 or 2, wherein the computer further executes the process.
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する、
処理をコンピュータが実行することを特徴とする送信方法。 Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
The acquired second image and the generated information are transmitted to a specific destination.
A transmission method characterized in that the processing is performed by a computer.
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
取得した前記第2の画像と、生成した前記情報とを特定の宛先に送信する送信部と、
を備える送信装置。 A reception unit that accepts the designation of the part of the subject included in the first image captured by the image pickup device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
A transmission unit that transmits the acquired second image and the generated information to a specific destination.
A transmitter equipped with.
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータに実行させるための画像合成プログラム。 Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image synthesis program that allows a computer to perform processing.
前記管理データと前記撮像装置の向きとに基づいて、前記撮像装置による撮像を行うか否かを判断する、
処理をコンピュータに更に実行させることを特徴とする請求項6に記載の画像合成プログラム。 Create management data that manages the range of the subject captured by the imaging device, and create management data.
Based on the management data and the orientation of the imaging device, it is determined whether or not to perform imaging by the imaging device.
The image synthesis program according to claim 6, wherein the processing is further executed by a computer.
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定し、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成し、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する、
処理をコンピュータが実行することを特徴とする画像合成方法。 Accepts the designation of the part of the subject included in the first image captured by the image pickup device,
With reference to a storage unit that stores the position of the part of the subject in association with the part, a plane including the position associated with the designated part is specified.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. Generate information indicating the range corresponding to the second image,
When a plurality of the second images are acquired, the plurality of the second images are combined based on the information indicating the range corresponding to the plurality of the second images.
An image composition method characterized in that processing is performed by a computer.
前記被写体の部位の位置を該部位に対応付けて記憶する記憶部を参照して、指定された前記部位に対応付けられた位置を含む平面を特定する特定部と、
前記撮像装置により新たに撮像された第2の画像を取得すると、特定した前記平面と、取得した前記第2の画像の撮像時の前記撮像装置の向きとに基づき、前記平面のうち、取得した前記第2の画像に対応する範囲を示す情報を生成する生成部と、
前記第2の画像を複数取得した場合に、複数の前記第2の画像に対応する範囲を示す情報に基づいて、複数の前記第2の画像を合成する合成部と、
を備える画像合成装置。 A reception unit that accepts the designation of the part of the subject included in the first image captured by the image pickup device, and
With reference to a storage unit that stores the position of the portion of the subject in association with the portion, a specific portion that specifies a plane including the position associated with the designated portion, and a specific portion.
When the second image newly captured by the image pickup device was acquired, it was acquired out of the planes based on the specified plane and the orientation of the image pickup device at the time of capturing the acquired second image. A generation unit that generates information indicating a range corresponding to the second image, and a generation unit.
When a plurality of the second images are acquired, a compositing unit that synthesizes the plurality of the second images based on information indicating a range corresponding to the plurality of the second images, and a compositing unit.
An image synthesizer comprising.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018012253A JP6950548B2 (en) | 2018-01-29 | 2018-01-29 | Transmission program, method and device, and image synthesis program, method and device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018012253A JP6950548B2 (en) | 2018-01-29 | 2018-01-29 | Transmission program, method and device, and image synthesis program, method and device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019133217A JP2019133217A (en) | 2019-08-08 |
| JP6950548B2 true JP6950548B2 (en) | 2021-10-13 |
Family
ID=67547492
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018012253A Expired - Fee Related JP6950548B2 (en) | 2018-01-29 | 2018-01-29 | Transmission program, method and device, and image synthesis program, method and device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6950548B2 (en) |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9594980B1 (en) * | 2015-01-19 | 2017-03-14 | Ricoh Co., Ltd. | Image acquisition user interface for linear panoramic image stitching |
| WO2016203282A1 (en) * | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
| JP6886236B2 (en) * | 2015-09-30 | 2021-06-16 | 富士通株式会社 | Visual field guidance method, visual field guidance program, and visual field guidance device |
| JP6065084B2 (en) * | 2015-10-30 | 2017-01-25 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
-
2018
- 2018-01-29 JP JP2018012253A patent/JP6950548B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019133217A (en) | 2019-08-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7026819B2 (en) | Camera positioning method and equipment, terminals and computer programs | |
| JP6643357B2 (en) | Full spherical capture method | |
| JP6919334B2 (en) | Image processing device, image processing method, program | |
| CN114170349B (en) | Image generation method, device, electronic device and storage medium | |
| JP7582287B2 (en) | Communication terminal, image communication system, display method, and program | |
| US20180286098A1 (en) | Annotation Transfer for Panoramic Image | |
| US20160210785A1 (en) | Augmented reality system and method for positioning and mapping | |
| JP6732617B2 (en) | Information processing apparatus and image generation method | |
| WO2013069047A1 (en) | Image generation device, and image generation method | |
| CN111696213A (en) | Image generation device, image generation method, and computer-readable medium | |
| WO2013069050A1 (en) | Image generation device and image generation method | |
| WO2013069049A1 (en) | Image generation device, and image generation method | |
| WO2013069048A1 (en) | Image generating device and image generating method | |
| JP2019144958A (en) | Image processing device, image processing method, and program | |
| WO2019012803A1 (en) | Designation device and designation method | |
| JP2018033107A (en) | Video distribution device and distribution method | |
| US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
| CN109714585B (en) | Image transmission method and device, display method and device, and storage medium | |
| US20250322581A1 (en) | Information processing apparatus, screen generation method, non-transitory recording medium, and information processing system | |
| JP2020204973A (en) | Information processing equipment, programs and information processing systems | |
| JP6950548B2 (en) | Transmission program, method and device, and image synthesis program, method and device | |
| JP5200141B2 (en) | Video presentation system, video presentation method, program, and recording medium | |
| JP2018157314A (en) | Information processing system, information processing method and program | |
| JP6631193B2 (en) | Video sound recording system, video sound recording device, video sound recording program, and video sound recording method | |
| US12506967B2 (en) | Display terminal, communication system, display method, and recording medium which displays an image of predetermined area in a wide visual field image and the wide visual field image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201008 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210805 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210906 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6950548 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |