JP2012195875A - Image output device - Google Patents
Image output device Download PDFInfo
- Publication number
- JP2012195875A JP2012195875A JP2011059810A JP2011059810A JP2012195875A JP 2012195875 A JP2012195875 A JP 2012195875A JP 2011059810 A JP2011059810 A JP 2011059810A JP 2011059810 A JP2011059810 A JP 2011059810A JP 2012195875 A JP2012195875 A JP 2012195875A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- distortion correction
- distortion
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012937 correction Methods 0.000 claims abstract description 60
- 238000000034 method Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 description 28
- 230000003287 optical effect Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 15
- 238000005286 illumination Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
- Studio Devices (AREA)
- Image Input (AREA)
Abstract
【課題】 台面上に載置されているものを上方から撮影する場合、例えば本の紙面が湾曲している状態で撮影しているので、歪んだ状態で撮影されてしまう。
【解決手段】
台面上には所定の被写体を載置することが可能である。投影部がこの台面よりも高い位置から同台面上に所定の絵柄の光を投影すると、カメラ部は上記台面上の撮影を行なう。台面上に被写体が置かれている状態であれば、上記絵柄は立体表面に投影され、歪み修正パラメータ演算部はカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する。そして、画像データの歪み修正演算部は、演算された歪み修正パラメータに基づいて上記カメラ部にて撮影される画像データに生じている歪みを除去した平面状の画像データに変換する。最後に、歪みを除去した平面状の画像を出力する。
【選択図】 図2PROBLEM TO BE SOLVED: To shoot an object placed on a table surface from above, for example, since the image is taken in a state where the paper surface of the book is curved, the image is taken in a distorted state.
[Solution]
A predetermined subject can be placed on the surface. When the projection unit projects light of a predetermined pattern onto the surface from a position higher than the surface of the table, the camera unit performs photographing on the surface. If the subject is placed on the surface, the pattern is projected onto the three-dimensional surface, and the distortion correction parameter calculation unit is based on the image data obtained by photographing the projected pattern by the camera unit. To calculate a parameter for returning the surface shape of the subject placed on the table to a flat surface. Then, the image data distortion correction calculation unit converts the image data into planar image data from which distortion generated in the image data photographed by the camera unit is removed based on the calculated distortion correction parameter. Finally, a planar image from which distortion has been removed is output.
[Selection] Figure 2
Description
本発明は、画像出力装置に関し、特に、台面上に載置した被写体の画像を出力可能な画像出力装置に関する。 The present invention relates to an image output apparatus, and more particularly to an image output apparatus that can output an image of a subject placed on a table.
従来、所定の台面上に載置した被写体を撮影可能な画像形成装置が知られている。
特許文献1及び特許文献2に示すものでは、台面を手前に引き出した後、同台面上にせり出してくる撮影素子により、上記台面上に載置された被写体を上方から撮影する。
2. Description of the Related Art Conventionally, an image forming apparatus capable of photographing a subject placed on a predetermined base surface is known.
In the devices disclosed in Patent Document 1 and Patent Document 2, the subject placed on the surface is photographed from above by the photographing element that is pulled out on the surface after the surface is pulled out.
しかし、台面上に載置されているものを上方から撮影する場合、例えば本の紙面が湾曲している状態で撮影しているので、歪んだ状態で撮影されてしまう。
本発明は、本来は平面でありながら立体的になって湾曲して撮影される画像から本来の平面の状態の画像に変換することが可能な画像出力装置に関する。
However, when photographing what is placed on the table surface from above, for example, since the photographing is performed in a state where the paper surface of the book is curved, the photographing is performed in a distorted state.
The present invention relates to an image output apparatus capable of converting an image which is originally a plane but is three-dimensionally curved and photographed into an image in an original plane state.
本発明は、台面上には所定の被写体を載置することが可能である。投影部がこの台面よりも高い位置から同台面上に所定の絵柄の光を投影すると、カメラ部は上記台面上の撮影を行なう。台面上に被写体が置かれている状態であれば、上記絵柄は立体表面に投影され、歪み修正パラメータ演算部はカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する。そして、画像データの歪み修正演算部は、演算された歪み修正パラメータに基づいて上記カメラ部にて撮影される画像データに生じている歪みを除去した平面状の画像データに変換する。最後に、歪みを除去した平面状の画像を出力する。 In the present invention, it is possible to place a predetermined subject on the base surface. When the projection unit projects light of a predetermined pattern onto the surface from a position higher than the surface of the table, the camera unit performs photographing on the surface. If the subject is placed on the surface, the pattern is projected onto the three-dimensional surface, and the distortion correction parameter calculation unit is based on the image data obtained by photographing the projected pattern by the camera unit. To calculate a parameter for returning the surface shape of the subject placed on the table to a flat surface. Then, the image data distortion correction calculation unit converts the image data into planar image data from which distortion generated in the image data photographed by the camera unit is removed based on the calculated distortion correction parameter. Finally, a planar image from which distortion has been removed is output.
ここで、歪み修正パラメータは歪みを完全に無くすことができるものに限られず、軽減するようなものも含まれる。また、上記投影部は、上記被写体の中央近辺から放射状に上記絵柄の光を投影するように構成することができる。放射状に投影すると立体物の表面の高さにほぼ比例して各地点においてずれが生じる。
また、上記投影部は、上記放射状の絵柄の光として升目状の絵柄を投影するように構成することができる。升目状の絵柄であると各格子点が定まり、各格子点の高さ情報を得られるので立体物を把握しやすい。
Here, the distortion correction parameter is not limited to a parameter that can completely eliminate the distortion, and includes a parameter that reduces the distortion. The projection unit may be configured to project the light of the pattern radially from the vicinity of the center of the subject. When projected radially, a shift occurs at each point in proportion to the height of the surface of the three-dimensional object.
Further, the projection unit can be configured to project a grid pattern as the light of the radial pattern. If the pattern is a checkerboard pattern, each grid point is determined, and the height information of each grid point can be obtained, making it easy to grasp a three-dimensional object.
さらに、上記歪み修正パラメータ演算部は、上記升目状の格子点ごとにずれ量と高さとの対応関係を示すテーブルを有しており、歪みの格子点ごとにずれ量を求めて高さ情報に変換することで立体表面形状を求めるように構成しても良い。
台面と投影部との一定の位置関係が定まっているので、予め各格子点ごとにずれ量と高さとの換算用のテーブルを用意することが可能であり、演算が容易になる。
Further, the distortion correction parameter calculation unit has a table showing a correspondence relationship between the shift amount and the height for each grid-like lattice point, and obtains the shift amount for each lattice point of the distortion to obtain height information. You may comprise so that a three-dimensional surface shape may be calculated | required by converting.
Since a fixed positional relationship between the table surface and the projection unit is determined, a table for conversion between the shift amount and the height can be prepared for each lattice point in advance, and the calculation becomes easy.
また、上記歪み修正パラメータ演算部は、立体形状が求められたら、湾曲している立体表面を平面に展開した状態に戻すための歪み修正パラメータの演算を行なうように構成することができる。湾曲している立体表面を把握できるので、後は各平面を水平にしてつなぎ合わせるだけで展開した状態に戻すことができる。
このため、上記歪み修正演算部は、上記歪み修正パラメータに基づいて湾曲している立体表面を平面に展開した状態に戻す演算を行なうように構成する。
Further, the distortion correction parameter calculation unit can be configured to calculate a distortion correction parameter for returning a curved solid surface to a flat state when a three-dimensional shape is obtained. Since the curved three-dimensional surface can be grasped, it is possible to return to the unfolded state by simply connecting the flat surfaces horizontally.
For this reason, the said distortion correction calculating part is comprised so that the calculation which returns the curved solid surface to the state expand | deployed on the plane based on the said distortion correction parameter may be performed.
本発明によれば、本の紙面などを平面に戻した状態に変換できるので、湾曲による歪みのない画像を得ることが可能となる。 According to the present invention, since the paper surface of a book can be converted to a flat state, it is possible to obtain an image free from distortion due to bending.
以下、図面にもとづいて本発明の実施形態を説明する。以下、本発明の画像出力装置として、ファクシミリ機能、印刷機能、スキャナー機能などを備えた複合機(MFP)に適用した実施例について説明する。
図1は本発明の一実施形態にかかるMFPの外観を斜視図により示しており、図2は被写体撮像時の外観を斜視図により示している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Hereinafter, an embodiment in which the image output apparatus of the present invention is applied to a multifunction peripheral (MFP) having a facsimile function, a printing function, a scanner function, and the like will be described.
FIG. 1 is a perspective view showing the appearance of an MFP according to an embodiment of the present invention, and FIG. 2 is a perspective view showing the appearance when an object is imaged.
同図において、複合機(MFP)10は、平面図で長四角の外枠をなし、高さ方向には幅方向や奥行き方向と比べて十分に薄い形状の概略矩形の筺体として形成されている。正面側には幅方向に長く形成された印刷物を排出する排出口11が形成され、同排出口11の上方の前面壁面には複数の操作子12やディスプレイパネル13などを備えている。上面は被写体を載置する台面15となっている。
In the figure, a multifunction peripheral (MFP) 10 has a long rectangular outer frame in a plan view, and is formed as a generally rectangular casing having a sufficiently thin shape in the height direction compared to the width direction and the depth direction. . On the front side, a
本MFP10は、本体筺体14とは別部材であり、正面側から見て右側面の中程から後方に向けて後端まで達した後、背面側に沿って左側に向けて延びて背面の中程まで達する概略L字型のアーム20を有している。このアーム20は、本体筺体14の右側面に位置する連結部21と、本体筺体14の背面側に位置するヘッド部22とから構成され、本体筺体14の右側面の中程を回転中心とするように上記連結部21が本体筺体14に対して枢動可能に連結されている。そして、連結部21が枢動することにより、ヘッド部22が本体筺体14の背面側に位置する収容位置と、同ヘッド部22が本体筺体14の上方である撮影位置との間で移動可能となっている。
The MFP 10 is a separate member from the
図3はヘッド部22の裏側を示す斜視図であり、同図に示すようにヘッド部22における上記撮影位置で上記台面15に対面する面には、上記本体筺体14の幅方向に所定距離を隔てて配置される二つのカメラ31,32と、その間に位置する投影部33と、同投影部33むようにヘッド部22の手前側と奥側に所定距離を隔てて幅方向に広い照明部34,35が配置されている。このように台面15に対面して所定距離を隔てた二つのカメラ31,32を有しているので、上記台面15上の被写体に対して撮影位置を異ならせた二つの画像を撮影可能であり、立体形状の情報を得られる。また、照明部34,35は照度を変更可能であり、外光の影響を低減させる処理にも利用可能である。
FIG. 3 is a perspective view showing the back side of the
以上のようにしてアーム20は収容状態から撮影状態の位置へ移動可能であるので、カメラ31,32にて構成されるカメラ部は、台面下方の収納位置に収納可能であるとともに、同台面下方の収納位置から同台面上の撮影位置へ移動可能に支持されていることになる。
ヘッド部22が撮影位置にある状態で、同ヘッド部22の上面には5方向に配向された一つのユニットからなる光センサー36と複数の操作子37が備えられている。
As described above, the
In a state where the
図4は光センサー36を斜視図により示している。同図に示すように、光センサー36は正面、両側面、背面から見た状態で台形であり、平面状態で外形が正方形となる立体形状を有しており、上面に上方に開口する光センサー素子が一つ配設され、それぞれの斜めに形成された側面にそれぞれ同斜め方向に開口する光センサー素子が一つずつ配設されている。光センサー36により、後述するように、ヘッド部22の上面において外光の状況を検出することになる。
FIG. 4 shows the
図5は、本MFPのブロック回路図を示しており、本体筺体14内に収容された印刷機構などによって構成されて印刷を行う印刷部41と、上記カメラ31,32を含むカメラ部42と、上記操作子12,37による操作を受け付けたり必要な情報を上記ディスプレイパネル13に表示する操作部43と、電話回線によるファクス送受信やネットワーク等によって外部機器との通信を行う通信部44と、投影部33や照明部34,35や光センサー36が接続されるI/O部45と、これらを総合的に制御する制御部46などを備えている。主に制御部46が主体となって以下のフローチャートの処理を実行しながら各部の制御を実行する。
FIG. 5 is a block circuit diagram of the MFP. The printing unit 41 includes a printing mechanism housed in the
次に上記構成からなる本実施例の印刷装置の動作を説明する。
図6は3Dの外光測定の処理を表すフローチャートであり、図7は3Dでの外光除去の処理を示すフローチャートである。
同図に示すように、外光除去は二つの手法を採用可能である。一つめは3Dの処理であり、ステップS100では、5方向の光センサー36の検出光強度を測定する。具体的には制御部46がI/O部45を介して同光センサー36の検出出力を入力する。
Next, the operation of the printing apparatus of this embodiment having the above-described configuration will be described.
FIG. 6 is a flowchart showing 3D ambient light measurement processing, and FIG. 7 is a flowchart showing 3D ambient light removal processing.
As shown in the figure, the external light removal can employ two methods. The first is 3D processing. In step S100, the detected light intensity of the
図8は台面15上に載置された被写体と仮想光源の位置を示す図である。
上述したように光センサー36は5方向の光強度を検出するので、ステップS102では、制御部46は5方向の光強度に応じた重み付けの演算によって光センサー36の配置位置を原点とするXY方向に加えて迎角θからなる仮想光源方向を求める。このようにして、仮想光源方向(ライティング)を設定することにより、後に3Dモデルデータに対してライティングと逆の補正値を適用して外光の影響を除去するのに利用する。
FIG. 8 is a diagram showing the positions of the subject placed on the table 15 and the virtual light source.
As described above, the
後述するように本MFPでは2つのカメラ31,32を利用することにより3Dモデリングが可能であり、3Dモデルデータを取得できる。これを前提として、先に3Dでの外光除去処理について説明する。
ステップS110では3Dモデルデータを取得する。この3Dモデルデータは立体物表面の座標を表すベクトルデータと、同ベクトルデータによって特定される立体物表面の画像データとからなる。これらにより、死角となる面を除いて立体物表面画像を表現できる。続く、ステップS112では、ステップS102にて求めた仮想光源方向を取得する。通常は、本来立体物の表面の画像データにシェーディングの効果を与えるために仮想光源方向を利用するが、ステップS114ではライティングによる影響を求めた上でその逆の補正値を演算する。すなわち、仮想光源に対面して明るく表示する面であれば暗くする補正値を、逆に仮想光源の影の側になって暗くする面であれば明るくする補正値を求める。ステップS116では、この補正値を3Dモデルデータの各面ごとに設定する。そして、ステップS118では3Dモデルデータの各面の輝度補正を反映させた上で、平面の画像データに変換することで外光除去が終了する。
As will be described later, in this MFP, 3D modeling is possible by using two
In step S110, 3D model data is acquired. The 3D model data includes vector data representing the coordinates of the surface of the three-dimensional object and image data of the surface of the three-dimensional object specified by the vector data. As a result, a three-dimensional object surface image can be expressed excluding a surface that becomes a blind spot. In step S112, the virtual light source direction obtained in step S102 is acquired. Normally, the virtual light source direction is used in order to inherently apply the shading effect to the image data of the surface of the three-dimensional object, but in step S114, the influence of lighting is obtained and the opposite correction value is calculated. That is, a correction value that darkens if the surface is brightly displayed facing the virtual light source, and a correction value that brightens if the surface is darker on the side of the virtual light source. In step S116, this correction value is set for each surface of the 3D model data. In step S118, the luminance correction of each surface of the 3D model data is reflected and converted into flat image data, thereby removing the external light.
以上のように、複数の方向に配向された光センサー36を使用し、この光センサー36の検出結果に基づいて外光光源の情報(仮想光源方向)を検出し、同情報に基づいて外光の影響を除去している。
この例では、光センサー36が台面15上での外光の状況を検出する外光検出部を構成している。ステップS100にて同光センサー36の検出高強度を測定した後、ステップS102で仮想光源を設定するとともに、ステップS112にて仮想光源方向を取得してステップS114でライティングの逆補正値を計算し、ステップS116で各面ごとに逆補正値を設定する処理が、外光検出部による検出結果に基づいて上記カメラ部による上記台面上の撮影結果への影響を打ち消す調整値を演算する外光演算部を構成する。そして、ステップS118にて3Dモデルデータの各面の輝度補正を反映させる処理が、カメラ部に台面上の被写体を撮影させて得られた画像に上記調整値を反映させて外光の影響を低減させる処理を施す外光除去処理部を構成している。
As described above, the
In this example, the
特に、光センサー36は、複数の方向に配向された光センサーを有し、この光センサーの検出結果に基づいて外光光源の情報を検出できる。
次に、外光除去の手法として2Dでの手法について説明する。
図9は2Dの外光測定の処理を表すフローチャートであり、図10は2Dでの外光除去の処理を示すフローチャートである。
ステップS130では、キャリブレーション光の投影と台面撮影を行なう。具体的には、制御部46は照明部34,35の強度を順番に最弱、弱、中、最大と変化させ、各段階でカメラ31またはカメラ32で台面15の表面を撮影させる。得られた画像データは照明強度の異なる4つの画像データとなる。なお、これはキャリブレーションの意味で撮影するので、必要に応じて台面15上に予め提供しておいたムラのないキャリブレーション用紙を載置した上で撮影を行っても良い。そして、ステップS132では、撮影画像を所定数の区画(升目)に分け、各区画ごとに概略の明暗状況を検出する。
In particular, the
Next, a 2D method will be described as a method for removing external light.
FIG. 9 is a flowchart showing 2D external light measurement processing, and FIG. 10 is a flowchart showing 2D external light removal processing.
In step S130, calibration light projection and table surface photography are performed. Specifically, the control unit 46 sequentially changes the intensities of the
明暗状況を得られたら、ステップS134では区画ごとの輝度補正値の演算を行なう。本実施例では、中心付近の区画を基準値とした相対的な値とする。撮影は、照明部34,35を使用して、照明の強度を変えて複数回行っており、それぞれの撮影結果に基づいて相対値を得た上で、さらに各回の補正値の平均値を取ることでより外光除去を効果的に行えるようにしている。以上により2Dの外光測定処理を終了する。
If a bright / dark situation is obtained, the brightness correction value for each section is calculated in step S134. In the present embodiment, a relative value with a section near the center as a reference value is used. Photographing is performed a plurality of times by changing the intensity of illumination using the
各画像における外光除去は次のように行う。制御部46はカメラ部42を制御してカメラ31かカメラ32のいずれかで台面15上の被写体の撮影を行なう。この場合は2Dの処理なのでいずれか一方のカメラで撮影した画像データを得られればよい。画像データを得られたら、ステップS140にて、2Dデータの各区画ごとに輝度補正値を適用する。台面15上の外光の影響度合いは区画ごとの明暗の相対値として把握し、ステップS134にて同補正値を得ているため、この補正値を2Dの画像データの各区画ごとに適用する。一般的な明暗の修正では画像データの輝度値にγカーブを適用する。相対的な明暗比に対応したγ値を別途テーブルとして用意しておき、同テーブルからγ値を読み込むと共に同γ値に基づくγカーブを描いて入力値と出力値との対応テーブルを作成し、画像データの輝度値を変換する。
External light removal in each image is performed as follows. The control unit 46 controls the
以上のように、照明部34,35によって照度を変えた複数の環境下で、上記カメラ31,32によって上記台面15上を撮影し、各区画(升目)ごとの輝度の分布に基づいて外光の状況を検出し、同分布に基づいて台面上の撮影結果への影響を打ち消す調整値を演算している。
なお、本発明における印刷部は本実施例における印刷部41が相当し、台面は台面15が相当し、カメラはカメラ部42とカメラ31,32が相当し、外光検出部は光センサー36および台面15上を撮影するカメラ31,32が相当する。また、外光演算部はステップS100,ステップS102の処理とステップS130〜ステップS134の処理と各ハードウェアが相当し、外光除去処理部はステップS110〜ステップS118とステップS140の処理と各ハードウェアが相当し、印刷制御部は制御部46が相当しているといえる。
As described above, under the plurality of environments in which the illuminance is changed by the
The printing unit in the present invention corresponds to the printing unit 41 in the present embodiment, the base corresponds to the
特に、ステップS130とステップS132にて、照明強度の異なる4つの画像データに基づいて撮影画像を所定数の区画(升目)に分け、各区画ごとに概略の明暗状況を検出するので、かかる処理が、カメラ部によって複数の照明環境下での台面上を撮影し、輝度の分布に基づいて外光の状況を検出する処理に相当し、ステップS134で上記補正値を得る処理が、上記分布に基づいて台面上の撮影結果への影響を打ち消す調整値を演算する処理に相当する。 In particular, in step S130 and step S132, the captured image is divided into a predetermined number of sections (cells) based on four image data having different illumination intensities, and an approximate light / dark state is detected for each section. This corresponds to the process of photographing the surface of the table under a plurality of illumination environments by the camera unit and detecting the situation of the external light based on the luminance distribution, and the process of obtaining the correction value in step S134 is based on the distribution. This corresponds to a process of calculating an adjustment value that cancels the influence on the imaging result on the table surface.
次に、撮影の手順に沿って説明する。
図11は台面15上に厚物の本を見開きの状態で載置した状態を平面図により示しており、図12は同状態を理解しやすいように斜視図による略図で示しており、図13は正面から見て本とカメラの位置関係を略図により示している。そして、図14は3Dでの撮影の手順に沿ったフローチャートである。
Next, a description will be given along the shooting procedure.
FIG. 11 is a plan view showing a state where a thick book is placed on the
撮影にあたり、ステップS200にて外光測定処理を実施する。この処理は上述したとおりである。ステップS202では、3D撮影を2つのカメラ31,32で行う。図13に示すように所定間隔を隔てた二つのカメラ31,32で台面15の上の本を撮影すると、わずかにずれた二つの画像が得られる。ステップS204では、二つの画像のずれを視差に置き換えて台面15上に置かれた立体物の外形を求める。これが先に説明した3Dモデルデータとなる。この後、ステップS206では外光除去処理を行う。ステップS110〜ステップS116の処理が相当する。すると外光の影響を除去するように明暗を調整した3Dの立体物の表面画像が求められる。
In photographing, outside light measurement processing is performed in step S200. This process is as described above. In step S202, 3D shooting is performed by the two
ステップS208では、3Dモデルを2Dへ変換するためのパラメータを演算する。ここでは、本来の3Dの立体画像を求めるのではなく、本の表面が湾曲している状態から、湾曲していなければ得られるはずの平面の画像データを生成する。
ベクトルデータで求められる立体物の表面位置に基づいてそれらを連結して形成される最小の各面に画像データを貼り付けることができるから、ステップS210の処理で、各平面を平面上に展開させた2Dの画像データを得る。この過程を演算によって求める。ただ、演算の複雑さを考慮して、予めパターン化しておいた立体形状の3Dモデルを用意しておき、求められた立体外形が近い3Dモデルを選択するようにしても良い。むろん、各3Dモデルは展開を容易にする簡易的な形状にしてある。このようにすれば、選択された3Dモデルに画像データを貼り付けたときの展開演算を求めるパラメータに基づいて容易に平面状の画像データを得ることが可能となる。本の見開きの形状であれば基本的な形状は似ているためである。
In step S208, parameters for converting the 3D model to 2D are calculated. Here, instead of obtaining an original 3D stereoscopic image, image data of a flat surface that should be obtained if it is not curved is generated from a state where the surface of the book is curved.
Since the image data can be pasted on each minimum surface formed by connecting them based on the surface position of the three-dimensional object determined by the vector data, each plane is developed on the plane in the process of step S210. 2D image data is obtained. This process is obtained by calculation. However, a 3D model having a three-dimensional shape patterned in advance may be prepared in consideration of calculation complexity, and a 3D model having a close three-dimensional shape may be selected. Of course, each 3D model has a simple shape that facilitates deployment. In this way, it is possible to easily obtain planar image data based on parameters for obtaining a development operation when image data is pasted on the selected 3D model. This is because the basic shape is similar if the book is spread.
二つのカメラ31,32は所定距離を隔ててアーム20の裏面に備えられており、台面15上の所定位置にて同台面15上を撮影可能である。従って、これらの構成によりカメラ部を構成している。ステップS202にて二つのカメラ31,32で台面15上の被写体を撮影した画像データに基づき、ステップS204では二つの画像のずれを視差に置き換えて台面15上に置かれた立体物の外形を求めており、この処理が複数の位置で撮影された画像データに基づいて上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する歪み修正パラメータ演算部を構成している。すなわち、複数の位置で撮影された画像データのずれた二つの画像を視差に置き換えて台面上に載置される被写体の立体外形を求めている。
The two
ステップS208では、3Dモデルを2Dへ変換するためのパラメータを演算しており、ステップS210では各平面を平面状に展開させた2Dの画像データを得る。従って、これらの処理が演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する画像データ歪み修正演算部を構成している。すなわち、立体物の表面位置に基づいてそれらを連結して形成される各平面を平面状に展開させた画像データを得ている。この後、ステップS212にて同画像データを保存する。 In step S208, parameters for converting the 3D model into 2D are calculated. In step S210, 2D image data in which each plane is developed into a flat shape is obtained. Therefore, an image data distortion correction calculation unit that converts the distortion generated in the image data into planar image data based on the distortion correction parameter calculated by these processes is configured. That is, image data is obtained by expanding each plane formed by connecting them based on the surface position of the three-dimensional object. Thereafter, the image data is stored in step S212.
また、演算を簡易にするために、予めパターン化しておいた立体形状の3Dモデルを用意しておき、これに求められた立体外形を当てはめる処理例が、予めパターン化しておいた立体形状の3Dモデルを用意しておき、求められた立体外形が近い3Dモデルに画像データを貼り付けたときの展開演算を求めるパラメータに基づいて歪み修正を行う画像データ歪み修正演算部を構成することになる。 In addition, in order to simplify the calculation, a processing example in which a 3D model having a three-dimensional shape patterned in advance is prepared and a three-dimensional shape obtained by applying the three-dimensional shape to the model is prepared. A model is prepared, and an image data distortion correction calculation unit that performs distortion correction based on a parameter for obtaining a development calculation when image data is pasted on a 3D model having a similar three-dimensional outline is configured.
また、保存した平面の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
上述した例は3Dでの撮影の例であるが、2Dでの撮影の例を次に説明する。
図15は台面15上に升目状のパターンを投影した状態を示しており、図16は同台面15上に厚物の本を見開きで載置して同パターンを投影した状態を示している。図17は2Dでの撮影の手順に沿ったフローチャートである。
Further, since the control unit 46 causes the printing unit 41 to print an image based on the stored plane image data, the processing constitutes a printing control unit.
The above-described example is an example of 3D shooting, but an example of 2D shooting will be described below.
FIG. 15 shows a state in which a grid-like pattern is projected on the
まず、ステップS230にて、上述したように外光測定処理を行なう。次に、ステップS232にて、所定の絵柄の光である歪み検出用パターンの投影を行なう。ヘッド部22における台面15に対面する側には投影部33が備えられており、図15に示すような升目状のパターン(歪み検出用パターン)を投影する。この投影部は台面15のほぼ中央の上方に位置している。台面15に何も載置していない状態では図15に示すように正確な升目が投影されるが、台面15に本を載置していると、図16に示すように立体形状を反映して画像が歪む。投影部33から放射状に投影される升目のパターンの場合、升目の格子点ごとに高さに対応して放射方向にずれることになる。従って格子点ごとのずれ量がその格子点での高さ情報となる。
First, in step S230, external light measurement processing is performed as described above. Next, in step S232, a distortion detection pattern that is light of a predetermined pattern is projected. A
ステップS234では、1つのカメラ31で2D撮影を行なう。なお、投影部33の位置とカメラ31の位置は一致していないが、補正演算で解消できる。撮影した画像データに基づき、ステップS236で、歪み検出用パターンの格子点検出を行なう。各格子点の位置ごとに上述したずれ量を得られたら、高さ情報に基づいて立体形状が求められるため、ステップS238では、上述したのと同様にして、湾曲している立体表面を平面に展開した状態に戻すための歪み修正パラメータの演算を行なう。以上により立体物を2D画像として撮影したときの歪みを戻すパラメータが得られたことになる。
In step S234, 2D shooting is performed with one
ステップS240では、1つのカメラ31で台面15上の被写体を撮影する。むろんこの時点では歪み検出用パターンは投影していない。続く、ステップS242にて、外光除去処理を行う。外光除去処理は3Dによる外光除去の手法を採用しても良いし、2Dによる外光除去の手法を採用しても良い。いずれにしても外光の影響を除去した後、ステップS244では、ステップS238で得られたパラメータを利用して2Dの画像データの歪みを修正する。修正後、ステップS246にて修正後の画像データを保存する。
In step S240, the subject on the
本実施例では、投影部33より台面51上に歪み検出用パターンを投影するステップS232の処理で投影部を構成している。また、カメラ31によって上記投影される絵柄を2Dで撮影した画像データに基づいて、ステップS236とステップS238の処理で同絵柄の歪みから上記台面51上に載置された被写体の表面形状を平面状に戻すパラメータを演算する処理が歪み修正パラメータ演算部を構成している。そして、ステップS240で1つのカメラ31で台面15上の被写体を撮影するとともに、ステップS244にて上記演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する処理が画像デーの歪み修正演算部を構成している。
In the present embodiment, the projection unit is configured by the process of step S232 for projecting the distortion detection pattern from the
また、保存した平面の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
図18は、変形例にかかる複合機の外観を斜視図により示しており、図19は被写体撮影時の外観を斜視図により示している。また、図20は撮影時の平面図、図21は撮影用のカメラを部分拡大して斜視図により示している。
Further, since the control unit 46 causes the printing unit 41 to print an image based on the stored plane image data, the processing constitutes a printing control unit.
FIG. 18 is a perspective view showing an external appearance of a multifunctional machine according to a modification, and FIG. 19 is a perspective view showing an external appearance at the time of photographing a subject. FIG. 20 is a plan view at the time of shooting, and FIG. 21 is a partially enlarged perspective view of the camera for shooting.
本MFP50は、台面51を有しており、台面51には手前側の幅方向に延びる短冊状のアーム52が埋設されている。アーム52は正面から見て右側の端部を回転中心として左端が持ち上がるように回転可能である。そして、図19に示すように同アーム52はほぼ直立状態となる。アーム52の上端近辺であって上記台面51に対面する側には凹部53を形成してある。この凹部53にはカメラ54が配設されており、同カメラ54が台面51上の被写体を撮影可能である。この例ではカメラ54を1つだけ備えているが視点を変えて撮影して立体画像を得られるように複数のカメラを備えることも可能である。なお、アーム52を直立した状態でのカメラ54の位置は一定であるため、直立させることでカメラ54の位置は判断可能といえる。
The
図22は、2Dによる撮影の手順を示すフローチャートである。
ステップS250では、カメラ位置検出を行なう。上述したように、アーム52を直立した状態でのカメラ54の位置は一定である。従って、アーム52を直立させたことで、カメラ54位置を検出できたことになる。この例ではアーム52を直立させる動作が該当しているが、カメラの位置は自由であり、カメラの位置をカメラの側から設定するということもできる。これが所定のポジションを設定することに相当する。
FIG. 22 is a flowchart illustrating a procedure of 2D shooting.
In step S250, camera position detection is performed. As described above, the position of the
ステップS252では、カメラ位置対応歪み修正パラメータ取得の処理を行う。図23はカメラ54の位置で台面51を撮影したときの画像と本来の二次元の平面画像との対応を示す歪み修正パラメータを図形として示している。カメラ54で台面51上を撮影すると、長四角の矩形形状が図23の上方に示すような歪んだ菱形状に撮影される。この対応パターンは固定的であるから、菱形形状の画像の座標位置と本来の長四角の矩形形状の画像の座標位置とを対応付けしておくことで、カメラ54で撮影した画像を歪みのない元の平面画像に変換することができる。
In step S252, camera position corresponding distortion correction parameter acquisition processing is performed. FIG. 23 shows, as a figure, distortion correction parameters indicating the correspondence between an image when the
従って、ステップS254にて、同カメラ54にて2Dによる撮影を行ない、ステップS256にて、同カメラ54位置に対応する歪み修正パラメータを適用して歪み除去する。
上述した図18〜図21に示す実施例では、カメラ54がアーム52を寝かせた状態から直立させた状態へ移動可能であり、直立させた状態で台面51よりも高い位置から同台面51上の撮影を行なう。ステップS250の処理では、カメラ位置検出を行なっており、この位置から撮影した台面51は図23の上方に示すように歪んで撮影されることが分かっている。従って、ステップS250の処理は、カメラ部の撮影位置と台面との位置関係を検出するカメラ位置検出部の処理に相当する。また、図23に示す対応関係が分かっているので、ステップS252にて菱形形状の画像の座標位置と本来の長四角の矩形形状の画像の座標位置とを対応付けしておく情報を取得することがカメラ位置対応歪み修正パラメータ演算部に相当する。演算といっても広義には予め対応づけられたテーブルを参照することも含み、このような二次元画像同士の対応関係であれば二次元画像変換テーブルとして構成しておくのが容易である。また、後述するような図28に示すようなカメラ63位置であれば、図29に示す台形と長方形との対応関係が二次元画像変換テーブルに相当する。
Accordingly, 2D shooting is performed with the
In the embodiment shown in FIGS. 18 to 21 described above, the
ステップS254にて撮影した画像に対して、ステップS256でカメラ54位置に対応する歪み修正パラメータを適用して歪み除去する処理は、演算されたカメラ位置対応歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した画像データに変換する画像データの歪み修正演算部に相当する。なお、このようにして得られた平面状の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
The processing for removing distortion by applying the distortion correction parameter corresponding to the position of the
図24〜図28は、本発明の他の変形例を示している。図24は非撮影状態を斜視図により示しており、図25は同状態を側面図により示している。図26は撮影状態を斜視図により示しており、図27は側面図により示しており、図28は背面図により示している。
図に示すように、本MFP60では、本体筺体67に対して、前面側のパネル61が撮影時や印刷時には台面64を見下ろせる様に上方にスライド移動可能であり、非撮影時や非使用時には下方にスライド移動する。上方にスライドすることで前面に印刷用紙を排紙する排出口62が開口する。本体筺体67内には図示しないが印刷部41が収容されている。
24 to 28 show other modified examples of the present invention. FIG. 24 is a perspective view showing the non-photographing state, and FIG. 25 is a side view showing the same state. 26 is a perspective view, FIG. 27 is a side view, and FIG. 28 is a rear view.
As shown in the figure, in the
また、パネル61が上方にスライドすると、その背面側の上端付近に配設されているカメラ63もせり上がり、上方から台面64上を見下ろす位置に移動する。カメラ63はパネル61の幅方向の中央に配設されている。なお、パネル61の背面側には、カメラ63を挟むように両側に照明部65,66を配設されている。パネル61の背面側に照明部65,66が備えられているので、撮影時に操作者の側に照明光が直接投射されず、まぶしくない。
Further, when the
このように台面64上を上方手前側から撮影すると図29の上方に示すように台形状に歪みが表れる。これを台形歪みと呼んでいる。この台形の座標位置とその下方に示す長四角形の座標位置との対応関係が、このカメラ位置に対応した歪み修正パラメータとなる。
従って、この例でもカメラ位置に対応した歪み修正パラメータを取得して歪みを除去できる。
In this way, when the surface of the
Therefore, even in this example, distortion correction parameters corresponding to the camera position can be acquired and distortion can be removed.
この実施例では、印刷部41は本体筺体67内に収容されており、同本体筺体67は薄箱状で上面に被写体を載置可能な台面64を有する構成となっている。パネル61は、本体筺体67の側面に配置されて同側面に沿って上下方向に概略スライド移動可能な構成となっている。カメラ63はこのパネル61の裏面側に配置されており、本体筺体67の側面でパネル61が上方にスライド移動したときに上記台面64よりも高い位置となって同台面64上の撮影を行なうカメラ部を構成している。
In this embodiment, the printing unit 41 is accommodated in a
そして、カメラ63にて撮影した画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
ところで、台面に載置された被写体の場合、撮影位置が変化するので大きさが分からなくなるという問題がある。
図30は本来のサイズが分かるように規格化する処理を示しており、図31はこの問題を図によって表している。
Then, since the control unit 46 causes the printing unit 41 to print an image based on the image data photographed by the
By the way, in the case of the subject placed on the surface, there is a problem that the size is not known because the photographing position changes.
FIG. 30 shows a process of normalization so that the original size can be understood, and FIG. 31 illustrates this problem by a diagram.
図31に示すように、台面72上を薄い被写体を載置して画面一杯に撮影されたと時と、台面72上に高さのある被写体を載置して画面一杯に撮影された時とでは、画像データでは共に同じ大きさに撮影されてしまう。
そこで、ステップS260では、測距(AF)を行なう。測距は各種の手法を採用可能であり、一例として焦点位置をずらせながら撮影画像のシャープさを求めて距離を測定できる。距離を測定した上で、ステップS262にて、2Dでの撮影を行なう。その後、ステップS264にて、同距離を反映させ、標準サイズへ規格化する。すなわち、測距距離に対応して画像を拡大あるいは縮小処理する。そして、ステップS268にて、規格化後の画像データを保存する。
As shown in FIG. 31, when a thin subject is placed on the
In step S260, therefore, distance measurement (AF) is performed. Various methods can be employed for distance measurement, and as an example, the distance can be measured by obtaining the sharpness of the captured image while shifting the focal position. After measuring the distance, 2D shooting is performed in step S262. Thereafter, in step S264, the same distance is reflected and normalized to a standard size. That is, the image is enlarged or reduced according to the distance measured. In step S268, the normalized image data is stored.
このようにすることで、立体物であっても常に本来のサイズを反映させた画像データにすることができる。
このように、ステップS260にて測距し、ステップS264にて同測距された距離された距離に基づいて標準サイズへ変換しており、かかる処理が台面上の被写体までの距離を測定し、測距された距離に対応して画像を拡大あるいは縮小処理した規格化後の画像データを印刷させる印刷制御部を構成することになる。
また、光センサー36を台面15上にも設けても良いし、光センサー36の数も1つに限られず複数設けても良い。被写体は台面15上に置かれるため、このようにすることでより外光の影響を除くことができる。
By doing in this way, even if it is a three-dimensional thing, it can always be set as image data in which the original size was reflected.
In this way, the distance is measured in step S260 and converted to the standard size based on the distance measured in step S264, and this process measures the distance to the subject on the surface, A print control unit is configured to print the standardized image data obtained by enlarging or reducing the image corresponding to the measured distance.
Further, the
なお、本発明は上記実施例に限られるものでないことは言うまでもない。当業者であれば言うまでもないことであるが、印刷以外の表示出力やデータ送信などの方法で画像を出力する出力装置に適用しても良いし、
・上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用すること
Needless to say, the present invention is not limited to the above embodiments. It goes without saying that those skilled in the art may apply to an output device that outputs an image by a method such as display output or data transmission other than printing,
・ Applying mutually interchangeable members and configurations disclosed in the above embodiments by appropriately changing the combination thereof.− Although not disclosed in the above embodiments, it is a publicly known technique and the above embodiments. The members and configurations that can be mutually replaced with the members and configurations disclosed in the above are appropriately replaced, and the combination is changed and applied.
・上記実施例の中で開示されていないが、公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用すること
は本発明の一実施例として開示されるものである。
・ Although not disclosed in the above-described embodiments, those skilled in the art may appropriately substitute members and configurations that can be assumed as substitutes for the members and configurations disclosed in the above-described embodiments based on known techniques, Changing and applying the combination is disclosed as an embodiment of the present invention.
10…MFP、11…排出口、12…操作子、13…ディスプレイパネル、14…本体筺体、15…台面、20…アーム、21…連結部、22…ヘッド部、31,32…カメラ、33…投影部、34,35…照明部、36…光センサー、37…操作子、41…印刷部、42…カメラ部、43…操作部、44…通信部、45…I/O部、46…制御部、50…MFP、51…台面、52…アーム、53…凹部、54…カメラ、60…MFP、61…パネル、62…排出口、63…カメラ、64…台面、65,66…照明部、67…本体筺体、72…台面
DESCRIPTION OF
Claims (6)
この台面よりも高い位置から同台面上に所定の絵柄の光を投影する投影部と、
上記台面上の撮影を行なうカメラ部と、
このカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する歪み修正パラメータ演算部と、
演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する画像データの歪み修正演算部と、
歪みを除去した平面状の画像を出力する出力部とを備えることを特徴とする画像出力装置。 The surface,
A projection unit that projects light of a predetermined pattern onto the surface from a position higher than the surface;
A camera unit for shooting on the surface;
A distortion correction parameter calculation unit for calculating a parameter for returning the surface shape of the subject placed on the table surface to a planar shape from distortion of the pattern based on image data obtained by photographing the projected pattern by the camera unit; ,
A distortion correction calculation unit for image data to be converted into planar image data from which distortion generated in the image data is removed based on the calculated distortion correction parameter;
An image output apparatus comprising: an output unit that outputs a planar image from which distortion has been removed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059810A JP2012195875A (en) | 2011-03-17 | 2011-03-17 | Image output device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059810A JP2012195875A (en) | 2011-03-17 | 2011-03-17 | Image output device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012195875A true JP2012195875A (en) | 2012-10-11 |
Family
ID=47087360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011059810A Withdrawn JP2012195875A (en) | 2011-03-17 | 2011-03-17 | Image output device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012195875A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104052951A (en) * | 2013-03-13 | 2014-09-17 | 株式会社理光 | Projector, method of controlling projector |
JP2016103859A (en) * | 2012-12-21 | 2016-06-02 | カシオ計算機株式会社 | Image processing apparatus |
JP2017017514A (en) * | 2015-06-30 | 2017-01-19 | カシオ計算機株式会社 | Image processing apparatus, image processing system, image processing method and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338907A (en) * | 2002-03-14 | 2003-11-28 | Ricoh Co Ltd | Image input apparatus |
-
2011
- 2011-03-17 JP JP2011059810A patent/JP2012195875A/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338907A (en) * | 2002-03-14 | 2003-11-28 | Ricoh Co Ltd | Image input apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016103859A (en) * | 2012-12-21 | 2016-06-02 | カシオ計算機株式会社 | Image processing apparatus |
CN104052951A (en) * | 2013-03-13 | 2014-09-17 | 株式会社理光 | Projector, method of controlling projector |
JP2017017514A (en) * | 2015-06-30 | 2017-01-19 | カシオ計算機株式会社 | Image processing apparatus, image processing system, image processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103765870B (en) | Image processing apparatus, projector and projector system including image processing apparatus, image processing method | |
JP4715527B2 (en) | Imaging apparatus, image processing method and program for captured image | |
TWI451750B (en) | Image capture apparatus, computer readable recording medium and control method | |
JP4012710B2 (en) | Image input device | |
JP5986364B2 (en) | Three-dimensional shape measuring apparatus, control method for three-dimensional shape measuring apparatus, and program | |
JP2010271199A (en) | Three-dimensional shape measuring device, three-dimensional shape measuring method, and computer program | |
JP2013041166A (en) | Projector, control method thereof, program thereof, and recording medium with the program stored therein | |
US11606538B2 (en) | Automatic keystone correction in a projection system | |
WO2008150027A1 (en) | Image processing device, image processing method, and image processing program | |
JP5644461B2 (en) | Image processing apparatus and program | |
CN110784691A (en) | Projection device, projection system and image correction method | |
JP2007036482A (en) | Information projection display device and program | |
US20080292304A1 (en) | Projection Type Image Display Apparatus And Projection Type Image Display System | |
JP2011176629A (en) | Controller and projection type video display device | |
JP2012195875A (en) | Image output device | |
EP3606061B1 (en) | Projection device, projection system and an image calibration method | |
JP2008128771A (en) | Spectroscopic information and shape information simultaneous acquisition apparatus and information acquisition method | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
JP5817160B2 (en) | Image output device | |
JP5673260B2 (en) | Image output device | |
JPH09305796A (en) | Image information processor | |
JP2012195877A (en) | Image output device | |
JP2012195876A (en) | Image output device | |
JP6381206B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2019040004A (en) | Photographing system and photographing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20141226 |