[go: up one dir, main page]

JP2012195875A - Image output device - Google Patents

Image output device Download PDF

Info

Publication number
JP2012195875A
JP2012195875A JP2011059810A JP2011059810A JP2012195875A JP 2012195875 A JP2012195875 A JP 2012195875A JP 2011059810 A JP2011059810 A JP 2011059810A JP 2011059810 A JP2011059810 A JP 2011059810A JP 2012195875 A JP2012195875 A JP 2012195875A
Authority
JP
Japan
Prior art keywords
image data
distortion correction
distortion
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011059810A
Other languages
Japanese (ja)
Inventor
Yoshiaki Shibazaki
佳秋 柴▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011059810A priority Critical patent/JP2012195875A/en
Publication of JP2012195875A publication Critical patent/JP2012195875A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)

Abstract

【課題】 台面上に載置されているものを上方から撮影する場合、例えば本の紙面が湾曲している状態で撮影しているので、歪んだ状態で撮影されてしまう。
【解決手段】
台面上には所定の被写体を載置することが可能である。投影部がこの台面よりも高い位置から同台面上に所定の絵柄の光を投影すると、カメラ部は上記台面上の撮影を行なう。台面上に被写体が置かれている状態であれば、上記絵柄は立体表面に投影され、歪み修正パラメータ演算部はカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する。そして、画像データの歪み修正演算部は、演算された歪み修正パラメータに基づいて上記カメラ部にて撮影される画像データに生じている歪みを除去した平面状の画像データに変換する。最後に、歪みを除去した平面状の画像を出力する。
【選択図】 図2
PROBLEM TO BE SOLVED: To shoot an object placed on a table surface from above, for example, since the image is taken in a state where the paper surface of the book is curved, the image is taken in a distorted state.
[Solution]
A predetermined subject can be placed on the surface. When the projection unit projects light of a predetermined pattern onto the surface from a position higher than the surface of the table, the camera unit performs photographing on the surface. If the subject is placed on the surface, the pattern is projected onto the three-dimensional surface, and the distortion correction parameter calculation unit is based on the image data obtained by photographing the projected pattern by the camera unit. To calculate a parameter for returning the surface shape of the subject placed on the table to a flat surface. Then, the image data distortion correction calculation unit converts the image data into planar image data from which distortion generated in the image data photographed by the camera unit is removed based on the calculated distortion correction parameter. Finally, a planar image from which distortion has been removed is output.
[Selection] Figure 2

Description

本発明は、画像出力装置に関し、特に、台面上に載置した被写体の画像を出力可能な画像出力装置に関する。   The present invention relates to an image output apparatus, and more particularly to an image output apparatus that can output an image of a subject placed on a table.

従来、所定の台面上に載置した被写体を撮影可能な画像形成装置が知られている。
特許文献1及び特許文献2に示すものでは、台面を手前に引き出した後、同台面上にせり出してくる撮影素子により、上記台面上に載置された被写体を上方から撮影する。
2. Description of the Related Art Conventionally, an image forming apparatus capable of photographing a subject placed on a predetermined base surface is known.
In the devices disclosed in Patent Document 1 and Patent Document 2, the subject placed on the surface is photographed from above by the photographing element that is pulled out on the surface after the surface is pulled out.

特開2010−68289号公報JP 2010-68289 A 特開2010−68290号公報JP 2010-68290 A

しかし、台面上に載置されているものを上方から撮影する場合、例えば本の紙面が湾曲している状態で撮影しているので、歪んだ状態で撮影されてしまう。
本発明は、本来は平面でありながら立体的になって湾曲して撮影される画像から本来の平面の状態の画像に変換することが可能な画像出力装置に関する。
However, when photographing what is placed on the table surface from above, for example, since the photographing is performed in a state where the paper surface of the book is curved, the photographing is performed in a distorted state.
The present invention relates to an image output apparatus capable of converting an image which is originally a plane but is three-dimensionally curved and photographed into an image in an original plane state.

本発明は、台面上には所定の被写体を載置することが可能である。投影部がこの台面よりも高い位置から同台面上に所定の絵柄の光を投影すると、カメラ部は上記台面上の撮影を行なう。台面上に被写体が置かれている状態であれば、上記絵柄は立体表面に投影され、歪み修正パラメータ演算部はカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する。そして、画像データの歪み修正演算部は、演算された歪み修正パラメータに基づいて上記カメラ部にて撮影される画像データに生じている歪みを除去した平面状の画像データに変換する。最後に、歪みを除去した平面状の画像を出力する。   In the present invention, it is possible to place a predetermined subject on the base surface. When the projection unit projects light of a predetermined pattern onto the surface from a position higher than the surface of the table, the camera unit performs photographing on the surface. If the subject is placed on the surface, the pattern is projected onto the three-dimensional surface, and the distortion correction parameter calculation unit is based on the image data obtained by photographing the projected pattern by the camera unit. To calculate a parameter for returning the surface shape of the subject placed on the table to a flat surface. Then, the image data distortion correction calculation unit converts the image data into planar image data from which distortion generated in the image data photographed by the camera unit is removed based on the calculated distortion correction parameter. Finally, a planar image from which distortion has been removed is output.

ここで、歪み修正パラメータは歪みを完全に無くすことができるものに限られず、軽減するようなものも含まれる。また、上記投影部は、上記被写体の中央近辺から放射状に上記絵柄の光を投影するように構成することができる。放射状に投影すると立体物の表面の高さにほぼ比例して各地点においてずれが生じる。
また、上記投影部は、上記放射状の絵柄の光として升目状の絵柄を投影するように構成することができる。升目状の絵柄であると各格子点が定まり、各格子点の高さ情報を得られるので立体物を把握しやすい。
Here, the distortion correction parameter is not limited to a parameter that can completely eliminate the distortion, and includes a parameter that reduces the distortion. The projection unit may be configured to project the light of the pattern radially from the vicinity of the center of the subject. When projected radially, a shift occurs at each point in proportion to the height of the surface of the three-dimensional object.
Further, the projection unit can be configured to project a grid pattern as the light of the radial pattern. If the pattern is a checkerboard pattern, each grid point is determined, and the height information of each grid point can be obtained, making it easy to grasp a three-dimensional object.

さらに、上記歪み修正パラメータ演算部は、上記升目状の格子点ごとにずれ量と高さとの対応関係を示すテーブルを有しており、歪みの格子点ごとにずれ量を求めて高さ情報に変換することで立体表面形状を求めるように構成しても良い。
台面と投影部との一定の位置関係が定まっているので、予め各格子点ごとにずれ量と高さとの換算用のテーブルを用意することが可能であり、演算が容易になる。
Further, the distortion correction parameter calculation unit has a table showing a correspondence relationship between the shift amount and the height for each grid-like lattice point, and obtains the shift amount for each lattice point of the distortion to obtain height information. You may comprise so that a three-dimensional surface shape may be calculated | required by converting.
Since a fixed positional relationship between the table surface and the projection unit is determined, a table for conversion between the shift amount and the height can be prepared for each lattice point in advance, and the calculation becomes easy.

また、上記歪み修正パラメータ演算部は、立体形状が求められたら、湾曲している立体表面を平面に展開した状態に戻すための歪み修正パラメータの演算を行なうように構成することができる。湾曲している立体表面を把握できるので、後は各平面を水平にしてつなぎ合わせるだけで展開した状態に戻すことができる。
このため、上記歪み修正演算部は、上記歪み修正パラメータに基づいて湾曲している立体表面を平面に展開した状態に戻す演算を行なうように構成する。
Further, the distortion correction parameter calculation unit can be configured to calculate a distortion correction parameter for returning a curved solid surface to a flat state when a three-dimensional shape is obtained. Since the curved three-dimensional surface can be grasped, it is possible to return to the unfolded state by simply connecting the flat surfaces horizontally.
For this reason, the said distortion correction calculating part is comprised so that the calculation which returns the curved solid surface to the state expand | deployed on the plane based on the said distortion correction parameter may be performed.

本発明によれば、本の紙面などを平面に戻した状態に変換できるので、湾曲による歪みのない画像を得ることが可能となる。   According to the present invention, since the paper surface of a book can be converted to a flat state, it is possible to obtain an image free from distortion due to bending.

本発明の一実施形態にかかるMFPの外観を示す斜視図である。1 is a perspective view showing an appearance of an MFP according to an embodiment of the present invention. 被写体撮像時の外観を示す斜視図である。It is a perspective view which shows the external appearance at the time of subject imaging. ヘッド部の裏側を示す斜視図である。It is a perspective view which shows the back side of a head part. 光センサーを示す斜視図である。It is a perspective view which shows an optical sensor. MFPのブロック回路図である。2 is a block circuit diagram of the MFP. FIG. 3Dの外光測定の処理を表すフローチャートである。It is a flowchart showing the process of 3D external light measurement. 3Dでの外光除去の処理を示すフローチャートである。It is a flowchart which shows the process of external light removal in 3D. 台面上に載置された被写体と仮想光源の位置を示す図である。It is a figure which shows the position of the to-be-photographed object and virtual light source which were mounted on the base surface. 2Dの外光測定の処理を表すフローチャートである。It is a flowchart showing the process of 2D external light measurement. 2Dでの外光除去の処理を示すフローチャートである。It is a flowchart which shows the process of external light removal in 2D. 台面上に厚物の本を見開きの状態で載置した状態を示す平面図である。It is a top view which shows the state mounted in the state of opening a thick book on the base surface. 同状態を理解しやすいように示した斜視図である。It is the perspective view shown so that it might be easy to understand the state. 正面から見た本とカメラの位置関係を示す正面図である。It is a front view which shows the positional relationship of the book and camera which were seen from the front. 3Dでの撮影の手順に沿ったフローチャートである。It is a flowchart along the procedure of imaging | photography in 3D. 台面上に升目状のパターンを投影した状態を示す図である。It is a figure which shows the state which projected the checkered pattern on the base surface. 台面上に厚物の本を見開きで載置して同パターンを投影した状態を示す図である。It is a figure which shows the state which mounted the thick book on the base surface in two pages, and projected the same pattern. 2Dでの撮影の手順を示すフローチャートである。It is a flowchart which shows the procedure of imaging | photography in 2D. 変形例にかかる複合機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the multifunctional device concerning a modification. 被写体撮影時の外観を示す斜視図である。It is a perspective view which shows the external appearance at the time of subject photography. 撮影時の平面図である。It is a top view at the time of imaging | photography. 撮影用のカメラを部分拡大して示す斜視図である。It is a perspective view which expands and shows the camera for imaging | photography partially. 2Dによる撮影の手順を示すフローチャートである。It is a flowchart which shows the procedure of imaging | photography by 2D. カメラの位置で台面を撮影したときの画像と本来の二次元の平面画像との対応を示す歪み修正パラメータを図形として示す図である。It is a figure which shows as a figure the distortion correction parameter which shows a response | compatibility with the image when a base surface is image | photographed at the position of a camera, and an original two-dimensional planar image. 非撮影状態を示す斜視図である。It is a perspective view which shows a non-photographing state. 非撮影状態を示す側面図である。It is a side view which shows a non-photographing state. 撮影状態を示す斜視図である。It is a perspective view which shows an imaging | photography state. 撮影状態を示す側面図である。It is a side view which shows a photographing state. 撮影状態を示す背面図である。It is a rear view which shows an imaging | photography state. カメラの位置で台面を撮影したときの画像と本来の二次元の平面画像との対応を示す歪み修正パラメータを図形として示す図である。It is a figure which shows as a figure the distortion correction parameter which shows a response | compatibility with the image when a base surface is image | photographed at the position of a camera, and an original two-dimensional planar image. 本来のサイズが分かるように規格化する処理を示すフローチャートである。It is a flowchart which shows the process which normalizes so that original size may be understood. サイズ分からなくなる問題を示す図である。It is a figure which shows the problem which loses size.

以下、図面にもとづいて本発明の実施形態を説明する。以下、本発明の画像出力装置として、ファクシミリ機能、印刷機能、スキャナー機能などを備えた複合機(MFP)に適用した実施例について説明する。
図1は本発明の一実施形態にかかるMFPの外観を斜視図により示しており、図2は被写体撮像時の外観を斜視図により示している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Hereinafter, an embodiment in which the image output apparatus of the present invention is applied to a multifunction peripheral (MFP) having a facsimile function, a printing function, a scanner function, and the like will be described.
FIG. 1 is a perspective view showing the appearance of an MFP according to an embodiment of the present invention, and FIG. 2 is a perspective view showing the appearance when an object is imaged.

同図において、複合機(MFP)10は、平面図で長四角の外枠をなし、高さ方向には幅方向や奥行き方向と比べて十分に薄い形状の概略矩形の筺体として形成されている。正面側には幅方向に長く形成された印刷物を排出する排出口11が形成され、同排出口11の上方の前面壁面には複数の操作子12やディスプレイパネル13などを備えている。上面は被写体を載置する台面15となっている。   In the figure, a multifunction peripheral (MFP) 10 has a long rectangular outer frame in a plan view, and is formed as a generally rectangular casing having a sufficiently thin shape in the height direction compared to the width direction and the depth direction. . On the front side, a discharge port 11 that discharges a printed material that is long in the width direction is formed. A front wall surface above the discharge port 11 includes a plurality of operating elements 12, a display panel 13, and the like. The upper surface is a base surface 15 on which the subject is placed.

本MFP10は、本体筺体14とは別部材であり、正面側から見て右側面の中程から後方に向けて後端まで達した後、背面側に沿って左側に向けて延びて背面の中程まで達する概略L字型のアーム20を有している。このアーム20は、本体筺体14の右側面に位置する連結部21と、本体筺体14の背面側に位置するヘッド部22とから構成され、本体筺体14の右側面の中程を回転中心とするように上記連結部21が本体筺体14に対して枢動可能に連結されている。そして、連結部21が枢動することにより、ヘッド部22が本体筺体14の背面側に位置する収容位置と、同ヘッド部22が本体筺体14の上方である撮影位置との間で移動可能となっている。   The MFP 10 is a separate member from the main body housing 14 and extends from the middle of the right side toward the rear end toward the rear end when viewed from the front side, and then extends toward the left side along the back side so as to be centered on the back side. It has a generally L-shaped arm 20 that reaches a certain extent. The arm 20 includes a connecting portion 21 located on the right side surface of the main body housing 14 and a head portion 22 located on the back side of the main body housing 14, and the center of the right side surface of the main body housing 14 is the center of rotation. As described above, the connecting portion 21 is pivotally connected to the main body housing 14. Then, as the connecting portion 21 pivots, the head portion 22 is movable between a housing position where the head portion 22 is located on the back side of the main body housing 14 and a photographing position where the head portion 22 is above the main body housing 14. It has become.

図3はヘッド部22の裏側を示す斜視図であり、同図に示すようにヘッド部22における上記撮影位置で上記台面15に対面する面には、上記本体筺体14の幅方向に所定距離を隔てて配置される二つのカメラ31,32と、その間に位置する投影部33と、同投影部33むようにヘッド部22の手前側と奥側に所定距離を隔てて幅方向に広い照明部34,35が配置されている。このように台面15に対面して所定距離を隔てた二つのカメラ31,32を有しているので、上記台面15上の被写体に対して撮影位置を異ならせた二つの画像を撮影可能であり、立体形状の情報を得られる。また、照明部34,35は照度を変更可能であり、外光の影響を低減させる処理にも利用可能である。   FIG. 3 is a perspective view showing the back side of the head portion 22, and as shown in FIG. 3, a predetermined distance in the width direction of the main body housing 14 is provided on the surface of the head portion 22 facing the base surface 15 at the shooting position. Two cameras 31 and 32 arranged apart from each other, a projection unit 33 positioned therebetween, and an illumination unit 34 wide in the width direction with a predetermined distance between the front side and the back side of the head unit 22 so as to cover the projection unit 33 35 is arranged. As described above, since the two cameras 31 and 32 facing the base surface 15 and spaced apart from each other by a predetermined distance are provided, it is possible to take two images with different photographing positions with respect to the subject on the base surface 15. 3D shape information can be obtained. The illumination units 34 and 35 can change the illuminance, and can be used for processing to reduce the influence of external light.

以上のようにしてアーム20は収容状態から撮影状態の位置へ移動可能であるので、カメラ31,32にて構成されるカメラ部は、台面下方の収納位置に収納可能であるとともに、同台面下方の収納位置から同台面上の撮影位置へ移動可能に支持されていることになる。
ヘッド部22が撮影位置にある状態で、同ヘッド部22の上面には5方向に配向された一つのユニットからなる光センサー36と複数の操作子37が備えられている。
As described above, the arm 20 can be moved from the housed state to the photographing state, so that the camera unit configured by the cameras 31 and 32 can be housed in the housed position below the base surface. It is supported so as to be movable from a lower storage position to a shooting position on the same surface.
In a state where the head unit 22 is at the photographing position, an optical sensor 36 and a plurality of operating elements 37 are provided on the upper surface of the head unit 22 and are composed of one unit oriented in five directions.

図4は光センサー36を斜視図により示している。同図に示すように、光センサー36は正面、両側面、背面から見た状態で台形であり、平面状態で外形が正方形となる立体形状を有しており、上面に上方に開口する光センサー素子が一つ配設され、それぞれの斜めに形成された側面にそれぞれ同斜め方向に開口する光センサー素子が一つずつ配設されている。光センサー36により、後述するように、ヘッド部22の上面において外光の状況を検出することになる。   FIG. 4 shows the optical sensor 36 in a perspective view. As shown in the figure, the optical sensor 36 has a three-dimensional shape that is trapezoidal when viewed from the front, both sides, and the back, and has a square outer shape in a planar state, and opens upward on the upper surface. One element is provided, and one optical sensor element that opens in the same oblique direction is provided on each obliquely formed side surface. As will be described later, the light sensor 36 detects the condition of external light on the upper surface of the head unit 22.

図5は、本MFPのブロック回路図を示しており、本体筺体14内に収容された印刷機構などによって構成されて印刷を行う印刷部41と、上記カメラ31,32を含むカメラ部42と、上記操作子12,37による操作を受け付けたり必要な情報を上記ディスプレイパネル13に表示する操作部43と、電話回線によるファクス送受信やネットワーク等によって外部機器との通信を行う通信部44と、投影部33や照明部34,35や光センサー36が接続されるI/O部45と、これらを総合的に制御する制御部46などを備えている。主に制御部46が主体となって以下のフローチャートの処理を実行しながら各部の制御を実行する。   FIG. 5 is a block circuit diagram of the MFP. The printing unit 41 includes a printing mechanism housed in the main body housing 14 and performs printing. The camera unit 42 includes the cameras 31 and 32. An operation unit 43 that accepts operations by the operators 12 and 37 and displays necessary information on the display panel 13, a communication unit 44 that communicates with an external device by fax transmission / reception via a telephone line, a network, etc., and a projection unit 33, illumination units 34 and 35, an I / O unit 45 to which the optical sensor 36 is connected, and a control unit 46 for comprehensively controlling them. The control unit 46 mainly performs control of each unit while executing the processing of the following flowchart.

次に上記構成からなる本実施例の印刷装置の動作を説明する。
図6は3Dの外光測定の処理を表すフローチャートであり、図7は3Dでの外光除去の処理を示すフローチャートである。
同図に示すように、外光除去は二つの手法を採用可能である。一つめは3Dの処理であり、ステップS100では、5方向の光センサー36の検出光強度を測定する。具体的には制御部46がI/O部45を介して同光センサー36の検出出力を入力する。
Next, the operation of the printing apparatus of this embodiment having the above-described configuration will be described.
FIG. 6 is a flowchart showing 3D ambient light measurement processing, and FIG. 7 is a flowchart showing 3D ambient light removal processing.
As shown in the figure, the external light removal can employ two methods. The first is 3D processing. In step S100, the detected light intensity of the optical sensor 36 in five directions is measured. Specifically, the control unit 46 inputs the detection output of the light sensor 36 via the I / O unit 45.

図8は台面15上に載置された被写体と仮想光源の位置を示す図である。
上述したように光センサー36は5方向の光強度を検出するので、ステップS102では、制御部46は5方向の光強度に応じた重み付けの演算によって光センサー36の配置位置を原点とするXY方向に加えて迎角θからなる仮想光源方向を求める。このようにして、仮想光源方向(ライティング)を設定することにより、後に3Dモデルデータに対してライティングと逆の補正値を適用して外光の影響を除去するのに利用する。
FIG. 8 is a diagram showing the positions of the subject placed on the table 15 and the virtual light source.
As described above, the optical sensor 36 detects the light intensity in the five directions, and therefore, in step S102, the control unit 46 performs the weighting calculation according to the light intensity in the five directions and the XY direction with the arrangement position of the optical sensor 36 as the origin. In addition to the above, the virtual light source direction consisting of the angle of attack θ is obtained. In this way, by setting the virtual light source direction (lighting), a correction value opposite to that of lighting is applied to the 3D model data later to be used for removing the influence of external light.

後述するように本MFPでは2つのカメラ31,32を利用することにより3Dモデリングが可能であり、3Dモデルデータを取得できる。これを前提として、先に3Dでの外光除去処理について説明する。
ステップS110では3Dモデルデータを取得する。この3Dモデルデータは立体物表面の座標を表すベクトルデータと、同ベクトルデータによって特定される立体物表面の画像データとからなる。これらにより、死角となる面を除いて立体物表面画像を表現できる。続く、ステップS112では、ステップS102にて求めた仮想光源方向を取得する。通常は、本来立体物の表面の画像データにシェーディングの効果を与えるために仮想光源方向を利用するが、ステップS114ではライティングによる影響を求めた上でその逆の補正値を演算する。すなわち、仮想光源に対面して明るく表示する面であれば暗くする補正値を、逆に仮想光源の影の側になって暗くする面であれば明るくする補正値を求める。ステップS116では、この補正値を3Dモデルデータの各面ごとに設定する。そして、ステップS118では3Dモデルデータの各面の輝度補正を反映させた上で、平面の画像データに変換することで外光除去が終了する。
As will be described later, in this MFP, 3D modeling is possible by using two cameras 31 and 32, and 3D model data can be acquired. Based on this assumption, the external light removal process in 3D will be described first.
In step S110, 3D model data is acquired. The 3D model data includes vector data representing the coordinates of the surface of the three-dimensional object and image data of the surface of the three-dimensional object specified by the vector data. As a result, a three-dimensional object surface image can be expressed excluding a surface that becomes a blind spot. In step S112, the virtual light source direction obtained in step S102 is acquired. Normally, the virtual light source direction is used in order to inherently apply the shading effect to the image data of the surface of the three-dimensional object, but in step S114, the influence of lighting is obtained and the opposite correction value is calculated. That is, a correction value that darkens if the surface is brightly displayed facing the virtual light source, and a correction value that brightens if the surface is darker on the side of the virtual light source. In step S116, this correction value is set for each surface of the 3D model data. In step S118, the luminance correction of each surface of the 3D model data is reflected and converted into flat image data, thereby removing the external light.

以上のように、複数の方向に配向された光センサー36を使用し、この光センサー36の検出結果に基づいて外光光源の情報(仮想光源方向)を検出し、同情報に基づいて外光の影響を除去している。
この例では、光センサー36が台面15上での外光の状況を検出する外光検出部を構成している。ステップS100にて同光センサー36の検出高強度を測定した後、ステップS102で仮想光源を設定するとともに、ステップS112にて仮想光源方向を取得してステップS114でライティングの逆補正値を計算し、ステップS116で各面ごとに逆補正値を設定する処理が、外光検出部による検出結果に基づいて上記カメラ部による上記台面上の撮影結果への影響を打ち消す調整値を演算する外光演算部を構成する。そして、ステップS118にて3Dモデルデータの各面の輝度補正を反映させる処理が、カメラ部に台面上の被写体を撮影させて得られた画像に上記調整値を反映させて外光の影響を低減させる処理を施す外光除去処理部を構成している。
As described above, the optical sensor 36 oriented in a plurality of directions is used, information on the external light source (virtual light source direction) is detected based on the detection result of the optical sensor 36, and external light is detected based on the information. The influence of is removed.
In this example, the optical sensor 36 constitutes an external light detection unit that detects the state of external light on the table surface 15. After measuring the detected high intensity of the light sensor 36 in step S100, a virtual light source is set in step S102, a virtual light source direction is acquired in step S112, and a lighting reverse correction value is calculated in step S114. In step S116, the process of setting the reverse correction value for each surface calculates the adjustment value that cancels the influence of the camera unit on the imaging result on the base surface based on the detection result of the external light detection unit. Configure. In step S118, the process of reflecting the luminance correction of each surface of the 3D model data reflects the adjustment value in an image obtained by photographing the subject on the table with the camera unit, thereby reducing the influence of external light. The external light removal processing unit for performing the processing is configured.

特に、光センサー36は、複数の方向に配向された光センサーを有し、この光センサーの検出結果に基づいて外光光源の情報を検出できる。
次に、外光除去の手法として2Dでの手法について説明する。
図9は2Dの外光測定の処理を表すフローチャートであり、図10は2Dでの外光除去の処理を示すフローチャートである。
ステップS130では、キャリブレーション光の投影と台面撮影を行なう。具体的には、制御部46は照明部34,35の強度を順番に最弱、弱、中、最大と変化させ、各段階でカメラ31またはカメラ32で台面15の表面を撮影させる。得られた画像データは照明強度の異なる4つの画像データとなる。なお、これはキャリブレーションの意味で撮影するので、必要に応じて台面15上に予め提供しておいたムラのないキャリブレーション用紙を載置した上で撮影を行っても良い。そして、ステップS132では、撮影画像を所定数の区画(升目)に分け、各区画ごとに概略の明暗状況を検出する。
In particular, the optical sensor 36 includes optical sensors oriented in a plurality of directions, and can detect information on an external light source based on detection results of the optical sensors.
Next, a 2D method will be described as a method for removing external light.
FIG. 9 is a flowchart showing 2D external light measurement processing, and FIG. 10 is a flowchart showing 2D external light removal processing.
In step S130, calibration light projection and table surface photography are performed. Specifically, the control unit 46 sequentially changes the intensities of the illumination units 34 and 35 from the weakest, the weakest, the middle, and the maximum, and causes the camera 31 or the camera 32 to photograph the surface of the table 15 at each stage. The obtained image data becomes four image data having different illumination intensities. Since this is taken in the sense of calibration, if necessary, photographing may be performed after placing a non-uniform calibration sheet provided in advance on the surface 15. In step S132, the captured image is divided into a predetermined number of sections (cells), and an approximate light / dark state is detected for each section.

明暗状況を得られたら、ステップS134では区画ごとの輝度補正値の演算を行なう。本実施例では、中心付近の区画を基準値とした相対的な値とする。撮影は、照明部34,35を使用して、照明の強度を変えて複数回行っており、それぞれの撮影結果に基づいて相対値を得た上で、さらに各回の補正値の平均値を取ることでより外光除去を効果的に行えるようにしている。以上により2Dの外光測定処理を終了する。   If a bright / dark situation is obtained, the brightness correction value for each section is calculated in step S134. In the present embodiment, a relative value with a section near the center as a reference value is used. Photographing is performed a plurality of times by changing the intensity of illumination using the illumination units 34 and 35, and after obtaining a relative value based on the respective photographing results, an average value of the correction values for each time is further taken. This makes it possible to effectively remove external light. The 2D external light measurement process is thus completed.

各画像における外光除去は次のように行う。制御部46はカメラ部42を制御してカメラ31かカメラ32のいずれかで台面15上の被写体の撮影を行なう。この場合は2Dの処理なのでいずれか一方のカメラで撮影した画像データを得られればよい。画像データを得られたら、ステップS140にて、2Dデータの各区画ごとに輝度補正値を適用する。台面15上の外光の影響度合いは区画ごとの明暗の相対値として把握し、ステップS134にて同補正値を得ているため、この補正値を2Dの画像データの各区画ごとに適用する。一般的な明暗の修正では画像データの輝度値にγカーブを適用する。相対的な明暗比に対応したγ値を別途テーブルとして用意しておき、同テーブルからγ値を読み込むと共に同γ値に基づくγカーブを描いて入力値と出力値との対応テーブルを作成し、画像データの輝度値を変換する。   External light removal in each image is performed as follows. The control unit 46 controls the camera unit 42 to photograph the subject on the table 15 with either the camera 31 or the camera 32. In this case, since it is a 2D process, it is only necessary to obtain image data taken by one of the cameras. If the image data is obtained, the luminance correction value is applied to each section of the 2D data in step S140. The degree of influence of external light on the table 15 is grasped as a relative value of brightness for each section, and the same correction value is obtained in step S134. Therefore, this correction value is applied to each section of 2D image data. In general brightness correction, a γ curve is applied to the luminance value of image data. Prepare a γ value corresponding to the relative contrast ratio as a separate table, read the γ value from the table and draw a γ curve based on the γ value, create a correspondence table of input values and output values, The brightness value of image data is converted.

以上のように、照明部34,35によって照度を変えた複数の環境下で、上記カメラ31,32によって上記台面15上を撮影し、各区画(升目)ごとの輝度の分布に基づいて外光の状況を検出し、同分布に基づいて台面上の撮影結果への影響を打ち消す調整値を演算している。
なお、本発明における印刷部は本実施例における印刷部41が相当し、台面は台面15が相当し、カメラはカメラ部42とカメラ31,32が相当し、外光検出部は光センサー36および台面15上を撮影するカメラ31,32が相当する。また、外光演算部はステップS100,ステップS102の処理とステップS130〜ステップS134の処理と各ハードウェアが相当し、外光除去処理部はステップS110〜ステップS118とステップS140の処理と各ハードウェアが相当し、印刷制御部は制御部46が相当しているといえる。
As described above, under the plurality of environments in which the illuminance is changed by the illumination units 34 and 35, the camera 31 and 32 is used to photograph the surface 15 and external light based on the luminance distribution for each section (cell). Then, an adjustment value that cancels the influence on the photographing result on the table surface is calculated based on the distribution.
The printing unit in the present invention corresponds to the printing unit 41 in the present embodiment, the base corresponds to the base 15, the camera corresponds to the camera unit 42 and the cameras 31 and 32, and the external light detection unit includes the optical sensor 36 and The cameras 31 and 32 that photograph the surface 15 of the table 15 correspond. The external light calculation unit corresponds to the processing of steps S100 and S102 and the processing of steps S130 to S134 and the respective hardware, and the external light removal processing unit corresponds to the processing of steps S110 to S118 and step S140 and the respective hardware. It can be said that the control unit 46 corresponds to the print control unit.

特に、ステップS130とステップS132にて、照明強度の異なる4つの画像データに基づいて撮影画像を所定数の区画(升目)に分け、各区画ごとに概略の明暗状況を検出するので、かかる処理が、カメラ部によって複数の照明環境下での台面上を撮影し、輝度の分布に基づいて外光の状況を検出する処理に相当し、ステップS134で上記補正値を得る処理が、上記分布に基づいて台面上の撮影結果への影響を打ち消す調整値を演算する処理に相当する。   In particular, in step S130 and step S132, the captured image is divided into a predetermined number of sections (cells) based on four image data having different illumination intensities, and an approximate light / dark state is detected for each section. This corresponds to the process of photographing the surface of the table under a plurality of illumination environments by the camera unit and detecting the situation of the external light based on the luminance distribution, and the process of obtaining the correction value in step S134 is based on the distribution. This corresponds to a process of calculating an adjustment value that cancels the influence on the imaging result on the table surface.

次に、撮影の手順に沿って説明する。
図11は台面15上に厚物の本を見開きの状態で載置した状態を平面図により示しており、図12は同状態を理解しやすいように斜視図による略図で示しており、図13は正面から見て本とカメラの位置関係を略図により示している。そして、図14は3Dでの撮影の手順に沿ったフローチャートである。
Next, a description will be given along the shooting procedure.
FIG. 11 is a plan view showing a state where a thick book is placed on the base surface 15 in a spread state. FIG. 12 is a schematic perspective view for easy understanding of the state, and FIG. FIG. 2 schematically shows the positional relationship between the book and the camera. FIG. 14 is a flowchart along the 3D shooting procedure.

撮影にあたり、ステップS200にて外光測定処理を実施する。この処理は上述したとおりである。ステップS202では、3D撮影を2つのカメラ31,32で行う。図13に示すように所定間隔を隔てた二つのカメラ31,32で台面15の上の本を撮影すると、わずかにずれた二つの画像が得られる。ステップS204では、二つの画像のずれを視差に置き換えて台面15上に置かれた立体物の外形を求める。これが先に説明した3Dモデルデータとなる。この後、ステップS206では外光除去処理を行う。ステップS110〜ステップS116の処理が相当する。すると外光の影響を除去するように明暗を調整した3Dの立体物の表面画像が求められる。   In photographing, outside light measurement processing is performed in step S200. This process is as described above. In step S202, 3D shooting is performed by the two cameras 31 and 32. As shown in FIG. 13, when the book on the table 15 is photographed by the two cameras 31 and 32 spaced apart from each other, two images slightly shifted are obtained. In step S <b> 204, the outline of the three-dimensional object placed on the table 15 is obtained by replacing the shift between the two images with parallax. This is the 3D model data described above. Thereafter, in step S206, external light removal processing is performed. The processing from step S110 to step S116 is equivalent. Then, a surface image of a 3D three-dimensional object whose brightness is adjusted so as to remove the influence of external light is obtained.

ステップS208では、3Dモデルを2Dへ変換するためのパラメータを演算する。ここでは、本来の3Dの立体画像を求めるのではなく、本の表面が湾曲している状態から、湾曲していなければ得られるはずの平面の画像データを生成する。
ベクトルデータで求められる立体物の表面位置に基づいてそれらを連結して形成される最小の各面に画像データを貼り付けることができるから、ステップS210の処理で、各平面を平面上に展開させた2Dの画像データを得る。この過程を演算によって求める。ただ、演算の複雑さを考慮して、予めパターン化しておいた立体形状の3Dモデルを用意しておき、求められた立体外形が近い3Dモデルを選択するようにしても良い。むろん、各3Dモデルは展開を容易にする簡易的な形状にしてある。このようにすれば、選択された3Dモデルに画像データを貼り付けたときの展開演算を求めるパラメータに基づいて容易に平面状の画像データを得ることが可能となる。本の見開きの形状であれば基本的な形状は似ているためである。
In step S208, parameters for converting the 3D model to 2D are calculated. Here, instead of obtaining an original 3D stereoscopic image, image data of a flat surface that should be obtained if it is not curved is generated from a state where the surface of the book is curved.
Since the image data can be pasted on each minimum surface formed by connecting them based on the surface position of the three-dimensional object determined by the vector data, each plane is developed on the plane in the process of step S210. 2D image data is obtained. This process is obtained by calculation. However, a 3D model having a three-dimensional shape patterned in advance may be prepared in consideration of calculation complexity, and a 3D model having a close three-dimensional shape may be selected. Of course, each 3D model has a simple shape that facilitates deployment. In this way, it is possible to easily obtain planar image data based on parameters for obtaining a development operation when image data is pasted on the selected 3D model. This is because the basic shape is similar if the book is spread.

二つのカメラ31,32は所定距離を隔ててアーム20の裏面に備えられており、台面15上の所定位置にて同台面15上を撮影可能である。従って、これらの構成によりカメラ部を構成している。ステップS202にて二つのカメラ31,32で台面15上の被写体を撮影した画像データに基づき、ステップS204では二つの画像のずれを視差に置き換えて台面15上に置かれた立体物の外形を求めており、この処理が複数の位置で撮影された画像データに基づいて上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する歪み修正パラメータ演算部を構成している。すなわち、複数の位置で撮影された画像データのずれた二つの画像を視差に置き換えて台面上に載置される被写体の立体外形を求めている。   The two cameras 31 and 32 are provided on the rear surface of the arm 20 with a predetermined distance therebetween, and can photograph the same surface 15 at a predetermined position on the surface 15. Therefore, the camera unit is configured by these configurations. Based on the image data obtained by photographing the subject on the table 15 with the two cameras 31 and 32 in step S202, the outline of the three-dimensional object placed on the table 15 is obtained by replacing the deviation of the two images with parallax in step S204. This processing constitutes a distortion correction parameter calculation unit for calculating a parameter for returning the surface shape of the subject placed on the table surface to a planar shape based on image data photographed at a plurality of positions. In other words, the two contours of the subject placed on the table surface are obtained by replacing two images shifted in image data taken at a plurality of positions with parallax.

ステップS208では、3Dモデルを2Dへ変換するためのパラメータを演算しており、ステップS210では各平面を平面状に展開させた2Dの画像データを得る。従って、これらの処理が演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する画像データ歪み修正演算部を構成している。すなわち、立体物の表面位置に基づいてそれらを連結して形成される各平面を平面状に展開させた画像データを得ている。この後、ステップS212にて同画像データを保存する。   In step S208, parameters for converting the 3D model into 2D are calculated. In step S210, 2D image data in which each plane is developed into a flat shape is obtained. Therefore, an image data distortion correction calculation unit that converts the distortion generated in the image data into planar image data based on the distortion correction parameter calculated by these processes is configured. That is, image data is obtained by expanding each plane formed by connecting them based on the surface position of the three-dimensional object. Thereafter, the image data is stored in step S212.

また、演算を簡易にするために、予めパターン化しておいた立体形状の3Dモデルを用意しておき、これに求められた立体外形を当てはめる処理例が、予めパターン化しておいた立体形状の3Dモデルを用意しておき、求められた立体外形が近い3Dモデルに画像データを貼り付けたときの展開演算を求めるパラメータに基づいて歪み修正を行う画像データ歪み修正演算部を構成することになる。   In addition, in order to simplify the calculation, a processing example in which a 3D model having a three-dimensional shape patterned in advance is prepared and a three-dimensional shape obtained by applying the three-dimensional shape to the model is prepared. A model is prepared, and an image data distortion correction calculation unit that performs distortion correction based on a parameter for obtaining a development calculation when image data is pasted on a 3D model having a similar three-dimensional outline is configured.

また、保存した平面の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
上述した例は3Dでの撮影の例であるが、2Dでの撮影の例を次に説明する。
図15は台面15上に升目状のパターンを投影した状態を示しており、図16は同台面15上に厚物の本を見開きで載置して同パターンを投影した状態を示している。図17は2Dでの撮影の手順に沿ったフローチャートである。
Further, since the control unit 46 causes the printing unit 41 to print an image based on the stored plane image data, the processing constitutes a printing control unit.
The above-described example is an example of 3D shooting, but an example of 2D shooting will be described below.
FIG. 15 shows a state in which a grid-like pattern is projected on the table surface 15, and FIG. 16 shows a state in which the same pattern is projected by placing a thick book on the table surface 15 in an open state. FIG. 17 is a flowchart along the procedure of 2D shooting.

まず、ステップS230にて、上述したように外光測定処理を行なう。次に、ステップS232にて、所定の絵柄の光である歪み検出用パターンの投影を行なう。ヘッド部22における台面15に対面する側には投影部33が備えられており、図15に示すような升目状のパターン(歪み検出用パターン)を投影する。この投影部は台面15のほぼ中央の上方に位置している。台面15に何も載置していない状態では図15に示すように正確な升目が投影されるが、台面15に本を載置していると、図16に示すように立体形状を反映して画像が歪む。投影部33から放射状に投影される升目のパターンの場合、升目の格子点ごとに高さに対応して放射方向にずれることになる。従って格子点ごとのずれ量がその格子点での高さ情報となる。   First, in step S230, external light measurement processing is performed as described above. Next, in step S232, a distortion detection pattern that is light of a predetermined pattern is projected. A projection unit 33 is provided on the side of the head unit 22 facing the base surface 15 and projects a grid-like pattern (distortion detection pattern) as shown in FIG. This projection unit is located almost above the center of the table 15. When nothing is placed on the table 15, an accurate grid is projected as shown in FIG. 15, but when a book is placed on the table 15, a three-dimensional shape is reflected as shown in FIG. 16. The image is distorted. In the case of a grid pattern projected radially from the projection unit 33, each grid point of the grid shifts in the radial direction corresponding to the height. Therefore, the shift amount for each lattice point is the height information at that lattice point.

ステップS234では、1つのカメラ31で2D撮影を行なう。なお、投影部33の位置とカメラ31の位置は一致していないが、補正演算で解消できる。撮影した画像データに基づき、ステップS236で、歪み検出用パターンの格子点検出を行なう。各格子点の位置ごとに上述したずれ量を得られたら、高さ情報に基づいて立体形状が求められるため、ステップS238では、上述したのと同様にして、湾曲している立体表面を平面に展開した状態に戻すための歪み修正パラメータの演算を行なう。以上により立体物を2D画像として撮影したときの歪みを戻すパラメータが得られたことになる。   In step S234, 2D shooting is performed with one camera 31. Note that the position of the projection unit 33 and the position of the camera 31 do not match, but can be eliminated by a correction calculation. Based on the photographed image data, lattice point detection of the distortion detection pattern is performed in step S236. If the above-described deviation amount is obtained for each position of each lattice point, a three-dimensional shape is obtained based on the height information. Therefore, in step S238, the curved three-dimensional surface is made flat as described above. A distortion correction parameter is calculated to return to the expanded state. Thus, a parameter for returning distortion when a three-dimensional object is photographed as a 2D image is obtained.

ステップS240では、1つのカメラ31で台面15上の被写体を撮影する。むろんこの時点では歪み検出用パターンは投影していない。続く、ステップS242にて、外光除去処理を行う。外光除去処理は3Dによる外光除去の手法を採用しても良いし、2Dによる外光除去の手法を採用しても良い。いずれにしても外光の影響を除去した後、ステップS244では、ステップS238で得られたパラメータを利用して2Dの画像データの歪みを修正する。修正後、ステップS246にて修正後の画像データを保存する。   In step S240, the subject on the surface 15 is photographed by one camera 31. Of course, the distortion detection pattern is not projected at this point. In step S242, external light removal processing is performed. The external light removal process may employ a 3D external light removal method or a 2D external light removal method. In any case, after removing the influence of external light, in step S244, distortion of 2D image data is corrected using the parameters obtained in step S238. After the correction, the corrected image data is stored in step S246.

本実施例では、投影部33より台面51上に歪み検出用パターンを投影するステップS232の処理で投影部を構成している。また、カメラ31によって上記投影される絵柄を2Dで撮影した画像データに基づいて、ステップS236とステップS238の処理で同絵柄の歪みから上記台面51上に載置された被写体の表面形状を平面状に戻すパラメータを演算する処理が歪み修正パラメータ演算部を構成している。そして、ステップS240で1つのカメラ31で台面15上の被写体を撮影するとともに、ステップS244にて上記演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する処理が画像デーの歪み修正演算部を構成している。   In the present embodiment, the projection unit is configured by the process of step S232 for projecting the distortion detection pattern from the projection unit 33 onto the surface 51. Further, based on the image data obtained by capturing the picture projected by the camera 31 in 2D, the surface shape of the subject placed on the table surface 51 is planar from the distortion of the picture in the processes of steps S236 and S238. The processing for calculating the parameter to return to (1) constitutes a distortion correction parameter calculation unit. In step S240, a single camera 31 captures a subject on the surface 15, and in step S244, the planar image data from which the distortion generated in the image data is removed based on the calculated distortion correction parameter. The image data distortion correction calculation unit constitutes the image data distortion correction calculation unit.

また、保存した平面の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
図18は、変形例にかかる複合機の外観を斜視図により示しており、図19は被写体撮影時の外観を斜視図により示している。また、図20は撮影時の平面図、図21は撮影用のカメラを部分拡大して斜視図により示している。
Further, since the control unit 46 causes the printing unit 41 to print an image based on the stored plane image data, the processing constitutes a printing control unit.
FIG. 18 is a perspective view showing an external appearance of a multifunctional machine according to a modification, and FIG. 19 is a perspective view showing an external appearance at the time of photographing a subject. FIG. 20 is a plan view at the time of shooting, and FIG. 21 is a partially enlarged perspective view of the camera for shooting.

本MFP50は、台面51を有しており、台面51には手前側の幅方向に延びる短冊状のアーム52が埋設されている。アーム52は正面から見て右側の端部を回転中心として左端が持ち上がるように回転可能である。そして、図19に示すように同アーム52はほぼ直立状態となる。アーム52の上端近辺であって上記台面51に対面する側には凹部53を形成してある。この凹部53にはカメラ54が配設されており、同カメラ54が台面51上の被写体を撮影可能である。この例ではカメラ54を1つだけ備えているが視点を変えて撮影して立体画像を得られるように複数のカメラを備えることも可能である。なお、アーム52を直立した状態でのカメラ54の位置は一定であるため、直立させることでカメラ54の位置は判断可能といえる。   The MFP 50 has a table surface 51, and a strip-shaped arm 52 extending in the width direction on the near side is embedded in the table surface 51. The arm 52 is rotatable so that the left end is lifted around the right end as viewed from the front. As shown in FIG. 19, the arm 52 is almost upright. A recess 53 is formed near the upper end of the arm 52 and on the side facing the base surface 51. A camera 54 is disposed in the recess 53, and the camera 54 can photograph a subject on the table surface 51. In this example, only one camera 54 is provided, but it is also possible to provide a plurality of cameras so that stereoscopic images can be obtained by changing the viewpoint. Since the position of the camera 54 with the arm 52 standing upright is constant, it can be said that the position of the camera 54 can be determined by standing upright.

図22は、2Dによる撮影の手順を示すフローチャートである。
ステップS250では、カメラ位置検出を行なう。上述したように、アーム52を直立した状態でのカメラ54の位置は一定である。従って、アーム52を直立させたことで、カメラ54位置を検出できたことになる。この例ではアーム52を直立させる動作が該当しているが、カメラの位置は自由であり、カメラの位置をカメラの側から設定するということもできる。これが所定のポジションを設定することに相当する。
FIG. 22 is a flowchart illustrating a procedure of 2D shooting.
In step S250, camera position detection is performed. As described above, the position of the camera 54 when the arm 52 is upright is constant. Therefore, the position of the camera 54 can be detected by raising the arm 52 upright. In this example, the operation of raising the arm 52 is applicable, but the position of the camera is arbitrary, and the camera position can be set from the camera side. This corresponds to setting a predetermined position.

ステップS252では、カメラ位置対応歪み修正パラメータ取得の処理を行う。図23はカメラ54の位置で台面51を撮影したときの画像と本来の二次元の平面画像との対応を示す歪み修正パラメータを図形として示している。カメラ54で台面51上を撮影すると、長四角の矩形形状が図23の上方に示すような歪んだ菱形状に撮影される。この対応パターンは固定的であるから、菱形形状の画像の座標位置と本来の長四角の矩形形状の画像の座標位置とを対応付けしておくことで、カメラ54で撮影した画像を歪みのない元の平面画像に変換することができる。   In step S252, camera position corresponding distortion correction parameter acquisition processing is performed. FIG. 23 shows, as a figure, distortion correction parameters indicating the correspondence between an image when the table surface 51 is photographed at the position of the camera 54 and the original two-dimensional planar image. When the camera 54 is used to photograph the top surface 51, a long rectangular shape is photographed in a distorted diamond shape as shown in the upper part of FIG. Since this correspondence pattern is fixed, by associating the coordinate position of the rhombus image with the coordinate position of the original long rectangular image, the image captured by the camera 54 is not distorted. The original plane image can be converted.

従って、ステップS254にて、同カメラ54にて2Dによる撮影を行ない、ステップS256にて、同カメラ54位置に対応する歪み修正パラメータを適用して歪み除去する。
上述した図18〜図21に示す実施例では、カメラ54がアーム52を寝かせた状態から直立させた状態へ移動可能であり、直立させた状態で台面51よりも高い位置から同台面51上の撮影を行なう。ステップS250の処理では、カメラ位置検出を行なっており、この位置から撮影した台面51は図23の上方に示すように歪んで撮影されることが分かっている。従って、ステップS250の処理は、カメラ部の撮影位置と台面との位置関係を検出するカメラ位置検出部の処理に相当する。また、図23に示す対応関係が分かっているので、ステップS252にて菱形形状の画像の座標位置と本来の長四角の矩形形状の画像の座標位置とを対応付けしておく情報を取得することがカメラ位置対応歪み修正パラメータ演算部に相当する。演算といっても広義には予め対応づけられたテーブルを参照することも含み、このような二次元画像同士の対応関係であれば二次元画像変換テーブルとして構成しておくのが容易である。また、後述するような図28に示すようなカメラ63位置であれば、図29に示す台形と長方形との対応関係が二次元画像変換テーブルに相当する。
Accordingly, 2D shooting is performed with the camera 54 in step S254, and distortion is removed by applying distortion correction parameters corresponding to the position of the camera 54 in step S256.
In the embodiment shown in FIGS. 18 to 21 described above, the camera 54 can move from the state in which the arm 52 is laid down to the upright state. Take a photo of In the processing of step S250, the camera position is detected, and it is known that the base 51 photographed from this position is photographed with distortion as shown in the upper part of FIG. Therefore, the process of step S250 corresponds to the process of the camera position detection unit that detects the positional relationship between the shooting position of the camera unit and the table surface. Further, since the correspondence shown in FIG. 23 is known, in step S252, information for associating the coordinate position of the rhombus image with the coordinate position of the original long rectangular image is acquired. Corresponds to a camera position corresponding distortion correction parameter calculation unit. The term “calculation” also includes referring to a table associated in advance in a broad sense, and such a two-dimensional image can be easily configured as a two-dimensional image conversion table. If the camera 63 is positioned as shown in FIG. 28 as will be described later, the correspondence between the trapezoid and the rectangle shown in FIG. 29 corresponds to the two-dimensional image conversion table.

ステップS254にて撮影した画像に対して、ステップS256でカメラ54位置に対応する歪み修正パラメータを適用して歪み除去する処理は、演算されたカメラ位置対応歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した画像データに変換する画像データの歪み修正演算部に相当する。なお、このようにして得られた平面状の画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。   The processing for removing distortion by applying the distortion correction parameter corresponding to the position of the camera 54 in step S256 to the image captured in step S254 occurs in the image data based on the calculated camera position corresponding distortion correction parameter. This corresponds to a distortion correction calculation unit for image data to be converted into image data from which distortion is removed. Since the control unit 46 causes the printing unit 41 to print an image based on the planar image data obtained in this way, the processing constitutes a printing control unit.

図24〜図28は、本発明の他の変形例を示している。図24は非撮影状態を斜視図により示しており、図25は同状態を側面図により示している。図26は撮影状態を斜視図により示しており、図27は側面図により示しており、図28は背面図により示している。
図に示すように、本MFP60では、本体筺体67に対して、前面側のパネル61が撮影時や印刷時には台面64を見下ろせる様に上方にスライド移動可能であり、非撮影時や非使用時には下方にスライド移動する。上方にスライドすることで前面に印刷用紙を排紙する排出口62が開口する。本体筺体67内には図示しないが印刷部41が収容されている。
24 to 28 show other modified examples of the present invention. FIG. 24 is a perspective view showing the non-photographing state, and FIG. 25 is a side view showing the same state. 26 is a perspective view, FIG. 27 is a side view, and FIG. 28 is a rear view.
As shown in the figure, in the MFP 60, the front panel 61 can be slid upward with respect to the main body casing 67 so that the base surface 64 can be looked down at the time of photographing or printing, and when not photographing or not in use. Slide down. By sliding upward, a discharge port 62 for discharging the printing paper is opened on the front surface. Although not shown, the printing unit 41 is accommodated in the main body casing 67.

また、パネル61が上方にスライドすると、その背面側の上端付近に配設されているカメラ63もせり上がり、上方から台面64上を見下ろす位置に移動する。カメラ63はパネル61の幅方向の中央に配設されている。なお、パネル61の背面側には、カメラ63を挟むように両側に照明部65,66を配設されている。パネル61の背面側に照明部65,66が備えられているので、撮影時に操作者の側に照明光が直接投射されず、まぶしくない。   Further, when the panel 61 slides upward, the camera 63 disposed near the upper end on the back side also rises and moves to a position overlooking the top surface 64 from above. The camera 63 is disposed at the center of the panel 61 in the width direction. Note that illumination units 65 and 66 are disposed on both sides of the panel 61 so as to sandwich the camera 63 therebetween. Since the illumination units 65 and 66 are provided on the back side of the panel 61, the illumination light is not directly projected to the operator side at the time of photographing, and is not dazzling.

このように台面64上を上方手前側から撮影すると図29の上方に示すように台形状に歪みが表れる。これを台形歪みと呼んでいる。この台形の座標位置とその下方に示す長四角形の座標位置との対応関係が、このカメラ位置に対応した歪み修正パラメータとなる。
従って、この例でもカメラ位置に対応した歪み修正パラメータを取得して歪みを除去できる。
In this way, when the surface of the base 64 is photographed from the upper front side, distortion appears in the trapezoidal shape as shown in the upper part of FIG. This is called trapezoidal distortion. The correspondence between the trapezoidal coordinate position and the rectangular rectangular coordinate position below it is a distortion correction parameter corresponding to the camera position.
Therefore, even in this example, distortion correction parameters corresponding to the camera position can be acquired and distortion can be removed.

この実施例では、印刷部41は本体筺体67内に収容されており、同本体筺体67は薄箱状で上面に被写体を載置可能な台面64を有する構成となっている。パネル61は、本体筺体67の側面に配置されて同側面に沿って上下方向に概略スライド移動可能な構成となっている。カメラ63はこのパネル61の裏面側に配置されており、本体筺体67の側面でパネル61が上方にスライド移動したときに上記台面64よりも高い位置となって同台面64上の撮影を行なうカメラ部を構成している。   In this embodiment, the printing unit 41 is accommodated in a main body casing 67, and the main body casing 67 has a thin box shape and has a base surface 64 on which an object can be placed. The panel 61 is disposed on the side surface of the main body housing 67 and is configured to be slidable in the vertical direction along the side surface. The camera 63 is disposed on the rear surface side of the panel 61, and when the panel 61 slides upward on the side surface of the main body housing 67, the camera 63 takes a position higher than the table surface 64 and performs shooting on the table surface 64. It constitutes the camera part.

そして、カメラ63にて撮影した画像データに基づいて制御部46が印刷部41に画像を印刷させるので、当該処理が印刷制御部を構成している。
ところで、台面に載置された被写体の場合、撮影位置が変化するので大きさが分からなくなるという問題がある。
図30は本来のサイズが分かるように規格化する処理を示しており、図31はこの問題を図によって表している。
Then, since the control unit 46 causes the printing unit 41 to print an image based on the image data photographed by the camera 63, the processing constitutes a printing control unit.
By the way, in the case of the subject placed on the surface, there is a problem that the size is not known because the photographing position changes.
FIG. 30 shows a process of normalization so that the original size can be understood, and FIG. 31 illustrates this problem by a diagram.

図31に示すように、台面72上を薄い被写体を載置して画面一杯に撮影されたと時と、台面72上に高さのある被写体を載置して画面一杯に撮影された時とでは、画像データでは共に同じ大きさに撮影されてしまう。
そこで、ステップS260では、測距(AF)を行なう。測距は各種の手法を採用可能であり、一例として焦点位置をずらせながら撮影画像のシャープさを求めて距離を測定できる。距離を測定した上で、ステップS262にて、2Dでの撮影を行なう。その後、ステップS264にて、同距離を反映させ、標準サイズへ規格化する。すなわち、測距距離に対応して画像を拡大あるいは縮小処理する。そして、ステップS268にて、規格化後の画像データを保存する。
As shown in FIG. 31, when a thin subject is placed on the base surface 72 and the screen is shot full, and when a tall subject is placed on the base surface 72 and the screen is shot full. Both image data are photographed to the same size.
In step S260, therefore, distance measurement (AF) is performed. Various methods can be employed for distance measurement, and as an example, the distance can be measured by obtaining the sharpness of the captured image while shifting the focal position. After measuring the distance, 2D shooting is performed in step S262. Thereafter, in step S264, the same distance is reflected and normalized to a standard size. That is, the image is enlarged or reduced according to the distance measured. In step S268, the normalized image data is stored.

このようにすることで、立体物であっても常に本来のサイズを反映させた画像データにすることができる。
このように、ステップS260にて測距し、ステップS264にて同測距された距離された距離に基づいて標準サイズへ変換しており、かかる処理が台面上の被写体までの距離を測定し、測距された距離に対応して画像を拡大あるいは縮小処理した規格化後の画像データを印刷させる印刷制御部を構成することになる。
また、光センサー36を台面15上にも設けても良いし、光センサー36の数も1つに限られず複数設けても良い。被写体は台面15上に置かれるため、このようにすることでより外光の影響を除くことができる。
By doing in this way, even if it is a three-dimensional thing, it can always be set as image data in which the original size was reflected.
In this way, the distance is measured in step S260 and converted to the standard size based on the distance measured in step S264, and this process measures the distance to the subject on the surface, A print control unit is configured to print the standardized image data obtained by enlarging or reducing the image corresponding to the measured distance.
Further, the photosensors 36 may be provided on the table surface 15, and the number of photosensors 36 is not limited to one, and a plurality of photosensors 36 may be provided. Since the subject is placed on the table 15, the influence of external light can be further eliminated by doing in this way.

なお、本発明は上記実施例に限られるものでないことは言うまでもない。当業者であれば言うまでもないことであるが、印刷以外の表示出力やデータ送信などの方法で画像を出力する出力装置に適用しても良いし、
・上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用すること
Needless to say, the present invention is not limited to the above embodiments. It goes without saying that those skilled in the art may apply to an output device that outputs an image by a method such as display output or data transmission other than printing,
・ Applying mutually interchangeable members and configurations disclosed in the above embodiments by appropriately changing the combination thereof.− Although not disclosed in the above embodiments, it is a publicly known technique and the above embodiments. The members and configurations that can be mutually replaced with the members and configurations disclosed in the above are appropriately replaced, and the combination is changed and applied.

・上記実施例の中で開示されていないが、公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用すること
は本発明の一実施例として開示されるものである。
・ Although not disclosed in the above-described embodiments, those skilled in the art may appropriately substitute members and configurations that can be assumed as substitutes for the members and configurations disclosed in the above-described embodiments based on known techniques, Changing and applying the combination is disclosed as an embodiment of the present invention.

10…MFP、11…排出口、12…操作子、13…ディスプレイパネル、14…本体筺体、15…台面、20…アーム、21…連結部、22…ヘッド部、31,32…カメラ、33…投影部、34,35…照明部、36…光センサー、37…操作子、41…印刷部、42…カメラ部、43…操作部、44…通信部、45…I/O部、46…制御部、50…MFP、51…台面、52…アーム、53…凹部、54…カメラ、60…MFP、61…パネル、62…排出口、63…カメラ、64…台面、65,66…照明部、67…本体筺体、72…台面 DESCRIPTION OF SYMBOLS 10 ... MFP, 11 ... Discharge port, 12 ... Control, 13 ... Display panel, 14 ... Main body housing, 15 ... Base surface, 20 ... Arm, 21 ... Connection part, 22 ... Head part, 31, 32 ... Camera, 33 ... Projection unit, 34, 35 ... illumination unit, 36 ... optical sensor, 37 ... operator, 41 ... printing unit, 42 ... camera unit, 43 ... operation unit, 44 ... communication unit, 45 ... I / O unit, 46 ... control , 50 ... MFP, 51 ... base, 52 ... arm, 53 ... recess, 54 ... camera, 60 ... MFP, 61 ... panel, 62 ... outlet, 63 ... camera, 64 ... base, 65, 66 ... lighting part, 67 ... Body body, 72 ... Base surface

Claims (6)

台面と、
この台面よりも高い位置から同台面上に所定の絵柄の光を投影する投影部と、
上記台面上の撮影を行なうカメラ部と、
このカメラ部にて上記投影される絵柄を撮影した画像データに基づき、同絵柄の歪みから上記台面上に載置された被写体の表面形状を平面状に戻すパラメータを演算する歪み修正パラメータ演算部と、
演算された歪み修正パラメータに基づいて上記画像データに生じている歪みを除去した平面状の画像データに変換する画像データの歪み修正演算部と、
歪みを除去した平面状の画像を出力する出力部とを備えることを特徴とする画像出力装置。
The surface,
A projection unit that projects light of a predetermined pattern onto the surface from a position higher than the surface;
A camera unit for shooting on the surface;
A distortion correction parameter calculation unit for calculating a parameter for returning the surface shape of the subject placed on the table surface to a planar shape from distortion of the pattern based on image data obtained by photographing the projected pattern by the camera unit; ,
A distortion correction calculation unit for image data to be converted into planar image data from which distortion generated in the image data is removed based on the calculated distortion correction parameter;
An image output apparatus comprising: an output unit that outputs a planar image from which distortion has been removed.
上記投影部は、上記被写体の中央近辺から放射状に上記絵柄の光を投影することを特徴とする上記請求項1に記載の画像出力装置。   The image output apparatus according to claim 1, wherein the projection unit projects the light of the pattern radially from the vicinity of the center of the subject. 上記投影部は、上記放射状の絵柄の光として升目状の絵柄を投影することを特徴とする上記請求項2に記載の画像出力装置。   The image output apparatus according to claim 2, wherein the projection unit projects a grid-like pattern as the light of the radial pattern. 上記歪み修正パラメータ演算部は、上記升目状の格子点ごとにずれ量と高さとの対応関係を示すテーブルを有しており、歪みの格子点ごとにずれ量を求めて高さ情報に変換することで立体表面形状を求めることを特徴とする上記請求項3に記載の画像出力装置。   The distortion correction parameter calculation unit has a table indicating a correspondence relationship between the shift amount and the height for each grid-shaped grid point, and obtains the shift amount for each grid point of the distortion and converts it into height information. The image output apparatus according to claim 3, wherein the three-dimensional surface shape is obtained by the above-described process. 上記歪み修正パラメータ演算部は、立体形状が求められたら、湾曲している立体表面を平面に展開した状態に戻すための歪み修正パラメータの演算を行なうことを特徴とする上記請求項4に記載の画像出力装置。   5. The distortion correction parameter calculation unit according to claim 4, wherein when the three-dimensional shape is obtained, the distortion correction parameter calculation unit calculates a distortion correction parameter for returning the curved three-dimensional surface to a flat state. Image output device. 上記歪み修正演算部は、上記歪み修正パラメータに基づいて湾曲している立体表面を平面に展開した状態に戻す演算を行なうことを特徴とする上記請求項5に記載の画像出力装置。   6. The image output apparatus according to claim 5, wherein the distortion correction calculation unit performs a calculation to return the curved three-dimensional surface to a flat state based on the distortion correction parameter.
JP2011059810A 2011-03-17 2011-03-17 Image output device Withdrawn JP2012195875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011059810A JP2012195875A (en) 2011-03-17 2011-03-17 Image output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011059810A JP2012195875A (en) 2011-03-17 2011-03-17 Image output device

Publications (1)

Publication Number Publication Date
JP2012195875A true JP2012195875A (en) 2012-10-11

Family

ID=47087360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059810A Withdrawn JP2012195875A (en) 2011-03-17 2011-03-17 Image output device

Country Status (1)

Country Link
JP (1) JP2012195875A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104052951A (en) * 2013-03-13 2014-09-17 株式会社理光 Projector, method of controlling projector
JP2016103859A (en) * 2012-12-21 2016-06-02 カシオ計算機株式会社 Image processing apparatus
JP2017017514A (en) * 2015-06-30 2017-01-19 カシオ計算機株式会社 Image processing apparatus, image processing system, image processing method and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338907A (en) * 2002-03-14 2003-11-28 Ricoh Co Ltd Image input apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338907A (en) * 2002-03-14 2003-11-28 Ricoh Co Ltd Image input apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103859A (en) * 2012-12-21 2016-06-02 カシオ計算機株式会社 Image processing apparatus
CN104052951A (en) * 2013-03-13 2014-09-17 株式会社理光 Projector, method of controlling projector
JP2017017514A (en) * 2015-06-30 2017-01-19 カシオ計算機株式会社 Image processing apparatus, image processing system, image processing method and program

Similar Documents

Publication Publication Date Title
CN103765870B (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP4715527B2 (en) Imaging apparatus, image processing method and program for captured image
TWI451750B (en) Image capture apparatus, computer readable recording medium and control method
JP4012710B2 (en) Image input device
JP5986364B2 (en) Three-dimensional shape measuring apparatus, control method for three-dimensional shape measuring apparatus, and program
JP2010271199A (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, and computer program
JP2013041166A (en) Projector, control method thereof, program thereof, and recording medium with the program stored therein
US11606538B2 (en) Automatic keystone correction in a projection system
WO2008150027A1 (en) Image processing device, image processing method, and image processing program
JP5644461B2 (en) Image processing apparatus and program
CN110784691A (en) Projection device, projection system and image correction method
JP2007036482A (en) Information projection display device and program
US20080292304A1 (en) Projection Type Image Display Apparatus And Projection Type Image Display System
JP2011176629A (en) Controller and projection type video display device
JP2012195875A (en) Image output device
EP3606061B1 (en) Projection device, projection system and an image calibration method
JP2008128771A (en) Spectroscopic information and shape information simultaneous acquisition apparatus and information acquisition method
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP5817160B2 (en) Image output device
JP5673260B2 (en) Image output device
JPH09305796A (en) Image information processor
JP2012195877A (en) Image output device
JP2012195876A (en) Image output device
JP6381206B2 (en) Image processing apparatus, control method thereof, and program
JP2019040004A (en) Photographing system and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141226