[go: up one dir, main page]

JPH09245158A - Image processing method and its device - Google Patents

Image processing method and its device

Info

Publication number
JPH09245158A
JPH09245158A JP8056157A JP5615796A JPH09245158A JP H09245158 A JPH09245158 A JP H09245158A JP 8056157 A JP8056157 A JP 8056157A JP 5615796 A JP5615796 A JP 5615796A JP H09245158 A JPH09245158 A JP H09245158A
Authority
JP
Japan
Prior art keywords
image information
data
image
reference point
magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8056157A
Other languages
Japanese (ja)
Other versions
JP3506300B2 (en
Inventor
Yutaka Ogawa
豊 小河
Kazuya Kamatani
和也 鎌谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP05615796A priority Critical patent/JP3506300B2/en
Publication of JPH09245158A publication Critical patent/JPH09245158A/en
Application granted granted Critical
Publication of JP3506300B2 publication Critical patent/JP3506300B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the operation efficiency of image processing by reducing a burden to an operator's work. SOLUTION: CPU 53 detects a reference point to be referred to in order to insert cut off data in a frame data 111 from prepared line data 114 and correlates the reference point to the line data 114. Next, each parameter and the reference point of frame data 111 are referred to so as to detect a magnification for converting cut off data to a prescribed size. Next, an offset quantity for positioning cut off data at the prescribed position within frame data 111 is detected by referring to the magnification, each parameter and the reference point based on an offset quantity arithmetic algorithm 523. Next after converting cutoff data to a prescribed size based on the magnification based on a composing algorithm 524, size-converted cut-off data is inserted to the prescribed position of frame data 111 by referring to the offset quantity.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理方法およ
び装置に関し、例えば、新聞、広告またはカタログに、
人物や製品を掲載する際に、基礎となる人物等を含む画
像情報を、新聞等の紙面構成に基づいて予め定められる
背景を表す画像情報の所定位置に大きさを変換したうえ
で合成できる画像処理方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, for example, a newspaper, an advertisement or a catalog,
When posting a person or product, an image that can be combined after converting the size of the image information including the basic person etc. to the predetermined position of the image information representing the background that is predetermined based on the paper surface configuration of the newspaper etc. A processing method and apparatus.

【0002】[0002]

【従来の技術】新聞紙面上には、人物部分のみが異な
り、サイズと背景とが同一である人物写真が頻繁に列挙
される。典型的な例としては、選挙時に立候補者の写真
を列挙する場合である。かかる場合、人物の大きさおよ
び人物の配置位置が、すべての人物写真にわたって揃っ
ていることが要求される。以前は、この大きさおよび配
置位置を揃わせる作業をオペレータの手作業に頼ってい
た。しかし、画像処理技術の進歩に伴い、オペレータの
負担を軽減させるため、上記作業を実行する画像処理装
置が開発され、使用されている。
2. Description of the Related Art On a newspaper page, portraits of people whose size and background are the same are different from each other are frequently listed. A typical example is when enumerating photos of candidates for elections. In such a case, it is required that the size of the person and the arrangement position of the person are the same in all the person photographs. Previously, the operator had to rely on manual work to align the sizes and positions. However, with the progress of image processing technology, an image processing apparatus that executes the above work has been developed and used in order to reduce the burden on the operator.

【0003】図10は、従来の画像処理装置で実行され
る画像処理を説明するための図である。図10(a)
は、オペレータが新聞の紙面構成に基づいて、予め作成
しておく画像データ(以下、額縁データと称する)80
1を示している。額縁データ801は、上記人物写真に
おける背景部分に相当する画像データであって、第1参
照点A,B,CおよびDが規定されている。この第1参
照点は、人物部分が合成される位置を特定するものであ
り、2次元座標値(X,Y)を有する。この2次元座標
値の座標原点Oは、一般的に図10(a)に示すよう
に、額縁データ801の左下端部に設定される。なお、
参照点Aは人物の頭頂、参照点Bは人物の右耳、参照点
Cは人物の左耳、参照点Dは人物の顎の部分が配置され
る位置を規定するものである。
FIG. 10 is a diagram for explaining image processing executed by a conventional image processing apparatus. FIG. 10 (a)
Is image data (hereinafter, referred to as frame data) 80 that the operator creates in advance based on the newspaper surface configuration.
1 is shown. The frame data 801 is image data corresponding to the background portion of the portrait, and defines first reference points A, B, C and D. The first reference point specifies the position where the person portion is combined, and has a two-dimensional coordinate value (X, Y). The coordinate origin O of this two-dimensional coordinate value is generally set at the lower left end of the frame data 801 as shown in FIG. In addition,
The reference point A defines the top of the person, the reference point B defines the right ear of the person, the reference point C defines the left ear of the person, and the reference point D defines the position of the jaw of the person.

【0004】図10(b)は、額縁データ801と合成
される部分を作成するための基礎となる画像データ(以
下、基礎データと称する)802を示している。この基
礎データ802は、予め用意された証明写真等の原稿画
像をスキャナ等(図示せず)で画像処理装置内に読み込
んで作成される。図10(b)に示す基礎データ802
は、画像処理の過程において、画像処理装置が有するポ
インティングデバイス(マウス、デジタイザ等)で、合
成される部分を切り抜かれる。以下、この切り抜かれた
画像データ(点線内参照)を切抜データ803と称す
る。この切抜データ803では、上記第1参照点A〜D
がそれぞれ対応する第2参照点A’〜D’をポインティ
ングデバイス等で指示され、切抜データ803に関連づ
けられる。
FIG. 10B shows image data (hereinafter referred to as basic data) 802 which is a basis for creating a portion to be combined with the frame data 801. The basic data 802 is created by reading a prepared original image such as a certification photograph into the image processing apparatus using a scanner or the like (not shown). Basic data 802 shown in FIG.
In the process of image processing, a part to be combined is cut out with a pointing device (mouse, digitizer, etc.) included in the image processing apparatus. Hereinafter, the cut-out image data (see the dotted line) is referred to as cut-out data 803. In the cutout data 803, the first reference points A to D are used.
Are designated by a pointing device or the like to the corresponding second reference points A ′ to D ′, and are associated with the cutout data 803.

【0005】図11は、この画像処理の手順を示すフロ
ーチャートである。以下、従来の画像処理装置における
画像処理を図10および図11を参照して説明する。
FIG. 11 is a flow chart showing the procedure of this image processing. Image processing in the conventional image processing apparatus will be described below with reference to FIGS. 10 and 11.

【0006】オペレータは、額縁データ801を作成
し、画像処理装置の内部に設けられたデータ記憶部(図
示せず)に格納するように指示する。これに応じて、デ
ータ記憶部は額縁データ801を記憶する(ステップS
91)。
The operator instructs the frame data 801 to be created and stored in a data storage unit (not shown) provided inside the image processing apparatus. In response to this, the data storage unit stores the frame data 801 (step S
91).

【0007】次に、オペレータは、予めスキャナ等(図
示せず)によって読み込まれ、データ記憶部に記憶され
ている基礎データ802を画像表示部(図示せず)に表
示させ、当該基礎データ802の人物部分において額縁
データ801と合成される部分の輪郭を、ポインティン
グデバイス等でなぞっていく。画像処理装置は、なぞら
れた輪郭の内部を切抜データ803としてデータ記憶部
に格納する。さらに、オペレータは、基礎データ802
において、当該人物の頭頂(点A’参照)、左右の耳
(点B’およびC’参照)および顎(点D’参照)の位
置を指示する。これに応じて、画像処理装置は、点A’
〜D’の2次元座標値を切抜データ802と関連づけて
データ記憶部に格納する(ステップS92)。
Next, the operator causes the image display unit (not shown) to display the basic data 802 previously read by a scanner or the like (not shown) and stored in the data storage unit. The contour of the portion of the person portion to be combined with the frame data 801 is traced with a pointing device or the like. The image processing apparatus stores the inside of the traced contour as cutout data 803 in the data storage unit. In addition, the operator is
In, the position of the person's crown (see point A '), left and right ears (see points B'and C'), and chin (see point D ') is designated. In response to this, the image processing apparatus displays the point A ′.
The two-dimensional coordinate values of ~ D 'are stored in the data storage unit in association with the cutout data 802 (step S92).

【0008】この後、画像処理装置の画像合成部(図示
せず)は、額縁データ801に基づいて、点Aと点Dと
の間のY軸方向の距離ADを求め、また切抜データ80
3とに基づいて、点A’と点D’との間のy軸方向の距
離A’D’とを求める。この後、2つの距離ADとA’
D’との比(AD/A’D’)を演算し、これを変倍率
とする。画像合成部は、この変倍率を、切抜データ80
3(ただし、第2参照点を除く)に乗じ、切抜データ8
03の大きさを相似変換する。そして、画像合成部は、
点B’と点C’との中点のx座標が、点Bと点Cとの中
点のX座標に一致するように、大きさが変換された切抜
データ803を、額縁データ801内に配置する(ステ
ップS93)。その後、画像処理装置は、内部に設けら
れた画像表示部(図示せず)に、切抜データ803と額
縁データ801とを合成した結果を表示させ(ステップ
S94)、オペレータに確認させる。上記ステップS9
1〜S94の処理が終了すると、紙面に掲載される1つ
の人物写真が完成したこととなる。
After that, an image synthesizing unit (not shown) of the image processing apparatus obtains the distance AD in the Y-axis direction between the points A and D based on the frame data 801, and the cutout data 80.
3 and the distance A′D ′ in the y-axis direction between the point A ′ and the point D ′. After this, two distances AD and A '
The ratio with D '(AD / A'D') is calculated, and this is used as the scaling factor. The image synthesizing unit uses this scaling factor as the cutout data 80.
Multiply 3 (excluding the 2nd reference point) and cut out data 8
The size of 03 is transformed. Then, the image composition unit
The cutout data 803 whose size is converted so that the x-coordinate of the midpoint between the points B ′ and C ′ matches the X-coordinate of the midpoint between the points B and C is stored in the frame data 801. It is arranged (step S93). After that, the image processing apparatus displays the result of combining the cutout data 803 and the frame data 801 on an image display unit (not shown) provided inside (step S94) and makes the operator confirm. Step S9 above
When the processes of 1 to S94 are completed, one person photograph to be printed on the paper is completed.

【0009】[0009]

【発明が解決しようとする課題】上記のように、従来の
画像処理装置では、オペレータは、ステップS92の処
理でポインティングデバイスを操作して、頭頂、顎およ
び左右の耳を指示する必要があった。この4点は、切抜
データを額縁データと合成する際の基準となるため、正
確に指示されなければならない。そのため、オペレータ
に煩わしい操作を強いるという問題点があった。かかる
問題は、合成する人物写真が1つの場合は、さほど気に
ならないが、例えば、選挙時のように人物写真を新聞紙
面上に多数列挙する場合に深刻な事態を引き起こす。な
ぜなら、オペレータがポインティングデバイスを操作す
る回数が多くなるため、装置自体の作業を大幅に低下さ
せてしまうからである。
As described above, in the conventional image processing apparatus, the operator has to operate the pointing device in the process of step S92 to indicate the parietal region, the chin and the left and right ears. . These four points serve as a reference when synthesizing the cutout data and the frame data, and thus must be specified accurately. Therefore, there is a problem that the operator is forced to perform a troublesome operation. This problem does not matter so much when there is only one portrait photograph to be combined, but it causes a serious situation when enumerating a large number of portrait photographs on the newspaper such as at the time of election. This is because the number of times the operator operates the pointing device increases, which significantly reduces the work of the apparatus itself.

【0010】それゆえに、本発明の目的は、オペレータ
の作業に係る負担を少なくし、結果として、画像処理の
作業効率を向上することのできる、画像処理方法および
それを用いた画像処理装置を提供することである。
Therefore, an object of the present invention is to provide an image processing method and an image processing apparatus using the same, which can reduce the work load on the operator and, as a result, improve the work efficiency of image processing. It is to be.

【0011】[0011]

【課題を解決するための手段および発明の効果】第1の
発明は、画像原稿から読み取られた画像情報(以下、第
1の画像情報と称す)を、予め準備された背景の画像情
報(以下、第2の画像情報と称す)と合成するための方
法であって、第2の画像情報は、背景内の所定領域を規
定するためのパラメータを含み、第1の画像情報に対し
て指示された画像の輪郭を規定するための輪郭情報を生
成し格納する第1ステップと、輪郭情報に基づいて、第
1の画像情報から、第2の画像情報と合成すべき部分の
画像情報(以下、第3の画像情報と称す)を切り抜いて
格納する第2ステップと、輪郭情報から、合成する際に
参照される参照点を検出する第3ステップと、パラメー
タおよび参照点に基づいて、第3の画像情報を所定領域
と適合する大きさに変換するための倍率を求める第4ス
テップと、第4ステップで求められた倍率に基づいて、
第3の画像情報の大きさを変換し、第2の画像情報と合
成する第5ステップとを備える。
According to a first aspect of the present invention, image information read from an image original (hereinafter, referred to as first image information) is converted into background image information (hereinafter, referred to as first image information). , Second image information), wherein the second image information includes a parameter for defining a predetermined area in the background, and is instructed to the first image information. A first step of generating and storing contour information for defining the contour of the image, and based on the contour information, image information of a portion to be combined with the second image information from the first image information (hereinafter, Based on the parameter and the reference point, a second step of cutting out and storing (referred to as third image information), a third step of detecting a reference point referred to at the time of synthesis from the contour information, and a third step based on the parameter and the reference point. The size that fits the image information to the specified area A fourth step of determining a magnification for converting, on the basis of the ratio obtained in the fourth step,
And a fifth step of converting the size of the third image information and combining with the second image information.

【0012】上述の第1の発明によれば、従来、オペレ
ータの判断によって、背景の画像情報と合成すべき部分
の画像情報が指示された後、さらに参照点が指示されて
いたのに対し、第1ステップで作成された輪郭情報に基
づいて、参照点が第2ステップで自動的に検出される。
これによって、オペレータの作業に係る負担を少なく
し、結果として、画像処理の作業効率が向上する。
According to the first aspect of the invention described above, conventionally, after the operator's judgment has instructed the image information of the portion to be combined with the image information of the background, the reference point is further instructed. The reference point is automatically detected in the second step based on the contour information created in the first step.
As a result, the work load on the operator is reduced, and as a result, the work efficiency of image processing is improved.

【0013】第2の発明は、第1の発明において、パラ
メータおよび参照点に基づいて、第2の画像情報の所定
領域に対する第3の画像情報のオフセット量を求める第
6ステップをさらに備え、第5ステップは、倍率に基づ
いて第3の画像情報の大きさを変換した後、オフセット
量に基づいて当該第3の画像情報の位置をシフトし、第
2の画像情報と合成することを特徴とする。
A second invention is the first invention, further comprising a sixth step of obtaining an offset amount of the third image information with respect to a predetermined area of the second image information based on the parameter and the reference point. The step 5 is characterized in that after the size of the third image information is converted based on the magnification, the position of the third image information is shifted based on the offset amount and is combined with the second image information. To do.

【0014】前述した第1の発明では、第5ステップ
は、第4ステップによって求められた倍率に基づいて、
第3の画像情報の大きさを変換し、第2の画像情報と合
成するだけであるため、第3の画像情報を第2の画像情
報の所定領域にはめ込むことができない場合が生じう
る。それに対して、上述の第2の発明では、第5ステッ
プは、オフセット量に基づいて第3の画像情報をシフト
するようにしている。したがって、第3の画像情報を、
その状態にかかわらず、第2の画像情報と合成すること
ができる。
In the above-described first invention, the fifth step is based on the magnification obtained in the fourth step.
Since only the size of the third image information is converted and combined with the second image information, there may be a case where the third image information cannot be fitted into a predetermined area of the second image information. On the other hand, in the above-described second invention, the fifth step shifts the third image information based on the offset amount. Therefore, the third image information is
Regardless of the state, it can be combined with the second image information.

【0015】第3の発明は、画像原稿から読み取られた
画像情報(以下、第1の画像情報と称す)を、予め準備
された背景の画像情報(以下、第2の画像情報と称す)
と合成するための装置であって、背景内の所定領域を規
定するためのパラメータを含む、第2の画像情報を格納
する背景格納手段と、第1の画像情報に対して指示され
た画像の輪郭を規定するための輪郭情報を生成し格納す
る輪郭情報生成/格納手段と、輪郭情報に基づいて、第
1の画像情報から、第2の画像情報と合成すべき部分の
画像情報(以下、第3の画像情報と称す)を切り抜いて
格納する部分画像格納手段と、輪郭情報から、合成する
際に参照される参照点を検出する参照点検出手段と、パ
ラメータおよび参照点に基づいて、第3の画像情報を所
定領域と適合する大きさに変換するための倍率を演算す
る倍率演算手段と、倍率演算手段で演算された倍率に基
づいて、第3の画像情報の大きさを変換し、第2の画像
情報と合成する合成手段とを備える。
According to a third aspect of the invention, image information read from an image original (hereinafter referred to as first image information) is background image information prepared in advance (hereinafter referred to as second image information).
And a background storage unit that stores second image information including a parameter for defining a predetermined area in the background, and a device for combining the first image information and the background storage unit. Contour information generating / storing means for generating and storing contour information for defining the contour, and image information of a portion to be combined with the second image information from the first image information based on the contour information (hereinafter, Based on the partial image storage means for clipping and storing (referred to as the third image information), the reference point detection means for detecting the reference point referred to when synthesizing from the contour information, and the parameter and the reference point. And a magnification calculation means for calculating a magnification for converting the image information of No. 3 into a size suitable for a predetermined area, and the size of the third image information based on the magnification calculated by the magnification calculation means, Combined with the second image information And means.

【0016】上述の第3の発明によって、従来、オペレ
ータの判断によって、背景の画像情報と合成すべき部分
の画像情報が指示された後、さらに参照点が指示されて
いたのに対し、輪郭情報生成/格納手段で作成された輪
郭情報に基づいて、参照点が参照点検出手段で自動的に
検出される。これによって、オペレータの作業に係る負
担を少なくし、結果として、画像処理の作業効率が向上
する。
According to the third aspect of the invention described above, conventionally, after the operator's judgment, the image information of the background and the image information of the portion to be combined are instructed, and then the reference point is instructed. The reference point detecting means automatically detects the reference point based on the contour information created by the generating / storing means. As a result, the work load on the operator is reduced, and as a result, the work efficiency of image processing is improved.

【0017】第4の発明は、第3の発明において、パラ
メータおよび参照点に基づいて、第2の画像情報の所定
領域に対する第3の画像情報のオフセット量を演算する
オフセット量演算手段をさらに備え、 合成手段は、倍
率に基づいて第3の画像情報の大きさを変換した後、オ
フセット量に基づいて当該第3の画像情報の位置をシフ
トし、第2の画像情報と合成することを特徴とする。
In a fourth aspect based on the third aspect, there is further provided an offset amount calculating means for calculating an offset amount of the third image information with respect to a predetermined area of the second image information, based on the parameter and the reference point. The synthesizing unit converts the size of the third image information based on the magnification, shifts the position of the third image information based on the offset amount, and synthesizes the third image information with the second image information. And

【0018】前述した第3の発明では、倍率演算手段に
よって演算された倍率に基づいて、第3の画像情報の大
きさを変換し、第2の画像情報と合成するだけであるた
め、第3の画像情報を第2の画像情報の所定領域にはめ
込むことができない場合が生じうる。それに対し、上述
の第4の発明では、オフセット量に基づいて第3の画像
情報をシフトするようにしている。したがって、第3の
画像情報を、その状態にかかわらず、第2の画像情報と
合成することができる。
According to the third aspect of the invention described above, the size of the third image information is simply converted based on the magnification calculated by the magnification calculating means and is combined with the second image information. There may be a case where the image information of 1 cannot be fitted into the predetermined area of the second image information. On the other hand, in the above-mentioned fourth invention, the third image information is shifted based on the offset amount. Therefore, the third image information can be combined with the second image information regardless of the state.

【0019】[0019]

【発明の他の態様】本発明は、以下のような他の態様も
含んでいる。第1の態様は、コンピュータシステムの中
央処理装置(CPU)によって実行されることによっ
て、画像原稿から読み取られた画像情報(以下、第1の
画像情報と称す)を、予め準備された背景の画像情報
(以下、第2の画像情報と称す)と合成するためのアル
ゴリズムを格納した可搬型記録媒体であって、第2の画
像情報は、背景内の所定領域を規定するためのパラメー
タを含み、第1の画像情報に対して指示された画像の輪
郭を規定するための輪郭情報を生成し格納する第1ステ
ップと、輪郭情報に基づいて、第1の画像情報から、第
2の画像情報と合成すべき部分の画像情報(以下、第3
の画像情報と称す)を切り抜いて格納する第2ステップ
と、輪郭情報から、合成する際に参照される参照点を検
出する第3ステップと、パラメータおよび参照点に基づ
いて、第3の画像情報を所定領域と適合する大きさに変
換するための倍率を求める第4ステップと、第4ステッ
プで求められた倍率に基づいて、第3の画像情報の大き
さを変換し、第2の画像情報と合成する第5ステップと
を実行するアルゴリズムを格納する。
Other Embodiments of the Invention The present invention also includes the following other embodiments. In the first aspect, the central processing unit (CPU) of the computer system executes the image information read from the image original (hereinafter, referred to as first image information) to prepare a background image prepared in advance. A portable recording medium storing an algorithm for combining with information (hereinafter, referred to as second image information), wherein the second image information includes a parameter for defining a predetermined area in the background, A first step of generating and storing contour information for defining a contour of an image instructed with respect to the first image information; and, from the first image information to the second image information, based on the contour information. Image information of the part to be combined (hereinafter, the third
(Referred to as image information of the image information) and a third step of detecting a reference point to be referred to when synthesizing from the contour information, and the third image information based on the parameter and the reference point. Of the third image information is converted based on the fourth step of obtaining a magnification for converting to a size that matches the predetermined area, and the second image information. The algorithm for executing the fifth step of combining and is stored.

【0020】第2の態様は、第1の態様において、パラ
メータおよび参照点に基づいて、第2の画像情報の所定
領域に対する第3の画像情報のオフセット量を求める第
6ステップをさらに実行し、第5ステップは、倍率に基
づいて第3の画像情報の大きさを変換した後、オフセッ
ト量に基づいて当該第3の画像情報の位置をシフトし、
第2の画像情報と合成することを特徴とする。
According to a second aspect, in the first aspect, the sixth step of obtaining the offset amount of the third image information with respect to the predetermined area of the second image information is further executed based on the parameter and the reference point, In the fifth step, after converting the size of the third image information based on the magnification, the position of the third image information is shifted based on the offset amount,
It is characterized in that it is combined with the second image information.

【0021】[0021]

【発明の実施の形態】本発明の第1の実施形態に係る画
像処理装置の構成および動作を説明する前に、当該画像
処理装置が実行する画像処理の原理について説明する。
本実施形態における画像処理とは、基礎となる画像デー
タ(以下、基礎データと称する)からの切抜部分を、予
め設定された背景に該当する画像データ(以下、額縁デ
ータと称する)の所定領域内に変倍して配置する処理の
ことをいう。
BEST MODE FOR CARRYING OUT THE INVENTION Before describing the configuration and operation of an image processing apparatus according to a first embodiment of the present invention, the principle of image processing executed by the image processing apparatus will be described.
The image processing in this embodiment means that a cut-out portion from basic image data (hereinafter referred to as basic data) is within a predetermined area of image data (hereinafter referred to as frame data) corresponding to a preset background. It means the process of scaling and arranging.

【0022】図1は、額縁データを示す図である。図1
において、額縁データ111は、上記のように背景部分
に該当し、当該背景の大きさは横サイズXと縦サイズY
とによって規定される。また、この額縁データ111
は、通常、一様な濃度を有するいわゆる平網である。さ
らに、上記切抜部分を所定領域内に合成することができ
るように、左右両方の空き領域である横空きサイズf、
上方の空き領域である天空きサイズgおよび下方の空き
領域である喉空きサイズhが規定されている。したがっ
て、人物の顔(上記切抜部分)は、額縁データ111内
における点線内部にはめ込まれる。なお、上記各パラメ
ータの値を規定するための2次元座標原点Oは、いずれ
の位置であってもよいが、本実施形態では額縁データ1
11の左下端部とする。
FIG. 1 is a diagram showing frame data. FIG.
In the above, the frame data 111 corresponds to the background portion as described above, and the size of the background is the horizontal size X and the vertical size Y.
Defined by Also, this frame data 111
Is usually a so-called flat mesh with uniform density. Further, in order that the cutout portion can be combined in a predetermined area, the horizontal free space size f, which is a free space on both the left and right sides,
A sky space size g that is an upper space and a throat space size h that is a lower space are defined. Therefore, the face of the person (the cutout portion) is fitted inside the dotted line in the frame data 111. The two-dimensional coordinate origin O for defining the values of the above parameters may be at any position, but in the present embodiment, the frame data 1
The lower left end of 11.

【0023】図2は、基礎データの第1の例および当該
基礎データからの切抜部分を規定するマスクデータを示
す図である。図2(a)は、基礎データ112を示して
いる。図2(a)において、基礎データ112は、額縁
データ111と合成される人物部分を含む画像データで
ある。本画像処理の過程においては、基礎データ112
からの切抜部分COを示すマスクデータ113が作成さ
れる。図2(b)は、マスクデータ113を示してい
る。マスクデータ113は、切抜部分COの輪郭を示し
た線データ114に基づいて作成される。基礎データ1
12をマスクデータ113でマスクすることによって、
基礎データ112からの切抜部分COのみを示すことと
なる(図3に示す切抜画像CI参照)。この切抜画像C
Iを額縁データ111の所定領域にはめ込むためには、
基礎データ112およびマスクデータ113の大きさを
変換するだけでなく、額縁データ111の所定領域に正
確に配置可能に、基礎データ112およびマスクデータ
113の2次元座標値を変換する必要がある。以下の説
明において、かかる座標変換のために必要なパラメータ
をオフセット量と称することとする。また、切抜画像C
Iを表すために必要な基礎データ112とマスクデータ
113とを併せて切抜データ119と称することとす
る。
FIG. 2 is a diagram showing a first example of basic data and mask data defining a cutout portion from the basic data. FIG. 2A shows the basic data 112. In FIG. 2A, the basic data 112 is image data including a person portion that is combined with the frame data 111. In the process of this image processing, the basic data 112
Mask data 113 indicating the cutout portion CO from is created. FIG. 2B shows the mask data 113. The mask data 113 is created based on the line data 114 showing the contour of the cutout portion CO. Basic data 1
By masking 12 with the mask data 113,
Only the cutout portion CO from the basic data 112 is shown (see cutout image CI shown in FIG. 3). This cutout image C
In order to fit I into the predetermined area of the frame data 111,
In addition to converting the sizes of the basic data 112 and the mask data 113, it is necessary to convert the two-dimensional coordinate values of the basic data 112 and the mask data 113 so that the basic data 112 and the mask data 113 can be accurately arranged in a predetermined area of the frame data 111. In the following description, a parameter required for such coordinate conversion will be referred to as an offset amount. Also, cutout image C
The basic data 112 and the mask data 113 necessary to represent I will be collectively referred to as cutout data 119.

【0024】また、上記線データ114からは、切抜デ
ータ119の2次元座標値を変換するために、人物部分
における頭頂と左右両端(原則的には、左右の耳の部
分)とが検出され、当該頭頂と左右両端とに相当する3
点は参照点として使用される。図2(a)に示す線デー
タ114では、参照点a1 (xa1,ya1)は頭頂に該当
し、参照点b1 (xb1,yb1)は右耳に該当し、参照点
1 (xc1,yc1)は左耳に該当する。これら3つの参
照点は、座標原点O’1 を基準とした2次元座標で表さ
れる。
From the line data 114, in order to convert the two-dimensional coordinate values of the cutout data 119, the top of the person and the left and right ends (in principle, the left and right ears) are detected, 3 corresponding to the parietal area and the left and right ends
The point is used as a reference point. In the line data 114 shown in FIG. 2A, the reference point a 1 (x a1 , y a1 ) corresponds to the crown, the reference point b 1 (x b1 , y b1 ) corresponds to the right ear, and the reference point c. 1 (x c1 , y c1 ) corresponds to the left ear. These three reference points are represented by two-dimensional coordinates relative to the coordinate origin O '1.

【0025】上記のように、本画像処理の過程では、切
抜データ119を額縁データ111の所定領域内にはめ
込み可能な大きさに変換するための倍率M1 を求めなけ
ればならない。この倍率M1 は、図1に示す所定領域の
横方向の長さを、図2に示す線データ114の左右両端
の横方向の長さで除したものである。この所定領域の横
方向の長さは、{X−(2×f)}で、また、左右両端
の横方向の長さ(すなわち、参照点bとcとの間の横方
向の距離)は、(xc1 −xb1)で求められる。したが
って、倍率M1 は、次式(1)で求められる。 M1 ={X−(2×f)}/(xc1 −xb1)…(1) そして、切抜データ119(基礎データ112およびマ
スクデータ113)は、この倍率M1 によって変倍され
る。以下の説明において、この変倍された切抜データ1
19を、変倍切抜データ119’と称することとする。
As described above, in the process of this image processing, the magnification M 1 for converting the cutout data 119 into a size that can be fitted into the predetermined area of the frame data 111 must be obtained. The magnification M 1 is obtained by dividing the horizontal length of the predetermined area shown in FIG. 1 by the horizontal lengths of the left and right ends of the line data 114 shown in FIG. The horizontal length of this predetermined area is {X− (2 × f)}, and the horizontal lengths of the left and right ends (that is, the horizontal distance between the reference points b and c) are , (X c1 −x b1 ). Therefore, the magnification M 1 is calculated by the following equation (1). M 1 = {X− (2 × f)} / (x c1 −x b1 ) ... (1) Then, the cutout data 119 (basic data 112 and mask data 113) is scaled by this magnification M 1 . In the following description, this scaled cutout data 1
19 will be referred to as variable-magnification cutout data 119 '.

【0026】変倍切抜データ119’は、オフセット量
に基づいて、その位置が補正される。図4は、上記のオ
フセット量を説明するための図である。図4には、変倍
切抜データ119’(座標原点O’1 )と、額縁データ
111(座標原点O)とが示されている。変倍切抜デー
タ119’は、基礎データ112に基づいて作成される
こととなるので、その座標原点はO’1 のままである。
ところが、前述したように、額縁データ111は、独立
の座標原点Oを有しているため、変倍切抜データ11
9’を額縁データ111にはめ込むためには、オフセッ
ト量(xoff ,y off )を求め、変倍切抜データ11
9’の位置を補正する必要がある。すなわち、横方向の
オフセット量であるxoff を求めるためには、変倍切抜
データ119’における両耳の横方向に関する中点から
所定領域の横方向中点を減算すればよい。したがって、
オフセット量xoff は、次式(2)で求められる。 xoff =−〔{(xc +xb )/2}×M1 −(X/2)〕…(2) また、縦方向のオフセット量であるyoff を求めるため
には、変倍切抜データ119’における頭頂の位置から
所定領域の上端の位置(すなわち(Y−g))を減算す
ればよい。したがって、yoff は、次式(3)で求めら
れる。 yoff =−{ya ×M1 −(Y−g)}…(3) 変倍切抜データ119’に、このオフセット量
(xoff ,yoff )を加算することによって、当該切抜
データ119’は、その位置が補正される。その結果と
して、変倍切抜データ119’は、額縁データ111の
所定領域内に合成配置され、図5に示す合成画像118
が得られる。
The variable scale cut-out data 119 'is an offset amount.
The position is corrected based on Figure 4 shows the above
It is a figure for demonstrating a fuss amount. Figure 4 shows the scaling
Cutout data 119 '(coordinate origin O'1 ) And frame data
111 (coordinate origin O) is shown. Variable cutout day
Data 119 'is created based on the basic data 112.
Therefore, the coordinate origin is O '1Remains.
However, as described above, the frame data 111 is independent.
Since it has the coordinate origin O of
To insert 9'into the frame data 111, the offset
Amount (xoff, Y off) Is calculated, and variable scale cutout data 11
It is necessary to correct the 9'position. That is, the lateral
X, which is the offset amountoffTo find the
From the lateral midpoint of both ears in data 119 '
It suffices to subtract the horizontal midpoint of the predetermined area. Therefore,
Offset amount xoffIs calculated by the following equation (2). xoff=-[{(Xc+ Xb) / 2} × M1 -(X / 2)] (2) In addition, y which is the vertical offset amountoffTo seek
From the position of the top of the variable scale cutout data 119 '
Subtract the position of the upper end of the predetermined area (that is, (Yg))
Just do it. Therefore, yoffIs calculated by the following equation (3)
It is. yoff=-{Ya× M1 -(Y-g)} (3) This offset amount is included in the variable-magnification cutout data 119 '.
(Xoff, Yoff) By adding
The position of the data 119 'is corrected. As a result
Then, the scaled-out clipping data 119 'is
A composite image 118 shown in FIG.
Is obtained.

【0027】また、人物によっては、必ずしも頭部の左
右両端が左右の耳に該当しない場合もある。例えば、ロ
ングヘアを有する人である。かかる場合、一般的に頭部
の左右両端は頭髪の部分となるが、当該頭髪部分を基準
として倍率を検出すると、合成後の人物写真において顔
の部分は他の人物写真より小さくなる。かかる場合、例
外として、以下のようにして倍率M2 を求める。図6
は、基礎データの第2の例を示す図である。基礎データ
112も、図2の場合と同様、額縁データ111と合成
される人物部分を含む画像データである。この基礎デー
タ112からの切抜画像の輪郭を示す線データ114か
らは、人物部分における頭頂と左右両端とが検出され、
加えてオペレータがポインティングデバイス55(後
述)を操作することによって顎の位置が特定される。頭
頂と左右両端と顎の位置とに該当する4点は参照点とし
て使用される。図6においては、参照点a2 (xa2,y
a2)は頭頂に該当し、参照点b2 (xb2,yb2)は右端
に該当し、参照点c2 (xc2,yc2)は左端に該当し、
参照点d2 (xd2,yd2)は顎に該当する。これら4つ
の参照点は、図2における説明と同様に、基礎データ1
12に基づくため、額縁データ111の座標原点Oとは
異なる座標原点O’2 を基準として規定される。なお、
図6に示す第2の例においても、前述した第1の例の場
合と同様に、線データ114に基づいて、マスクデータ
が作成される。そして、マスクデータで基礎データ11
2がマスクされ、前述したような切抜データ119が得
られる。
Depending on the person, the left and right ends of the head may not necessarily correspond to the left and right ears. For example, a person with long hair. In such a case, generally, the left and right ends of the head are hair parts. However, when the magnification is detected with the hair part as a reference, the face part in the combined portrait becomes smaller than other portraits. In such a case, as an exception, the magnification M 2 is calculated as follows. FIG.
[Fig. 6] is a diagram showing a second example of basic data. As in the case of FIG. 2, the basic data 112 is also image data including a person portion that is combined with the frame data 111. From the line data 114 showing the outline of the cut-out image from the basic data 112, the top of the person and the left and right ends are detected,
In addition, the operator operates the pointing device 55 (described later) to specify the position of the jaw. Four points corresponding to the crown, both left and right ends, and the position of the jaw are used as reference points. In FIG. 6, the reference point a 2 (x a2 , y
a2) may correspond to the top, the reference point b 2 (x b2, y b2 ) may correspond to a right end, the reference point c 2 (x c2, y c2 ) may correspond to the left end,
The reference point d 2 (x d2 , y d2 ) corresponds to the chin. These four reference points correspond to the basic data 1 as described in FIG.
Since it is based on 12, the coordinate origin O ′ 2 different from the coordinate origin O of the frame data 111 is defined as a reference. In addition,
Also in the second example shown in FIG. 6, mask data is created based on the line data 114, as in the case of the first example described above. Then, using the mask data, the basic data 11
2 is masked, and the cutout data 119 as described above is obtained.

【0028】上記のように、図6に示す基礎データ11
2に基づく切抜データ119についても、前述と同様
に、本画像処理の過程において、額縁データ111の所
定領域内にはめ込み可能な大きさに変換するための倍率
2 を求めなければならない。この倍率M2 は、図1に
示す所定領域の縦方向の長さを、図6に示す上下両端
(頭頂から顎の部分までの長さ)の縦方向の長さで除し
たものである。この所定領域の縦方向の長さは、{Y−
(g+h)}で、また、上下両端の縦方向の長さ(すな
わち、両耳間の距離)は、(ya2−yd2)である。した
がって、倍率M2 は、次式(4)で求められる。 M2 ={Y−(g+h)}/(ya2 −yd2)…(4)
As described above, the basic data 11 shown in FIG.
As for the cutout data 119 based on 2, the magnification M 2 for converting into a size that can be fitted into the predetermined area of the frame data 111 must be obtained in the process of the main image processing, as described above. This magnification M 2 is obtained by dividing the vertical length of the predetermined region shown in FIG. 1 by the vertical lengths of the upper and lower ends (the length from the crown to the jaw portion) shown in FIG. The vertical length of the predetermined area is {Y-
(G + h)}, the addition, the vertical length of the upper and lower ends (i.e., the distance between both ears) is a (y a2 -y d2). Therefore, the magnification M 2 is calculated by the following equation (4). M 2 = {Y- (g + h)} / (y a2 -y d2) ... (4)

【0029】なお、図6に示す基礎データ112に基づ
く切抜データ119のような場合においても、オフセッ
ト量を検出するための原理は、上述と同様であるため、
その説明を省略する。
Even in the case of the cutout data 119 based on the basic data 112 shown in FIG. 6, the principle for detecting the offset amount is the same as that described above.
The description is omitted.

【0030】次に、上述した原理に基づいて、本発明の
第1の実施形態に係る画像処理装置の構成および動作を
説明する。図7は、本発明の第1の実施形態に係る画像
処理装置の構成を示すブロック図である。図7におい
て、読み出しおよび書き込みが可能な第1記憶装置51
(例えば、RAM)と、読み出し専用の第2記憶装置5
2(例えば、ROM)と、CPU53と、モニタ54
と、ポインティングデバイス55と、キーボード56と
がシステムバス57を介して接続されている。
Next, the configuration and operation of the image processing apparatus according to the first embodiment of the present invention will be described based on the principle described above. FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. In FIG. 7, the first storage device 51 that can be read and written.
(Eg RAM) and read-only second storage device 5
2 (for example, ROM), CPU 53, and monitor 54
, A pointing device 55, and a keyboard 56 are connected via a system bus 57.

【0031】第1記憶装置51は、額縁データ111
(図1参照)と、基礎データ112(図2(a)参照)
と、マスクデータ119(図2(b)参照)と、線デー
タ114(図2(a)参照)とを記憶する。
The first storage device 51 stores the frame data 111.
(See FIG. 1) and basic data 112 (see FIG. 2 (a))
The mask data 119 (see FIG. 2B) and the line data 114 (see FIG. 2A) are stored.

【0032】第2記憶装置52は、参照点検出アルゴリ
ズム521と、倍率演算アルゴリズム522と、オフセ
ット量演算アルゴリズム523と、合成アルゴリズム5
24とを記憶する。参照点検出アルゴリズム521は、
参照点(図2または図4参照)を検出するためのアルゴ
リズムである。倍率演算アルゴリズム522は、額縁デ
ータ111に規定される各パラメータと参照点とに基づ
いて、切抜データ119の大きさを変換する倍率M1
たはM2 を求めるためのアルゴリズムである。オフセッ
ト量演算アルゴリズム523は、上記倍率M1 またはM
2 と上記パラメータと参照点とに基づいて、変倍切抜デ
ータ119’のオフセット量(xoff ,yoff )を求め
るためのアルゴリズムである。合成アルゴリズム524
は、切抜データ119に上記倍率M1 またはM2 を乗算
し、大きさを変換したうえで、変倍切抜データ119’
に、上記オフセット量を加算し、それによって合成する
ためのアルゴリズムである。
The second storage device 52 has a reference point detection algorithm 521, a magnification calculation algorithm 522, an offset amount calculation algorithm 523, and a combination algorithm 5.
24 and 24 are stored. The reference point detection algorithm 521 is
It is an algorithm for detecting a reference point (see FIG. 2 or FIG. 4). The magnification calculation algorithm 522 is an algorithm for obtaining the magnification M 1 or M 2 for converting the size of the cutout data 119 based on each parameter defined in the frame data 111 and the reference point. The offset amount calculation algorithm 523 uses the scale factor M 1 or M
This is an algorithm for obtaining the offset amount (x off , y off ) of the variable-magnification cutout data 119 ′ based on 2 , the above-mentioned parameter, and the reference point. Synthesis algorithm 524
The cut-out data 119 is multiplied by the scaling factor M 1 or M 2 to convert the size, and then the scaled cut-out data 119 ′.
Is an algorithm for adding the above-mentioned offset amount and combining them.

【0033】CPU53は、画像処理を実行するとき、
上記各アルゴリズムに基づいて、切抜データ119を額
縁データ111と合成する。ポインティングデバイス5
5は、オペレータの操作に基づき、基礎データ112に
おける切り抜くべき部分とそれ以外の部分との境界(図
2点線部参照)を特定し、また各種の指示をCPU53
に通知する。キーボード56もまた、オペレータの操作
に基づき、各種の指示をCPU53に通知する。モニタ
54は、CRT(Cathode Ray Tube)
ディスプレイ等で構成され、切抜データ119や額縁デ
ータ111や合成画像118を表示する。
The CPU 53, when executing image processing,
The cutout data 119 is combined with the frame data 111 based on the above algorithms. Pointing device 5
Reference numeral 5 designates a boundary (see a dotted line portion in FIG. 2) between the portion to be cut out and the other portion in the basic data 112 based on the operation of the operator, and various instructions are given to the CPU 53.
Notify. The keyboard 56 also notifies the CPU 53 of various instructions based on the operation of the operator. The monitor 54 is a CRT (Cathode Ray Tube).
It is composed of a display or the like, and displays the cutout data 119, the frame data 111, and the composite image 118.

【0034】図8は、図7に示す画像処理装置における
画像処理の手順を示すフローチャートである。以下、図
1〜図8を参照して、本画像処理の手順について説明す
る。
FIG. 8 is a flow chart showing the procedure of image processing in the image processing apparatus shown in FIG. The procedure of the main image processing will be described below with reference to FIGS.

【0035】まず、オペレータは、スキャナ(図示せ
ず)等を用いて基礎データ112を第1記憶装置51に
格納しておく。次に、オペレータは、新聞紙面等に人物
写真を掲載した場合を想定して、ポインティングデバイ
ス55やキーボード56を操作し、当該人物写真の背景
部分に該当する額縁データ111を作成する。次に、オ
ペレータは、ポインティングデバイス55等を操作し
て、完成した額縁データ111を第1記憶装置51に格
納するよう指示する。これに応じて、CPU53は、第
1記憶装置51に完成した額縁データ111を格納する
(ステップS601)。
First, the operator stores the basic data 112 in the first storage device 51 using a scanner (not shown) or the like. Next, the operator operates the pointing device 55 and the keyboard 56 to create the frame data 111 corresponding to the background portion of the portrait, assuming that the portrait is posted on a newspaper page. Next, the operator operates the pointing device 55 or the like to instruct to store the completed frame data 111 in the first storage device 51. In response to this, the CPU 53 stores the completed frame data 111 in the first storage device 51 (step S601).

【0036】次に、オペレータは、ポインティングデバ
イス55等を操作して、第1記憶装置51から基礎デー
タ112を読み出す旨をCPU53に通知する。これに
応じて、CPU53は、基礎データ112を第1記憶装
置51から読み出し、当該基礎データ112をモニタ5
4に表示させる。オペレータは、表示された基礎データ
112において、切り抜くべき部分とそれ以外の部分と
の境界をポインティングデバイス55を操作して指示
し、それによって線データ114を生成する。この後、
CPU53は、指示された領域内、すなわち人物部分の
領域を表すマスクデータ113(図2(b)参照)を第
1記憶装置51に格納する。また、CPU53は、上記
境界部分にかかる線データ114をも第1記憶装置51
に格納する(ステップS602)。なお、この線データ
114は、2次元座標値を有する点の集合である。
Next, the operator operates the pointing device 55 or the like to notify the CPU 53 that the basic data 112 is read from the first storage device 51. In response to this, the CPU 53 reads out the basic data 112 from the first storage device 51, and monitors the basic data 112 by the monitor 5.
4 is displayed. The operator operates the pointing device 55 to instruct the boundary between the portion to be cut out and the other portion in the displayed basic data 112, thereby generating the line data 114. After this,
The CPU 53 stores, in the first storage device 51, the mask data 113 (see FIG. 2B) representing the designated area, that is, the area of the person portion. Further, the CPU 53 also stores the line data 114 applied to the boundary portion in the first storage device 51.
(Step S602). The line data 114 is a set of points having two-dimensional coordinate values.

【0037】次に、CPU53は、オペレータに対し、
線データ114から参照点の検出が容易か困難かを問い
合わせる(ステップS603)。オペレータは、このと
きモニタ54に表示されている基礎データ112を見
て、この問い合わせに対する回答をポインティングデバ
イス55等を操作して入力する。この入力に応じて、C
PU53は、ステップS604またはステップS609
の処理に移行する。なお、上記の容易か困難かの判断
は、左右両耳が頭部における左右両端になるか否かで判
断される。
Next, the CPU 53
It is inquired whether the reference point is easily or difficultly detected from the line data 114 (step S603). At this time, the operator looks at the basic data 112 displayed on the monitor 54 and inputs the answer to this inquiry by operating the pointing device 55 or the like. In response to this input, C
The PU 53 executes step S604 or step S609.
Move to the processing of. The determination as to whether it is easy or difficult is made based on whether the left and right ears are at the left and right ends of the head.

【0038】最初に、オペレータが線データ114から
参照点の検出が容易である(すなわち、図2に示すよう
な基礎データ112である)旨を示す回答を入力した場
合について説明する。
First, a case will be described in which the operator inputs a reply indicating that it is easy to detect the reference point from the line data 114 (that is, the basic data 112 as shown in FIG. 2).

【0039】ステップS604での処理において、CP
U53は、参照点検出アルゴリズム521に基づいて、
線データ114から参照点を検出する(ステップS60
4)。CPU53は、まず、線データ114からy座標
値が最大の点を検出し、この最大y座標値を有する点の
データを参照点a1 と規定する。次に、CPU53は、
参照点a1 のx座標値よりも原点側に分布する線データ
114について、点a 1 からy座標値が減少する方向へ
と、線データ114を構成する点ごとに走査し、そのx
座標値を検出するという動作を繰り返し実行する。その
とき検出したx座標値が、前回検出したx座標値よりも
減少していれば、さらにy座標値が減少する方向へ走査
し続ける。CPU53は、この処理の過程において、検
出したx座標値が前回検出したx座標値よりも増加した
とき、前回検出したx座標値を参照点の候補として保持
する。CPU53は、さらにy座標値が減少する方向へ
と走査し、x座標値を検出し続ける。このとき、CPU
53は、保持された参照点の候補のx座標値から、予め
設定された所定量までx座標値の増加傾向が続くか否か
を調べる。CPU53は、増加傾向が上記所定量以上続
いた場合、保持された参照点の候補を正式に参照点b1
(人物の右耳)として規定し、処理を打ち切る。一方、
CPU53は、増加傾向が上記所定量以上続かなかった
場合、保持された参照点の候補を解除した後、再度上記
の処理を実行し、検出したx座標値が前回検出したx座
標値よりも増加する点を検索する。上記のような処理を
繰り返し実行し、CPU53は参照点b1 を検出する。
ここで、所定量以上としたのは、一般的に、人物の頭の
形状は、図2に示されるように凹凸を有しているので
(頭髪のスタイル等による)、所定量以下の変化であれ
ば、頭髪のスタイル等による凹凸であると判断させるた
めである。また、CPU53は、今度は点a1 のx座標
値よりも原点と反対側に分布する線データ114につい
て、同様の手順を実行し、当該データから参照点c
1 (人物の左耳)を検出する。CPU53は、この規定
した参照点a1 、b1 およびc1 を線データ114に関
連づけて第1記憶装置51に格納する。
In the processing of step S604, the CP
U53 is based on the reference point detection algorithm 521,
A reference point is detected from the line data 114 (step S60).
4). The CPU 53 first determines from the line data 114 the y coordinate.
Find the point with the largest value and find the point with the largest y-coordinate value.
Data is reference point a1It is prescribed. Next, the CPU 53
Reference point a1Line data distributed closer to the origin than the x coordinate value of
For 114, point a 1To the direction in which the y coordinate value decreases
And the line data 114 is scanned for each point and x
The operation of detecting the coordinate value is repeatedly executed. That
The x-coordinate value detected at this time is lower than the x-coordinate value detected last time.
If it is decreasing, scan in the direction in which the y coordinate value further decreases
Keep doing. In the process of this processing, the CPU 53 detects
The issued x-coordinate value has increased more than the previously detected x-coordinate value.
At this time, the x-coordinate value detected previously is retained as a reference point candidate.
I do. The CPU 53 further decreases the y coordinate value.
And continues to detect the x-coordinate value. At this time, the CPU
53 is calculated in advance from the x coordinate value of the held reference point candidate.
Whether or not the increasing tendency of the x coordinate value continues up to the set predetermined amount
Find out. The CPU 53 shows that the increasing tendency continues above the predetermined amount.
If there is a reference point b, the stored reference point candidate is officially changed to the reference point b.1
(Right ear of the person) and abort the process. on the other hand,
In the CPU 53, the increasing tendency did not continue beyond the above predetermined amount.
If the retained reference point candidate is released,
Is executed, and the detected x coordinate value is the x coordinate detected last time.
Search for points that increase above the mark. The above process
Repeatedly executed, the CPU 53 causes the reference point b1Is detected.
Here, the reason why the predetermined amount or more is set is that the head of a person is generally
Since the shape has irregularities as shown in FIG.
(Because of the hair style, etc.)
If it is, it may be judged that it is uneven due to hair style etc.
It is. Further, the CPU 53 causes the point a this time.1X coordinate of
About the line data 114 distributed on the opposite side of the origin from the value
Then, perform the same procedure to find the reference point c from the data.
1(Person's left ear) is detected. CPU53, this regulation
Reference point a1, B1And c1To the line data 114
The data is linked and stored in the first storage device 51.

【0040】次に、CPU53は、第2記憶装置52の
倍率演算アルゴリズム522に基づいて、倍率を演算す
る(ステップS605)。ステップS603での処理に
おいてオペレータが容易との判断をした場合、CPU5
3は、まず、額縁データ111から横サイズXと横空き
サイズfとを抽出し、参照点c1 のx座標値xc1および
1 のx座標値xb1を抽出する。CPU53は、抽出し
たパラメータと抽出したxc1およびb1に基づき、前述の
式(1)に示される演算を実行し、倍率M1 を求める。
Next, the CPU 53 calculates the magnification based on the magnification calculation algorithm 522 of the second storage device 52 (step S605). If the operator determines that it is easy in the process of step S603, the CPU 5
In step 3, first, the horizontal size X and the horizontal empty size f are extracted from the frame data 111, and the x coordinate value x c1 of the reference point c 1 and the x coordinate value x b1 of b 1 are extracted. The CPU 53 executes the calculation represented by the above-mentioned formula (1) based on the extracted parameters and the extracted x c1 and b1 to obtain the magnification M 1 .

【0041】次に、CPU53は、オフセット量演算ア
ルゴリズム523に基づいて、オフセット量を演算する
(ステップS606)。CPU53は、まず、額縁デー
タ111から横サイズXを抽出し、線データ114から
検出した参照点b1 のx座標値xb1および参照点c1
x座標値xc1を抽出する。さらに、ステップS605で
求めた倍率M1 を抽出する。CPU53は、抽出したパ
ラメータ等に基づき、前述の式(2)に示される演算を
実行し、x座標軸方向に関するオフセット量x off を求
める。次に、CPU53は、額縁データ111から縦サ
イズYと天空きサイズgとを抽出し、線データ114か
ら参照点a1 のy座標値ya1を抽出する。さらに、ステ
ップS605で求めた倍率M1 を抽出する。CPU53
は、抽出したパラメータおよび倍率M1 に基づき、上式
(3)に示される演算を実行し、y座標軸方向に関する
オフセット量yoff を求める。
Next, the CPU 53 causes the offset amount calculation
Calculate the offset amount based on the algorithm 523
(Step S606). First, the CPU 53 starts the frame day.
The horizontal size X is extracted from the data 111 and the line data 114 is extracted.
Detected reference point b1X coordinate value xb1And reference point c1of
x coordinate value xc1Is extracted. Furthermore, in step S605
Obtained magnification M1Is extracted. The CPU 53
Based on the parameters etc., the calculation shown in the above equation (2) is performed.
Execute and offset amount x in the x coordinate axis direction offSeeking
Confuse. Next, the CPU 53 uses the frame data 111 to perform vertical support.
Iz Y and sky size g are extracted to determine whether line data 114
Reference point a1Y coordinate value of ya1Is extracted. In addition,
Magnification M determined in step S6051Is extracted. CPU53
Is the extracted parameter and magnification M1Based on the above
The calculation shown in (3) is executed, and the y-coordinate axis direction is related.
Offset amount yoffAsk for.

【0042】次に、CPU53は、第2記憶装置52の
合成アルゴリズム524に基づいて、切抜データ119
を額縁データ111と合成する(ステップS607)。
このとき、CPU53は、ステップS604で求めた倍
率M1 を切抜データ119に乗ずる。これによって、切
抜データ119の大きさが相似変換される。前述したよ
うに、切抜データ119と額縁データ111とは互いに
独立した座標原点を有しているため、CPU53は、オ
フセット量xoff およびyoff を、それぞれ大きさが変
換された切抜データ119に加算する。これによって、
切抜データ119は、正確に額縁データ111のパラメ
ータで規定される所定位置に合成配置されることとな
る。
Next, the CPU 53, based on the combining algorithm 524 of the second storage device 52, cuts out the data 119.
Is combined with the frame data 111 (step S607).
At this time, the CPU 53 multiplies the cutout data 119 by the magnification M 1 obtained in step S604. As a result, the size of the cutout data 119 is subjected to similarity conversion. As described above, since the cutout data 119 and the frame data 111 have independent coordinate origins, the CPU 53 adds the offset amounts x off and y off to the cutout data 119 whose size has been converted. To do. by this,
The cutout data 119 will be accurately combined and arranged at a predetermined position defined by the parameters of the frame data 111.

【0043】上述したステップS602〜S607での
画像処理が終了すると、切抜データ119を額縁データ
111にはめ込んだ画像(合成画像118)が完成す
る。その後、CPU53は、オペレータに対して、すべ
ての基礎データ112について画像処理が終了したか否
かを問い合わせる(ステップS608)。これに応じ
て、オペレータが肯定的な回答をポインティングデバイ
ス55等で入力した場合、CPU53は、他の基礎デー
タ112について再度S602〜S607での画像処理
を実行する。また、CPU53は、否定的な回答をオペ
レータが入力した場合には、画像処理を終了する。
When the image processing in steps S602 to S607 described above is completed, an image (composite image 118) in which the cutout data 119 is fitted in the frame data 111 is completed. After that, the CPU 53 inquires of the operator whether or not the image processing has been completed for all the basic data 112 (step S608). In response to this, when the operator inputs a positive answer with the pointing device 55 or the like, the CPU 53 executes the image processing in S602 to S607 on the other basic data 112 again. Further, the CPU 53 ends the image processing when the operator inputs a negative answer.

【0044】上述したように、本実施形態に係る画像処
理装置では、基礎データ112から切抜データ119を
作成する際、ポインティングデバイス55を操作して当
該基礎データ112の切り抜くべき部分とそれ以外の部
分との境界を指示する。CPU53は、この時作成され
る線データ114に基づいて、参照点a1 、b1 および
1 を検出する。そのため、上記ポインティングデバイ
ス55による操作後に、参照点をオペレータが改めて指
示する必要がなくなる。これによって、本画像処理にか
かるオペレータの負担が軽減する。その結果、作業効率
も向上することとなる。
As described above, in the image processing apparatus according to this embodiment, when the cutout data 119 is created from the basic data 112, the pointing device 55 is operated to cut out the basic data 112 and other parts. Indicate the boundary between and. The CPU 53 detects the reference points a 1 , b 1 and c 1 based on the line data 114 created at this time. Therefore, it is not necessary for the operator to specify the reference point again after the operation with the pointing device 55. This reduces the operator's burden on the main image processing. As a result, work efficiency is also improved.

【0045】次に、ステップS603における処理で、
オペレータが線データ114から参照点の検出が困難で
ある旨を示す回答を入力した場合、CPU53はステッ
プS609での処理を実行する。以下、かかる場合につ
いて説明する。
Next, in the processing in step S603,
When the operator inputs a response indicating that it is difficult to detect the reference point from the line data 114, the CPU 53 executes the process of step S609. Hereinafter, such a case will be described.

【0046】まず、CPU53は、オペレータに対し
て、モニタ54に表示されている切抜データ119(図
4参照)の所定の参照点(本実施形態においては顎の位
置)を指示するよう促す。これに応じて、オペレータ
は、ポインティングデバイス55を操作して、基礎デー
タ112上の顎の位置を指示し、参照点d2 として設定
する。次に、CPU53は、ステップS604での処理
と同様に他の3つの参照点(図6に示す点a2 、b2
2 参照)を検出する(ステップS609)。ただし、
図6に示す例では、参照点b2 および参照点c2 とを検
出するとき、それぞれの参照点の候補を保持し、正式な
参照点として規定するための処理を実行する必要がな
く、単に線データ114から最小値および最大値を有す
る点を検出する処理を実行すればよい。CPU53は、
この検出した点a2 、b2 、c2 およびd2 を線データ
114に関連づけて第1記憶装置51を格納する。
First, the CPU 53 prompts the operator to designate a predetermined reference point (jaw position in this embodiment) of the cutout data 119 (see FIG. 4) displayed on the monitor 54. In response to this, the operator operates the pointing device 55 to indicate the position of the jaw on the basic data 112 and set it as the reference point d 2 . Next, the CPU 53 determines the other three reference points (points a 2 , b 2 shown in FIG. 6) similarly to the processing in step S604.
(see c 2 ) is detected (step S609). However,
In the example shown in FIG. 6, when the reference point b 2 and the reference point c 2 are detected, it is not necessary to hold the respective reference point candidates and execute a process for defining them as formal reference points. The process of detecting the point having the minimum value and the maximum value from the line data 114 may be executed. The CPU 53
The detected points a 2 , b 2 , c 2 and d 2 are associated with the line data 114 and stored in the first storage device 51.

【0047】次に、CPU53は、倍率演算アルゴリズ
ム522に基づいて、倍率M2 を求める(ステップS6
05)。このとき、CPU53は、まず、額縁データ1
11から縦サイズYと天空きサイズgと顎空きサイズh
とを抽出し、切抜データ119からは頭頂に該当する点
2 のy座標値ya2および顎に該当する点d2 のy座標
値yd2 を抽出する。CPU53は、抽出したパラメー
タ等に基づき、前式(4)に示される演算を実行し、倍
率M2 を求める。
Next, the CPU 53 obtains the magnification M 2 based on the magnification calculation algorithm 522 (step S6).
05). At this time, the CPU 53 firstly sets the frame data 1
From 11 vertical size Y, sky size g and jaw space size h
And the y coordinate value y a2 of the point a 2 corresponding to the crown and the y coordinate value y d2 of the point d 2 corresponding to the chin are extracted from the cutout data 119. The CPU 53 executes the calculation shown in the equation (4) based on the extracted parameters and the like to obtain the magnification M 2 .

【0048】以降の処理ステップS606〜S608に
ついては、前述した処理と同様であるため、その説明を
省略する。
Subsequent processing steps S606 to S608 are the same as the above-mentioned processing, and therefore the description thereof will be omitted.

【0049】次に、本発明の第2の実施形態に係る画像
処理装置について説明する。図9は、本実施形態に係る
画像処理装置の構成を示すブロック図である。図9にお
いて、本実施形態の画像処理装置は、図7に示す画像処
理装置における第2記憶装置52に代えて、ディスクド
ライブ701と第3記憶装置703が設けられている。
それ以外の構成は、図1に示す画像処理装置と同様であ
るため、相当する部分については、同一の参照番号を付
し、その説明を省略する。ディスクドライブ701に
は、所定のアルゴリズムを記憶する可搬型記録媒体70
2が装着される。ディスクドライブ701は、CPU5
3からの指示に基づいて、可搬型記録媒体702から所
定のアルゴリズムを読み出す。ここで、所定のアルゴリ
ズムとは、第1の実施形態において説明した参照点検出
アルゴリズム521、倍率演算アルゴリズム522、オ
フセット量演算アルゴリズム523および合成アルゴリ
ズム524である。また、可搬型記録媒体702の例と
しては、磁気ディスク、光ディスク、光磁気ディスクが
ある。したがって、ディスクドライブ701は、例示し
た可搬型記録媒体702を駆動しうる、磁気ディスクド
ライブ、光ディスクドライブ、または光磁気ディスクド
ライブである。第3記憶装置703は、読み出しおよび
書き込み可能な記憶装置(例えば、RAM)であって、
ディスクドライブ701が読み出したアルゴリズムを記
憶する。
Next, an image processing apparatus according to the second embodiment of the present invention will be described. FIG. 9 is a block diagram showing the arrangement of the image processing apparatus according to this embodiment. In FIG. 9, the image processing apparatus of this embodiment is provided with a disk drive 701 and a third storage apparatus 703 instead of the second storage apparatus 52 in the image processing apparatus shown in FIG.
Since the other configurations are the same as those of the image processing apparatus shown in FIG. 1, the corresponding portions are designated by the same reference numerals, and the description thereof will be omitted. The disk drive 701 includes a portable recording medium 70 that stores a predetermined algorithm.
2 is attached. The disk drive 701 is the CPU 5
A predetermined algorithm is read from the portable recording medium 702 on the basis of the instruction from 3. Here, the predetermined algorithm is the reference point detection algorithm 521, the magnification calculation algorithm 522, the offset amount calculation algorithm 523, and the combination algorithm 524 described in the first embodiment. Further, examples of the portable recording medium 702 include a magnetic disk, an optical disk, and a magneto-optical disk. Therefore, the disk drive 701 is a magnetic disk drive, an optical disk drive, or a magneto-optical disk drive that can drive the illustrated portable recording medium 702. The third storage device 703 is a readable and writable storage device (for example, RAM),
The algorithm read by the disk drive 701 is stored.

【0050】上記構成において、オペレータは、画像処
理を実行するとき、まず、可搬型記録媒体702をディ
スクドライブ701にセットし、当該可搬型記録媒体7
02に格納されている各アルゴリズムを第3記憶装置7
03にダウンロードを実行する旨をポインティングデバ
イス55等を操作してCPU53に指示する。これに応
じてCPU53は、ディスクドライブ701によって読
み出されたアルゴリズムを第3記憶装置703に格納す
る(この処理は、一般的にインストールと呼ばれてい
る)。なお、このインストールは、1度行えばよい。
In the above construction, when executing the image processing, the operator first sets the portable recording medium 702 in the disk drive 701, and then the portable recording medium 7 is set.
02 stored in the third storage device 7
03, the CPU 53 is instructed to execute the download by operating the pointing device 55 or the like. In response to this, the CPU 53 stores the algorithm read by the disk drive 701 in the third storage device 703 (this process is generally called installation). It should be noted that this installation may be performed once.

【0051】上記のようにして、第3記憶装置703に
は、上記アルゴリズムが格納されることとなる。以降の
処理は、前述した第1の実施形態と同様であるので、そ
の説明を省略する。ただし、CPU53は、第3記憶装
置703に格納されたアルゴリズムに基づいて動作を実
行するという点が、前述の第1の実施形態と異なってい
る。
As described above, the above algorithm is stored in the third storage device 703. The subsequent processing is the same as that of the first embodiment described above, and thus the description thereof is omitted. However, the CPU 53 is different from the above-described first embodiment in that the CPU 53 executes an operation based on an algorithm stored in the third storage device 703.

【0052】なお、上述した実施形態においては、人物
についてのみ説明してきた。しかし、広告やカタログに
掲載する商品についても、上述した画像処理を適用する
ことが可能である。
In the above embodiment, only the person has been described. However, it is possible to apply the above-mentioned image processing to an advertisement or a product to be published in a catalog.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係る画像処理に用いられ
る、額縁データ111を示す図である。
FIG. 1 is a diagram showing frame data 111 used for image processing according to an embodiment of the present invention.

【図2】本発明の実施形態に係る画像処理に用いられ
る、基礎データ112およびマスクデータ113の第1
の例を示す図である。
FIG. 2 is a first basic data 112 and a mask data 113 used for image processing according to the embodiment of the present invention.
It is a figure showing the example of.

【図3】本発明の実施形態に係る画像処理に用いられ
る、切抜画像を示す図である。
FIG. 3 is a diagram showing a cropped image used for image processing according to the embodiment of the present invention.

【図4】本発明の実施形態に係る画像処理に用いられる
オフセット量を説明するための図である。
FIG. 4 is a diagram for explaining an offset amount used for image processing according to the embodiment of the present invention.

【図5】本発明の実施形態に係る画像処理の結果得られ
る合成画像を示す図である。
FIG. 5 is a diagram showing a composite image obtained as a result of image processing according to the embodiment of the present invention.

【図6】本発明の実施形態にかかる画像処理に用いられ
る、基礎データの第2の例を示す図である。
FIG. 6 is a diagram showing a second example of basic data used for image processing according to the embodiment of the present invention.

【図7】本発明の第1の実施形態に係る画像処理装置の
構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention.

【図8】図7に示す画像処理装置における処理の手順を
示すフローチャートである。
8 is a flowchart showing a procedure of processing in the image processing apparatus shown in FIG.

【図9】本発明の第2の実施形態に係る画像処理装置の
構成を示すブロック図である。
FIG. 9 is a block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention.

【図10】従来の画像処理装置で実行される画像処理を
説明するための図である。
FIG. 10 is a diagram for explaining image processing executed by a conventional image processing apparatus.

【図11】従来の画像処理の手順を示すフローチャート
である。
FIG. 11 is a flowchart showing a conventional image processing procedure.

【符号の説明】[Explanation of symbols]

111…額縁データ 112…基礎データ 113…マスクデータ 114…線データ 118…合成画像 119…切抜データ 51…第1記憶装置 52…第2記憶装置 521…参照点検出アルゴリズム 522…倍率演算アルゴリズム 523…オフセット量演算アルゴリズム 524…合成アルゴリズム 53…CPU 54…モニタ 55…ポインティングデバイス 56…キーボード 57…システムバス 701…ディスクドライブ 702…可搬型記録媒体 703…第3記憶装置 111 ... Frame data 112 ... Basic data 113 ... Mask data 114 ... Line data 118 ... Composite image 119 ... Cutout data 51 ... First storage device 52 ... Second storage device 521 ... Reference point detection algorithm 522 ... Magnification calculation algorithm 523 ... Offset Quantity calculation algorithm 524 ... Synthesis algorithm 53 ... CPU 54 ... Monitor 55 ... Pointing device 56 ... Keyboard 57 ... System bus 701 ... Disk drive 702 ... Portable recording medium 703 ... Third storage device

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像原稿から読み取られた画像情報(以
下、第1の画像情報と称す)を、予め準備された背景の
画像情報(以下、第2の画像情報と称す)と合成するた
めの方法であって、 前記第2の画像情報は、背景内の所定領域を規定するた
めのパラメータを含み、 前記第1の画像情報に対して指示された画像の輪郭を規
定するための輪郭情報を生成し格納する第1ステップ
と、 前記輪郭情報に基づいて、前記第1の画像情報から、前
記第2の画像情報と合成すべき部分の画像情報(以下、
第3の画像情報と称す)を切り抜いて格納する第2ステ
ップと、 前記輪郭情報から、合成する際に参照される参照点を検
出する第3ステップと、 前記パラメータおよび前記参照点に基づいて、前記第3
の画像情報を前記所定領域と適合する大きさに変換する
ための倍率を求める第4ステップと、 前記第4ステップで求められた倍率に基づいて、前記第
3の画像情報の大きさを変換し、前記第2の画像情報と
合成する第5ステップとを備える、画像処理方法。
1. A method for synthesizing image information (hereinafter referred to as first image information) read from an image original with background image information (hereinafter referred to as second image information) prepared in advance. The second image information includes a parameter for defining a predetermined area in the background, and the second image information includes contour information for defining a contour of the image instructed with respect to the first image information. A first step of generating and storing; image information of a portion to be combined with the second image information from the first image information based on the contour information (hereinafter,
Based on the parameter and the reference point, a second step of cutting out and storing (referred to as third image information), a third step of detecting a reference point referred to when synthesizing from the contour information, The third
A step of obtaining a magnification for converting the image information of No. 1 to a size suitable for the predetermined area, and the size of the third image information is converted based on the magnification obtained in the fourth step. And an image processing method including a fifth step of combining with the second image information.
【請求項2】 前記パラメータおよび前記参照点に基づ
いて、前記第2の画像情報の所定領域に対する前記第3
の画像情報のオフセット量を求める第6ステップをさら
に備え、 前記第5ステップは、前記倍率に基づいて前記第3の画
像情報の大きさを変換した後、前記オフセット量に基づ
いて当該第3の画像情報の位置をシフトし、前記第2の
画像情報と合成することを特徴とする、請求項1に記載
の画像処理方法。
2. Based on the parameter and the reference point, the third region for the predetermined region of the second image information is generated.
Further comprising a sixth step of obtaining the offset amount of the image information, the fifth step converting the size of the third image information based on the magnification, and then the third step based on the offset amount. The image processing method according to claim 1, wherein the position of the image information is shifted and combined with the second image information.
【請求項3】 画像原稿から読み取られた画像情報(以
下、第1の画像情報と称す)を、予め準備された背景の
画像情報(以下、第2の画像情報と称す)と合成するた
めの装置であって、 背景内の所定領域を規定するためのパラメータを含む、
前記第2の画像情報を格納する背景格納手段と、 前記第1の画像情報に対して指示された画像の輪郭を規
定するための輪郭情報を生成し格納する輪郭情報生成/
格納手段と、 前記輪郭情報に基づいて、前記第1の画像情報から、前
記第2の画像情報と合成すべき部分の画像情報(以下、
第3の画像情報と称す)を切り抜いて格納する部分画像
格納手段と、 前記輪郭情報から、合成する際に参照される参照点を検
出する参照点検出手段と、 前記パラメータおよび前記参照点に基づいて、前記第3
の画像情報を前記所定領域と適合する大きさに変換する
ための倍率を演算する倍率演算手段と、 前記倍率演算手段で演算された倍率に基づいて、前記第
3の画像情報の大きさを変換し、前記第2の画像情報と
合成する合成手段とを備える、画像処理装置。
3. A method for synthesizing image information read from an image original (hereinafter referred to as first image information) with previously prepared background image information (hereinafter referred to as second image information). A device, including parameters for defining a predetermined area in a background,
Background storing means for storing the second image information, and contour information generation / storing for generating and storing contour information for defining the contour of the image instructed with respect to the first image information.
Storage means, and image information of a portion to be combined with the second image information from the first image information based on the contour information (hereinafter,
Partial image storage means for cutting out and storing (referred to as third image information), reference point detection means for detecting a reference point referred to when synthesizing from the contour information, and based on the parameter and the reference point. And the third
Of the third image information based on the magnification calculated by the magnification calculating means, and a magnification calculating means for calculating a magnification for converting the image information of the image information into a size suitable for the predetermined area. And an image processing apparatus including a combining unit that combines the second image information.
【請求項4】 前記パラメータおよび前記参照点に基づ
いて、前記第2の画像情報の所定領域に対する前記第3
の画像情報のオフセット量を演算するオフセット量演算
手段をさらに備え、 前記合成手段は、前記倍率に基づいて前記第3の画像情
報の大きさを変換した後、前記オフセット量に基づいて
当該第3の画像情報の位置をシフトし、前記第2の画像
情報と合成することを特徴とする、請求項3に記載の画
像処理装置。
4. The third region for a predetermined region of the second image information based on the parameter and the reference point.
Offset amount calculation means for calculating the offset amount of the image information, the synthesizing means converts the size of the third image information based on the magnification, and then the third amount based on the offset amount. 4. The image processing apparatus according to claim 3, wherein the position of the image information of is shifted and combined with the second image information.
JP05615796A 1996-03-13 1996-03-13 Image processing method and apparatus Expired - Fee Related JP3506300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05615796A JP3506300B2 (en) 1996-03-13 1996-03-13 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05615796A JP3506300B2 (en) 1996-03-13 1996-03-13 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH09245158A true JPH09245158A (en) 1997-09-19
JP3506300B2 JP3506300B2 (en) 2004-03-15

Family

ID=13019264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05615796A Expired - Fee Related JP3506300B2 (en) 1996-03-13 1996-03-13 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3506300B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120128A (en) * 2004-09-21 2006-05-11 Fuji Photo Film Co Ltd Image processing apparatus, image processing method, and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120128A (en) * 2004-09-21 2006-05-11 Fuji Photo Film Co Ltd Image processing apparatus, image processing method, and image processing program
JP4702534B2 (en) * 2004-09-21 2011-06-15 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP3506300B2 (en) 2004-03-15

Similar Documents

Publication Publication Date Title
US8379054B2 (en) Image synthesis method, image synthesis apparatus, and storage medium
KR20040029258A (en) Image editing method, image editing apparatus, program for implementing image editing method and recording medium recording program
US6266129B1 (en) Digital photograph processing system
JP3444148B2 (en) Eyebrow drawing method
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
JP3506300B2 (en) Image processing method and apparatus
JP2004054898A (en) Printing data generating device, printing data generating method and program
JP2001184373A (en) Drawing generation method and system, and computer-readable recording medium recording a drawing generation program for generating a two-dimensional drawing from three-dimensional model data
JPH0969165A (en) Picture processor
JP2000353233A (en) Map data printing system and method and recording medium recording the processing program
JP7032714B2 (en) Map converter, learning device, map conversion method, learning method, and program
JPS62256085A (en) Magazine editing system
JP2001034744A (en) Image processing method and apparatus, and storage medium
JP2001307122A (en) Method for clipping out face picture image
JP2000311182A (en) Method and device for displaying dimension of raster data
JP2709851B2 (en) Layout system for printing plate making
JP2903560B2 (en) Planning and plate making system
JP4253077B2 (en) Raster data editing device
JP3610130B2 (en) Information processing method and apparatus, and computer control apparatus
JP5573433B2 (en) Drawing creation support device
JP2002197452A (en) Processor for correcting image distortion
JP4079229B2 (en) Conduit image processing method and apparatus
JP4154023B2 (en) Image composition method, image composition apparatus, image composition system, and storage medium
JP3067198B2 (en) Method and apparatus for creating gradation
JP2567185B2 (en) Figure processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031211

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees