[go: up one dir, main page]

JPH0877336A - Area extracting method - Google Patents

Area extracting method

Info

Publication number
JPH0877336A
JPH0877336A JP6236025A JP23602594A JPH0877336A JP H0877336 A JPH0877336 A JP H0877336A JP 6236025 A JP6236025 A JP 6236025A JP 23602594 A JP23602594 A JP 23602594A JP H0877336 A JPH0877336 A JP H0877336A
Authority
JP
Japan
Prior art keywords
image
area
data
outer frame
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6236025A
Other languages
Japanese (ja)
Inventor
Yasuhiko Kaneko
康彦 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP6236025A priority Critical patent/JPH0877336A/en
Publication of JPH0877336A publication Critical patent/JPH0877336A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To reduce the input burden on an operator in the case of image cutting and to exactly extract an object area at high speed concerning the method for extracting any desired area out of a color image or continuous gradation images. CONSTITUTION: A source image stored in a storage means is displayed on a display means, an outer frame area is instructed and inputted in the shape of a band by a pointing means so as to include a contour part under displaying (S10 and S11), the difference from an adjacent picture element in a color space is calculated concerning the picture element of the source image within the outer frame area, and a partial image connecting picture elements showing the maximum difference and defining it as the contour line is defined as the extracting area in the source image (S12-S17).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラー画像や連続階調
画像の中から所望の領域を抽出する方法に関し、特に、
オペレータの指示の負担を軽減すると共に、領域抽出処
理での演算時間を低減するのに好適な領域抽出方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting a desired area from a color image or a continuous tone image, and in particular,
The present invention relates to a region extraction method suitable for reducing the burden of operator instructions and reducing the calculation time in the region extraction processing.

【0002】[0002]

【従来の技術】従来、計算機で制御されるディジタル画
像処理装置により複数の静止画像を部分的に貼り合わせ
て合成画像を作成したり、或いは、画面上の必要な部分
だけを選んで所望の位置へ移動して編集したりする処理
において、処理の対象となる画像領域を抽出する方法と
しては、例えば、次のような方法がある。 オペレータが、タブレットなどの座標入力装置を用い
て対象領域の輪郭をなぞって指定し、その輪郭内の領域
を抽出する方法。この場合、輪郭の細かな形状を正確に
入力できるように、対象領域を部分的に拡大し、タブレ
ットのペンでなぞりやすくして輪郭を入力することも行
なわれている。 オペレータが、切り取りたい箇所の近傍をポインティ
ングデバイスを用いて指定し、指定された近傍の平面領
域に2次元演算処理をして輪郭を検出し、検出され輪郭
内の領域を抽出する方法。
2. Description of the Related Art Conventionally, a digital image processor controlled by a computer partially combines a plurality of still images to create a composite image, or selects only a necessary portion on a screen to obtain a desired position. In the process of moving to and editing, there is, for example, the following method as a method of extracting the image area to be processed. A method in which the operator traces and specifies the contour of the target area using a coordinate input device such as a tablet, and extracts the area within the contour. In this case, the target area is partially enlarged so that the contour can be accurately traced with the pen of the tablet so that the contour can be accurately input. A method in which an operator specifies the vicinity of a portion to be cut using a pointing device, performs a two-dimensional calculation process on a planar area in the specified vicinity to detect a contour, and extracts a region within the detected contour.

【0003】後者の方法としては、例えば、オペレータ
がポインティングデバイスを用いて対象領域の輪郭線を
粗くなぞりながら粗輪郭線を指定し、その粗輪郭線内の
原画像画素についてエッジ強度を求めて輪郭を検出する
方法が知られている。具体例としては、粗輪郭線内の原
画像画素について求めたエッジ強度を参照して、予め設
定された閾値以下のエッジ強度を削除対象として削除対
象の画素がなくなるまで中心線抽出処理を適用し、上記
閾値を大きくしながら、最終的に線幅1画素の細線化結
果が得られるまで、粗輪郭線に対する中心線抽出処理を
繰返して適用し、得られた細線化結果を輪郭線とする部
分画像を原画像中の抽出領域とするようにした方法が挙
げられる(特開平5−233810号公報)。
As the latter method, for example, an operator specifies a rough contour line while roughly tracing the contour line of a target area by using a pointing device, obtains edge strengths of original image pixels in the rough contour line, and then calculates the contour. There are known methods for detecting. As a specific example, referring to the edge strength obtained for the original image pixels in the rough contour line, the center line extraction processing is applied until the number of pixels to be deleted disappears with the edge strength equal to or less than the preset threshold as the deletion target. While increasing the threshold value, the centerline extraction processing for the rough contour line is repeatedly applied until the thinning result of the line width of 1 pixel is finally obtained, and the obtained thinning result is used as the contour line. There is a method in which an image is used as an extraction region in an original image (Japanese Patent Laid-Open No. 233810/1993).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記
の方法では、オペレータが直接切り取りラインを指定す
るため、操作上の負担が大きく、時間もかかり、また、
正確さにも欠けるという欠点がある。一方、上記の方
法では、注目する2次元画像が次々に移動し、その各々
について微分、2値化等の演算処理が必要になるため、
処理速度の点で劣るという欠点がある。
However, in the above method, since the operator directly specifies the cutting line, the operational burden is large and it takes time.
It also has the drawback of lacking accuracy. On the other hand, in the above method, the two-dimensional images of interest move one after another, and each of them requires an operation process such as differentiation and binarization.
It has a drawback that it is inferior in processing speed.

【0005】本発明は上述のような事情よりなされたも
のであり、本発明の目的は、画像切り抜きの際のオペレ
ータの入力負担を軽減すると共に、対象領域を高速かつ
正確に抽出することができる領域抽出方法を提供するこ
とにある。
The present invention has been made under the circumstances as described above, and an object of the present invention is to reduce the input load on the operator when cutting out an image and to extract a target area at high speed and accurately. An object is to provide a region extraction method.

【0006】[0006]

【課題を解決するための手段】本発明は、カラー画像の
画像データを記憶する記憶手段と、前記カラー画像を表
示する表示手段と、前記表示されたカラー画像の中の任
意の座標を指示、入力するポインティング手段とを備え
た画像処理装置の領域抽出方法に関するもので、本発明
の上記目的は、前記記憶手段に記憶された原画像を前記
表示手段に表示し、表示中の輪郭部を包含するように前
記ポインティング手段によって外枠領域を帯状に指示入
力し、前記外枠領域内の原画像の画素について色空間内
での隣接画素との差分を求め、最大差分を示す画素を結
んで輪郭線とする部分画像を前記原画像中の抽出領域と
することによって達成される。
According to the present invention, storage means for storing image data of a color image, display means for displaying the color image, and indication of arbitrary coordinates in the displayed color image, The present invention relates to an area extraction method for an image processing apparatus having input pointing means, and the above object of the present invention is to display the original image stored in the storage means on the display means, and to include a contour portion being displayed. As described above, the pointing means is used to input and input the outer frame area in a band shape, the difference between the pixel of the original image in the outer frame area and the adjacent pixel in the color space is obtained, and the pixel showing the maximum difference is connected to form the contour. This is achieved by using a partial image as a line as an extraction region in the original image.

【0007】また、連続階調画像の画像データを記憶す
る記憶手段と、前記連続階調画像を表示する表示手段
と、前記表示された連続階調画像の中の任意の座標を指
示、入力するポインティング手段とを備えた画像処理装
置の領域抽出方法においては、前記記憶手段に記憶され
た原画像を前記表示手段に表示し、表示中の輪郭部を包
含するように前記ポインティング手段によって外枠領域
を帯状に指示入力し、前記外枠領域内の原画像の画素に
ついて隣接画素との濃度の差分を求め、最大差分を示す
画素を結んで輪郭線とする部分画像を前記原画像中の抽
出領域とすることによって達成される。
Further, storage means for storing image data of the continuous tone image, display means for displaying the continuous tone image, and designation and input of arbitrary coordinates in the displayed continuous tone image. In an area extraction method of an image processing apparatus including pointing means, the original image stored in the storage means is displayed on the display means, and the outer frame area is displayed by the pointing means so as to include the contour portion being displayed. Is input in the form of a strip, and the difference in density between the pixels of the original image in the outer frame area with adjacent pixels is obtained, and the partial image in which the pixels showing the maximum difference are connected to form a contour line is the extraction area in the original image. Is achieved by

【0008】[0008]

【作用】本発明にあっては、表示中の輪郭部を包含する
ように外枠領域をポインティング手段で帯状に指示入力
するだけで、抽出領域の輪郭線が自動認識される。ま
た、そのときの指示は、主要なポイントを示すことによ
り帯状の線が自動的に表示されるので、オペレータが輪
郭をなぞる必要がない。また、輪郭線の検出は、外枠領
域内の原画像の画素について隣接画素との特徴値の差分
を求め、最大差分を示す画素を結んで輪郭線とするよう
にしているので、簡単な演算で輪郭を検出できる。その
際、外枠領域を十字パターン状に走査して差分を計算す
ることで、更に高速化が図れる。また、最大差分を示す
画素が検出できない場合には、外枠領域の中心線を輪郭
線とすることで、背景との差が不明瞭な部分についても
2次元フィルタ等の演算処理を行なう必要がなくなり、
オペレータが意図した輪郭を簡単な演算で認識できる。
According to the present invention, the contour line of the extraction area is automatically recognized only by pointing and inputting the outer frame area in a strip shape by the pointing means so as to include the contour portion being displayed. Further, in the instruction at that time, the band-shaped line is automatically displayed by indicating the main points, and therefore the operator does not need to trace the outline. Further, the contour line is detected by calculating the difference between the feature value of the pixel of the original image in the outer frame area and that of the adjacent pixel, and connecting the pixel showing the maximum difference to form the contour line. The contour can be detected with. At this time, the outer frame area is scanned in a cross pattern to calculate the difference, thereby further increasing the speed. Further, when the pixel showing the maximum difference cannot be detected, the center line of the outer frame area is used as the contour line, so that it is necessary to perform arithmetic processing such as a two-dimensional filter even on a portion where the difference from the background is unclear. Disappeared
The contour intended by the operator can be recognized by a simple calculation.

【0009】[0009]

【実施例】本発明の前提となる画像処理システムを図に
示して説明する。図1は画像処理システムの全体構成の
一例を示しており、複数台の編集用ワークステーション
10がEthernetを介して相互に接続されている
と共に、その中の1台のワークステーション10には比
較的低画質のゲラ印刷を行なうゲラプリンタ20が接続
されている。Ethernetには更に、データサーバ
及びレコーダサーバ機能を有するサーバ用のワークステ
ーション30が接続されており、サーバ用ワークステー
ション30には、プリント用の割付台紙を読取って入力
するための台紙入力機40が入力コントローラ40Aを
介して接続されると共に、絵柄、文字、図形等のカラー
画像又はモノクロ画像をカラー分解して読取って入力す
る複数のカラースキャナ50、50が複数の入力コント
ローラ50A、50Aを介して接続されている。更にサ
ーバ用ワークステーション30には、伸長、網伏せ、マ
ージ(線画と連続階調(モノトーン)画像の)、バッフ
ァリングの機能を有して同期をとる出力同期用バッファ
70を介して高画質画像を出力するフィルムプリンタ6
0が接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing system which is a premise of the present invention will be described with reference to the drawings. FIG. 1 shows an example of the overall configuration of an image processing system. A plurality of editing workstations 10 are connected to each other via Ethernet, and one workstation 10 among them is relatively connected. A galley printer 20 for performing low-quality galley printing is connected. A workstation 30 for a server having a data server and a recorder server function is further connected to the Ethernet, and a mount input device 40 for reading and inputting a layout mount for printing is attached to the server workstation 30. A plurality of color scanners 50, 50 that are connected via the input controller 40A and that read and input a color image or a monochrome image of patterns, characters, figures, etc. by color separation are input via the plurality of input controllers 50A, 50A. It is connected. Further, the server workstation 30 has a high-quality image through an output synchronization buffer 70 which has functions of decompression, half-shading, merging (line drawing and continuous tone (monotone) image), and buffering for synchronization. Printer 6 for outputting
0 is connected.

【0010】図1は、複数台の編集用ワークステーショ
ン10と1台のサーバ用ワークステーション30とをシ
ステム的に結合した例であるが、図2のように1台の編
集/サーバワークステーション30Aでスタンドアロー
ン構成とすることも可能である。又、各ワークステーシ
ョンには、更に外部より他の情報(例えばLAN(Lo
cal Area Network)の情報、他のコン
ピュータシステムからの情報等)を取込んで処理する機
能が具備されている。尚、図1及び図2の構成例におい
て、出力同期用バッファ70はサーバ用ワークステーシ
ョン30とフイルムプリンタ60との間に介挿されてい
るが、フイルムプリンタ60内に内蔵させることも可能
である。
FIG. 1 shows an example in which a plurality of editing workstations 10 and one server workstation 30 are systematically combined. As shown in FIG. 2, one editing / server workstation 30A is used. It is also possible to have a stand-alone configuration with. In addition, other information (for example, LAN (Lo
(Cal Area Network) information, information from other computer systems, etc.) and processes it. Although the output synchronization buffer 70 is inserted between the server workstation 30 and the film printer 60 in the configuration examples of FIGS. 1 and 2, it may be incorporated in the film printer 60. .

【0011】編集用ワークステーション10とサーバ用
ワークステーション30とはシステム構成により種々の
形態を取り得るが、ここでは便宜上同一ハード構成の例
を図3にその詳細を示して説明する。ワークステーショ
ン30(又は10)は全体の制御を行なうCPU301
と、必要な情報を格納するハードディスク302とを有
すると共に、表示手段としてのCRT303と、入力操
作手段としてのキーボード304及びマウス305、デ
ィジタイザ306、トラックボール、ジョイスティック
等のポインティング手段とを有し、記憶手段としてのフ
ロッピーディスク(FD)307を装填できるようにな
っている。
The editing workstation 10 and the server workstation 30 can take various forms depending on the system configuration, but here, for convenience, an example of the same hardware configuration is shown in FIG. 3 in detail. The workstation 30 (or 10) is a CPU 301 that controls the entire system.
And a hard disk 302 for storing necessary information, a CRT 303 as a display means, a keyboard 304 and a mouse 305 as an input operation means, a digitizer 306, a pointing means such as a trackball and a joystick, and a memory. A floppy disk (FD) 307 as a means can be loaded.

【0012】図4は、図1のシステム全体の構成をブロ
ック図で示しており、台紙入力機40で読取られた台紙
情報KS(1ビット)は入力コントローラ40Aを経て
ワークステーション30に送られるようになっており、
複数のカラースキャナ50、50で読取られた4色のC
MYK(Cyan, Magenta, Yello
w, Black)のカラー情報CL1、CL2(=3
2ビット;又はKのモノカラー情報=8ビット)は入力
コントローラ50A、50Aを経てワークステーション
30に送られる。入力コントローラ40A(50A)
は、高画質処理のための高密度データ処理と表示等のた
めの粗密度データ処理とを同時に並行処理するようにな
っており、全体的に高速化を実現すると共に、効率的な
データ処理を実現している。入力コントローラ40A、
50Aは同一構成であり、間引き部401はフィードバ
ック的に繰返して間引きを行ない、例えば1/2、1/
3、…、1/6、1/nのように整数比で入力データK
S(CL1、CL2)を間引くが、高画質出力のために
必要な高密度データに対しては当然間引きは実行されな
い。又、入力コントローラ40A(50A)ではデータ
の間引きと共にデータ圧縮が圧縮部402で実行され、
間引き及び圧縮されたデータはバッファ(図示せず)に
一時保存されるようになっている。
FIG. 4 is a block diagram showing the overall configuration of the system shown in FIG. 1. The mount information KS (1 bit) read by the mount input device 40 is sent to the workstation 30 via the input controller 40A. Has become
C of four colors read by a plurality of color scanners 50, 50
MYK (Cyan, Magenta, Yellow
w, Black) color information CL1, CL2 (= 3)
2 bits; or K monocolor information = 8 bits) is sent to the workstation 30 via the input controllers 50A, 50A. Input controller 40A (50A)
Is designed to simultaneously perform high-density data processing for high image quality processing and coarse-density data processing for display, etc. in parallel at the same time, achieving high speed as a whole and efficient data processing. Has been realized. Input controller 40A,
50A has the same configuration, and the thinning unit 401 repeatedly performs thinning in a feedback manner, for example, 1/2, 1 /
Input data K in integer ratio such as 3, ..., 1/6, 1 / n
Although S (CL1, CL2) is thinned out, naturally, thinning out is not executed for the high density data required for high image quality output. In the input controller 40A (50A), data compression is performed by the compression unit 402 together with data thinning,
The thinned and compressed data is temporarily stored in a buffer (not shown).

【0013】入力コントローラ40A(50A)に一時
保存されたデータ(1ビット(線画情報),8ビット
(モノカラー),32ビット(フルカラー))は入力情
報INSとしてサーバ用ワークステーション30に入力
され、外部システムに接続された他のパソコン等からの
外部情報EXSもサーバ用ワークステーション30に入
力される。サーバ用ワークステーション30は各入力情
報のフォーマットを変換して画像登録するためスキャン
サーバ320を有し、更に出力ジョブの管理を実行する
レコーダサーバ310を具備しており、レコーダサーバ
310からの割付け情報(企画に従って文字、図、表、
写真等の配置、大きさ等を指定するための情報)PSD
がラスタイメージ処理部(PSRIP)312に入力さ
れる。又、サーバ用ワークステーション30は画像デー
タを記憶するデータディスク311を具備しており、デ
ータディスク311から読出された画像データIGSが
画像差し換え部(Open PrePress Int
erface)313に入力される。画像差し換え部3
13で差し換えられた画像データIGSAはラスタイメ
ージ処理部312に入力され、ラスタイメージ処理部3
12でラスタイメージ化されると共に画像データの内の
絵柄等は網点化され、必要な場合にはデータ圧縮された
ラスタデータRDが出力同期用バッファ70に入力され
る。出力同期用バッファ70はフィルムプリンタ60の
印刷速度にデータ出力を同期させると共に、データ圧縮
されたデータに対しては必要な伸長を行なって,更には
マージや網伏せを行ってフィルムプリンタ60に伝送す
る。
Data (1 bit (line drawing information), 8 bits (mono color), 32 bits (full color)) temporarily stored in the input controller 40A (50A) is input to the server workstation 30 as input information INS. External information EXS from another personal computer or the like connected to the external system is also input to the server workstation 30. The server workstation 30 includes a scan server 320 for converting the format of each input information and registering an image, and further includes a recorder server 310 for managing an output job. Allocation information from the recorder server 310 is provided. (Characters, figures, tables, etc.
Information for specifying the layout and size of photographs, etc.) PSD
Is input to the raster image processing unit (PSRIP) 312. Further, the server workstation 30 is provided with a data disk 311 for storing image data, and the image data IGS read from the data disk 311 is stored in the image replacement unit (Open PrePress Int).
erface) 313. Image replacement unit 3
The image data IGSA replaced in 13 is input to the raster image processing unit 312, and the raster image processing unit 3
The image is converted into a raster image at 12, and the pattern or the like in the image data is converted into a halftone dot. If necessary, the data-compressed raster data RD is input to the output synchronization buffer 70. The output synchronization buffer 70 synchronizes the data output with the printing speed of the film printer 60, performs necessary expansion on the data-compressed data, and further performs merging and halftone dot transmission to the film printer 60. To do.

【0014】図5はサーバ用ワークステーション30の
詳細なソフトウェア構成を示しており、入力情報INS
及び外部情報EXSはスキャンサーバ320内のフォー
マット変換部321に入力され、フォーマット変換され
たデータは表示画像作成部322で表示用の画像(表示
画像)を作成され、更にアイコン用の画像(アイコン画
像)を作成されると共に、画像登録部324において画
像の登録処理が行なわれる。スキャンサーバ320から
出力される表示画像及びアイコン画像の登録データSS
Dはデータベースマネージャ330に入力されてデータ
格納されるが、画像データIGはデータディスク311
へ入力され、割付けデータ(PostScript D
ata)PSは出力ジョブの管理を行なうレコーダサー
バ310に入力される。データベースマネージャ330
には、各ページの面付けを行なうための大貼りモジュー
ル340と、線画前処理(ノイズ除去、回転等)、連続
階調画像のレタッチや切抜き処理等を行なう画像処理モ
ジュール350と、台紙配置、画像配置、図形生成、網
伏せ等の画像データの集版を行なう集版モジュール36
0と、出力ジョブ管理やデータ管理等を行なうデータ管
理モジュール370と、カラー編集、ハッチング編集や
地絞登録等を行なう操作データ制御モジュール380と
がソフトウェア的に接続されている。
FIG. 5 shows the detailed software configuration of the server workstation 30, and the input information INS.
The external information EXS is input to the format conversion unit 321 in the scan server 320, the format-converted data is used to create an image for display (display image) by the display image creation unit 322, and an image for icon (icon image). ) Is created, and the image registration unit 324 performs image registration processing. Registration data SS of the display image and the icon image output from the scan server 320
Although D is input to the database manager 330 and data is stored therein, the image data IG is stored in the data disk 311.
Is input to the allocation data (PostScript D
ata) PS is input to the recorder server 310 that manages output jobs. Database manager 330
Includes a large attachment module 340 for imposing each page, an image processing module 350 for performing line drawing preprocessing (noise removal, rotation, etc.), retouching and clipping processing of a continuous tone image, a mount layout, A plate collection module 36 for collecting image data such as image layout, figure generation, and shading
0, a data management module 370 that performs output job management and data management, and an operation data control module 380 that performs color editing, hatching editing, ground stop registration, and the like are connected by software.

【0015】ここで、データベースマネージャ330の
処理動作を図6のフローチャートを参照して説明する
と、スキャンサーバ320より伝送されて来る台紙や部
品画像等の登録データSSDが入力されると(ステップ
S1)、データベースマネージャ330を経由して画像
データIGとしてデータディスク311に格納される
(ステップS2)。データ修正時、データベースマネー
ジャ330はデータディスク311より画像データを読
出し、画像処理モジュール350でレタッチ(色、階
調、キズ等を修正する目的で行なう修正作業)、ゴミ取
り、切抜き等を行ない、データベースマネージャ330
を経由してデータディスク311に格納する(ステップ
S3)。次にデータベースマネージャ330は集版処理
(台紙を配置し、台紙に沿って各部品を配置、文字加工
を行なうことによって、文字、図形、画像等の部品を指
示されたレイアウト通りに合成する)を行なうが(ステ
ップS4)、先ずデータベースマネージャ330はデー
タディスク311より画像データIGを読出し、集版モ
ジュール360で集版作業を行なった後、データベース
マネージャ330を経由してデータディスク311に処
理済データを格納する。そして、更にデータディスク3
11より画像データIGを読出し、大貼りモジュール3
40を用いて面付けの指示、作業を行ない、面付けデー
タをデータベースマネージャ330を経由してデータデ
ィスク311に格納して面付けを行ない(ステップS
5)、次にデータディスク311よりデータベースマネ
ージャ330にデータを取出してレコーダサーバ310
で出力処理を行なう(ステップS6)。
Here, the processing operation of the database manager 330 will be described with reference to the flowchart of FIG. 6. When the registration data SSD such as the mount and the part image transmitted from the scan server 320 is input (step S1). Image data IG is stored in the data disk 311 via the database manager 330 (step S2). At the time of data correction, the database manager 330 reads out the image data from the data disk 311, and the image processing module 350 performs retouching (correction work for the purpose of correcting color, gradation, scratches, etc.), dust removal, cutout, etc. Manager 330
The data is stored in the data disk 311 via (step S3). Next, the database manager 330 performs plate-collection processing (arranges a mount, arranges each part along the mount, and performs character processing to synthesize parts such as characters, figures, and images according to the designated layout). However, the database manager 330 first reads the image data IG from the data disk 311, performs the plate collection operation by the plate collection module 360, and then stores the processed data in the data disk 311 via the database manager 330. Store. And further data disk 3
Image data IG is read out from 11, and large paste module 3
40, the imposition instruction and work are performed, the imposition data is stored in the data disk 311 via the database manager 330, and the imposition is performed (step S
5) Next, the data is extracted from the data disk 311 to the database manager 330, and the recorder server 310
The output process is performed in step S6.

【0016】図7は、入力データの対象(2値データ、
割付け情報、ビットマップデータ、連続階調画像)と工
程(入力、集版/編集、出力)との関係を、オペレータ
が意識するデータ、機能の流れとして示しており、線
画、台紙等の2値データは台紙入力機40又はカラース
キャナ50で読取られて、ゴミ取り、レタッチ、回転、
拡大/縮小の処理を施されて画像編集データとなり、P
ostScript情報はRIP(Raster Im
age Processor;PostScript等
のページ記述言語で表現されたデータを展開し、ビット
マップデータ等に変換する)で処理されて画像編集デー
タとなる。又、ビットマップデータはフィルタでフォー
マット変換されて画像編集データとなり、連続階調画像
はカラースキャナ50で読取られて、又は直接入力され
てレタッチ、切抜き、画像処理を施されて画像編集デー
タとなる。データ管理情報としてのキーワード、画像
名、ジョブ名も画像編集データに取り込まれる。画像編
集データは台紙加工(閉領域自動認識)、作図、オブジ
ェクト編集、合成、変形、回転、網伏せ/属性変更、レ
イアウト、写真はめ込み等の処理を施されると共に、ヒ
ストリー画像表示変更、分散編集、データ保存を実行さ
れる。上記各処理の後、分版、特色版、トラッピングを
行ない、更にページ単位の面付けを行なって集版/編集
を終了する。「特色版」は、通常のCMYK以外のイン
クで印刷するための版のことであり、例えば(1)2色
刷りの際における墨と金赤の「金赤」、(2)金色、銀
色用、(3)写真の中の女性の口紅の色を彩かに表現す
る際、口紅の部分だけ別の版にして通常のCMYKにプ
ラスして重ねてインクを載せる、等に使用する。又、
「トラッピング」は、具体的には毛抜き合せで配置する
際、印刷のずれによる白抜けの防止のために少しずつ重
ねておくことをいう。サーバ用ワークステーション30
で集版/編集処理されたデータは、ゲラプリンタ20で
のゲラ出力、PDL(Page Descriptio
n Language;例えばPostScript)
出力、又はフィルムプリンタ60でのフィルム出力で出
力される。
FIG. 7 shows the target of input data (binary data,
The relation between layout information, bitmap data, continuous tone image) and process (input, plate collection / editing, output) is shown as data and flow of functions that the operator is aware of. The data is read by the mount input device 40 or the color scanner 50 to remove dust, retouch, rotate,
Enlargement / reduction processing is performed to obtain image editing data, and P
The ostScript information is RIP (Raster Im
image processor; data expressed in a page description language such as PostScript is developed and converted into bitmap data or the like) to be image editing data. Also, the bitmap data is format-converted by a filter to become image editing data, and the continuous tone image is read by the color scanner 50 or directly input to be retouched, cut out, and subjected to image processing to become image editing data. . The keyword, image name, and job name as the data management information are also incorporated in the image editing data. Image editing data is processed such as mount processing (closed area automatic recognition), drawing, object editing, composition, transformation, rotation, shading / attribute change, layout, photo embedding, etc., history image display change, distributed editing , Data saving is executed. After each of the above processes, color separation, spot color plate, and trapping are performed, and then imposition is performed page by page, and plate collection / editing is completed. The "special color plate" is a plate for printing with an ink other than ordinary CMYK, and for example, (1) black and gold red "gold red" in two-color printing, (2) gold, silver, (3) When expressing the color of a woman's lipstick in a photograph in a colorful way, use it as a separate plate for the lipstick, adding it to normal CMYK, and stacking ink on it. or,
“Trapping” specifically means stacking little by little in order to prevent blank areas due to misalignment of printing when they are arranged by removing hair. Server workstation 30
The data that has undergone the plate-making / editing process is processed by the galley printer 20 for galley output and PDL (Page Description).
n Language; eg PostScript)
The output is made, or the film is outputted by the film printer 60.

【0017】このような構成において、本発明の領域抽
出方法を図8のフローチャートに従って説明する。ここ
で、編集用ワークステーション10のCRT303に
は、図9に示すような編集対象画像G1,G2が表示さ
れており、集版作業として、その中の画像G1を切り取
る場合を仮定して以下説明する。また、ポインティング
手段(キーボード304、マウス305、ディジタイザ
306、トラックボール、ジョイスティック等)として
は、マウス305を用いた例で説明する。なお、本発明
に関わる処理は、図5に示した集版モデュール360で
行なわれる。
With such a configuration, the area extraction method of the present invention will be described with reference to the flowchart of FIG. Here, the CRT 303 of the editing workstation 10 displays editing target images G1 and G2 as shown in FIG. 9, and the following description will be made assuming that the image G1 in the editing target images G1 and G2 is cut out as the plate collecting operation. To do. An example using the mouse 305 as the pointing means (keyboard 304, mouse 305, digitizer 306, trackball, joystick, etc.) will be described. The process relating to the present invention is performed by the plate-collecting module 360 shown in FIG.

【0018】オペレータは、先ず、領域抽出に係るパラ
メータの設定を行なう。領域抽出に係るパラメータとし
ては、後述する“観測巾”や“観測解像度(閾値,滑ら
かさ)”があり、これらの設定値を変更したい場合は、
画面上に表示されている機能選択メニューの中の“オプ
ション”メニュー(図示せず)をマウス305で指示す
る。“オプション”メニューの指示により画面上の所定
部に入力用ウインドが開き、図13に示すように、入力
用ウインド6に各パラメータの基準値が表示される。こ
こで、入力用ウインド6に示される“長さ”とは、切り
取りたい画像G1の輪郭部1を指示するための“帯状の
折れ線2の巾W(= 観測巾)”のことで、“しきい値”
とは、切り取りたいライン1のエッジ強度に関する閾値
のことである。また、“なめらか”とは、エッジ点の検
出間隔(後述する観測領域7のシフツ間隔)に関する値
のことで、滑らかさの設定値を大きくすれば、より細い
間隔でエッジ点が検出されるようになっている。オペレ
ータは、これらの観測巾と観測解像度を、切り取りたい
画像の形状や色合い等に応じて任意に設定する。なお、
入力用ウインド6内の“取消”を押すと基準値(或いは
最新の設定値)が再表示され、“OK”を押すとウイン
ドウが閉じ、表示されている設定値が、集版モデュール
360内のCT境界処理部へ渡される。オペレータが観
測巾と観測解像度を設定しなかった場合には、予め設定
されている基準値にて領域抽出処理が行なわれる(ステ
ップS10)。
The operator first sets the parameters relating to the area extraction. Parameters related to region extraction include “observation width” and “observation resolution (threshold, smoothness)”, which will be described later. If you want to change these setting values,
The "option" menu (not shown) in the function selection menu displayed on the screen is designated by the mouse 305. An input window opens in a predetermined portion on the screen according to an instruction from the "option" menu, and reference values of the respective parameters are displayed in the input window 6 as shown in FIG. Here, the "length" shown in the input window 6 is the "width W (= observation width) of the band-shaped polygonal line 2" for designating the contour portion 1 of the image G1 to be cut out. Threshold ”
Is a threshold regarding the edge strength of the line 1 to be cut off. Further, “smoothness” is a value related to the detection interval of the edge points (shift interval of the observation area 7 described later). If the smoothness setting value is increased, the edge points are detected at a narrower interval. It has become. The operator arbitrarily sets the observation width and the observation resolution according to the shape, color shade, etc. of the image to be cut. In addition,
Press "Cancel" in the input window 6 to redisplay the reference value (or the latest set value), press "OK" to close the window, and display the set value in the plate collection module 360. It is passed to the CT boundary processing section. When the operator does not set the observation width and the observation resolution, the area extraction processing is performed using the preset reference value (step S10).

【0019】領域抽出に係るパラメータの設定が終わる
と、オペレータは、マウス305を用いて、画面上に表
示されている機能選択メニューの中の“CT画像境界認
識アイコン”(図示せず)を押す。そして、図9の画像
G1の輪郭部(切り取りたいライン)1を包含するよう
に、マウス305を用いて外枠領域を帯状に指示入力す
る。ここで、切り取りたいライン1の指示は、図9に示
すように、ポイントP1,P2,…,Pnというよう
に、切り取りたいライン1の外側の主要ポイントを指示
する。各ポイントが指示されると、画面上には、同図に
示すように、各ポイントP1,P2,…,Pnを結ぶ外
郭折れ線2aと、その外郭折れ線2aに対して一定巾W
(オペレータが設定した値、或いは基準値)を持った内
郭折れ線2bとから成る帯状の折れ線2(以下、概郭折
れ線と呼ぶ)が表示される。ここで、ポイントの位置を
訂正したい場合やポイントを追加したい場合は、それら
の指示を行ない、切り取りたいライン1の指示が終了し
たら、マウス305をダブルクリックする(ステップS
11)。
After setting the parameters relating to the area extraction, the operator uses the mouse 305 to press the "CT image boundary recognition icon" (not shown) in the function selection menu displayed on the screen. . Then, using the mouse 305, the outer frame region is instructed and input in a band shape so as to include the contour portion (line to be cut) 1 of the image G1 in FIG. Here, the instruction of the line 1 to be cut indicates a main point outside the line 1 to be cut, such as points P1, P2, ..., Pn as shown in FIG. When each point is designated, on the screen, as shown in the figure, an outline polygonal line 2a connecting the points P1, P2, ..., Pn and a constant width W with respect to the outline polygonal line 2a.
A strip-shaped polygonal line 2 (hereinafter referred to as a general polygonal polygonal line) including an inner polygonal polygonal line 2b having (a value set by an operator or a reference value) is displayed. Here, if it is desired to correct the position of the point or to add a point, those instructions are given, and when the instruction of the line 1 to be cut is finished, the mouse 305 is double-clicked (step S
11).

【0020】この操作により抽出領域の自動認識処理が
開始される。集版モデュール360内のCT境界処理部
では、外枠領域内のカラー画像G1の画素について色空
間内での隣接画素との差分(モノクロ画像の場合は、連
続階調画像における隣接画素との濃度の差分)を求め、
最大差分を示す画素を結んで輪郭線とする部分画像を、
原画像中の抽出領域とする。図を用いて詳細に説明する
と、CT境界処理部では、先ず、ステップS10で設定
された観測巾Wに応じて、図10に示すような観測用ク
ロスバッファ3をメモリ上に用意する。そして、観測用
クロスバッファ3に対応する観測領域7(図9参照)の
中心が概郭折れ線2の中心に来るように設定し、観測開
始地点での観測領域7の座標値を算出する(ステップS
12)。そして、観測領域7内のピクセル値を観測用バ
ッファ3にセットする(ステップS13)。その際、概
郭折れ線2の傾斜角度がX軸に対して45度より大きい
か否かを判定し、概郭折れ線2の傾きが45度未満の場
合は、図11(A)に示すように、観測用バッファ3の
Y軸方向のバッファ内で、隣接し合う画素値の隔たりが
最大となる座標値(図中のEa)をエッジ点として検出
する。また、概郭折れ線2の傾きが45度以上の場合
は、同図(B)に示すように、観測用バッファ3のX軸
方向のバッファ内で、隣接し合う画素値の隔たりが最大
となる座標値をエッジ点(図中のEb)として検出す
る。
By this operation, the automatic recognition processing of the extraction area is started. In the CT boundary processing unit in the plate-collecting module 360, the difference between the pixel of the color image G1 in the outer frame area and the adjacent pixel in the color space (in the case of a monochrome image, the density of the pixel with the adjacent pixel in the continuous tone image). Difference),
A partial image that connects the pixels showing the maximum difference to form the outline,
The extracted area in the original image. Explaining in detail with reference to the drawing, the CT boundary processing unit first prepares an observation cross buffer 3 as shown in FIG. 10 on the memory according to the observation width W set in step S10. Then, the center of the observation region 7 (see FIG. 9) corresponding to the observation cross buffer 3 is set so as to come to the center of the outline polygonal line 2, and the coordinate value of the observation region 7 at the observation start point is calculated (step S
12). Then, the pixel value in the observation area 7 is set in the observation buffer 3 (step S13). At that time, it is determined whether or not the inclination angle of the outline polygonal line 2 is larger than 45 degrees with respect to the X-axis, and when the inclination of the outline polygonal line 2 is less than 45 degrees, as shown in FIG. In the buffer of the observation buffer 3 in the Y-axis direction, the coordinate value (Ea in the figure) that maximizes the distance between adjacent pixel values is detected as an edge point. Further, when the inclination of the outline polygonal line 2 is 45 degrees or more, the distance between adjacent pixel values becomes maximum in the buffer of the observation buffer 3 in the X-axis direction as shown in FIG. The coordinate value is detected as an edge point (Eb in the figure).

【0021】ここで、隣接し合う画素値の距離をdとす
ると、隣接距離dは、カラー画像の場合は下記の数1で
算出され、連続階調画像の場合は数2で算出される。但
し、背景(例えば、図9の画像G2)との差が不明瞭
で、最大差分を示す画素が検出できない場合、すなわち
算出した最大差分が“しきい値”に満たない場合には、
図11(C)に示すように、隣接し合う画素の中心(図
中のEc)をエッジ点とする。すなわち、局所領域内に
エッジ候補点が存在しない場合は、オペレータが指示入
力した概郭折れ線の中心をエッジ点とすることによって
エッジが検出できなくても領域の境界を設定できる。こ
れにより、2次元フィルタ等の演算処理が不要になる
(ステップS14)。
Here, when the distance between adjacent pixel values is d, the adjacent distance d is calculated by the following expression 1 in the case of a color image and by the following expression 2 in the case of a continuous tone image. However, when the difference from the background (for example, the image G2 in FIG. 9) is unclear and the pixel indicating the maximum difference cannot be detected, that is, when the calculated maximum difference is less than the “threshold”,
As shown in FIG. 11C, the centers of adjacent pixels (Ec in the figure) are set as edge points. That is, when there is no edge candidate point in the local area, the boundary of the area can be set by setting the center of the outline polygonal line designated and input by the operator as the edge point even if the edge cannot be detected. This eliminates the need for arithmetic processing such as a two-dimensional filter (step S14).

【0022】[0022]

【数1】 但し、r1,g1,b1、r2,g3,b3は、隣接し
合う画素のそれぞれの赤(R),緑(G),青(B)成
分の値
[Equation 1] However, r1, g1, b1, r2, g3, and b3 are the values of the red (R), green (G), and blue (B) components of adjacent pixels.

【数2】 但し、t1,t2は、隣接し合う画素のそれぞれの濃度
[Equation 2] However, t1 and t2 are the density values of adjacent pixels.

【0023】観測領域7におけるエッジ点を検出した
ら、観測終了地点までのエッジ点検出処理が終了したか
否かを判断し(ステップS15)、終了していないので
あれば、観測領域7の座標値を次の観測地点にシフトし
てステップS12に戻り(ステップS16)、エッジ点
検出処理を繰り返す。このように、概郭折れ線2の中心
線に沿って観測領域7を走行させながら観測用クロスバ
ッファ3に画素値をセットして、最大差分を示す画素を
エッジ点としてを順次検出する。なお、そのときの走行
間隔は、ステップS1で設定した“滑らかさ”の値に基
づいて決定される。ステップS15において、観測開始
地点から終了地点までのエッジ点検出処理が終了したの
であれば、集版モデュール360内のCT境界処理部で
は、図12に示すように、得られたエッジ点(e1,e
2,……)を最小二乗法等の公知の技術により近似曲線
で連結し、連結されたエッジライン4を輪郭線とする部
分画像を抽出領域5とし、領域抽出処理を終了する。
When the edge points in the observation area 7 are detected, it is judged whether or not the edge point detection processing up to the observation end point is completed (step S15). If not, the coordinate values of the observation area 7 are determined. To the next observation point, the process returns to step S12 (step S16), and the edge point detection process is repeated. In this way, the pixel value is set in the observation cross buffer 3 while traveling in the observation region 7 along the center line of the outline polygonal line 2, and the pixel having the maximum difference is sequentially detected as an edge point. The traveling interval at that time is determined based on the value of "smoothness" set in step S1. In step S15, if the edge point detection processing from the observation start point to the end point has been completed, the CT boundary processing unit in the stencil module 360, as shown in FIG. 12, obtains the obtained edge point (e1, e
, ...) are connected by an approximate curve by a known technique such as the least square method, the partial image having the connected edge line 4 as the contour line is set as the extraction region 5, and the region extraction processing is completed.

【0024】なお、上述した実施例においては、ワーク
ステーションを構成要素とする画像処理システムにおけ
る領域抽出方法を例として説明したが、本発明方法は、
当然のことながら、パーソナルコンピュータやワードプ
ロセッサー等にも適用可能である。
In the above-described embodiment, the area extraction method in the image processing system having the workstation as a constituent element has been described as an example.
As a matter of course, it can be applied to a personal computer, a word processor, or the like.

【0025】[0025]

【発明の効果】以上のように本発明の領域抽出方法によ
れば、不特定のカラー画像(又は連続階調画像)におけ
る任意の領域を大まかに指定するだけで抽出できるの
で、オペレータの入力負担を大幅に軽減することができ
る。また、抽出領域の輪郭線を検出するための演算処理
が極めて簡便であるので、高速度で領域抽出処理を行な
うことができる。
As described above, according to the area extraction method of the present invention, an arbitrary area in an unspecified color image (or continuous tone image) can be extracted only by roughly specifying it. Can be significantly reduced. Moreover, since the calculation process for detecting the contour line of the extraction region is extremely simple, the region extraction process can be performed at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の前提となる画像処理システムのハード
ウェア構成の一例を示すシステム構成図である。
FIG. 1 is a system configuration diagram showing an example of a hardware configuration of an image processing system which is a premise of the present invention.

【図2】本発明の前提となる画像処理システムのハード
ウェア構成の別の例を示すシステム構成図である。
FIG. 2 is a system configuration diagram showing another example of the hardware configuration of the image processing system on which the present invention is based.

【図3】編集/サーバワークステーションのハードウェ
ア構成の一例を示すブロック図である
FIG. 3 is a block diagram showing an example of a hardware configuration of an editing / server workstation.

【図4】図1のシステム全体の構成例を示すブロック図
である。
FIG. 4 is a block diagram showing a configuration example of the entire system of FIG.

【図5】サーバ用ワークステーションの詳細なソフトウ
ェア構成の一例を示すブロック図である。
FIG. 5 is a block diagram showing an example of a detailed software configuration of a server workstation.

【図6】編集作業全体の流れを示すフローチャートであ
る。
FIG. 6 is a flowchart showing the flow of the entire editing work.

【図7】入力対象データとソフトウェア工程との関係を
示す図である。
FIG. 7 is a diagram showing a relationship between input target data and a software process.

【図8】本発明の領域抽出方法の概略を示すフローチャ
ートである。
FIG. 8 is a flowchart showing an outline of a region extraction method of the present invention.

【図9】本発明方法を説明するための第1の図である。FIG. 9 is a first diagram for explaining the method of the present invention.

【図10】本発明方法を説明するための第2の図であ
る。
FIG. 10 is a second diagram for explaining the method of the present invention.

【図11】本発明方法を説明するための第3の図であ
る。
FIG. 11 is a third diagram for explaining the method of the present invention.

【図12】本発明方法を説明するための第4の図であ
る。
FIG. 12 is a fourth diagram for explaining the method of the present invention.

【図13】本発明方法を説明するための第5の図であ
る。
FIG. 13 is a fifth diagram for explaining the method of the present invention.

【符号の説明】[Explanation of symbols]

1 切り取りたいライン 2 概郭折れ線 2a 外郭折れ線 2b 内郭折れ線 3 観測用クロスバッファ 4 抽出領域の輪郭線 5 抽出領域 6 入力ウインドウ 7 観測領域 10,30,30A ワークステーション 302 ハードディスク 303 CRT 304 キーボード 305 マウス 306 ディジタイザ 307 フロッピーディスク 311 データディスク 360 集版モジュール360 1 line to be cut 2 outline polygonal line 2a outer polygonal line 2b inner polygonal line 3 observation cross-buffer 4 outline of extraction area 5 extraction area 6 input window 7 observation area 10, 30, 30A workstation 302 hard disk 303 CRT 304 keyboard 305 mouse 306 Digitizer 307 Floppy disk 311 Data disk 360 Plate collection module 360

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9061−5H G06F 15/70 335 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location 9061-5H G06F 15/70 335 A

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像の画像データを記憶する記憶
手段と、前記カラー画像を表示する表示手段と、前記表
示されたカラー画像の中の任意の座標を指示、入力する
ポインティング手段とを備えた画像処理装置の領域抽出
方法において、前記記憶手段に記憶された原画像を前記
表示手段に表示し、表示中の輪郭部を包含するように前
記ポインティング手段によって外枠領域を帯状に指示入
力し、前記外枠領域内の原画像の画素について色空間内
での隣接画素との差分を求め、最大差分を示す画素を結
んで輪郭線とする部分画像を前記原画像中の抽出領域と
するようにしたことを特徴とする領域抽出方法。
1. A storage means for storing image data of a color image, a display means for displaying the color image, and a pointing means for indicating and inputting arbitrary coordinates in the displayed color image. In the area extraction method of the image processing device, the original image stored in the storage means is displayed on the display means, and the outer frame area is instructed and input by the pointing means so as to include the contour portion being displayed, The difference between the pixel of the original image in the outer frame area and the adjacent pixel in the color space is obtained, and the partial image that connects the pixels showing the maximum difference to form the contour line is set as the extraction area in the original image. A region extraction method characterized by the above.
【請求項2】 連続階調画像の画像データを記憶する記
憶手段と、前記連続階調画像を表示する表示手段と、前
記表示された連続階調画像の中の任意の座標を指示、入
力するポインティング手段とを備えた画像処理装置の領
域抽出方法において、前記記憶手段に記憶された原画像
を前記表示手段に表示し、表示中の輪郭部を包含するよ
うに前記ポインティング手段によって外枠領域を帯状に
指示入力し、前記外枠領域内の原画像の画素について隣
接画素との濃度の差分を求め、最大差分を示す画素を結
んで輪郭線とする部分画像を前記原画像中の抽出領域と
するようにしたことを特徴とする領域抽出方法。
2. Storage means for storing image data of a continuous tone image, display means for displaying the continuous tone image, and designation and input of arbitrary coordinates in the displayed continuous tone image. In an area extraction method for an image processing apparatus including pointing means, the original image stored in the storage means is displayed on the display means, and the outer frame area is defined by the pointing means so as to include the contour portion being displayed. A band-shaped instruction input is performed to obtain a difference in density between adjacent pixels with respect to the pixels of the original image in the outer frame area, and a partial image that connects the pixels showing the maximum difference to form a contour line is defined as an extraction area in the original image. An area extraction method characterized in that
【請求項3】 前記外枠領域を十字パターン状に走査し
て前記差分を計算するようにした請求項1又は請求項2
に記載の領域抽出方法。
3. The method according to claim 1, wherein the outer frame region is scanned in a cross pattern to calculate the difference.
The area extraction method described in.
【請求項4】 前記最大差分を示す画素が検出できない
場合には、前記外枠領域の中心線を輪郭線とするように
した請求項3に記載の領域抽出方法。
4. The area extraction method according to claim 3, wherein when the pixel showing the maximum difference cannot be detected, the center line of the outer frame area is set as the contour line.
JP6236025A 1994-09-06 1994-09-06 Area extracting method Pending JPH0877336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6236025A JPH0877336A (en) 1994-09-06 1994-09-06 Area extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6236025A JPH0877336A (en) 1994-09-06 1994-09-06 Area extracting method

Publications (1)

Publication Number Publication Date
JPH0877336A true JPH0877336A (en) 1996-03-22

Family

ID=16994656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6236025A Pending JPH0877336A (en) 1994-09-06 1994-09-06 Area extracting method

Country Status (1)

Country Link
JP (1) JPH0877336A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6964016B2 (en) 1997-05-19 2005-11-08 Fuji Photo Film Co., Ltd. Method of paginating printed material
JP2014102712A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2014102711A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2015090685A (en) * 2013-11-07 2015-05-11 株式会社リコー Information processing device, information processing method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6964016B2 (en) 1997-05-19 2005-11-08 Fuji Photo Film Co., Ltd. Method of paginating printed material
JP2014102712A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2014102711A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2015090685A (en) * 2013-11-07 2015-05-11 株式会社リコー Information processing device, information processing method and program
US9122980B2 (en) 2013-11-07 2015-09-01 Ricoh Company, Limited Information processing device and method extracting a contour from image of combined pixel data object and vector data object

Similar Documents

Publication Publication Date Title
JP3574170B2 (en) Distributed image processing device
US20080158614A1 (en) Image processing apparatus and method for printing and plate making, and recording medium having image processing program recorded therein for printing and plate making
JP2958584B2 (en) Noise removal method
JPH05250472A (en) Method and apparatus for preparing a fine mask of boundaries on an image of an area of interest to be separated from the rest of the image
US6178264B1 (en) Image cutout method and apparatus
JP4920814B2 (en) Image processing method, apparatus, and recording medium
US20110187721A1 (en) Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
JPH0877336A (en) Area extracting method
US7206463B2 (en) Image processing method, device and system
US20090290797A1 (en) Image processing for storing objects separated from an image in a storage device
JP2000246862A (en) Image inspecting apparatus and sheet for result of inspection
JPH0457570A (en) Picture processor
JPH08186724A (en) Color picture printing system
US6029234A (en) Output synchronization method and apparatus in a memory system utilizing small buffer size
JP3468477B2 (en) How to disconnect binary image data
JP2004279445A (en) Print system, attribute information generating device, rasterizing device, plate inspection apparatus, plate inspection method of print data, and program
JPH08110871A (en) Method and device for reading memory
EP0418868B1 (en) Image processing system
JP2804299B2 (en) Cutout mask making system
JP3449836B2 (en) Image clipping method and apparatus
EP1631058A1 (en) System, method and computer program for proof correction and inspection
JP5898438B2 (en) Image processing apparatus, image processing method, and program
JPH11232469A (en) Image data processing device and recording medium storing image data processing program
JP2670106B2 (en) Cutout mask making system
JPH09167077A (en) Method and device for output synchronization