[go: up one dir, main page]

JP2000194851A - Character area extraction method and apparatus, and recording medium recording this method - Google Patents

Character area extraction method and apparatus, and recording medium recording this method

Info

Publication number
JP2000194851A
JP2000194851A JP10366542A JP36654298A JP2000194851A JP 2000194851 A JP2000194851 A JP 2000194851A JP 10366542 A JP10366542 A JP 10366542A JP 36654298 A JP36654298 A JP 36654298A JP 2000194851 A JP2000194851 A JP 2000194851A
Authority
JP
Japan
Prior art keywords
image
character
area
pixel
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10366542A
Other languages
Japanese (ja)
Other versions
JP3467195B2 (en
Inventor
Hidekatsu Kuwano
秀豪 桑野
Hiroyuki Arai
啓之 新井
Masaharu Kurakake
正治 倉掛
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP36654298A priority Critical patent/JP3467195B2/en
Publication of JP2000194851A publication Critical patent/JP2000194851A/en
Application granted granted Critical
Publication of JP3467195B2 publication Critical patent/JP3467195B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

(57)【要約】 【課題】 テロップ文字等を含む画像中から文字領域を
抽出する際、輪郭形状を滑らかにし、かつ抽出失敗を抑
制する文字領域抽出方法及び装置を提供する。 【解決手段】 カラー画像中で輝度値が類似する隣接画
素同士を、輝度類似領域形成部2で連結領域とする。こ
こでは水平、垂直方向別のライン単位で二値化後、エッ
ジ画素を除去して文字部を背景と分離抽出し、各方向別
の二値化結果を重ね合わせ、比較し統合して連結領域を
形成する。文字部は、水平、垂直方向別の二値化結果が
共通した位置や形状となるため、文字領域の抽出失敗が
抑制される。この連結領域画素中で彩度値が類似する隣
接画素同士を、彩度値類似領域形成部3で連結領域とし
て形成する。この輝度値、彩度値共に類似する連結領域
画素中で色相値が類似し、画像空間内で隣接する複数の
画素同士を、色相値類似領域形成部4で連結領域として
形成する。この連結領域を文字領域画像とする。
(57) [Problem] To provide a character area extraction method and apparatus for extracting a character area from an image including a telop character or the like, smoothing a contour shape and suppressing extraction failure. SOLUTION: Adjacent pixels having similar luminance values in a color image are defined as connected regions by a luminance similar region forming unit 2. Here, after binarization for each line in the horizontal and vertical directions, the edge pixels are removed, the character part is separated and extracted from the background, and the binarization results for each direction are superimposed, compared, integrated and integrated to form a connected area. To form Since the character portion has the same position and shape for the binarization results in the horizontal and vertical directions, extraction failure of the character region is suppressed. Neighboring pixels having similar saturation values in the connected region pixels are formed as connected regions by the saturation value similar region forming unit 3. The hue value similarity area forming unit 4 forms a plurality of pixels having similar hue values in the connected area pixels having similar luminance values and saturation values, and adjacent to each other in the image space. This connected area is defined as a character area image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、テレビ放
送の映像等のカラー動画像を構成する複数のフレームに
おいて、テレビ放送映像中のテロップ文字等の文字が表
示されているフレーム画像の中から文字部分を画素連結
領域として抽出する文字領域抽出技術に関するものであ
り、詳しくは、文字が含まれる映像から文字領域を二値
画像として抽出する際、極大値法・極小値法による画像
の二値化技術を用いた場合において、文字を構成する画
素の欠落が少ないという利点を有する文字領域抽出技術
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, a frame image in which characters such as telop characters in a television broadcast image are displayed in a plurality of frames constituting a color moving image such as a television broadcast image. The present invention relates to a character region extraction technique for extracting a character portion as a pixel connection region, and more specifically, when extracting a character region as a binary image from a video including characters, the binary value of the image is determined by a maximum value method / minimum value method. TECHNICAL FIELD The present invention relates to a character area extraction technique which has an advantage that the number of pixels constituting a character is small when the conversion technique is used.

【0002】[0002]

【従来の技術】カラー動画像を構成する複数のフレーム
の中の文字が表示されているフレーム画像、あるいは文
字が表示されている静止カラー画像から文字部分を画素
連結領域として抽出する文字領域抽出技術に関しては、
従来から多くの研究が行われている。図13に示すよう
に、入力される文字表示カラー画像がNTSC信号形式
の映像中の画像である場合、各水平ラインに沿って各画
素の色が滲み、文字部においても幅の細い縦ストローク
成分の色が劣化することがある。このような同一文字内
に色の劣化があっても、安定的に文字領域を抽出する方
法が必要とされている。
2. Description of the Related Art A character region extraction technique for extracting a character portion as a pixel connection region from a frame image in which characters in a plurality of frames constituting a color moving image are displayed or a still color image in which characters are displayed. about,
Many researches have been performed conventionally. As shown in FIG. 13, when the input character display color image is an image in an NTSC signal format image, the color of each pixel is blurred along each horizontal line, and a narrow vertical stroke component is also present in the character portion. May deteriorate in color. There is a need for a method for stably extracting a character area even when color degradation occurs in the same character.

【0003】この問題に対し、従来、ライン上の輝度分
布の特徴に着目した文字領域抽出法が提案されている
(参考文献[1]:桑野、新井、倉掛、杉村:“ライン
単位の二値化による映像中文字領域抽出方法”、信学秋
大、D−12−42、pp.264、(1996−0
9))。
[0003] To solve this problem, a character area extraction method focusing on the characteristics of the luminance distribution on a line has been proposed (reference document [1]: Kuwano, Arai, Kurakake, Sugimura: "Binary in line units"). Extraction Method of Character Areas in Video by Image Processing, Shingaku Akidai, D-12-42, pp. 264, (1996-0
9)).

【0004】この方法は、水平ライン上の輝度分布には
色の滲みが発生してもテロップ文字と背景の間に高いコ
ントラストがあるという特徴に着目したものであり、各
水平ライン内で二値化処理を行う。二値化の方法は、ラ
イン内で局所的に輝度値が周辺部と比較して予め設定し
た値だけ高い範囲、および予め設定した値だけ低い範囲
を文字領域として抽出する。このライン内の二値化法を
各水平ライン毎、および各垂直ライン毎に行い、それぞ
れの方向での二値化結果を比較し、両者ともに位置、大
きさ、形状が共通して存在する領域を最終的な文字領域
抽出結果とするものである。
This method focuses on the feature that the luminance distribution on a horizontal line has a high contrast between the telop character and the background even if color bleeding occurs. Perform the conversion process. According to the binarization method, a range in which the luminance value is locally higher in the line by a preset value and a range in which the luminance value is lower by a preset value as compared with the peripheral portion is extracted as a character area. The binarization method in this line is performed for each horizontal line and each vertical line, and the binarization results in each direction are compared. Is the final character area extraction result.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、前記の
従来手法は、図14に示すように、各ライン内で抽出す
る文字範囲を、ライン上の輝度分布中の極値をとる画素
から予め決めた値だけ輝度値が変化する範囲としている
ため、色の劣化が端部にだけ生じる横ストローク成分に
おいて、劣化部と非劣化部の輝度差が予め決めた値より
も大きい場合、色劣化部を文字範囲として含んで抽出す
ることができない。また、色の劣化の程度も様々存在す
るため、予め決めた輝度差の閾値の値によっては、色劣
化部を含めて抽出できることもある。そのため、図15
に示すように、横ストローク成分の端部付近では、最終
的な文字領域抽出結果において、領域の輪郭形状がギザ
ギザ状になったり、ストロークが途切れるという問題が
ある。
However, in the above-described conventional method, as shown in FIG. 14, the character range to be extracted in each line is determined in advance from the pixel having the extreme value in the luminance distribution on the line. In the horizontal stroke component where color deterioration occurs only at the end, if the luminance difference between the deteriorated part and the non-deteriorated part is larger than a predetermined value, the color deteriorated part is set to the character range. Cannot be included and extracted as a range. In addition, since there are various degrees of color deterioration, depending on the threshold value of the predetermined luminance difference, it may be possible to extract the image including the color deterioration part. Therefore, FIG.
As shown in (2), near the end of the horizontal stroke component, there is a problem that the contour of the region becomes jagged or the stroke is interrupted in the final character region extraction result.

【0006】また、水平ラインの二値化処理は、文字と
背景部の水平方向の境界は検出可能だが、垂直方向の輝
度分布は一切考慮していないため、図16に示すよう
に、垂直方向の文字と背景の境界は検出していないため
文字部の垂直方向に背景部の領域画素が連結したまま抽
出されることがある。同様に垂直ラインの二値化処理
は、垂直方向の文字と背景の境界の検出は保証される
が、水平方向の文字と背景の境界の検出は行っていない
ため、同じく図16に示すように、文字部の水平方向に
背景部の領域画素が連結したまま抽出されることがあ
る。このため水平ライン毎の二値化結果と垂直ライン毎
の二値化結果を比較しても、文字部の領域は必ずしも、
位置、大きさ、形状が共通するとは限らず、互いに相殺
しあい、文字領域の抽出に失敗するという問題もある。
In the binarization processing of the horizontal line, the horizontal boundary between the character and the background can be detected, but the luminance distribution in the vertical direction is not considered at all. Therefore, as shown in FIG. Since the boundary between the character and the background is not detected, the region pixel of the background may be extracted while being connected in the vertical direction of the character. Similarly, in the binarization processing of the vertical line, the detection of the boundary between the character and the background in the vertical direction is guaranteed, but the detection of the boundary between the character and the background in the horizontal direction is not performed. In some cases, extraction is performed while the area pixels of the background part are connected in the horizontal direction of the character part. Therefore, even if the binarization result for each horizontal line is compared with the binarization result for each vertical line, the area of the character portion is not necessarily
The positions, sizes, and shapes are not necessarily the same, there is also a problem that they cancel each other out and fail to extract the character area.

【0007】そこで、本発明は、同一文字内で明るさや
色が劣化する場合でも、文字輪郭部分の形状を滑らかに
し、且つ、文字領域の抽出失敗を抑制する文字領域抽出
方法および装置を提供することを課題とする。
Accordingly, the present invention provides a character region extracting method and apparatus which smoothes the shape of a character outline portion and suppresses a failure in extracting a character region even when brightness and color deteriorate in the same character. That is the task.

【0008】[0008]

【課題を解決するための手段】前記の課題を解決するた
めに、本発明による文字領域抽出方法は、文字が表示さ
れているカラー画像を入力して記憶する第1の段階と、
該第1の段階により入力されたカラー画像の中で輝度値
が類似し、画像空間内で隣接する複数の画素同士を第1
の連結領域として形成する第2の段階と、該第2の段階
により得られた輝度値が類似する第1の連結領域画像に
対し、各領域内で、彩度値が類似し、画像空間内で隣接
する複数の画素同士を第2の連結領域として形成する第
3の段階と、該第3の段階により得られた輝度値、彩度
値共に類似する第2の連結領域画像に対し、各領域内
で、色相値が類似し、画素空間内で隣接する複数の画素
を第3の連結領域として形成する第4の段階と、該第4
の段階により得られた第3の連結領域画素だけを画像中
に残し、文字領域画像として蓄積する第5の段階と、を
有することを特徴とする。
In order to solve the above-mentioned problems, a character area extracting method according to the present invention comprises a first step of inputting and storing a color image in which characters are displayed;
A plurality of pixels having similar luminance values in the color image input in the first step and adjacent in the image space
And a first connected area image having similar luminance values obtained in the second step and having similar saturation values in each area, and In a third step of forming a plurality of pixels adjacent to each other as a second connected area, and a second connected area image similar in both luminance value and saturation value obtained in the third step, A fourth step of forming a plurality of pixels having similar hue values in the region and adjacent in the pixel space as a third connected region;
And a fifth step in which only the third connected area pixel obtained in the step is left in the image and stored as a character area image.

【0009】あるいは、上記の文字領域抽出方法におい
て、文字が表示されているカラー画像を入力して記憶す
る第1の段階を、テレビ放送映像などのカラー動画像の
中で、同一のテロップ文字等の文字が表示されている時
間的に連続する複数のカラー画像を入力して記憶する
か、あるいは、文字が表示されている一枚の静止カラー
画像を入力して記憶する第1−1の段階と、該同一の文
字が表示されている複数のカラー画像が入力された場
合、該複数のカラー画像間で位置の対応する画素同士の
画素値の平均値を各画素の値として持つ平均値カラー画
像を入力されたカラー画像として作成し出力する第1−
2の段階とを、用いて実現することを特徴とする。
Alternatively, in the above character area extracting method, the first step of inputting and storing a color image in which characters are displayed is performed by using the same telop character or the like in a color moving image such as a television broadcast image. A stage 1-1 in which a plurality of temporally continuous color images in which characters are displayed are input and stored, or a single still color image in which characters are displayed is input and stored And when a plurality of color images in which the same character is displayed are input, an average color having an average value of pixel values of corresponding pixels at corresponding positions among the plurality of color images as a value of each pixel An image is created and output as an input color image.
It is characterized by realizing using the two steps.

【0010】あるいは、上記の文字領域抽出方法におい
て、カラー画像中の輝度値が類似し、画像空間内で隣接
する複数の画素同士を第1の連結領域として形成する第
2の段階を、該カラー画像中の各水平ライン内で輝度の
二値化を行い、結果を二値画像として得る第2−1の段
階と、該カラー画像中の各垂直ライン内で輝度の二値化
を行い、結果を二値画像として得る第2−2の段階と、
該第2−1の段階と該第2−2の段階により得られた2
枚の二値画像中の連結成分同士を比較し、面積、形状、
位置の違いが予め設定した許容範囲内である連結成分同
士を文字領域と判断し、該二値画像に残し、面積、形
状、位置の違いが予め設定した許容範囲を越えている連
結成分同士は背景ノイズ部と判断し該二値画像から除去
する第2−3の段階とを、用いて実現することを特徴と
する。
Alternatively, in the above-described character area extracting method, the second step of forming a plurality of pixels having similar luminance values in a color image and adjacent to each other in an image space as a first connected area is defined as Performing a binary conversion of luminance within each horizontal line in the image to obtain a binary image as a result, and performing binary conversion of luminance within each of the vertical lines in the color image. 2-2 as a binary image,
2 obtained by the (2-1) th step and the (2-2) th step
The connected components in two binary images are compared, and the area, shape,
The connected components whose differences in position are within a preset allowable range are determined as character regions, and are left in the binary image, and the connected components whose differences in area, shape, and position exceed the preset allowable range are not included. The second and third steps of determining the background noise portion and removing the binary noise image from the binary image are realized using the method.

【0011】あるいは、上記の文字領域抽出方法におい
て、カラー画像中の各水平ライン内で輝度の二値化を行
い、結果を二値画像として得る第2−1の段階を、該カ
ラー画像中のある水平ライン内の輝度値分布を調べ、該
水平ライン内で局所的に輝度値が周辺部と比較して予め
設定した値だけ高い範囲を連結画素領域として抽出する
第2−1−1の段階と、該第2−1−1の段階により得
られた連結画素領域の左右の両端画素付近に存在する予
め決めた方法で選択した複数の画素の中から水平方向の
輝度勾配の絶対値が最大となる画素を左右各々で求め、
該画素を両端とする範囲を高輝度文字領域として抽出す
る第2−1−2の段階と、該カラー画像中のある水平ラ
イン内の輝度値分布を調べ、該水平ライン内で局所的に
輝度値が周辺部と比較して予め設定した値だけ低い範囲
を連結画素領域として抽出する第2−1−3の段階と、
該第2−1−3の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から水平方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を低輝度文字領域として抽出する第2−1−4の段階
と、該第2−1−2の段階で抽出された各水平ライン上
の高輝度文字領域を集めて、画像全体としての高輝度文
字領域画像を作成し、また、第2−1−4の段階で抽出
された各水平ライン上の低輝度文字領域を集めて、画像
全体としての低高輝度文字領域画像を作成する第2−1
−5の段階と、該カラー画像中のエッジ部の画素を検出
する第2−1−6の段階と、該第2−1−5の段階で得
られた高輝度文字領域画像、および低輝度文字領域画像
中の文字連結成分を構成する複数の画素から該第2−1
−6の段階で得られたカラー画像中の垂直方向のエッジ
部に相当する画素を除去する第2−1−7の段階とを、
用いて実現することを特徴とする。
Alternatively, in the above-described character region extracting method, a two-first step of performing binarization of luminance in each horizontal line in a color image and obtaining a result as a binary image is performed. Step 2-1-1: examining a luminance value distribution in a certain horizontal line, and extracting a range in which the luminance value is locally higher in the horizontal line by a predetermined value as compared with a peripheral portion as a connected pixel area. And the absolute value of the luminance gradient in the horizontal direction is the largest among a plurality of pixels selected by a predetermined method near the left and right end pixels of the connected pixel area obtained in the step 2-1-1. Pixel on each of the left and right
Step 2-1-1 of extracting a range having both ends of the pixel as a high-luminance character area, and examining a luminance value distribution in a certain horizontal line in the color image, and locally examining luminance in the horizontal line. A step 2-1-3 of extracting a range in which the value is lower by a preset value as compared with the peripheral part as a connected pixel area,
The absolute value of the luminance gradient in the horizontal direction is maximized from among a plurality of pixels selected by a predetermined method existing near both right and left pixels of the connected pixel area obtained in the step 2-1-3. A pixel is obtained on each of the left and right sides, and a range having both ends of the pixel is extracted as a low-luminance character area, a stage 2-1-4, and each horizontal line extracted in the stage 2-1-2 is extracted. The high brightness character areas are collected to create a high brightness character area image as the entire image, and the low brightness character areas on each horizontal line extracted in the stage 2-1-4 are collected to obtain the entire image. 2-1 for creating a low-brightness character area image as an image
-5, a 2-1-6th step of detecting an edge pixel in the color image, a high-luminance character area image obtained in the 2-1-5th step, and a low-luminance From the pixels constituting the character connected component in the character area image,
2-1-7 step of removing a pixel corresponding to a vertical edge portion in the color image obtained in step -6;
It is characterized by realizing by using.

【0012】あるいは、上記の文字領域抽出方法におい
て、カラー画像中の各垂直ライン内で輝度の二値化を行
い、結果を二値画像として得る第2−2の段階を、該カ
ラー画像中のある垂直ライン内の輝度値分布を調べ、該
垂直ライン内で局所的に輝度値が周辺部と比較して予め
設定した値だけ高い範囲を連結画素領域として抽出する
第2−2−1の段階と、該第2−2−1の段階により得
られた連結画素領域の左右の両端画素付近に存在する予
め決めた方法で選択した複数の画素の中から垂直方向の
輝度勾配の絶対値が最大となる画素を左右各々で求め、
該画素を両端とする範囲を高輝度文字領域として抽出す
る第2−2−2の段階と、該カラー画像中のある垂直ラ
イン内の輝度値分布を調べ、該垂直ライン内で局所的に
輝度値が周辺部と比較して予め設定した値だけ低い範囲
を連結画素領域として抽出する第2−2−3の段階と、
該第2−2−3の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から垂直方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を低輝度文字領域として抽出する第2−2−4の段階
と、第2−2−2の段階で抽出された各垂直ライン上の
高輝度文字領域を集めて、画像全体としての高輝度文字
領域画像を作成し、また、第2−2−4の段階で抽出さ
れた各垂直ライン上の低輝度文字領域を集めて、画像全
体としての低高輝度文字領域画像を作成する第2−2−
5の段階と、該カラー画像中のエッジ部の画素を検出す
る第2−2−6の段階と、該第2−2−6の段階で得ら
れた高輝度文字領域画像、および低輝度文字領域画像中
の文字連結成分を構成する複数の画素から該第2−2−
6の段階で得られたカラー画像中の垂直方向のエッジ部
に相当する画素を除去する第2−2−7の段階とを、用
いて実現することを特徴とする。
Alternatively, in the above-described character region extraction method, the step 2-2 in which the luminance is binarized in each vertical line in the color image and the result is obtained as a binary image, A step of examining a luminance value distribution in a certain vertical line, and extracting a range in which the luminance value is locally higher than a peripheral part by a predetermined value in the vertical line as a connected pixel area, as a 2-2-1 step; And the absolute value of the luminance gradient in the vertical direction is the largest among a plurality of pixels selected by a predetermined method near the left and right end pixels of the connected pixel region obtained in the step 2-2-1. Pixel on each of the left and right
Step 2-2-2 of extracting a range having both ends of the pixel as a high-brightness character area, and examining a luminance value distribution in a certain vertical line in the color image, and locally examining luminance in the vertical line. A step 2-2-3 of extracting a range in which the value is lower by a preset value as compared with the peripheral part as a connected pixel area,
The absolute value of the luminance gradient in the vertical direction is maximized from among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel region obtained in the step 2-2-3. A pixel is obtained on each of the right and left sides, and a range having both ends of the pixel is extracted as a low-luminance character area, and a high level on each vertical line extracted in the second-2-2 level is extracted. The luminance character areas are collected to create a high luminance character area image as the entire image, and the low luminance character areas on each vertical line extracted in the stage 2-2-4 are collected to form the entire image. 2-2 for creating a low-brightness character area image
Stage 5, a stage 2-2-6 for detecting a pixel at an edge portion in the color image, a high-luminance character area image and a low-luminance character obtained in the stage 2-2-6. From the plurality of pixels constituting the character connected component in the area image,
And a step 2-2-7 of removing a pixel corresponding to a vertical edge portion in the color image obtained in step 6 is realized.

【0013】あるいは、上記の文字領域抽出方法におい
て、第2−1の段階と第2−2の段階により得られた2
枚の二値画像中の連結成分同士を比較し、面積、形状、
位置の違いが予め設定した許容範囲内である連結成分同
士を文字領域と判断し、該二値画像に残し、面積、形
状、位置の違いが予め設定した許容範囲を越えている連
結成分同士は背景ノイズ部と判断し該二値画像から除去
する第2−3の段階を、該得られた2枚の二値画像を位
置を揃えて重ね合わせ、対応する2つの画素が両方とも
連結成分に属する場合、該対応画素を仮文字画素として
記憶し、対応する2つの画素のうちどちらか一方でも連
結成分に属さない場合、該対応画素を非仮文字領域とし
て記憶し、該仮文字画素から構成される連結成分を含む
画像をAND画像と定義して作成する第2−3−1の段
階と、該得られた2枚の二値画像を位置を揃えて重ね合
わせ、対応する2つの画素のうちどちらか一方でも連結
成分に属する場合、該対応画素を仮文字領域として記憶
し、対応する2つの画素が両方とも連結成分に属さない
場合、該対応画素を非仮文字領域として記憶し、仮文字
画素から構成される連結成分を含む画像をOR画像と定
義して作成する第2−3−2の段階と、該第2−3−1
の段階により得られたAND画像と第2−3−2の段階
により得られたOR画像を位置を揃えて重ね合わせ、該
AND画像中の連結成分の中で、該OR画像中の連結成
分との重なる画素の個数が予め設定した閾値以上であ
り、且つ重なりをもつ該OR画像中の連結成分の面積が
予め設定した範囲内であれば、該AND画像中の連結成
分を文字連結成分として判断して該AND画像中に残
し、それ以外の連結成分は背景ノイズ領域として該AN
D画像から除去する第2−3−3の段階と、該第2−3
−3の段階により得られた文字連結成分だけが残留する
AND画像中で、該第2−1の段階で得られた水平ライ
ン毎の二値化により得られた各ライン内の連結画素のう
ち、連結画素数が予め設定した値より少ない連結画素を
文字領域とし、該画素と同じ位置に存在する該AND画
像中の画素を文字領域画素として記憶する第3−2−4
の段階とを、用いて実現することを特徴とする。
Alternatively, in the above-described character region extraction method, the two-dimensional data obtained in the steps 2-1 and 2-2 can be obtained.
The connected components in two binary images are compared, and the area, shape,
The connected components whose differences in position are within a preset allowable range are determined as character regions, and are left in the binary image, and the connected components whose differences in area, shape, and position exceed the preset allowable range are not included. A second to third step of determining the background noise portion and removing the binary image from the binary image is performed by superposing the obtained two binary images at the same position, and the corresponding two pixels are both connected components. If so, the corresponding pixel is stored as a provisional character pixel, and if one of the two corresponding pixels does not belong to the connected component, the corresponding pixel is stored as a non-provisional character area, and is composed of the provisional character pixel. A 2-3-1 stage in which an image including a connected component to be defined is defined as an AND image, and the obtained two binary images are aligned and overlapped, and two corresponding pixels are If at least one of them belongs to the connected component, If the corresponding pixel is stored as a provisional character area, and if the two corresponding pixels do not belong to a connected component, the corresponding pixel is stored as a non-provisional character area, and an image including a connected component composed of provisional character pixels is stored. Step 2-3-2-2, which is defined and created as an OR image;
And the OR image obtained in the 2-3-2nd step is aligned and superimposed, and among the connected components in the AND image, the connected component in the OR image and If the number of overlapping pixels is equal to or greater than a preset threshold value and the area of the connected component in the OR image having the overlap is within a preset range, the connected component in the AND image is determined as a character connected component. And leave the other connected components in the AND image as background noise areas.
Step 2-3-3 for removing from the D image, and step 2-3
In the AND image in which only the character connected component obtained in the step -3 remains, of the connected pixels in each line obtained by the binarization for each horizontal line obtained in the step 2-1 A 3-2-4: storing a connected pixel in which the number of connected pixels is smaller than a preset value as a character area, and storing a pixel in the AND image existing at the same position as the pixel as a character area pixel.
Is realized by using the steps (1) and (2).

【0014】さらには、以上の文字領域抽出方法におけ
る段階をコンピュータに実行させるためのプログラム
を、該コンピュータが読み取り可能な記録媒体に記録し
たことを特徴とする。
Further, a program for causing a computer to execute the steps in the above-described character region extracting method is recorded on a computer-readable recording medium.

【0015】また、同じく上記の課題を解決するため
に、本発明による文字領域抽出装置は、文字が表示され
ているカラー画像を入力して記憶するカラー画像入力記
憶手段と、該カラー画像入力記憶手段により入力された
カラー画像の中で輝度値が類似し、画像空間内で隣接す
る複数の画素同士を連結領域として形成する輝度値類似
領域形成手段と、該輝度値類似領域形成手段により得ら
れた輝度値が類似する連結領域画像に対し、各領域内
で、彩度値が類似し、画像空間内で隣接する複数の画素
同士を連結領域として形成する彩度値類似領域形成手段
と、該彩度値類似領域形成手段により得られた輝度値、
彩度値共に類似する連結領域画像に対し、各領域内で、
色相値が類似し、画素空間内で隣接する複数の画素を連
結領域として形成する色相値類似領域形成手段と、該色
相値類似領域形成手段により得られた連結領域画素だけ
を画像中に残し、文字領域画像として蓄積する文字領域
画像蓄積手段と、該カラー画像入力記憶手段、該輝度値
類似領域形成手段、該彩度値類似領域形成手段および該
色相値類似領域形成手段の実行順序を制御する処理制御
手段とを、具備することを特徴とする。
Also, in order to solve the above-mentioned problem, a character region extracting apparatus according to the present invention comprises: a color image input storage means for inputting and storing a color image in which characters are displayed; A luminance value similar region forming unit that has similar luminance values in the color image input by the unit and forms a plurality of adjacent pixels in the image space as a connected region; and a luminance value similar region forming unit. For a connected region image having similar luminance values, a saturation value similar region forming means for forming a plurality of pixels having similar saturation values in each region and forming adjacent pixels in the image space as a connected region, A brightness value obtained by the saturation value similar area forming means,
For connected area images with similar saturation values, within each area,
Hue values are similar, and a plurality of hue value similar area forming means for forming a plurality of adjacent pixels in a pixel space as a connected area, and only the connected area pixels obtained by the hue value similar area forming means are left in the image, A character area image storing means for storing as a character area image, an execution order of the color image input storage means, the luminance value similar area forming means, the saturation value similar area forming means and the hue value similar area forming means are controlled. Processing control means.

【0016】あるいは、上記の文字領域抽出装置におい
て、文字が表示されているカラー画像を入力して記憶す
るカラー画像入力記憶手段は、テレビ放送映像などのカ
ラー動画像の中で、同一のテロップ文字等の文字が表示
されている時間的に連続する複数のカラー画像を入力し
て記憶するか、あるいは、文字が表示されている一枚の
静止カラー画像を入力して記憶するカラー動画像/静止
画像入力記憶手段と、該同一の文字が表示されている複
数のカラー画像が入力された場合、該複数のカラー画像
間で位置の対応する画素同士の画素値の平均値を各画素
の値として持つ平均値カラー画像を作成して入力された
カラー画像として出力する複数フレーム平均化手段と、
該カラー動画像/静止画像入力記憶手段と複数フレーム
平均化手段の実行順序を制御する処理制御手段とを、具
備することを特徴とする。
Alternatively, in the above-described character region extracting apparatus, the color image input storage means for inputting and storing a color image in which characters are displayed is provided with the same telop character in a color moving image such as a television broadcast image. Or a plurality of temporally continuous color images in which characters such as characters are displayed and stored, or a color moving image / still image in which one still color image in which characters are displayed is input and stored. When a plurality of color images in which the same character is displayed are input, the average value of the pixel values of the corresponding pixels at positions between the plurality of color images is set as the value of each pixel. Multi-frame averaging means for creating an average color image having and outputting as an input color image;
The color moving image / still image input storage means and the processing control means for controlling the execution order of the plural frame averaging means are provided.

【0017】あるいは、上記の文字領域抽出装置におい
て、カラー画像中の輝度値が類似し、画像空間内で隣接
する複数の画素同士を連結領域として形成する輝度値類
似領域形成手段は、該カラー画像中の各水平ライン内で
輝度の二値化を行い、結果を二値画像として得る水平ラ
イン単位二値化手段と、該カラー画像中の各垂直ライン
内で輝度の二値化を行い、結果を二値画像として得る垂
直ライン単位二値化手段と、該水平ライン単位二値化手
段と該垂直ライン単位二値化手段により得られた2枚の
二値画像中の連結成分同士を比較し、面積、形状、位置
の違いが予め設定した許容範囲内である連結成分同士を
文字領域と判断し、該二値画像に残し、面積、形状、位
置の違いが予め設定した許容範囲を越えている連結成分
同士は背景ノイズ部と判断し該二値画像から除去する二
値化結果統合手段と、該水平ライン単位二値化手段、該
垂直ライン単位二値化手段および該二値化結果統合手段
の実行順序を制御する処理制御手段とを、具備すること
を特徴とする。
Alternatively, in the above-described character region extracting apparatus, the luminance value similar region forming means for forming a plurality of pixels having similar luminance values in the color image and forming a plurality of adjacent pixels in the image space as a connected region may be provided. A horizontal line unit binarizing means for performing binarization of luminance in each horizontal line in, and obtaining a result as a binary image, and performing binarization of luminance in each vertical line in the color image, and Is compared as a binary image, and the connected components in two binary images obtained by the horizontal line unit binarization means and the vertical line unit binarization means are compared with each other. The connected components whose differences in area, shape, and position are within a preset allowable range are determined to be character regions, and are left in the binary image, and the differences in area, shape, and position exceed the preset allowable range. Connected components are background noise Binarizing result integrating means for determining from the binary image and removing from the binary image, processing for controlling the execution order of the horizontal line unit binarizing means, the vertical line unit binarizing means, and the binarizing result integrating means And control means.

【0018】あるいは、上記の文字領域抽出装置におい
て、カラー画像中の各水平ライン内で輝度の二値化を行
い、結果を二値画像として得る水平ライン単位二値化手
段は、該カラー画像中のある水平ライン内の輝度値分布
を調べ、該水平ライン内で局所的に輝度値が周辺部と比
較して予め設定した値だけ高い範囲を連結画素領域とし
て抽出する輝度極大領域検出手段と、該輝度極大領域検
出手段により得られた連結画素領域の左右の両端画素付
近に存在する予め決めた方法で選択した複数の画素の中
から水平方向の輝度勾配の絶対値が最大となる画素を左
右各々で求め、該画素を両端とする範囲を高輝度文字領
域として抽出する高輝度文字領域抽出手段と、該カラー
画像中のある水平ライン内の輝度値分布を調べ、該水平
ライン内で局所的に輝度値が周辺部と比較して予め設定
した値だけ低い範囲を連結画素領域として抽出する輝度
極小領域検出手段と、該輝度極小領域検出手段により得
られた連結画素領域の左右の両端画素付近に存在する予
め決めた方法で選択した複数の画素の中から水平方向の
輝度勾配の絶対値が最大となる画素を左右各々で求め、
該画素を両端とする範囲を低輝度文字領域として抽出す
る低輝度文字領域抽出手段と、該高輝度文字領域抽出手
段で抽出された各水平ライン上の高輝度文字領域を集め
て、画像全体としての高輝度文字領域画像を作成し、ま
た、該低輝度文字領域抽出手段で抽出された各水平ライ
ン上の低輝度文字領域を集めて、画像全体としての低高
輝度文字領域画像を作成する水平ライン別二値化結果統
合手段と、該輝度極大領域検出手段、該高輝度文字領域
抽出手段、該輝度極小領域検出手段、該低輝度文字領域
抽出手段および該水平ライン別二値化結果統合手段の実
行順序を制御する処理制御手段と、該カラー画像中のエ
ッジ部の画素を検出するエッジ検出手段と、該水平ライ
ン別二値化結果統合手段で得られた高輝度文字領域画
像、および低輝度文字領域画像中の文字連結成分を構成
する複数の画素から該エッジ検出手段で得られたカラー
画像中の垂直方向のエッジ部に相当する画素を除去する
エッジ部除去手段とを、具備することを特徴とする。
Alternatively, in the above-described character region extracting apparatus, the horizontal line unit binarizing means for binarizing the luminance within each horizontal line in the color image and obtaining a result as a binary image is provided. A maximum brightness region detection means for examining a brightness value distribution in a certain horizontal line, extracting a range in which the brightness value is locally higher than a peripheral portion by a predetermined value as a connected pixel region in the horizontal line, The pixel having the maximum absolute value of the horizontal luminance gradient is selected from among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel region obtained by the maximum luminance region detecting means. A high-brightness character region extracting means for extracting a region having both ends of the pixel as a high-brightness character region, and examining a luminance value distribution in a certain horizontal line in the color image, A luminance minimum area detection unit that extracts a range in which the luminance value is lower by a preset value as compared with the peripheral part as a connected pixel area, and near the left and right end pixels of the connected pixel area obtained by the luminance minimum area detection unit. From among a plurality of pixels selected by an existing predetermined method, a pixel in which the absolute value of the luminance gradient in the horizontal direction is the maximum is determined for each of the left and right,
A low-luminance character area extracting means for extracting a range having both ends of the pixel as a low-luminance character area, and a high-luminance character area on each horizontal line extracted by the high-luminance character area extracting means are collected as an entire image. A high-brightness character area image, and low-brightness character areas on each horizontal line extracted by the low-brightness character area extraction means. Line-based binarization result integrating means, the luminance maximum area detecting means, the high luminance character area extracting means, the luminance minimum area detecting means, the low luminance character area extracting means, and the horizontal line-based binarizing result integrating means , An edge detecting means for detecting a pixel at an edge portion in the color image, a high-luminance character area image obtained by the horizontal-line-based binarization result integrating means, Brightness statement Edge removing means for removing a pixel corresponding to a vertical edge in a color image obtained by the edge detecting means from a plurality of pixels constituting a character connected component in the region image. And

【0019】あるいは、上記の文字領域抽出装置におい
て、カラー画像中の各垂直ライン内で輝度の二値化を行
い、結果を二値画像として得る垂直ライン単位二値化手
段は、該カラー画像中のある垂直ライン内の輝度値分布
を調べ、該垂直ライン内で局所的に輝度値が周辺部と比
較して予め設定した値だけ高い範囲を連結画素領域とし
て抽出する輝度極大領域検出手段と、該輝度極大領域検
出手段により得られた連結画素領域の左右の両端画素付
近に存在する予め決めた方法で選択した複数の画素の中
から垂直方向の輝度勾配の絶対値が最大となる画素を左
右各々で求め、該画素を両端とする範囲を高輝度文字領
域として抽出する高輝度文字領域抽出手段と、該カラー
画像中のある垂直ライン内の輝度値分布を調べ、該垂直
ライン内で局所的に輝度値が周辺部と比較して予め設定
した値だけ低い範囲を連結画素領域として抽出する輝度
極小領域検出手段と、該輝度極小領域検出手段により得
られた連結画素領域の左右の両端画素付近に存在する予
め決めた方法で選択した複数の画素の中から垂直方向の
輝度勾配の絶対値が最大となる画素を左右各々で求め、
該画素を両端とする範囲を低輝度文字領域として抽出す
る低輝度文字領域抽出手段と、該高輝度文字領域抽出手
段で抽出された各垂直ライン上の高輝度文字領域を集め
て、画像全体としての高輝度文字領域画像を作成し、ま
た、該低輝度文字領域抽出手段で抽出された各垂直ライ
ン上の低輝度文字領域を集めて、画像全体としての低高
輝度文字領域画像を作成する該垂直ライン別二値化結果
統合手段と、該輝度極大領域検出手段、該高輝度文字領
域抽出手段、該輝度極小領域検出手段、該低輝度文字領
域抽出手段および該垂直ライン別二値化結果統合手段の
実行順序を制御する処理制御手段と、該カラー画像中の
エッジ部の画素を検出するエッジ検出手段と、該垂直ラ
イン別二値化結果統合手段で得られた高輝度文字領域画
像、および低輝度文字領域画像中の文字連結成分を構成
する複数の画素から該エッジ抽出手段で得られたカラー
画像中の垂直方向のエッジ部に相当する画素を除去する
エッジ部除去手段とを、具備することを特徴とする。
Alternatively, in the above-described character region extracting apparatus, the vertical line unit binarizing means for binarizing the luminance within each vertical line in the color image and obtaining the result as a binary image is provided. A luminance maximum area detection means for examining a luminance value distribution in a certain vertical line, and extracting a range in which the luminance value is locally higher than a peripheral value by a preset value in the vertical line as a connected pixel area, The pixel having the maximum absolute value of the vertical luminance gradient is selected from among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel region obtained by the maximum luminance region detecting means. A high-brightness character area extraction unit that obtains each and extracts a range having both ends of the pixel as a high-brightness character area, and examines a luminance value distribution in a certain vertical line in the color image, A luminance minimum area detection unit that extracts a range in which the luminance value is lower by a preset value as compared with the peripheral part as a connected pixel area, and near the left and right end pixels of the connected pixel area obtained by the luminance minimum area detection unit. A pixel in which the absolute value of the luminance gradient in the vertical direction is the largest from among a plurality of pixels selected by an existing predetermined method is obtained for each of the left and right,
A low-luminance character area extracting unit that extracts a range having both ends of the pixel as a low-luminance character region, and a high-luminance character region on each vertical line extracted by the high-luminance character region extracting unit are collected to form an entire image. To create a high-brightness character region image of each of the vertical lines extracted by the low-brightness character region extraction means, and to create a low-brightness character region image as an entire image. Vertical line-by-line binarization result integration means, the luminance maximum area detection means, the high luminance character area extraction means, the luminance minimum area detection means, the low luminance character area extraction means, and the vertical line-by-line binarization result integration Processing control means for controlling the execution order of the means, edge detection means for detecting a pixel of an edge portion in the color image, and a high-luminance character area image obtained by the vertical line-based binarization result integration means, and Low brightness Edge part removing means for removing a pixel corresponding to a vertical edge part in a color image obtained by the edge extracting means from a plurality of pixels constituting a character connected component in the character area image. Features.

【0020】あるいは、上記の文字領域抽出装置におい
て、水平ライン単位二値化手段と垂直ライン単位二値化
手段により得られた2枚の二値画像中の連結成分同士を
比較し、面積、形状、位置の違いが予め設定した許容範
囲内である連結成分同士を文字領域と判断し、該二値画
像に残し、面積、形状、位置の違いが予め設定した許容
範囲を越えている連結成分同士は背景ノイズ部と判断し
該二値画像から除去する二値化結果統合手段は、該得ら
れた2枚の二値画像を位置を揃えて重ね合わせ、対応す
る2つの画素が両方とも連結成分に属する場合、該対応
画素を仮文字画素として記憶し、対応する2つの画素の
うちどちらか一方でも連結成分に属さない場合、該対応
画素を非仮文字領域として記憶し、仮文字画素から構成
される連結成分を含む画像をAND画像と定義して作成
するAND画像作成手段と、該得られた2枚の二値画像
を位置を揃えて重ね合わせ、対応する2つの画素のうち
どちらか一方でも連結成分に属する場合、該対応画素を
仮文字領域として記憶し、対応する2つの画素が両方と
も連結成分に属さない場合、該対応画素を非仮文字領域
として記憶し、仮文字画素から構成される連結成分を含
む画像をOR画像と定義して作成するOR画像作成手段
と、該AND画像作成手段により得られたAND画像と
該OR画像作成手段により得られたOR画像を位置を揃
えて重ね合わせ、該AND画像中の連結成分の中で、該
OR画像中の連結成分との重なる画素の個数が予め設定
した閾値以上であり、且つ重なりをもつ該OR画像中の
連結成分の面積が予め設定した範囲内であれば、該AN
D画像中の連結成分を文字連結成分として判断し、該A
ND画像中に残し、それ以外の連結成分は背景ノイズ領
域として該AND画像から除去する文字連結成分判断手
段と、該文字連結成分判断手段により得られた文字連結
成分だけが残留するAND画像中で、該水平ライン単位
二値化手段で得られた水平ライン毎の二値化により得ら
れた各ライン内の連結画素のうち、連結画素数が予め設
定した値より少ない連結画素を文字領域とし、該画素と
同じ位置に存在する該AND画像中の画素を文字領域画
素として記憶する文字画素登録手段とを、具備すること
を特徴とする。
Alternatively, in the above character region extracting apparatus, the connected components in the two binary images obtained by the horizontal line unit binarization unit and the vertical line unit binarization unit are compared with each other, and the area and the shape are compared. The connected components whose differences in position are within a preset allowable range are determined to be character regions, and are left in the binary image, and the connected components whose area, shape, and position differ from each other in a preset allowable range are determined. Is a background noise part, and the binarization result integrating means for removing the binary image from the binary image is arranged such that the two obtained binary images are aligned and overlapped, and both corresponding pixels are connected components. , The corresponding pixel is stored as a provisional character pixel, and if any one of the two corresponding pixels does not belong to the connected component, the corresponding pixel is stored as a non-provisional character area, and is composed of the provisional character pixel. Connected component Image generating means for defining an image as an AND image, and superimposing the obtained two binary images at the same position, and any one of two corresponding pixels belongs to a connected component. In this case, the corresponding pixel is stored as a provisional character area, and when the two corresponding pixels do not belong to a connected component, the corresponding pixel is stored as a non-provisional character area, and the connected component formed of the provisional character pixel is stored. An OR image creating means for creating an image including the image as an OR image, and an AND image obtained by the AND image creating means and an OR image obtained by the OR image creating means, which are aligned and superimposed, and In the connected components in the image, the number of pixels overlapping with the connected components in the OR image is equal to or greater than a predetermined threshold, and the area of the connected components in the OR image having overlaps is set in a predetermined range. If, the AN
The connected component in the D image is determined as a character connected component.
In the ND image, the other connected components are removed from the AND image as a background noise area by a character connected component determining means, and in the AND image in which only the character connected components obtained by the character connected component determining means remain. Of the connected pixels in each line obtained by binarization for each horizontal line obtained by the horizontal line unit binarization means, a connected pixel whose connected pixel number is smaller than a preset value is defined as a character area, Character pixel registration means for storing a pixel in the AND image which is present at the same position as the pixel as a character area pixel.

【0021】前記のとおり、従来手法では、横ストロー
クの端部の色劣化部の抽出が不安定であるという問題が
あった。そこで、本発明では、ライン上の輝度分布から
局所的に値の際だった範囲を、予め決めた輝度値の閾値
を用いて求めた後で、さらに求めた範囲の両端部におけ
る輝度勾配値の最大となる画素を真の文字の端部とする
ことで、文字色劣化部も安定的に文字領域に含めて抽出
できるようにすることにより、文字輪郭形状を原画同様
滑らかにし、またストロークの途切れを無くすことを可
能とする(図10参照)。
As described above, the conventional method has a problem that the extraction of the color deteriorated portion at the end of the horizontal stroke is unstable. Therefore, in the present invention, a range in which the value is locally significant from the luminance distribution on the line is obtained using a predetermined luminance value threshold, and then the luminance gradient value at both ends of the obtained range is further determined. By defining the largest pixel as the end of the true character, the character color degraded part can be stably included in the character area and extracted, thereby smoothing the character outline shape as well as the original image, and breaking the stroke. Can be eliminated (see FIG. 10).

【0022】更に、従来手法では、各方向別のライン単
位では、参照する方向でしか文字と背景の境界検出は保
証できないため、最終的に文字領域の抽出に失敗する問
題があった。本発明では、各方向別のライン単位の二値
化を行った後、原画中のエッジ画素を連結成分から取り
除くため、各方向別の二値化後は、文字と背景の境界部
は全て検出し、文字部を背景と完全に分離した連結成分
として抽出することを可能とする。これにより、最終的
に各方向別のライン単位の二値化結果を重ね合わせ、比
較し、統合した最終的な結果においても文字部は各結果
が共通した位置、大きさ、形状をとるため、文字領域の
抽出失敗を抑制することを可能とする(図11、図12
参照)。
Furthermore, in the conventional method, the detection of the boundary between the character and the background can be guaranteed only in the reference direction in the line unit for each direction, and thus there is a problem that the extraction of the character region eventually fails. In the present invention, after performing line-by-line binarization in each direction, edge pixels in the original image are removed from connected components. Therefore, after the binarization in each direction, all boundaries between characters and the background are detected. Then, the character portion can be extracted as a connected component completely separated from the background. As a result, the binarized results for each line in each direction are finally superimposed, compared, and even in the integrated final result, the character portion has a common position, size, and shape for each result. It is possible to suppress the extraction failure of the character area (FIGS. 11 and 12).
reference).

【0023】[0023]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0024】図1は、本発明の一実施形態例による装置
の構成とともに処理の流れを示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an apparatus according to an embodiment of the present invention and a processing flow.

【0025】図1において、1はカラー画像入力記憶部
であり、処理対象の文字が表示されているカラー画像デ
ータを入力してメモリに記憶する。
In FIG. 1, reference numeral 1 denotes a color image input storage unit which inputs color image data displaying characters to be processed and stores it in a memory.

【0026】2は輝度類似領域形成部であり、カラー画
像入力記憶部1により入力されたカラー画像中で輝度値
が類似し、画像空間内で隣接する複数の画素同士を連結
領域として形成する。
Reference numeral 2 denotes a luminance similar area forming unit which forms a plurality of pixels having similar luminance values in a color image input from the color image input storage unit 1 and adjacent to each other in an image space.

【0027】3は彩度値類似領域形成部であり、輝度値
類似領域形成部2により得られた輝度値が類似する連結
領域画素中の各領域内で彩度値が類似し、画像空間内で
隣接する複数の画素同士を連結領域として形成する。
Reference numeral 3 denotes a saturation value similar region forming unit which has similar saturation values in each of the connected region pixels having similar luminance values obtained by the luminance value similar region forming unit 2 and has a similarity in the image space. To form a plurality of adjacent pixels as a connection region.

【0028】4は色相値類似領域形成部であり、彩度値
類似領域形成部3により得られた輝度値、彩度値共に類
似する連結領域画素中の各領域内で色相値が類似し、画
像空間内で隣接する複数の画素同士を連結領域として形
成する。
Reference numeral 4 denotes a hue value similar area forming unit, which has similar hue values in each of the connected area pixels having similar luminance and chroma values obtained by the saturation value similar area forming unit 3; A plurality of pixels adjacent in the image space are formed as a connected region.

【0029】5は文字領域画像蓄積部であり、色相値類
似領域形成部4により得られた連結領域画像を文字領域
抽出結果画像として蓄積する。
Reference numeral 5 denotes a character region image storage unit, which stores the connected region image obtained by the hue value similar region forming unit 4 as a character region extraction result image.

【0030】6は処理制御部であり、上記1〜5の各部
の実行順序を制御する。
Reference numeral 6 denotes a processing control unit which controls the execution order of each of the above-mentioned units 1 to 5.

【0031】図2は、図1中のカラー画像入力記憶部1
の構成の一例とともに処理の流れの一例を示すブロック
図である。
FIG. 2 shows the color image input storage unit 1 shown in FIG.
FIG. 3 is a block diagram showing an example of a processing flow together with an example of the configuration of FIG.

【0032】図2において、7はカラー画像入力記憶部
であり、テレビ放送映像などのカラー動画像の中で、同
一のテロップ文字等の文字が表示されている時間的に連
続する複数のカラー画像を入力して記憶するか、あるい
は、文字を含む一枚の静止カラー画像を入力して記憶す
る。
In FIG. 2, reference numeral 7 denotes a color image input storage unit, which is a plurality of temporally continuous color images in which characters such as the same telop characters are displayed in a color moving image such as a television broadcast image. Is input and stored, or one still color image including characters is input and stored.

【0033】8は複数フレーム平均化部であり、同一の
文字が表示されている複数のカラー画像間で位置の対応
する画素同士の画素値の平均値を各画素の値として持つ
平均値カラー画像を作成する。
Numeral 8 denotes a multiple frame averaging unit, which is an average color image having, as a value of each pixel, an average value of pixel values of corresponding pixels at positions between a plurality of color images displaying the same character. Create

【0034】一般にテレビ放送映像などのカラー動画像
中において、テロップ文字表示は複数フレームに渡って
画面内の同じ位置に表示される。一方、文字表示以外の
一般物体や背景部には動きが生じている場合が多い。
In general, in a color moving image such as a television broadcast image, a telop character is displayed at the same position on the screen over a plurality of frames. On the other hand, a general object other than the character display and a background portion often have movement.

【0035】このため、カラー動画像中の同一テロップ
文字が表示されている時間的に連続する複数のカラー画
像間の対応する画素同士の画素値は文字部では複数フレ
ームに渡って変化せず、背景部では物体の動きがあるた
め、複数フレームに渡って値が変化する。
For this reason, the pixel value of the corresponding pixel between a plurality of temporally consecutive color images in which the same telop character in a color moving image is displayed does not change over a plurality of frames in the character portion. Since the object moves in the background, the value changes over a plurality of frames.

【0036】よって、該複数フレームの対応画素の平均
値を各画素の値として持つ平均化カラー画像を作成する
と、文字部では複数フレームに渡って値が変わらないた
め、平均化後も値はほとんど変わらないが、背景部で
は、様々な値が平均化されるため、画像中の物体輪郭部
などが不明確なぼやけた様子になる。
Therefore, when an averaged color image having the average value of the corresponding pixels in the plurality of frames as the value of each pixel is created, the value in the character portion does not change over the plurality of frames, so that the value is almost unchanged after the averaging. Although the values do not change, various values are averaged in the background portion, so that the object outline and the like in the image become unclear and blurred.

【0037】このことは、後段の画像の二値化処理にお
いて、背景部からの一般物体の領域抽出を抑制する効果
を持っている。
This has the effect of suppressing the extraction of the area of the general object from the background in the subsequent binarization processing of the image.

【0038】9は処理制御部であり、7〜8の各部の実
行順序を制御する。
Reference numeral 9 denotes a processing control unit, which controls the execution order of the units 7 to 8.

【0039】図3は、図1中の輝度値類似領域形成部2
の構成の一例とともに処理の流れの一例を示すブロック
図である。
FIG. 3 is a diagram showing a luminance value similar area forming unit 2 in FIG.
FIG. 3 is a block diagram showing an example of a processing flow together with an example of the configuration of FIG.

【0040】図3において、10は水平ライン単位二値
化部であり、画像中の各水平ライン内で輝度の二値化を
行う。
In FIG. 3, reference numeral 10 denotes a horizontal line unit binarizing unit, which binarizes the luminance within each horizontal line in the image.

【0041】11は垂直ライン単位二値化部であり、画
像中の各垂直ライン内で輝度の二値化を行う。
Reference numeral 11 denotes a vertical line unit binarizing unit, which binarizes the luminance within each vertical line in the image.

【0042】12は二値化結果統合部であり、水平ライ
ン単位二値化部10と垂直ライン単位二値化部11によ
り得られた2枚の二値画像を比較し、両方の結果ともに
同じ位置に存在し、同じ面積値をもつ連結成分を文字領
域と判断し、他の連結成分は背景ノイズ部と判断し画像
から除去する。
Reference numeral 12 denotes a binarization result integration unit which compares two binary images obtained by the horizontal line unit binarization unit 10 and the vertical line unit binarization unit 11, and both results are the same. The connected component existing at the position and having the same area value is determined to be a character region, and the other connected components are determined to be background noise portions and are removed from the image.

【0043】13は処理制御部であり、上記10〜12
の各部の実行順序を制御する。
Reference numeral 13 denotes a processing control unit,
Control the execution order of each part.

【0044】図4は、図3中の水平ライン単位二値化部
10の構成の一例とともに処理の流れの一例を示すブロ
ック図である。
FIG. 4 is a block diagram showing an example of the processing flow together with an example of the configuration of the horizontal line unit binarizing section 10 in FIG.

【0045】図4において、14は水平ライン上輝度極
大領域検出部であり、画像中のある水平ライン内の輝度
分布を調べ、該水平ライン内で局所的に輝度値が予め設
定した値だけ高い連結画素領域を検出する。
In FIG. 4, reference numeral 14 denotes a horizontal line maximum luminance area detecting unit which examines the luminance distribution in a certain horizontal line in the image, and locally increases the luminance value by a preset value in the horizontal line. A connected pixel area is detected.

【0046】15は高輝度文字領域抽出部であり、画像
中のある水平ライン上で、水平ライン上輝度極大領域検
出部14により得られた連結画素領域の左右の両端付近
の複数の画素の中から水平方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を高輝度文字領域として抽出する。
Reference numeral 15 denotes a high-brightness character region extracting unit, which is located on a certain horizontal line in the image and includes a plurality of pixels near the left and right ends of the connected pixel region obtained by the on-horizontal-line maximum brightness region detecting unit 14. , A pixel having the maximum absolute value of the luminance gradient in the horizontal direction is obtained for each of the left and right sides, and a range having both ends of the pixel is extracted as a high luminance character area.

【0047】16は水平ライン上輝度極小領域検出部で
あり、画像中のある水平ライン内の輝度分布を調べ、該
水平ライン内で局所的に輝度値が予め設定した値だけ低
い連結画素領域を検出する。
Reference numeral 16 denotes a horizontal line minimum luminance area detecting unit for examining the luminance distribution in a certain horizontal line in the image and detecting a connected pixel area in which the luminance value is locally lower by a preset value in the horizontal line. To detect.

【0048】17は低輝度文字領域抽出部であり、画像
中のある水平ライン上で、水平ライン上輝度極小領域検
出部16により得られた連結画素領域の左右の両端付近
の複数の画素の中から水平方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を低輝度文字領域として抽出する。
Reference numeral 17 denotes a low-luminance character area extraction unit which is located on a certain horizontal line in the image and includes a plurality of pixels near the left and right ends of the connected pixel area obtained by the horizontal line minimum luminance area detection unit 16. , A pixel having the maximum absolute value of the luminance gradient in the horizontal direction is obtained on each of the left and right sides, and a range having both ends of the pixel is extracted as a low luminance character area.

【0049】18は水平ライン別二値化結果統合部であ
り、高輝度文字領域抽出部15および低輝度文字領域抽
出部17により得られた各水平ライン上の文字領域を統
合し、画像全体としての文字領域画像を作成する。
Numeral 18 denotes a binarization result integrating unit for each horizontal line, which integrates the character regions on each horizontal line obtained by the high-luminance character region extraction unit 15 and the low-luminance character region extraction unit 17 to form an entire image. To create a character area image.

【0050】19は処理制御部であり、14〜18の各
部における実行順序を制御する。
Reference numeral 19 denotes a processing control unit, which controls the execution order in each of the units 14 to 18.

【0051】20はエッジ検出部であり、画像中のエッ
ジ部の画素を検出する。エッジ検出には例えばRobi
nsonのオペレータを使うなど既存の方法を用いる。
Reference numeral 20 denotes an edge detection unit which detects a pixel at an edge in an image. For edge detection, for example, Robi
Use existing methods, such as using the nson operator.

【0052】21はエッジ部除去部であり、水平ライン
別二値化結果統合部18により得られた高輝度文字領域
画像、および低輝度文字領域抽出画像中の文字連結成分
を構成する複数の画素からエッジ検出部18により得ら
れた平均値画像中の垂直方向のエッジ部に相当する画素
を除去する。
Reference numeral 21 denotes an edge removing unit, which is composed of a plurality of pixels constituting a character connected component in the high-luminance character region image and the low-luminance character region extraction image obtained by the horizontal line binarization result integration unit 18. The pixel corresponding to the vertical edge portion in the average value image obtained by the edge detection unit 18 is removed from the image data.

【0053】図5は、図3中の垂直ライン単位二値化部
11の構成の一例とともに処理の流れの一例を示すブロ
ック図である。
FIG. 5 is a block diagram showing an example of the processing flow along with an example of the configuration of the vertical line unit binarizing section 11 in FIG.

【0054】図5において、22は垂直ライン上輝度極
大領域検出部であり、画像中のある垂直ライン内の輝度
分布を調べ、該垂直ライン内で局所的に輝度値が予め設
定した値だけ高い連結画素領域を検出する。
In FIG. 5, reference numeral 22 denotes a vertical line maximum luminance area detecting unit for examining the luminance distribution in a certain vertical line in the image, and locally increasing the luminance value within the vertical line by a preset value. A connected pixel area is detected.

【0055】23は高輝度文字領域抽出部であり、画像
中のある垂直ライン上で、垂直ライン上輝度極大領域検
出部22により得られた連結画素領域の左右の両端付近
の複数の画素の中から垂直方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を高輝度文字領域として抽出する。
Reference numeral 23 denotes a high-brightness character region extracting unit which is located on a certain vertical line in the image and includes a plurality of pixels in the vicinity of both left and right ends of the connected pixel region obtained by the on-vertical-line maximum brightness region detecting unit 22. , A pixel in which the absolute value of the luminance gradient in the vertical direction is the maximum is determined for each of the left and right, and a range having both ends of the pixel is extracted as a high-luminance character area.

【0056】24は垂直ライン上輝度極小領域検出部で
あり、画像中のある垂直ライン内の輝度分布を調べ、該
垂直ライン内で局所的に輝度値が予め設定した値だけ低
い連結画素領域を検出する。
Reference numeral 24 denotes a vertical line minimum luminance area detecting unit which examines the luminance distribution in a certain vertical line in the image, and detects a connected pixel area in which the luminance value is locally lower by a preset value in the vertical line. To detect.

【0057】25は低輝度文字領域抽出部であり、画像
中のある垂直ライン上で、垂直ライン上輝度極小領域検
出部24により得られた連結画素領域の左右の両端付近
の複数の画素の中から垂直方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を低輝度文字領域として抽出する。
Numeral 25 denotes a low-luminance character area extracting unit, which is located on a certain vertical line in the image and includes a plurality of pixels near the left and right ends of the connected pixel area obtained by the vertical line minimum luminance area detecting unit 24. , A pixel in which the absolute value of the luminance gradient in the vertical direction is the maximum is determined for each of the left and right, and a range having both ends of the pixel is extracted as a low-luminance character area.

【0058】26は垂直ライン別二値化結果統合部であ
り、高輝度文字領域抽出部23および低輝度文字領域抽
出部25により得られた各垂直ライン上の文字領域を統
合し、画像全体としての文字領域画像を作成する。
Reference numeral 26 denotes a vertical line-based binarization result integrating unit which integrates the character regions on each vertical line obtained by the high-luminance character region extraction unit 23 and the low-luminance character region extraction unit 25 to form an entire image. To create a character area image.

【0059】27は処理制御部であり、22〜26の各
部における実行順序を制御する。
Reference numeral 27 denotes a processing control unit, which controls the execution order in each of the units 22 to 26.

【0060】28はエッジ検出部であり、画像中のエッ
ジ部の画素を検出する。エッジ検出には例えばRobi
nsonのオペレータを使うなど既存の方法を用いる。
Reference numeral 28 denotes an edge detection unit which detects a pixel at an edge in the image. For edge detection, for example, Robi
Use existing methods, such as using the nson operator.

【0061】29はエッジ部除去部であり、垂直ライン
別二値化結果統合部26により得られた高輝度文字領域
画像、および低輝度文字領域抽出画像中の文字連結成分
を構成する複数の画素からエッジ検出部28により得ら
れた平均値画像中の垂直方向のエッジ部に相当する画素
を除去する。
Reference numeral 29 denotes an edge portion removing section, and a plurality of pixels constituting a character connected component in the high brightness character area image and the low brightness character area extracted image obtained by the vertical line binarization result integration section 26. From the average value image obtained by the edge detection unit 28, the pixel corresponding to the vertical edge portion is removed.

【0062】図6は、図3中の二値化結果統合部12の
構成の一例とともに処理の流れの一例を示すブロック図
である。
FIG. 6 is a block diagram showing an example of the flow of processing together with an example of the configuration of the binarization result integration section 12 in FIG.

【0063】図6において、30はAND画像作成部で
あり、入力された2枚の二値画像を位置を揃えて重ね合
わせ、対応する2つの画素が両方とも連結成分に属する
場合、該対応画素を仮文字画素として記憶し、対応する
2つの画素のうちどちらか一方でも連結成分に属さない
場合、該対応画素を非仮文字領域として記憶し、仮文字
画素から構成される連結成分を含む画像(ここでは、こ
れをAND画像と定義する)を作成する。
In FIG. 6, reference numeral 30 denotes an AND image forming unit which superimposes two input binary images at the same position and, when both corresponding pixels belong to a connected component, the corresponding pixel. Is stored as a provisional character pixel, and if one of the two corresponding pixels does not belong to the connected component, the corresponding pixel is stored as a non-provisional character area, and the image including the connected component composed of the provisional character pixel is stored. (Here, this is defined as an AND image.)

【0064】31はOR画像作成部であり、入力された
2枚の二値画像を位置を揃えて重ね合わせ、対応する2
つの画素のうちどちらか一方でも連結成分に属する場
合、該対応画素を仮文字領域として記憶し、対応する2
つの画素が両方とも連結成分に属さない場合、該対応画
素を非仮文字領域として記憶し、仮文字画素から構成さ
れる連結成分を含む画像(ここでは、これをOR画像と
定義する)を作成する。
Numeral 31 denotes an OR image creating section, which superimposes the input two binary images at the same position and superimposes them on the corresponding binary image.
If either one of the two pixels belongs to the connected component, the corresponding pixel is stored as a provisional character area, and the corresponding 2
If both of the pixels do not belong to a connected component, the corresponding pixel is stored as a non-provisional character area, and an image including a connected component composed of provisional character pixels (here, this is defined as an OR image) is created. I do.

【0065】32は文字連結成分判断部であり、AND
画像作成部30により得られたAND画像とOR画像作
成部31により得られたOR画像を位置を揃えて重ね合
わせ、AND画像中の連結成分の中で、OR画像中の連
結成分との重なる画素の個数が予め設定した閾値以上で
あり、且つ重なりをもつOR画像中の連結成分の面積が
予め設定した範囲内であれば、該AND画像中の連結成
分を文字連結成分として判断する。
Reference numeral 32 denotes a character connected component judging unit,
The AND image obtained by the image generating unit 30 and the OR image obtained by the OR image generating unit 31 are aligned and superimposed, and a pixel overlapping the connected component in the OR image among the connected components in the AND image. Is greater than or equal to a preset threshold, and if the area of the connected component in the overlapping OR image is within a preset range, the connected component in the AND image is determined as a character connected component.

【0066】33は文字画素登録部であり、文字連結成
分判断部32により得られた文字連結成分だけが残留す
るAND画像中で、水平ライン単位二値化部10により
得られた各ライン内の連結画素のうち、連結画素数が予
め設定した値より少ない連結画素を文字領域とし、該画
素と同じ位置に存在する該AND画像中の画素を文字領
域画素として記憶する。
Reference numeral 33 denotes a character pixel registration unit. In an AND image in which only the character connected component obtained by the character connected component determination unit 32 remains, each of the lines obtained by the horizontal line unit binarization unit 10 has Among the connected pixels, a connected pixel having a connected pixel number smaller than a preset value is set as a character area, and a pixel in the AND image located at the same position as the pixel is stored as a character area pixel.

【0067】図7は、図4中の水平ライン上輝度極大領
域検出部14、高輝度文字領域抽出部15の処理の実施
形態を説明するためのフローチャートである。
FIG. 7 is a flowchart for explaining an embodiment of the processing of the maximum luminance area on horizontal line detecting section 14 and the high luminance character area extracting section 15 in FIG.

【0068】図7において、ステップ(30)は輝度画
像をメモリに読み込む過程である。
In FIG. 7, step (30) is a process of reading the luminance image into the memory.

【0069】ステップ(31)は、輝度類似文字領域抽
出処理の未処理の水平ラインが存在するかどうかを判断
する過程であり、未処理の水平ラインが存在すれば、ス
テップ(32)へ移り、未処理の水平ラインが存在しな
ければ、処理を終了する。
Step (31) is a step of judging whether there is an unprocessed horizontal line in the luminance-similar character area extraction process. If there is an unprocessed horizontal line, the process proceeds to step (32). If there is no unprocessed horizontal line, the process ends.

【0070】ステップ(32)は、ステップ(31)で
得られた画像中の各水平ライン上毎に輝度分布を調べ、
極大値をもつ画素を全て求める過程である。
In a step (32), a luminance distribution is checked for each horizontal line in the image obtained in the step (31).
This is a process of obtaining all the pixels having the maximum value.

【0071】ステップ(33)は、ステップ(32)で
得られた極大値画素のうち、高輝度文字領域抽出処理の
未処理の極大値画素が存在するかどうかを判断する過程
であり、未処理の極大値画素が存在すれば、ステップ
(34)へ移り、未処理の極大値画素が存在しなけれ
ば、ステップ(31)へ移る。
Step (33) is a step of judging whether or not there is an unprocessed maximum pixel in the high-luminance character area extraction processing among the maximum pixels obtained in step (32). If the maximum value pixel exists, the process proceeds to step (34), and if there is no unprocessed maximum value pixel, the process proceeds to step (31).

【0072】ステップ(34)は、ステップ(33)で
得られた極大値画素を開始点とし、左方向、および右方
向に水平ライン上を一画素づつ走査し、極大値よりも左
側、右側でそれぞれ極大値より予め設定した閾値だけ輝
度値が低い最初の画素を検出し、検出された2つの画素
と該水平ライン上でそれら2つの画素の間に存在する画
素を連結画素領域として抽出する過程である。
In step (34), starting from the maximum value pixel obtained in step (33) as a starting point, the horizontal line is scanned one pixel at a time to the left and right, and the left and right sides of the maximum value are scanned. A process of detecting the first pixel whose luminance value is lower than the maximum value by a preset threshold value, and extracting the two detected pixels and the pixel existing between the two pixels on the horizontal line as a connected pixel area It is.

【0073】ステップ(35)は、ステップ(34)で
得られた連結画素領域の左右の端部の一定範囲の複数の
画素において、輝度勾配値の絶対値を求める過程であ
る。
Step (35) is a process of obtaining the absolute value of the luminance gradient value for a plurality of pixels within a certain range on the left and right ends of the connected pixel area obtained in step (34).

【0074】ステップ(34)で得られたある水平ライ
ン上の連結画素領域の左右の端点の水平方向の座標値を
それぞれx,yとする(0<x<y、座標値はラインの
最左端を0とし、以降、右側に1画素ずれる度に1だけ
増加するものとする)。xとyにおける一定範囲とは、
それぞれx−r,x−r+1,…,x,…,x+r−
1,x+r、およびy−r,y−r+1,…,y,…,
y+r−1,y+rである。なお、rは、予め設定され
る値である。
The horizontal coordinate values of the left and right end points of the connected pixel area on a certain horizontal line obtained in step (34) are x and y, respectively (0 <x <y, where the coordinate value is the leftmost end of the line). Is set to 0, and thereafter, it is increased by 1 each time the pixel is shifted to the right by one pixel.) The fixed range in x and y is
X-r, x-r + 1, ..., x, ..., x + r-
1, x + r, and y-r, y-r + 1, ..., y, ...,
y + r-1, y + r. Note that r is a value set in advance.

【0075】上記両端の一定範囲中の画素の輝度値をL
(x−r),L(x−r+1),…,L(x),…,L
(x+r−1),L(x+r)、およびR(x−r),
R(x−r+1),…,R(x),…,R(x+r−
1),R(x+r)とすると、両端部の一定範囲中の各
座標における輝度勾配値の絶対値はそれぞれ左端に関し
ては、abs{L(x−r)−L(x−r−1)},
…,abs{L(x)−L(x−1)},…,abs
{L(x+r)−L(x+r−1)}、右端に関して
は、abs{R(x−r)−R(x−r+1)},…,
abs{R(x)−R(x+1)},…,abs{R
(x+r)−R(x+r+1)}である。ただし、左端
の各画素に関しては、1個だけ左隣の画素との輝度差分
の絶対値、右端の各画素に関しては、1個だけ右隣の画
素との輝度差分の絶対値を算出し、その値を各画素にお
ける輝度勾配値の絶対値とする。
The luminance value of the pixel within the fixed range at both ends is L
(X−r), L (x−r + 1),..., L (x),.
(X + r-1), L (x + r), and R (x-r),
R (x−r + 1),..., R (x),.
1), R (x + r), the absolute value of the luminance gradient value at each coordinate within a certain range at both ends is abs {L (x−r) −L (x−r−1)} for the left end. ,
..., abs {L (x) -L (x-1)}, ..., abs
{L (x + r) -L (x + r-1)}, with respect to the right end, abs {R (x-r) -R (x-r + 1)},.
abs {R (x) -R (x + 1)}, ..., abs @ R
(X + r) -R (x + r + 1)}. However, for each pixel at the left end, the absolute value of the luminance difference between only one pixel to the left and the pixel at the right end is calculated, and for each pixel at the right end, the absolute value of the luminance difference between only one pixel to the right is calculated. Let the value be the absolute value of the luminance gradient value at each pixel.

【0076】ステップ(36)は、ステップ(35)で
得られた輝度勾配値の絶対値のうち左右それぞれで最大
値を求め、両方とも予め設定した値よりも大きければス
テップ(37)に移り、どちらか一方でも予め設定した
値より小さければステップ(33)に移る。
In step (36), the maximum value of the absolute values of the luminance gradient values obtained in step (35) is determined for each of the left and right sides, and if both are greater than the preset values, the flow proceeds to step (37). If either one is smaller than the preset value, the process proceeds to step (33).

【0077】ステップ(35)で得られた画素連結領域
の左端の一定範囲の画素の輝度勾配値の絶対値の最大値
とはmax[abs{L(x−r)−L(x−r−
1)},…,abs{L(x)−L(x−1)},…,
abs{L(x+r)−L(x+r−1)}]であり、
右端の一定範囲の画素の輝度勾配値の絶対値の最大値と
は、max[abs{R(x−r)−R(x−r+
1)},…,abs{R(x)−R(x+1)},…,
abs{R(x+r)−R(x+r+1)}]である。
The maximum value of the absolute value of the luminance gradient value of a pixel in a certain range at the left end of the pixel connection area obtained in step (35) is defined as max [abs {L (xr) -L (xr-
1) {, ..., abs {L (x) -L (x-1)}, ...,
abs {L (x + r) -L (x + r-1)}],
The maximum value of the absolute value of the luminance gradient value of a pixel in a certain range at the right end is defined as max [abs {R (x−r) −R (x−r +
1) {, ..., abs {R (x) -R (x + 1)}, ...,
abs {R (x + r) -R (x + r + 1)}].

【0078】一般に文字表示画面における文字の輝度と
文字に接している背景の輝度の値には大きな差があり、
両者の境界部には急激な輝度勾配が存在する。一方、画
面に表示されている文字以外の一般物体の境界部には必
ずしも急激な輝度勾配が存在するとは限らない。このた
めステップ(35)で得られた連結画素領域の左右両端
の輝度勾配値の絶対値が両方とも予め設定した値より大
きい場合、該連結画素領域を文字領域とし、どちらか一
方でも予め設定した値より小さい場合、背景ノイズ領域
として除去することで、従来よりも効果的に背景ノイズ
領域の抽出を抑え、高精度に文字領域を抽出することが
可能となる。
Generally, there is a large difference between the luminance of a character on the character display screen and the luminance of the background in contact with the character.
A sharp luminance gradient exists at the boundary between the two. On the other hand, a sharp luminance gradient does not always exist at the boundary of a general object other than the characters displayed on the screen. For this reason, if the absolute values of the luminance gradient values at both the left and right ends of the connected pixel region obtained in step (35) are both larger than a preset value, the connected pixel region is set as a character region, and either one of them is set in advance. When the value is smaller than the value, by removing the background noise area, the extraction of the background noise area can be suppressed more effectively than in the related art, and the character area can be extracted with high accuracy.

【0079】ステップ(37)は、ステップ(36)で
得られた輝度勾配値の絶対値が予め設定した値より大き
い両端の画素を含み、該画素の間に存在する画素を高輝
度文字領域として確定し、ステップ(33)に戻る過程
である。
The step (37) includes the pixels at both ends where the absolute value of the luminance gradient value obtained in the step (36) is larger than a preset value, and sets the pixels existing between the pixels as the high luminance character area. This is the process of determining and returning to step (33).

【0080】図8は、図4中の水平ライン上輝度極小領
域検出部16、低輝度文字領域抽出部17の処理の実施
形態を説明するためのフローチャートである。
FIG. 8 is a flowchart for explaining an embodiment of the processing of the minimum luminance area detecting section 16 and the low luminance character area extracting section 17 on the horizontal line in FIG.

【0081】図8において、ステップ(40)は輝度画
像をメモリに読み込む過程である。
In FIG. 8, step (40) is a process of reading the luminance image into the memory.

【0082】ステップ(41)は、輝度類似文字領域抽
出処理の未処理の垂直ラインが存在するかどうかを判断
する過程であり、未処理の垂直ラインが存在すれば、ス
テップ(42)へ移り、未処理の垂直ラインが存在しな
ければ、処理を終了する。
Step (41) is a step of judging whether or not there is an unprocessed vertical line in the luminance-similar character area extraction process. If there is an unprocessed vertical line, the process proceeds to step (42). If there is no unprocessed vertical line, the process ends.

【0083】ステップ(42)は、ステップ(41)で
得られた画像中の各垂直ライン上毎に輝度分布を調べ、
極小値をもつ画素を全て求める過程である。
In a step (42), a luminance distribution is checked for each vertical line in the image obtained in the step (41).
This is a process of obtaining all the pixels having the minimum value.

【0084】ステップ(43)は、ステップ(42)で
得られた極小値画素のうち、低輝度文字領域抽出処理の
未処理の極小値画素が存在するかどうかを判断する過程
であり、未処理の極小値画素が存在すれば、ステップ
(44)へ移り、未処理の極小値画素が存在しなけれ
ば、ステップ(41)へ移る。
Step (43) is a step of judging whether there is an unprocessed minimum-value pixel in the low-luminance character region extraction processing among the minimum-value pixels obtained in step (42). If the minimum value pixel exists, the process proceeds to step (44). If there is no unprocessed minimum value pixel, the process proceeds to step (41).

【0085】ステップ(44)は、ステップ(43)で
得られた極小値画素を開始点とし、上方向、および下方
向に垂直ライン上を一画素づつ走査し、極小値よりも上
側、下側でそれぞれ極小値より予め設定した閾値だけ輝
度値が高い最初の画素を検出し、検出された2つの画素
と該垂直ライン上でそれら2つの画素の間に存在する画
素を連結画素領域として抽出する過程である。
In step (44), the minimum value pixel obtained in step (43) is used as a starting point, and the vertical line is scanned one pixel at a time in the upward and downward directions. Detects the first pixel whose luminance value is higher than the minimum value by a preset threshold value, and extracts the detected two pixels and the pixel existing between the two pixels on the vertical line as a connected pixel area. It is a process.

【0086】ステップ(45)は、ステップ(44)で
得られた連結画素領域の上下の端部の一定範囲の複数の
画素において、輝度勾配値の絶対値を求める過程であ
る。
Step (45) is a process of obtaining the absolute value of the luminance gradient value for a plurality of pixels within a certain range at the upper and lower ends of the connected pixel area obtained in step (44).

【0087】ステップ(46)は、ステップ(45)で
得られた輝度勾配値の絶対値のうち上下それぞれで最大
値を求め、両方とも予め設定した値よりも大きければス
テップ(47)に移り、どちらか一方でも予め設定した
値より小さければステップ(43)に移る。
In step (46), the maximum value of the absolute value of the luminance gradient value obtained in step (45) is obtained in each of the upper and lower directions. If both are larger than the preset values, the process proceeds to step (47). If either one is smaller than the preset value, the process proceeds to step (43).

【0088】ステップ(47)は、ステップ(46)で
得られた輝度勾配値の絶対値が予め設定した値より大き
い両端の画素を含み、該画素の間に存在する画素を低輝
度文字領域として確定し、ステップ(43)に戻る過程
である。
Step (47) includes the pixels at both ends where the absolute value of the luminance gradient value obtained in step (46) is larger than a preset value, and sets the pixels existing between the pixels as the low luminance character area. This is the process of determining and returning to step (43).

【0089】図9は、図6中の文字連結成分判断部32
の処理の実施形態を説明するためのフローチャートであ
る。
FIG. 9 shows the character connection component judging section 32 in FIG.
5 is a flowchart for describing an embodiment of the processing of FIG.

【0090】図9において、ステップ(50)はAND
画像とOR画像をメモリに読み込む過程である。
In FIG. 9, step (50) is AND
This is the process of reading the image and the OR image into the memory.

【0091】ステップ(51)は、AND画像とOR画
像の位置を合わせる過程である。
Step (51) is a process of adjusting the positions of the AND image and the OR image.

【0092】ステップ(52)は、AND画像中の連結
成分番号用の変数nを1に初期化する過程である。
Step (52) is a process of initializing a variable n for a connected component number in the AND image to 1.

【0093】ステップ(53)は、変数nとAND画像
中の連結成分の総数Nを比較し、nの値がN以下の場合
はステップ(54)に移り、nの値がNより大きい場合
は処理を終了する過程である。
In step (53), the variable n is compared with the total number N of connected components in the AND image. If the value of n is equal to or less than N, the process proceeds to step (54). This is the process of ending the processing.

【0094】ステップ(54)は、AND画像中のn番
目の連結成分と重なるOR画像中の連結成分画素の数Q
or(n)、及びAND画像中のn番目の連結成分中の該
重なりを持つ画素の数Qitand(n)を計算する過程で
ある。
In step (54), the number Q of connected component pixels in the OR image overlapping the nth connected component in the AND image is determined.
or (n) and the number Q itand (n) of pixels having the overlap in the n-th connected component in the AND image.

【0095】ステップ(55)は、Qand(n)とAN
D画像中のn番目の連結成分の面積値Pand(n)に予
め設定した値th1をかけた値(Pand(n)×th
1)を比較し、且つQor(n)とOR画像中の該重なり
画素を含む連結成分の面積値Por(n)に予め設定した
値th2をかけた値(Por(n)×th2)を比較し、
and(n)がPand(n)×th1以上で、且つQ
or(n)がPor(n)×th2以上の場合、ステップ
(56)に移り、そうでなければステップ(57)へ移
る過程である。
Step (55) consists of Q and (n) and AN
A value (P and (n) × th) obtained by multiplying the area value P and (n) of the n-th connected component in the D image by a preset value th1
1), and a value (P or (n) × th2) obtained by multiplying Q or (n) and the area value P or (n) of the connected component including the overlapping pixel in the OR image by a preset value th2. ), And
Q and (n) are not less than P and (n) × th1, and Q
If or (n) is equal to or larger than P or (n) × th2, the process proceeds to step (56); otherwise, the process proceeds to step (57).

【0096】ステップ(56)は、AND画像中のn番
目の連結成分を文字領域として判断する過程である。一
般に映像中の文字は、AND画像、OR画像、両方とも
にほぼ等しい面積値を持つ領域となり、一方、文字以外
の一般物体は、必ずしもAND画像、OR画像、両方と
もにほぼ等しい面積を持つ領域として得られるとは限ら
ないため、ステップ(55)におけるステップ(56)
に移るための条件を満たすことで、文字以外の一般物体
の領域を効果的に除去し、文字領域を高精度に抽出する
ことが可能となる。
Step (56) is a process of determining the n-th connected component in the AND image as a character area. In general, characters in a video are regions having substantially the same area value in both the AND image and the OR image, while general objects other than characters are not necessarily obtained as regions having substantially the same area in both the AND image and the OR image. Step (56) in Step (55)
By satisfying the condition for (1), the area of the general object other than the character can be effectively removed, and the character area can be extracted with high accuracy.

【0097】ステップ(57)は、変数nを1だけイン
クリメントし、ステップ(53)に戻る過程である。
Step (57) is a process of incrementing the variable n by 1 and returning to step (53).

【0098】図10は、本発明によって決まるライン上
の文字領域範囲を説明する図である。本発明では、ライ
ン上の輝度分布から局所的に値の際だった範囲を、予め
決めた輝度値の閾値を用いて求めた後で、さらに求めた
範囲の両端部における輝度勾配値の最大となる画素を真
の文字の端部とすることで、文字色劣化部も安定的に文
字領域に含めて抽出することができる。これにより、文
字輪郭形状を原画同様滑らかにし、また従来手法で発生
していたストロークの途切れを無くすことを可能とな
る。
FIG. 10 is a diagram for explaining a character area range on a line determined by the present invention. In the present invention, a range that is locally significant from the luminance distribution on the line is obtained using a predetermined luminance value threshold, and then the maximum luminance gradient value at both ends of the obtained range is obtained. By defining the pixel as the end of the true character, the character color degraded part can be stably included in the character area and extracted. As a result, it becomes possible to make the character outline shape as smooth as the original image, and to eliminate the discontinuity of the stroke generated by the conventional method.

【0099】図11は、本発明による二値化結果の一例
を示す図である。また、図12は、その詳細を説明する
図である。従来手法では、図16に示したように、各方
向別のライン単位では、参照する方向でしか文字と背景
の境界検出は保証できないため、最終的に文字領域の抽
出に失敗する問題があった。本発明では、各方向別のラ
イン単位の二値化を行った後、原画中のエッジ画素を連
結成分から取り除くため、各方向別の二値化後は、文字
と背景の境界部は全て検出し、文字部を背景と完全に分
離した連結成分として抽出することを可能となる。これ
により、最終的に各方向別のライン単位の二値化結果を
重ね合わせ、比較し、統合した最終的な結果においても
文字部は各結果が共通した位置、大きさ、形状をとるた
め、文字領域の抽出失敗を抑制することが可能となる。
FIG. 11 is a diagram showing an example of the binarization result according to the present invention. FIG. 12 is a diagram for explaining the details. In the conventional method, as shown in FIG. 16, the line unit for each direction cannot guarantee the detection of the boundary between the character and the background only in the reference direction. . In the present invention, after performing line-by-line binarization in each direction, edge pixels in the original image are removed from connected components. Therefore, after the binarization in each direction, all boundaries between characters and the background are detected. Then, the character portion can be extracted as a connected component completely separated from the background. As a result, the binarized results for each line in each direction are finally superimposed, compared, and even in the integrated final result, the character portion has a common position, size, and shape for each result. It is possible to suppress a failure in extracting a character area.

【0100】なお、図1〜図6で示した手段の一部もし
くは全部を、コンピュータを用いて機能させることがで
きること、あるいは、図1〜図9で示した処理の段階
(ステップ)をコンピュータで実行させることができる
ことは言うまでもなく、コンピュータをその手段として
機能させるためのプログラム、あるいは、コンピュータ
でその処理の段階を実行するためのプログラムを、その
コンピュータが読み取り可能な記録媒体、例えば、FD
(フロッピーディスク)や、MO、ROM、メモリカー
ド、CD、DVD、リムーバブルディスクなどに記録し
て提供し、配布することが可能である。
It is to be noted that some or all of the means shown in FIGS. 1 to 6 can be made to function using a computer, or the steps (steps) of the processing shown in FIGS. 1 to 9 can be performed by a computer. Needless to say, a program for causing a computer to function as the means or a program for executing the stage of the processing by the computer can be stored in a computer-readable recording medium such as an FD.
(A floppy disk), an MO, a ROM, a memory card, a CD, a DVD, a removable disk, and the like.

【0101】[0101]

【発明の効果】以上の説明のとおり、本発明によれば、
画像中のライン単位での二値化の際、ライン上の輝度分
布の局所的に値が際だっている部分の両端において最も
輝度勾配の大きい画素を求め、これを文字範囲の端部と
することで、横ストロークの端部の劣化部も含めた文字
領域を安定的に抽出する効果が得られる。また、方向毎
のライン単位の二値化後、エッジ部を取り除くため、文
字と背景の分離を確実に行うことができ、文字領域抽出
失敗を抑制する効果も得られる。
As described above, according to the present invention,
When binarizing an image on a line-by-line basis, find the pixel with the largest luminance gradient at both ends of the part where the value of the luminance distribution on the line is locally significant, and use this as the end of the character range Thus, the effect of stably extracting the character area including the deteriorated portion at the end of the horizontal stroke can be obtained. Further, after binarization in line units for each direction, the edge portion is removed, so that the character and the background can be reliably separated, and the effect of suppressing the failure of character region extraction can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態例による文字領域抽出装置
の構成とともに処理の流れを示すブロック図である。
FIG. 1 is a block diagram showing a configuration and a processing flow of a character region extracting apparatus according to an embodiment of the present invention.

【図2】上記実施形態例における図1中のカラー画像入
力記憶部の構成の一例とともに処理の流れの一例を示す
ブロック図である。
FIG. 2 is a block diagram showing an example of a processing flow together with an example of a configuration of a color image input storage unit in FIG. 1 in the embodiment.

【図3】上記実施形態例における図2中の輝度値類似領
域形成部の構成の一例とともに処理の流れの一例を示す
ブロック図である。
FIG. 3 is a block diagram showing an example of a processing flow together with an example of a configuration of a luminance value similar area forming unit in FIG. 2 in the embodiment.

【図4】図3中の上記輝度値類似領域形成部中の水平ラ
イン単位二値化部の構成の一例とともに処理の流れの一
例を示すブロック図である。
FIG. 4 is a block diagram showing an example of a processing flow along with an example of a configuration of a horizontal line unit binarization section in the luminance value similar area forming section in FIG. 3;

【図5】図3中の上記輝度値類似領域形成部中の垂直ラ
イン単位二値化部の構成の一例とともに処理の流れの一
例を示すブロック図である。
FIG. 5 is a block diagram showing an example of a processing flow together with an example of a configuration of a vertical line unit binarizing section in the luminance value similar area forming section in FIG. 3;

【図6】図3中の上記輝度値類似領域形成部の二値化結
果統合部の構成の一例とともに処理の流れの一例を示す
ブロック図である。
FIG. 6 is a block diagram showing an example of a processing flow together with an example of a configuration of a binarization result integrating unit of the luminance value similar area forming unit in FIG. 3;

【図7】図4中の上記水平ライン単位二値化部中の水平
ライン上輝度極大値領域検出部と高輝度文字領域抽出部
の処理内容の一例を示すフローチャートである。
FIG. 7 is a flowchart illustrating an example of processing contents of a luminance maximum value area detection unit on a horizontal line and a high luminance character area extraction unit in the horizontal line unit binarization unit in FIG. 4;

【図8】図4中の上記水平ライン単位二値化部中の水平
ライン上輝度極小値領域検出部と低輝度文字領域抽出部
の処理内容の一例を示すフローチャートである。
8 is a flowchart showing an example of processing contents of a luminance minimum value area detection unit on a horizontal line and a low luminance character area extraction unit in the horizontal line unit binarization unit in FIG. 4;

【図9】図6中の上記二値化結果統合部中の文字連結成
分判断部の処理内容の一例を示すフローチャートであ
る。
FIG. 9 is a flowchart showing an example of processing contents of a character connection component determination unit in the binarization result integration unit in FIG. 6;

【図10】本発明によって決まるライン上の文字領域範
囲の一例を示す図である。
FIG. 10 is a diagram showing an example of a character area range on a line determined by the present invention.

【図11】本発明による二値化結果の一例を示す図であ
る。
FIG. 11 is a diagram showing an example of a binarization result according to the present invention.

【図12】図11の二値化結果の一例の詳細を説明する
図である。
FIG. 12 is a diagram illustrating details of an example of a binarization result of FIG. 11;

【図13】NTSC形式の映像中の文字の色劣化の一例
を示す図である。
FIG. 13 is a diagram illustrating an example of color degradation of characters in an NTSC format video.

【図14】(a),(b)は、従来手法による二値化結
果の一例その1である。
FIGS. 14A and 14B are examples 1 of a binarization result by a conventional method.

【図15】(a),(b)は、従来手法による二値化結
果の一例その2である。
FIGS. 15A and 15B are second examples of the binarization result by the conventional method.

【図16】従来手法による二値化結果の一例その3であ
る。
FIG. 16 is a third example of the binarization result obtained by the conventional method.

【符号の説明】[Explanation of symbols]

1…カラー画像入力記憶部 2…輝度類似領域形成部 3…彩度値類似領域形成部 4…色相値類似領域形成部 5…文字領域画像蓄積部 6…処理制御部 7…カラー画像入力記憶部 8…複数フレーム平均化部 9…処理制御部 10…水平ライン単位二値化部 11…垂直ライン単位二値化部 12…二値化結果統合部 13…処理制御部 14…水平ライン上輝度極大領域検出部 15…高輝度文字領域抽出部 16…水平ライン上輝度極小領域検出部 17…低輝度文字領域抽出部 18…水平ライン別二値化結果統合部 19…処理制御部 20…エッジ検出部 21…エッジ部除去部 22…垂直ライン上輝度極大領域検出部 23…高輝度文字領域抽出部 24…垂直ライン上輝度極小領域検出部 25…低輝度文字領域抽出部 26…垂直ライン別二値化結果統合部 27…処理制御部 28…エッジ検出部 29…エッジ部除去部 DESCRIPTION OF SYMBOLS 1 ... Color image input storage part 2 ... Luminance similar area formation part 3 ... Saturation value similar area formation part 4 ... Hue value similar area formation part 5 ... Character area image storage part 6 ... Process control part 7 ... Color image input storage part 8: Multiple frame averaging unit 9: Processing control unit 10: Horizontal line unit binarization unit 11: Vertical line unit binarization unit 12: Binarization result integration unit 13: Processing control unit 14: Maximum luminance on horizontal line Area detecting section 15 High-luminance character area extracting section 16 Minimum luminance on-horizontal-line area detecting section 17 Low-luminance character area extracting section 18 Binary-result-by-horizontal-result integration section 19 Processing control section 20 Edge detecting section Reference Signs List 21: Edge removal unit 22: Maximum luminance area detection unit on vertical line 23: High luminance character area extraction unit 24: Minimum luminance area detection unit on vertical line 25: Low luminance character area extraction unit 26: Binarization for each vertical line result Integration unit 27 ... Process control unit 28 ... Edge detection unit 29 ... Edge removal unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉掛 正治 東京都新宿区西新宿3丁目19番2号 日本 電信電話株式会社内 (72)発明者 杉村 利明 東京都新宿区西新宿3丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 5C023 AA01 AA06 AA34 BA01 BA02 BA03 CA01 CA05 DA04 DA08 5C066 AA03 AA11 BA01 CA05 EC12 EC13 EC14 GA04 GB01 HA01 JA01 KD06 KE16 5L096 AA02 AA06 BA17 DA01 EA43 FA32 FA37 FA44 FA59 FA69 FA70 GA22 GA23 GA41 GA51 9A001 BB06 HH22 HH23 HH28 HH30 HH31  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shoji Kurakake 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Toshiaki Sugimura 3- 192-1 Nishi-Shinjuku, Shinjuku-ku, Tokyo No. F-term in Nippon Telegraph and Telephone Corporation (reference) GA23 GA41 GA51 9A001 BB06 HH22 HH23 HH28 HH30 HH31

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 文字が表示されているカラー画像を入力
して記憶する第1の段階と、 該第1の段階により入力されたカラー画像の中で輝度値
が類似し、画像空間内で隣接する複数の画素同士を第1
の連結領域として形成する第2の段階と、 該第2の段階により得られた輝度値が類似する第1の連
結領域画像に対し、各領域内で、彩度値が類似し、画像
空間内で隣接する複数の画素同士を第2の連結領域とし
て形成する第3の段階と、 該第3の段階により得られた輝度値、彩度値共に類似す
る第2の連結領域画像に対し、各領域内で、色相値が類
似し、画素空間内で隣接する複数の画素を第3の連結領
域として形成する第4の段階と、 該第4の段階により得られた第3の連結領域画素だけを
画像中に残し、文字領域画像として蓄積する第5の段階
と、 を有することを特徴とする文字領域抽出方法。
1. A first step of inputting and storing a color image in which characters are displayed, wherein the color images input in the first step have similar luminance values and are adjacent in an image space. A plurality of pixels
And a first connected area image having similar luminance values obtained in the second step, the saturation values are similar in each area, and A third step of forming a plurality of pixels adjacent to each other as a second connected area, and a second connected area image similar in both luminance value and saturation value obtained in the third step. A fourth step of forming a plurality of pixels having similar hue values in the area and adjacent in the pixel space as a third connected area; and only the third connected area pixels obtained by the fourth step A fifth step of leaving in the image and storing as a character area image.
【請求項2】 請求項1記載の文字領域抽出方法におい
て、 文字が表示されているカラー画像を入力して記憶する第
1の段階を、 テレビ放送映像などのカラー動画像の中で、同一のテロ
ップ文字等の文字が表示されている時間的に連続する複
数のカラー画像を入力して記憶するか、あるいは、文字
が表示されている一枚の静止カラー画像を入力して記憶
する第1−1の段階と、 該同一の文字が表示されている複数のカラー画像が入力
された場合、該複数のカラー画像間で位置の対応する画
素同士の画素値の平均値を各画素の値として持つ平均値
カラー画像を入力されたカラー画像として作成し出力す
る第1−2の段階とを、 用いて実現することを特徴とする文字領域抽出方法。
2. The character area extracting method according to claim 1, wherein the first step of inputting and storing a color image in which characters are displayed is performed in the same color moving image such as a television broadcast image. A first one in which a plurality of temporally continuous color images in which characters such as telop characters are displayed are input and stored, or a single still color image in which characters are displayed is input and stored. Step 1, and when a plurality of color images in which the same character is displayed are input, the average value of the pixel values of the pixels corresponding to the positions among the plurality of color images is used as the value of each pixel. A step 1-2 of creating and outputting an average color image as an input color image.
【請求項3】 請求項1記載の文字領域抽出方法におい
て、 カラー画像中の輝度値が類似し、画像空間内で隣接する
複数の画素同士を第1の連結領域として形成する第2の
段階を、 該カラー画像中の各水平ライン内で輝度の二値化を行
い、結果を二値画像として得る第2−1の段階と、 該カラー画像中の各垂直ライン内で輝度の二値化を行
い、結果を二値画像として得る第2−2の段階と、 該第2−1の段階と該第2−2の段階により得られた2
枚の二値画像中の連結成分同士を比較し、面積、形状、
位置の違いが予め設定した許容範囲内である連結成分同
士を文字領域と判断し、該二値画像に残し、面積、形
状、位置の違いが予め設定した許容範囲を越えている連
結成分同士は背景ノイズ部と判断し該二値画像から除去
する第2−3の段階とを、 用いて実現することを特徴とする文字領域抽出方法。
3. The method according to claim 1, further comprising the step of forming a plurality of pixels having similar luminance values in the color image and adjacent to each other in the image space as a first connected region. Performing a binary conversion of luminance within each horizontal line in the color image and obtaining a result as a binary image, and a binarization of luminance within each vertical line of the color image. Step 2-2 of obtaining the result as a binary image, Step 2-1 and Step 2 of the step 2-2.
The connected components in two binary images are compared, and the area, shape,
The connected components whose differences in position are within a preset allowable range are determined as character regions, and are left in the binary image, and the connected components whose differences in area, shape, and position exceed the preset allowable range are not included. Characteristic region extraction method characterized in that the second and third steps of determining as a background noise portion and removing from the binary image are performed.
【請求項4】 請求項3記載の文字領域抽出方法におい
て、 カラー画像中の各水平ライン内で輝度の二値化を行い、
結果を二値画像として得る第2−1の段階を、 該カラー画像中のある水平ライン内の輝度値分布を調
べ、該水平ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ高い範囲を連結画素領域として抽
出する第2−1−1の段階と、 該第2−1−1の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から水平方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を高輝度文字領域として抽出する第2−1−2の段階
と、 該カラー画像中のある水平ライン内の輝度値分布を調
べ、該水平ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ低い範囲を連結画素領域として抽
出する第2−1−3の段階と、 該第2−1−3の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から水平方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を低輝度文字領域として抽出する第2−1−4の段階
と、 該第2−1−2の段階で抽出された各水平ライン上の高
輝度文字領域を集めて、画像全体としての高輝度文字領
域画像を作成し、また、第2−1−4の段階で抽出され
た各水平ライン上の低輝度文字領域を集めて、画像全体
としての低高輝度文字領域画像を作成する第2−1−5
の段階と、 該カラー画像中のエッジ部の画素を検出する第2−1−
6の段階と、 該第2−1−5の段階で得られた高輝度文字領域画像、
および低輝度文字領域画像中の文字連結成分を構成する
複数の画素から該第2−1−6の段階で得られたカラー
画像中の垂直方向のエッジ部に相当する画素を除去する
第2−1−7の段階とを、 用いて実現することを特徴とする文字領域抽出方法。
4. The character area extracting method according to claim 3, wherein the luminance is binarized within each horizontal line in the color image,
The 2-1 step of obtaining the result as a binary image is set in advance by examining the luminance value distribution in a certain horizontal line in the color image and comparing the luminance value locally with the peripheral portion in the horizontal line. A 2-1-1 step of extracting a range higher by the calculated value as a connected pixel area, and a predetermined area near the left and right end pixels of the connected pixel area obtained by the 2-1-1 step. A pixel in which the absolute value of the luminance gradient in the horizontal direction is maximum is obtained on each of the left and right from a plurality of pixels selected by the method, and a range having both ends of the pixel is extracted as a high luminance character area. And examining the luminance value distribution in a certain horizontal line in the color image, and extracting a range in which the luminance value is locally lower in the horizontal line by a preset value as compared with the peripheral portion as a connected pixel area. Step 2-1-3 and Step 2-1-3 From among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel area obtained by the floor, a pixel in which the absolute value of the luminance gradient in the horizontal direction is the largest is determined for each of the left and right pixels. A step 2-1-4 of extracting a range having pixels at both ends as a low-luminance character area; and collecting a high-luminance character area on each horizontal line extracted in the step 2-1-2, A high-brightness character area image as an entire image is created, and a low-brightness character area image as an entire image is collected by collecting low-brightness character areas on each horizontal line extracted in the 2-1-4 stage. 2-1-5 to create
And detecting a pixel at an edge portion in the color image.
Step 6, and the high-luminance character area image obtained in Step 2-1-5,
And removing a pixel corresponding to a vertical edge portion in a color image obtained in the step 2-1-6 from a plurality of pixels constituting a character connected component in the low-luminance character area image. A method for extracting a character region, the method comprising:
【請求項5】 請求項3記載の文字領域抽出方法におい
て、 カラー画像中の各垂直ライン内で輝度の二値化を行い、
結果を二値画像として得る第2−2の段階を、 該カラー画像中のある垂直ライン内の輝度値分布を調
べ、該垂直ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ高い範囲を連結画素領域として抽
出する第2−2−1の段階と、 該第2−2−1の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から垂直方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を高輝度文字領域として抽出する第2−2−2の段階
と、 該カラー画像中のある垂直ライン内の輝度値分布を調
べ、該垂直ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ低い範囲を連結画素領域として抽
出する第2−2−3の段階と、 該第2−2−3の段階により得られた連結画素領域の左
右の両端画素付近に存在する予め決めた方法で選択した
複数の画素の中から垂直方向の輝度勾配の絶対値が最大
となる画素を左右各々で求め、該画素を両端とする範囲
を低輝度文字領域として抽出する第2−2−4の段階
と、 第2−2−2の段階で抽出された各垂直ライン上の高輝
度文字領域を集めて、画像全体としての高輝度文字領域
画像を作成し、また、第2−2−4の段階で抽出された
各垂直ライン上の低輝度文字領域を集めて、画像全体と
しての低高輝度文字領域画像を作成する第2−2−5の
段階と、 該カラー画像中のエッジ部の画素を検出する第2−2−
6の段階と、 該第2−2−6の段階で得られた高輝度文字領域画像、
および低輝度文字領域画像中の文字連結成分を構成する
複数の画素から該第2−2−6の段階で得られたカラー
画像中の垂直方向のエッジ部に相当する画素を除去する
第2−2−7の段階とを、 用いて実現することを特徴とする文字領域抽出方法。
5. The method according to claim 3, wherein the luminance is binarized within each vertical line in the color image.
The 2-2 stage of obtaining the result as a binary image is set in advance by examining the luminance value distribution in a certain vertical line in the color image, and locally comparing the luminance value with the peripheral portion in the vertical line. A 2-2-1 step of extracting a range higher by the calculated value as a connected pixel area, and a predetermined area near the left and right end pixels of the connected pixel area obtained by the 2-2-1 step. A pixel in which the absolute value of the luminance gradient in the vertical direction is maximum is obtained on each of the left and right from a plurality of pixels selected by the method, and a range having both ends of the pixel is extracted as a high-luminance character area. And the luminance value distribution in a certain vertical line in the color image is examined, and a range in which the luminance value is locally lower in the vertical line by a preset value compared with the peripheral portion is extracted as a connected pixel region. Step 2-2-3 and Step 2-2-3 From among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel area obtained by the floor, a pixel having the maximum absolute value of the vertical luminance gradient is obtained for each of the left and right pixels. Step 2-2-4 of extracting a range having pixels as both ends as a low-luminance character area, and collecting high-luminance character areas on each vertical line extracted in the step 2-2-2, A high-brightness character region image as a whole is created, and low-brightness character regions on each vertical line extracted in the stage 2-2-4 are collected to form a low-brightness character region image as the whole image. Step 2-2-5 to create, and Step 2-2 to detect a pixel at an edge portion in the color image
Step 6, and the high-luminance character area image obtained in Step 2-2-6.
And removing a pixel corresponding to a vertical edge portion in the color image obtained in the step 2-2-6 from a plurality of pixels constituting a character connected component in the low luminance character area image. 2-7. A method for extracting a character region, the method comprising:
【請求項6】 請求項3記載の文字領域抽出方法におい
て、 第2−1の段階と第2−2の段階により得られた2枚の
二値画像中の連結成分同士を比較し、面積、形状、位置
の違いが予め設定した許容範囲内である連結成分同士を
文字領域と判断し、該二値画像に残し、面積、形状、位
置の違いが予め設定した許容範囲を越えている連結成分
同士は背景ノイズ部と判断し該二値画像から除去する第
2−3の段階を、 該得られた2枚の二値画像を位置を揃えて重ね合わせ、
対応する2つの画素が両方とも連結成分に属する場合、
該対応画素を仮文字画素として記憶し、対応する2つの
画素のうちどちらか一方でも連結成分に属さない場合、
該対応画素を非仮文字領域として記憶し、該仮文字画素
から構成される連結成分を含む画像をAND画像と定義
して作成する第2−3−1の段階と、 該得られた2枚の二値画像を位置を揃えて重ね合わせ、
対応する2つの画素のうちどちらか一方でも連結成分に
属する場合、該対応画素を仮文字領域として記憶し、対
応する2つの画素が両方とも連結成分に属さない場合、
該対応画素を非仮文字領域として記憶し、仮文字画素か
ら構成される連結成分を含む画像をOR画像と定義して
作成する第2−3−2の段階と、 該第2−3−1の段階により得られたAND画像と第2
−3−2の段階により得られたOR画像を位置を揃えて
重ね合わせ、該AND画像中の連結成分の中で、該OR
画像中の連結成分との重なる画素の個数が予め設定した
閾値以上であり、且つ重なりをもつ該OR画像中の連結
成分の面積が予め設定した範囲内であれば、該AND画
像中の連結成分を文字連結成分として判断して該AND
画像中に残し、それ以外の連結成分は背景ノイズ領域と
して該AND画像から除去する第2−3−3の段階と、 該第2−3−3の段階により得られた文字連結成分だけ
が残留するAND画像中で、該第2−1の段階で得られ
た水平ライン毎の二値化により得られた各ライン内の連
結画素のうち、連結画素数が予め設定した値より少ない
連結画素を文字領域とし、該画素と同じ位置に存在する
該AND画像中の画素を文字領域画素として記憶する第
3−2−4の段階とを、 用いて実現することを特徴とする文字領域抽出方法。
6. The character area extraction method according to claim 3, wherein the connected components in the two binary images obtained in the step 2-1 and the step 2-2 are compared with each other to determine an area, The connected components whose differences in shape and position are within a preset allowable range are determined to be character regions, and are left in the binary image, and the connected components whose differences in area, shape and position exceed the preset allowable range. Are judged as a background noise part, and a second to third step of removing from the binary image is performed by superposing the obtained two binary images at the same position.
If the two corresponding pixels both belong to the connected component,
If the corresponding pixel is stored as a provisional character pixel and one of the two corresponding pixels does not belong to the connected component,
A second-3-1 step of storing the corresponding pixel as a non-provisional character area and defining an image including a connected component composed of the provisional character pixel as an AND image and creating the AND image; Superimpose the binary images of
If either one of the two corresponding pixels belongs to the connected component, the corresponding pixel is stored as a provisional character area, and if the two corresponding pixels do not belong to the connected component,
A second-third stage of storing the corresponding pixel as a non-temporary character area and defining an image including a connected component composed of the temporary character pixel as an OR image; AND image obtained by the step
The OR images obtained in the step of -3-2 are aligned and superimposed, and among the connected components in the AND image, the OR
If the number of pixels overlapping with the connected component in the image is equal to or greater than a preset threshold, and the area of the connected component in the OR image having the overlap is within a preset range, the connected component in the AND image Is determined as a character connected component, and the AND
The remaining connected components are removed from the AND image as a background noise region in the second and third steps, and only the character connected components obtained in the second and third steps remain. Of the connected pixels in each line obtained by the binarization for each horizontal line obtained in the 2-1 step, a connected pixel having a connected pixel number smaller than a preset value is set in the AND image. A step of storing a pixel in the AND image existing at the same position as the pixel as the character area as a character area pixel.
【請求項7】 文字が表示されているカラー画像を入力
して記憶するカラー画像入力記憶手段と、 該カラー画像入力記憶手段により入力されたカラー画像
の中で輝度値が類似し、画像空間内で隣接する複数の画
素同士を連結領域として形成する輝度値類似領域形成手
段と、 該輝度値類似領域形成手段により得られた輝度値が類似
する連結領域画像に対し、各領域内で、彩度値が類似
し、画像空間内で隣接する複数の画素同士を連結領域と
して形成する彩度値類似領域形成手段と、 該彩度値類似領域形成手段により得られた輝度値、彩度
値共に類似する連結領域画像に対し、各領域内で、色相
値が類似し、画素空間内で隣接する複数の画素を連結領
域として形成する色相値類似領域形成手段と、 該色相値類似領域形成手段により得られた連結領域画素
だけを画像中に残し、文字領域画像として蓄積する文字
領域画像蓄積手段と、 該カラー画像入力記憶手段、該輝度値類似領域形成手
段、該彩度値類似領域形成手段および該色相値類似領域
形成手段の実行順序を制御する処理制御手段とを、 具備することを特徴とする文字領域抽出装置。
7. A color image input storage means for inputting and storing a color image in which characters are displayed, wherein the color images input by the color image input storage means have similar luminance values, and Means for forming a plurality of pixels adjacent to each other as a connected area, and a connected area image having similar brightness values obtained by the similar-valued area forming means. A saturation value similar area forming means for forming a plurality of adjacent pixels having a similar value in an image space as a connected area; and a luminance value and a saturation value obtained by the saturation value similar area forming means are similar. Hue value similar area forming means for forming a plurality of pixels having similar hue values in each area and adjacent in the pixel space as a connected area with respect to the connected area image, and obtaining the hue value similar area forming means. Linked Character area image storage means for storing only the area pixels in the image and storing it as a character area image; the color image input storage means; the luminance value similar area forming means; the saturation value similar area forming means; and the hue value similarity. A character region extracting apparatus, comprising: processing control means for controlling the execution order of the region forming means.
【請求項8】 請求項7記載の文字領域抽出装置におい
て、 文字が表示されているカラー画像を入力して記憶するカ
ラー画像入力記憶手段は、 テレビ放送映像などのカラー動画像の中で、同一のテロ
ップ文字等の文字が表示されている時間的に連続する複
数のカラー画像を入力して記憶するか、あるいは、文字
が表示されている一枚の静止カラー画像を入力して記憶
するカラー動画像/静止画像入力記憶手段と、 該同一の文字が表示されている複数のカラー画像が入力
された場合、該複数のカラー画像間で位置の対応する画
素同士の画素値の平均値を各画素の値として持つ平均値
カラー画像を作成して入力されたカラー画像として出力
する複数フレーム平均化手段と、 該カラー動画像/静止画像入力記憶手段と複数フレーム
平均化手段の実行順序を制御する処理制御手段とを、 具備することを特徴とする文字領域抽出装置。
8. The character area extracting device according to claim 7, wherein the color image input storage means for inputting and storing a color image in which characters are displayed is the same as a color moving image such as a television broadcast image. A color moving image in which a plurality of temporally continuous color images in which characters such as telop characters are displayed are input and stored, or a single still color image in which characters are displayed is input and stored. Image / still image input storage means, when a plurality of color images displaying the same character are input, the average value of the pixel values of the pixels corresponding to the positions of the plurality of color images is calculated for each pixel Averaging means for creating an average color image having the values of the above and outputting as an input color image; and realization of the color moving image / still image input storage means and the plural frame averaging means. And processing control means for controlling the order, the character region extracting apparatus characterized by comprising.
【請求項9】 請求項7記載の文字領域抽出装置におい
て、 カラー画像中の輝度値が類似し、画像空間内で隣接する
複数の画素同士を連結領域として形成する輝度値類似領
域形成手段は、 該カラー画像中の各水平ライン内で輝度の二値化を行
い、結果を二値画像として得る水平ライン単位二値化手
段と、 該カラー画像中の各垂直ライン内で輝度の二値化を行
い、結果を二値画像として得る垂直ライン単位二値化手
段と、 該水平ライン単位二値化手段と該垂直ライン単位二値化
手段により得られた2枚の二値画像中の連結成分同士を
比較し、面積、形状、位置の違いが予め設定した許容範
囲内である連結成分同士を文字領域と判断し、該二値画
像に残し、面積、形状、位置の違いが予め設定した許容
範囲を越えている連結成分同士は背景ノイズ部と判断し
該二値画像から除去する二値化結果統合手段と、 該水平ライン単位二値化手段、該垂直ライン単位二値化
手段および該二値化結果統合手段の実行順序を制御する
処理制御手段とを、 具備することを特徴とする文字領域抽出装置。
9. The character region extracting device according to claim 7, wherein the luminance value similar region forming means for forming a plurality of pixels having similar luminance values in the color image and adjacent to each other in the image space as a connected region includes: Horizontal line unit binarization means for performing binarization of luminance in each horizontal line in the color image and obtaining a result as a binary image; and binarization of luminance in each vertical line in the color image. Vertical line unit binarization means for obtaining the result as a binary image, connected components in the two binary images obtained by the horizontal line unit binarization means and the vertical line unit binarization means Are compared, the connected components whose differences in area, shape, and position are within a preset allowable range are determined to be character regions, and are left in the binary image, and the differences in area, shape, and position are set in a predetermined allowable range. Connected components that exceed A binarization result integrating unit that determines that the image is a part and removes from the binary image; and controls an execution order of the horizontal line unit binarization unit, the vertical line unit binarization unit, and the binarization result integration unit. A character region extracting apparatus, comprising: a processing control unit.
【請求項10】 請求項9記載の文字領域抽出装置にお
いて、 カラー画像中の各水平ライン内で輝度の二値化を行い、
結果を二値画像として得る水平ライン単位二値化手段
は、 該カラー画像中のある水平ライン内の輝度値分布を調
べ、該水平ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ高い範囲を連結画素領域として抽
出する輝度極大領域検出手段と、 該輝度極大領域検出手段により得られた連結画素領域の
左右の両端画素付近に存在する予め決めた方法で選択し
た複数の画素の中から水平方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を高輝度文字領域として抽出する高輝度文字領域抽出
手段と、 該カラー画像中のある水平ライン内の輝度値分布を調
べ、該水平ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ低い範囲を連結画素領域として抽
出する輝度極小領域検出手段と、 該輝度極小領域検出手段により得られた連結画素領域の
左右の両端画素付近に存在する予め決めた方法で選択し
た複数の画素の中から水平方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を低輝度文字領域として抽出する低輝度文字領域抽出
手段と、 該高輝度文字領域抽出手段で抽出された各水平ライン上
の高輝度文字領域を集めて、画像全体としての高輝度文
字領域画像を作成し、また、該低輝度文字領域抽出手段
で抽出された各水平ライン上の低輝度文字領域を集め
て、画像全体としての低高輝度文字領域画像を作成する
水平ライン別二値化結果統合手段と、 該輝度極大領域検出手段、該高輝度文字領域抽出手段、
該輝度極小領域検出手段、該低輝度文字領域抽出手段お
よび該水平ライン別二値化結果統合手段の実行順序を制
御する処理制御手段と、 該カラー画像中のエッジ部の画素を検出するエッジ検出
手段と、 該水平ライン別二値化結果統合手段で得られた高輝度文
字領域画像、および低輝度文字領域画像中の文字連結成
分を構成する複数の画素から該エッジ検出手段で得られ
たカラー画像中の垂直方向のエッジ部に相当する画素を
除去するエッジ部除去手段とを、 具備することを特徴とする文字領域抽出装置。
10. The character area extracting device according to claim 9, wherein the luminance is binarized within each horizontal line in the color image.
The horizontal line unit binarization unit that obtains the result as a binary image examines a luminance value distribution in a certain horizontal line in the color image, and locally compares the luminance value in the horizontal line with a peripheral portion in advance. A maximum brightness region detecting means for extracting a range higher by the set value as a connected pixel region, and a plurality of pixels selected by a predetermined method existing near both left and right pixels of the connected pixel region obtained by the maximum brightness region detecting device. A high-brightness character area extracting means for obtaining a pixel having the maximum absolute value of the horizontal luminance gradient from the left and right pixels, and extracting a range having both ends of the pixel as a high-brightness character area; A luminance minimum area detection means for examining a luminance value distribution in a certain horizontal line, and extracting a range in which the luminance value is locally lower than a peripheral value by a preset value in the horizontal line as a connected pixel area; The pixel having the maximum absolute value of the horizontal luminance gradient is selected from among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel region obtained by the minimum luminance region detecting means. A low-brightness character region extracting means for extracting a range having both ends of the pixel as a low-brightness character region, and collecting a high-brightness character region on each horizontal line extracted by the high-brightness character region extracting means. A high-brightness character region image as an entire image is created, and low-brightness character region images as a whole image are collected by collecting low-brightness character regions on each horizontal line extracted by the low-brightness character region extraction means. A binarization result integrating means for each horizontal line, the luminance maximum area detecting means, the high luminance character area extracting means,
Processing control means for controlling the execution order of the minimum luminance area detecting means, the low luminance character area extracting means and the horizontal line-based binarization result integrating means; and edge detection for detecting a pixel at an edge portion in the color image. A high-brightness character area image obtained by the horizontal line-based binarization result integration means, and a color obtained by the edge detection means from a plurality of pixels constituting a character connected component in the low-brightness character area image. A character region extracting device, comprising: edge portion removing means for removing a pixel corresponding to a vertical edge portion in an image.
【請求項11】 請求項9記載の文字領域抽出装置にお
いて、 カラー画像中の各垂直ライン内で輝度の二値化を行い、
結果を二値画像として得る垂直ライン単位二値化手段
は、 該カラー画像中のある垂直ライン内の輝度値分布を調
べ、該垂直ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ高い範囲を連結画素領域として抽
出する輝度極大領域検出手段と、 該輝度極大領域検出手段により得られた連結画素領域の
左右の両端画素付近に存在する予め決めた方法で選択し
た複数の画素の中から垂直方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を高輝度文字領域として抽出する高輝度文字領域抽出
手段と、 該カラー画像中のある垂直ライン内の輝度値分布を調
べ、該垂直ライン内で局所的に輝度値が周辺部と比較し
て予め設定した値だけ低い範囲を連結画素領域として抽
出する輝度極小領域検出手段と、 該輝度極小領域検出手段により得られた連結画素領域の
左右の両端画素付近に存在する予め決めた方法で選択し
た複数の画素の中から垂直方向の輝度勾配の絶対値が最
大となる画素を左右各々で求め、該画素を両端とする範
囲を低輝度文字領域として抽出する低輝度文字領域抽出
手段と、 該高輝度文字領域抽出手段で抽出された各垂直ライン上
の高輝度文字領域を集めて、画像全体としての高輝度文
字領域画像を作成し、また、該低輝度文字領域抽出手段
で抽出された各垂直ライン上の低輝度文字領域を集め
て、画像全体としての低高輝度文字領域画像を作成する
該垂直ライン別二値化結果統合手段と、 該輝度極大領域検出手段、該高輝度文字領域抽出手段、
該輝度極小領域検出手段、該低輝度文字領域抽出手段お
よび該垂直ライン別二値化結果統合手段の実行順序を制
御する処理制御手段と、 該カラー画像中のエッジ部の画素を検出するエッジ検出
手段と、 該垂直ライン別二値化結果統合手段で得られた高輝度文
字領域画像、および低輝度文字領域画像中の文字連結成
分を構成する複数の画素から該エッジ抽出手段で得られ
たカラー画像中の垂直方向のエッジ部に相当する画素を
除去するエッジ部除去手段とを、 具備することを特徴とする文字領域抽出装置。
11. The character area extraction device according to claim 9, wherein the luminance is binarized in each vertical line in the color image.
The vertical line unit binarizing means for obtaining a result as a binary image examines a luminance value distribution in a certain vertical line in the color image, and locally compares the luminance value in the vertical line with a peripheral portion in advance. A maximum brightness region detecting means for extracting a range higher by a set value as a connected pixel region, and a plurality of pixels selected by a predetermined method existing near both left and right pixels of the connected pixel region obtained by the maximum brightness region detecting device. A high-brightness character area extracting means for obtaining, on each of the left and right, a pixel having a maximum absolute value of a vertical luminance gradient from among the pixels, and extracting a range having both ends of the pixel as a high-brightness character area; A luminance minimum area detection unit that examines a luminance value distribution in a certain vertical line in the vertical line, and extracts a range in which the luminance value is locally lower in the vertical line by a predetermined value as compared with a peripheral part as a connected pixel area; The pixel having the maximum absolute value of the vertical luminance gradient is selected from among a plurality of pixels selected by a predetermined method existing in the vicinity of both left and right pixels of the connected pixel region obtained by the minimum luminance region detecting means. A low-brightness character region extracting means for extracting a range having both ends of the pixel as a low-brightness character region, and collecting a high-brightness character region on each vertical line extracted by the high-brightness character region extracting means. A high-brightness character region image as an entire image, and a low-brightness character region image as an entire image by collecting low-brightness character regions on each vertical line extracted by the low-brightness character region extraction means. The vertical line-based binarization result integrating means for creating, the maximum luminance area detecting means, the high luminance character area extracting means,
Processing control means for controlling the execution order of the luminance minimum area detecting means, the low luminance character area extracting means, and the vertical line-based binarization result integrating means; and edge detection for detecting an edge pixel in the color image. Means, and a color obtained by the edge extracting means from a plurality of pixels constituting a character connected component in the high brightness character area image obtained by the vertical line-based binarization result integrating means and the low brightness character area image. A character region extracting apparatus, comprising: edge portion removing means for removing a pixel corresponding to a vertical edge portion in an image.
【請求項12】 請求項9記載の文字領域抽出装置にお
いて、 水平ライン単位二値化手段と垂直ライン単位二値化手段
により得られた2枚の二値画像中の連結成分同士を比較
し、面積、形状、位置の違いが予め設定した許容範囲内
である連結成分同士を文字領域と判断し、該二値画像に
残し、面積、形状、位置の違いが予め設定した許容範囲
を越えている連結成分同士は背景ノイズ部と判断し該二
値画像から除去する二値化結果統合手段は、 該得られた2枚の二値画像を位置を揃えて重ね合わせ、
対応する2つの画素が両方とも連結成分に属する場合、
該対応画素を仮文字画素として記憶し、対応する2つの
画素のうちどちらか一方でも連結成分に属さない場合、
該対応画素を非仮文字領域として記憶し、仮文字画素か
ら構成される連結成分を含む画像をAND画像と定義し
て作成するAND画像作成手段と、 該得られた2枚の二値画像を位置を揃えて重ね合わせ、
対応する2つの画素のうちどちらか一方でも連結成分に
属する場合、該対応画素を仮文字領域として記憶し、対
応する2つの画素が両方とも連結成分に属さない場合、
該対応画素を非仮文字領域として記憶し、仮文字画素か
ら構成される連結成分を含む画像をOR画像と定義して
作成するOR画像作成手段と、 該AND画像作成手段により得られたAND画像と該O
R画像作成手段により得られたOR画像を位置を揃えて
重ね合わせ、該AND画像中の連結成分の中で、該OR
画像中の連結成分との重なる画素の個数が予め設定した
閾値以上であり、且つ重なりをもつ該OR画像中の連結
成分の面積が予め設定した範囲内であれば、該AND画
像中の連結成分を文字連結成分として判断し、該AND
画像中に残し、それ以外の連結成分は背景ノイズ領域と
して該AND画像から除去する文字連結成分判断手段
と、 該文字連結成分判断手段により得られた文字連結成分だ
けが残留するAND画像中で、該水平ライン単位二値化
手段で得られた水平ライン毎の二値化により得られた各
ライン内の連結画素のうち、連結画素数が予め設定した
値より少ない連結画素を文字領域とし、該画素と同じ位
置に存在する該AND画像中の画素を文字領域画素とし
て記憶する文字画素登録手段とを、 具備することを特徴とする文字領域抽出装置。
12. The character region extracting apparatus according to claim 9, wherein the connected components in the two binary images obtained by the horizontal line unit binarization unit and the vertical line unit binarization unit are compared with each other, The connected components whose differences in area, shape, and position are within a preset allowable range are determined to be character regions, and are left in the binary image, and the differences in area, shape, and position exceed the preset allowable range. The binarization result integrating means for judging the connected components as the background noise part and removing the binarized image from the binary image, superimposing the obtained two binary images at the same position,
If the two corresponding pixels both belong to the connected component,
If the corresponding pixel is stored as a provisional character pixel and one of the two corresponding pixels does not belong to the connected component,
AND image creating means for storing the corresponding pixel as a non-temporary character area, defining an image including a connected component composed of the temporary character pixel as an AND image, and creating the AND image, Align and overlap,
If either one of the two corresponding pixels belongs to the connected component, the corresponding pixel is stored as a provisional character area, and if the two corresponding pixels do not belong to the connected component,
OR image creating means for storing the corresponding pixel as a non-temporary character area and defining an image including connected components composed of temporary character pixels as an OR image, and an AND image obtained by the AND image creating means And the O
The OR images obtained by the R image creating means are aligned and superimposed on each other, and among the connected components in the AND image, the OR
If the number of pixels overlapping with the connected component in the image is equal to or greater than a preset threshold, and the area of the connected component in the OR image having the overlap is within a preset range, the connected component in the AND image Is determined as a character connected component, and the AND
Character connected component determining means for leaving the remaining connected components in the image as a background noise area from the AND image; and in the AND image in which only the character connected components obtained by the character connected component determining means remain, Of the connected pixels in each line obtained by binarization for each horizontal line obtained by the horizontal line unit binarization means, a connected pixel having a connected pixel number smaller than a preset value is set as a character area, A character pixel registration unit that stores a pixel in the AND image existing at the same position as the pixel as a character region pixel.
【請求項13】 請求項1から請求項6までのいずれか
1項記載の文字領域抽出方法における段階をコンピュー
タに実行させるためのプログラムを、該コンピュータが
読み取り可能な記録媒体に記録したことを特徴とする文
字領域抽出方法を記録した記録媒体。
13. A program for causing a computer to execute the steps of the character area extracting method according to claim 1 on a recording medium readable by the computer. A recording medium on which is recorded a character area extraction method.
JP36654298A 1998-12-24 1998-12-24 Character area extraction method and apparatus, and recording medium Expired - Lifetime JP3467195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36654298A JP3467195B2 (en) 1998-12-24 1998-12-24 Character area extraction method and apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36654298A JP3467195B2 (en) 1998-12-24 1998-12-24 Character area extraction method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000194851A true JP2000194851A (en) 2000-07-14
JP3467195B2 JP3467195B2 (en) 2003-11-17

Family

ID=18487051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36654298A Expired - Lifetime JP3467195B2 (en) 1998-12-24 1998-12-24 Character area extraction method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3467195B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771827B1 (en) 1998-12-23 2004-08-03 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
JP2007018248A (en) * 2005-07-07 2007-01-25 Sony Corp Image processor, image processing method, and program
KR100836197B1 (en) 2006-12-14 2008-06-09 삼성전자주식회사 Video caption detection device and method
CN116246265A (en) * 2023-05-12 2023-06-09 威海凯思信息科技有限公司 Property management method and device based on image processing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771827B1 (en) 1998-12-23 2004-08-03 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
US6853754B2 (en) 1998-12-23 2005-02-08 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
US7123771B2 (en) * 1998-12-23 2006-10-17 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
JP2007018248A (en) * 2005-07-07 2007-01-25 Sony Corp Image processor, image processing method, and program
KR100836197B1 (en) 2006-12-14 2008-06-09 삼성전자주식회사 Video caption detection device and method
CN116246265A (en) * 2023-05-12 2023-06-09 威海凯思信息科技有限公司 Property management method and device based on image processing
CN116246265B (en) * 2023-05-12 2023-08-08 威海凯思信息科技有限公司 Property management method and device based on image processing

Also Published As

Publication number Publication date
JP3467195B2 (en) 2003-11-17

Similar Documents

Publication Publication Date Title
US9684966B2 (en) Foreground / background separation in digital images
US8923612B2 (en) Image processing apparatus and method, and program
Xu et al. Cast shadow detection in video segmentation
US20110293247A1 (en) Video matting based on foreground-background constraint propagation
JP2001118062A (en) Dynamic range automatic compression method
IES20050822A2 (en) Foreground/background segmentation in digital images with differential exposure calculations
US12198353B2 (en) Methods and systems for automatically generating backdrop imagery for a graphical user interface
EP1956550B1 (en) Image scaling using perceptual interest values
JP2000194851A (en) Character area extraction method and apparatus, and recording medium recording this method
JP7030425B2 (en) Image processing device, image processing method, program
JP3480408B2 (en) Object extraction system and method, and storage medium storing object extraction program
JP3435334B2 (en) Apparatus and method for extracting character area in video and recording medium
JP2007156741A (en) Character extraction method, character extraction device, and program
JP2008219119A (en) Image processing apparatus and program
KR102180478B1 (en) apparatus AND method for DETECTING CAPTION
CN111091526A (en) Video blur detection method and system
JP2000187732A (en) Character area determination method and apparatus, and recording medium recording this method
JP2001101428A (en) Image processor
JP4631198B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP4282512B2 (en) Image processing apparatus, binarization threshold management method in image processing apparatus, and image processing program
CN119762380A (en) An image edge blur processing system based on deep learning
JP3631409B2 (en) Image processing apparatus and image processing method for removing background components
JPH0721392A (en) Method for extracting contour line of input picture
JP2002288660A (en) Image processing device
JPH0589242A (en) Object area segmenting device for image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 10

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term