[go: up one dir, main page]

JPH0311483A - Method and device for reading data - Google Patents

Method and device for reading data

Info

Publication number
JPH0311483A
JPH0311483A JP1145255A JP14525589A JPH0311483A JP H0311483 A JPH0311483 A JP H0311483A JP 1145255 A JP1145255 A JP 1145255A JP 14525589 A JP14525589 A JP 14525589A JP H0311483 A JPH0311483 A JP H0311483A
Authority
JP
Japan
Prior art keywords
image
image data
main scanning
data
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1145255A
Other languages
Japanese (ja)
Other versions
JP2734638B2 (en
Inventor
Norio Iizuka
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP1145255A priority Critical patent/JP2734638B2/en
Priority to US07/530,630 priority patent/US5153928A/en
Publication of JPH0311483A publication Critical patent/JPH0311483A/en
Priority to US07/869,012 priority patent/US5454054A/en
Priority to US08/451,544 priority patent/US5664030A/en
Priority to US08/451,545 priority patent/US5790715A/en
Application granted granted Critical
Publication of JP2734638B2 publication Critical patent/JP2734638B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To heighten the recovery accuracy of a pattern even when a stain exists by reading image data representing an image from a recording medium, making the data into segments of plural partial data, searching a feature picture element group which features the fraction of a main scan reference pattern hereafter, and finding the position of the fraction by using the group. CONSTITUTION:An encoding image 20 is scanned by moving a manually operated line image sensor 11 consisting of a CCD element, etc., in a lateral direction that is the subscanning direction of the recording medium such as paper, etc., and obtained image output is binarized, and after that, it is transmitted to a control circuit 12 with a timing control signal. Meanwhile, a CPU 13 is operated according to a program stored in a ROM 14, and parallel image data are written on an image RAM 15 at every parallel conversion of serial image data. After the scan of the image is completed, the decoding work of the image data recorded on the RAM 15 is started, and a result is stored in a RAM 16. At such a case, the decoding work is comprised of a processing to recognize a sampling reference pattern, and a processing to identify the light-and-shade of each stitch.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は紙やシート等の記録媒体に記録された符号化
画像を取り込んで符号化されているデータを読み取るデ
ータ読取方法および装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a data reading method and apparatus for reading encoded data by capturing an encoded image recorded on a recording medium such as paper or a sheet.

[背 景] 画像の符号化技術として従来よりバーコード技術が知ら
れているが、バーコードの場合、その構造上、記録でき
る情報量に限界があり、記録密度を高くできないという
問題があった。
[Background] Barcode technology has long been known as an image encoding technology, but due to its structure, barcodes have a limit to the amount of information that can be recorded, making it impossible to increase the recording density. .

最近、本件出願人はバーコードに代え、縦横に多数の網
目を配置し、各網目に選択的に形成した明暗によってデ
ータを符号化した網状パターンを符号化画像のデータ本
体として使用し、このような符号化画像を取り込んで解
読する技術を提案している(特願昭63−328028
号)、この方式の場合、記録媒体上において2次元的に
微少間隔で配置した網目の各々の明暗によって各データ
ビットが表現されるので、記録密度は大幅に改善できる
Recently, instead of barcodes, the applicant has used a mesh pattern, in which data is encoded by selectively forming brightness and darkness in each mesh, as the data body of an encoded image, by arranging many meshes vertically and horizontally. proposed a technology for capturing and decoding encoded images (patent application No. 63-328028).
In this method, each data bit is expressed by the brightness and darkness of each mesh that is two-dimensionally arranged at minute intervals on the recording medium, so the recording density can be greatly improved.

この種の符号化画像に対するデータ解読の目的は網状パ
ターンにおける各網目の明暗を知ることにあるが、その
アプローチとしてイメージセンサ−から取り込んだイメ
ージデータ上から直接的に網目を探索する方式は一般に
不利であり、誤った認識が生じやすい、特に簡易なイメ
ージセンサ−として、手動で記録媒体上の符号化画像を
走査するラインイメージスキャナを用いた場合には、走
査中における走査速度の変動や方向の変化のために、相
当の画像歪みが走査段階で発生し、取り込んだイメージ
データ上の各網目の位置が記録媒体上での各網目の位置
から大きくずれてしまい解読は極めて困難となる。走査
速度を測定するロータリエンコーダ等の特殊な機構をイ
メージセンサ−に設けることにより、この問題は軽減さ
れるがコスト高が避けられない。
The purpose of data decoding for this type of coded image is to know the brightness and darkness of each mesh in the mesh pattern, but the method of searching for the mesh directly from the image data captured from the image sensor is generally disadvantageous as an approach. Therefore, when using a line image scanner that manually scans the encoded image on a recording medium as a simple image sensor, erroneous recognition is likely to occur. Due to the changes, considerable image distortion occurs during the scanning stage, and the location of each mesh on the captured image data is significantly offset from the location of each mesh on the recording medium, making interpretation extremely difficult. This problem can be alleviated by providing the image sensor with a special mechanism such as a rotary encoder for measuring the scanning speed, but this increases the cost.

そこで、上述した特願昭63−328028号では記録
媒体上の符号化画像のなかに、網状パターンの各網目の
主走査方向での中心位置(網目の縦方向での中心)を指
示するための主走査基準パターンと、副走査方向での中
心位置(網目の横方向での中心)を指示するための副走
査基準パターンとを追加し、解読作業において、この符
号化画像を取り込んだイメージデータ上から、各走査基
準パターンの位置を認識し、その結果からイメージデー
タ上での各網目の中心位置を決定し、そこにある網目の
明暗を代表するイメージビット(画素)をサンプリング
している。特に実施例では、縦横に等間隔で網目を配し
た網状パターンの外側に主走査基準パターンとしての2
木のガイドラインを網状パターンを挾むようにして平行
に配置するとともに、副走査基準パターンとして黒の網
目と白の網目(クロック)を交互に繰り返すパターンの
同期マークを各ガイドラインの内側に沿って設けており
、この2つの同期マークの対応するクロック同士を結ぶ
線上に網状パターンの縦の網目の列が一致するようにし
ている。このような符号化画像に対し、ラインイメージ
センサ−がほぼガイドライン方向に沿って動かされ、そ
のイメージデータを1ラインずつ取り込む、解読作業に
おいて、イメージデータの各主走査ラインイメージの両
端から中央に向って画素値が調べられ、最初の白から黒
への変化を検出することにより、その主走査ラインイメ
ージにおけるガイドライン位置を得ている。イメージデ
ータ上の各主走査ラインイメージは記録媒体上の網目パ
ターンを完全には縦方向ではなくラインイメージごとに
変動を受けながら斜めに横切った線上の画像部を表わし
ている。しかし、その場合であっても、斜線上の2つの
ガイドライン位置間(ガイドライン間隔)を適当に等分
した点が、網状パターンにおける各網目の縦方向の中心
(及び同期マークの網目の縦方向の中心)に位置するよ
うに符号化画像が構成されている。そこで、この性質を
利用し、各主走査ラインイメージのガイドライン位置間
を画像フォーマットに従って等分し、各等分点のイメー
ジピクトをサンプリングして主走査デコードされたイメ
ージデータを得る。この主走査デコードされたイメージ
データの両側にある配列(イメージドツト列)は同期マ
ークの縦方向の中心を仙ったイメージを表わしており、
このイメージドツト列を仙ってゆけば、同期マークの各
網目(クロック)を表わす白画素のランレングス(連な
り)と黒画素のランレングスとが交互に観察されるはず
である。
Therefore, in the above-mentioned Japanese Patent Application No. 63-328028, a coded image on a recording medium is provided to indicate the center position of each mesh in the main scanning direction (the center of the mesh in the vertical direction). A main scanning reference pattern and a sub-scanning reference pattern for indicating the center position in the sub-scanning direction (horizontal center of the mesh) are added, and in the decoding process, the image data captured with this encoded image is From this, the position of each scanning reference pattern is recognized, the center position of each mesh on the image data is determined from the result, and image bits (pixels) representing the brightness and darkness of the mesh located there are sampled. In particular, in the embodiment, two main scanning reference patterns are placed on the outside of the mesh pattern in which meshes are arranged at equal intervals vertically and horizontally.
Wooden guidelines are arranged in parallel to sandwich the mesh pattern, and a synchronization mark with a pattern of alternating black mesh and white mesh (clock) is provided along the inside of each guideline as a sub-scanning reference pattern. The vertical mesh rows of the mesh pattern are made to coincide with the lines connecting the corresponding clocks of these two synchronization marks. For such a coded image, a line image sensor is moved roughly along the guideline direction and the image data is captured line by line. During the decoding process, the line image sensor moves from both ends of each main scanning line image of the image data toward the center. The pixel values are checked, and by detecting the first change from white to black, the guideline position in the main scanning line image is obtained. Each main-scanning line image on the image data represents an image portion on a line that diagonally crosses the mesh pattern on the recording medium not completely in the vertical direction but with variations for each line image. However, even in that case, the point that appropriately divides the distance between the two guideline positions (guideline interval) on the diagonal line is the vertical center of each mesh in the mesh pattern (and the vertical center of the mesh of the synchronization mark). The encoded image is configured so that it is located at the center). Therefore, by utilizing this property, the guideline positions of each main scanning line image are equally divided according to the image format, and the image pictograms at each equally divided point are sampled to obtain main scanning decoded image data. The arrays (image dot rows) on both sides of this main-scanning decoded image data represent images centered around the vertical center of the synchronization mark.
As you scan this image dot array, you should be able to see alternating run lengths of white pixels and run lengths of black pixels representing each mesh (clock) of the synchronization mark.

そして、各ランレングスの中心が同期マークのクロック
の横方向の中心と考えられ、両側の同期マークのイメー
ジドツト列にある対応するランレングスの中心を結ぶ線
が網状パターンの縦の網目列の横方向の中心を通ると考
えられる。そこで、この原理に従って、主走査デコード
されたイメージデータから同期マークの各クロックの中
心を検出し、対応する両側のクロックの中心同士を結ぶ
線上にある各イメージドツト(画素値)をサンブリソゲ
することにより、網状パターンにおける各網目の明暗が
識別される。
The center of each run length is considered to be the horizontal center of the clock of the synchronization mark, and the line connecting the centers of the corresponding run lengths in the image dot rows of the synchronization marks on both sides is the horizontal center of the vertical mesh row of the mesh pattern. It is considered to pass through the center of the direction. Therefore, according to this principle, the center of each clock of the synchronization mark is detected from the main scanning decoded image data, and each image dot (pixel value) on the line connecting the centers of the corresponding clocks on both sides is calculated. , the brightness of each mesh in the mesh pattern is identified.

以上のようにコストのかからない走査基準パターンを符
号化画像に付加し、取り込んだイメージデータから走査
基準パターンの各位置を検出することにより、歪んだイ
メージデータ上から直接的に網状パターンの各網目を探
索するという困難な問題を避けて各網目の位置を求める
ことが可能となった。
As described above, by adding an inexpensive scanning reference pattern to the encoded image and detecting each position of the scanning reference pattern from the captured image data, each mesh of the mesh pattern can be directly detected from the distorted image data. It is now possible to find the position of each mesh without the difficult problem of searching.

しかし、記録媒体の符号化画像自体に汚れ等のキズがあ
り、それによって走査基準パターンが部分的に漬れたり
、欠けたりして損傷を受けているような場合には、上述
したような解読方法では汚れ等を走査基準パターンの断
片と見誤るおそれが多分にあり、その結果を基に決めら
れるイメージデータ上の窮状パターンの各網目の位置に
狂いが生じ、でたらめな明暗識別結果をもたらすという
問題があった0例えば、汚れのために発生する主走査基
準としてのガイドラインの位置の狂いは主走査ラインイ
メージ上における2本のガイドラインの対応する位置同
士を結ぶ線を等分した網目のたて方向の中心位置となる
べき位置にも波及し、その結果、後で訂正不可能なサン
プリングエラーを生じ得る。
However, if the encoded image itself on the recording medium has stains or other scratches, and the scanning reference pattern is partially soaked or chipped or damaged, the above-mentioned decoding method may be used. In this method, there is a high risk of mistaking dirt, etc. as fragments of the scanning reference pattern, and the position of each mesh of the predicament pattern on the image data determined based on the result will be incorrect, resulting in haphazard brightness discrimination results. There was a problem 0 For example, the deviation in the position of the guideline as a main scanning reference that occurs due to dirt is caused by the formation of a mesh that equally divides the lines connecting the corresponding positions of the two guidelines on the main scanning line image. This also affects the position that should be the directional center position, which can result in sampling errors that cannot be corrected later.

[発明の目的] したがって、この発明の目的は網状パターンをデータ本
体とする符号化画像の走査基準パターン、特に主走査方
向における網状パターンのデータサンプリング基準を指
示するための主走査基準パターンが記録媒体上の汚れ等
によって部分的に破壊された場合でも、イメージデータ
上における正しい走査基準パターンの各位置を割り出す
ことができるデータ読取方法及び装置を提供することで
ある。
[Object of the Invention] Therefore, the object of the present invention is to provide a scanning reference pattern for an encoded image whose data main body is a mesh pattern, especially a main scanning reference pattern for instructing a data sampling standard of the mesh pattern in the main scanning direction on a recording medium. It is an object of the present invention to provide a data reading method and device capable of correctly determining each position of a scanning reference pattern on image data even when the image data is partially destroyed by dirt or the like.

[発明の構成、作用] この発明は上記の目的を達成するため、網状パターンと
主走査基準パターンを含む画像が記録された記録媒体か
らその画像を表わすイメージデータを読み取り、読み取
られたイメージデータを複数の部分イメージデータにセ
グメント化し、セグメント化された各部分イメージデー
タについて、その部分イメージデータのなかから上記主
走査基準パターンの断片を特徴とする特徴画素群を探索
し、探索において特徴画素群が検出されなかった部分イ
メージデータについては他の部分イメージデータに対す
る探索において検出された特徴画素群によって示される
主走査基準パターンの断片の位置から、その部分イメー
ジデータにおける主走査基準パターンの断片の位置を割
り出すことにより、イメージデータにおける主走査基準
パターンの各断片の位置情報を生成し、生成された位置
情報に基づいて上記イメージデータにおける上記網状パ
ターンの各網目の明暗を識別するようにしたことを特徴
としている。
[Structure and operation of the invention] In order to achieve the above object, the present invention reads image data representing the image from a recording medium on which an image including a reticular pattern and a main scanning reference pattern is recorded, and reads the read image data. Segmented into a plurality of partial image data, each segmented partial image data is searched for a characteristic pixel group characterized by a fragment of the main scanning reference pattern from among the partial image data, and in the search, the characteristic pixel group is For undetected partial image data, the position of the main scanning reference pattern fragment in that partial image data is determined from the position of the main scanning reference pattern fragment indicated by the characteristic pixel group detected in the search for other partial image data. By determining this, positional information of each fragment of the main scanning reference pattern in the image data is generated, and based on the generated positional information, the brightness and darkness of each mesh of the mesh pattern in the image data is identified. It is said that

この構成によれば、汚れ等によって記録媒体上の主走査
基準パターンが部分的に破壊された場合でも、破壊部分
が部分イメージデータという部分的な領域内に限定され
、しかも、この部分的な領域における主走査基準パター
ンの位置が他の健全な主走査基準パターン断片部から得
た特徴画素群の示す位置によって割り出されるので、破
壊がなかったとしたときの主走査基準パターンの・位置
を高精度で復元することができ、したがって、主走査基
準パターンの位置を基準として行われる網状パターンの
各網目の明暗の識別も確実なものになる。
According to this configuration, even if the main scanning reference pattern on the recording medium is partially destroyed due to dirt or the like, the destroyed part is limited to a partial area called partial image data, and furthermore, this partial area Since the position of the main scanning reference pattern in is determined based on the position indicated by the characteristic pixel group obtained from other healthy main scanning reference pattern fragments, the position of the main scanning reference pattern in the case of no destruction can be determined with high precision. Therefore, the brightness and darkness of each mesh of the mesh pattern, which is performed using the position of the main scanning reference pattern as a reference, can be reliably identified.

1つの好ましい態様では主走査基準パターンは網状パタ
ーンの両側に延びる2本の連続線(ガイドライン)で構
成され、このガイドラインの断片を特徴付ける画素群と
してイメージデータの深さ方向(主走査ラインイメージ
と直交する方向)に連なる適当な間隔をもつ白、黒、白
の3木のランレングス(ガイドラインセットと呼ばれる
)が使用される。このようなガイドラインセットがセグ
メント化された部分イメージデータ上において2本のガ
イドラインのそれぞれについて探索され、探索に失敗し
た方(両方の場合もあり得る)ガイドライン部分の位置
が後で前後の健全なガイドライン位置から補間によって
求められる。このような2木のガイドラインは手動でイ
メージセンサ−を走査したような場合に生じる走査方向
の変化に対応できるとともに、そのパターン自体が長い
連続線であって他のイメージ要素にはない特徴をもって
いるので認識する上で有利であり、更には符号化画像の
まわりに文字等の解読上望ましくないイメージが配置さ
れるような場合でも、符号化画像の境界としての機能を
発揮し得る。
In one preferred embodiment, the main scanning reference pattern is composed of two continuous lines (guidelines) extending on both sides of the net-like pattern, and the pixel groups characterizing the guideline fragments are defined in the depth direction of the image data (orthogonal to the main scanning line image). A run length (referred to as a guideline set) of three white, black, and white trees with appropriate spacing is used. Such a guideline set is searched for each of the two guidelines on the segmented partial image data, and the position of the guideline part for which the search fails (possibly both) is later replaced by a healthy guideline before or after it. Determined by interpolation from the position. Such a two-tree guideline can accommodate changes in the scanning direction that occur when manually scanning an image sensor, and the pattern itself is a long continuous line, which has characteristics that other image elements do not have. Therefore, it is advantageous for recognition, and furthermore, it can function as a boundary of the encoded image even when an image that is undesirable for decoding, such as a character, is placed around the encoded image.

この発明は任意の適当なパターンをもつ主走査基準パタ
ーンに対して適用し得るが、(イ)場所的に特徴(例え
ば網状パターンの外部にある)をもつものや、(ロ)パ
ターン自体がユニークで窮状パターンの各網目と容易に
区別できるもの等が主走査基準パターンの認識の容易化
等を図る上で望ましい。
This invention can be applied to main-scanning reference patterns having any suitable pattern, but (a) those having local characteristics (for example, outside the reticular pattern), and (b) the pattern itself being unique. It is desirable to have a pattern that can be easily distinguished from each mesh of the predicament pattern in order to facilitate recognition of the main scanning reference pattern.

また、ラインイメージセンサ−による符号化画像の走査
中に、窮状パターンに先立って走査される位li(網状
パターンの手前)にデータ開始マークを形成し、網状パ
ターンの走査後に走査される位置にデータ終了マークを
形成してもよい、この場合、解読作業において、イメー
ジデータ上からこれらのデータ開始、終了マークを検出
することにより、−層、確実なデータ解読が可能になる
Also, while scanning the encoded image by the line image sensor, a data start mark is formed at a position li (before the mesh pattern) scanned prior to the predicament pattern, and a data start mark is formed at the position scanned after the mesh pattern is scanned. End marks may also be formed. In this case, by detecting these data start and end marks on the image data during the decoding operation, reliable data decoding becomes possible.

例えば、上述したガイドラインのような主走査基準パタ
ーンの端部が破壊されているような場合に、データ開始
マーク、終了マークが主走査基準パターンの端部を横切
る主走査線上または線群上に位置するように符号化画像
のフォーマットを決めておくことにより、データ開始マ
ークまたは終了マークの断片を検出した主走査ラインイ
メージの線と破壊されていない主走査基準パターン部分
について検出されている結果によって推定される線とか
ら主走査基準パターンの破壊されている端部を知ること
ができる。
For example, if the edge of the main scanning reference pattern is destroyed as in the guideline mentioned above, the data start mark and end mark are located on the main scanning line or line group that crosses the edge of the main scanning reference pattern. By determining the format of the encoded image in such a way, the data start mark or end mark fragment can be estimated based on the detected line of the main scanning line image and the undestroyed main scanning reference pattern part. The destroyed end of the main scanning reference pattern can be determined from the line.

また、主走査基準パターンの断片を探索する単位領域で
ある部分イメージデータの大きさ(深さ)あるいは探索
する断片の大きさは、探索結果によって局所化し1例え
ば破壊されている断片の大きさにほぼ等しくなる程度ま
で段階的に縮少化してもよい0例えば、2つの連続する
部分イメージデータについて連続して探索に失敗したら
、探索する断片の大きさを半分にして再度、探索を試み
るといった具合である。このようにすれば、層、精度の
高い主走査基準パターンの位置の割り出しが可能になる
In addition, the size (depth) of partial image data, which is a unit area in which to search for fragments of the main scanning reference pattern, or the size of the fragment to be searched for can be localized depending on the search result, for example, depending on the size of a destroyed fragment. It may be reduced step by step until they become approximately equal.0 For example, if the search for two consecutive partial image data fails consecutively, the size of the fragment to be searched is halved and the search is attempted again. It is. In this way, it becomes possible to determine the position of the main scanning reference pattern with high accuracy.

[実施例] 以下、図面を参照してこの発明の詳細な説明する。[Example] Hereinafter, the present invention will be described in detail with reference to the drawings.

箸」」51例 第1図は第1実施例に係るデータ読取装置lOの全体構
成を示したものである。装置全体の目的は、紙等の記録
媒体に記録された網状の画像20(第2図参照)をイメ
ージセンサ−11で読み取り1画像に符号化されている
データを解読することである。
Example 51 of "Chopsticks" FIG. 1 shows the overall configuration of a data reading device IO according to a first embodiment. The purpose of the entire apparatus is to read a net-like image 20 (see FIG. 2) recorded on a recording medium such as paper with an image sensor 11 and decipher the data encoded in one image.

イメージセンサ−11は例えばCOD素子の検出アレイ
を含む手動式のラインイメージセンサ−であり、手動に
より、記録媒体の副走査方向(横方向)に動かされるこ
とによって、記録媒体上の符号化画像20を走査し、対
応するイメージデータを発生する。詳細には、検出アレ
イの各検出素子において、入力光、即ち、各検出素子に
対向する記録媒体上の画素の明暗に従う入力光がアナロ
グ電気信号に光電変換され、主走査lライフ分の時間を
定める所定の周期(主走査周期)ごとに検出アレイの全
検出素子分のラインイメージ出力が得られるように、各
検出素子のアナログイメージ出力がアナログマルチプレ
クサ等を介して順番にかつ周期的に取り出される。しか
る後、2値化回路にて2値化され(例えば、黒画素は“
1″、白画素はO”)、この2値化された直列のイメー
ジデータがタイミング制御信号とともに制御回路12へ
伝送される。制御回路12ではイメージセンサ−11関
係の制御と、直列に送られてくるイメージデータの並列
変換を行う。
The image sensor 11 is, for example, a manual line image sensor including a detection array of COD elements, and is manually moved in the sub-scanning direction (lateral direction) of the recording medium to detect the encoded image 20 on the recording medium. to generate corresponding image data. Specifically, in each detection element of the detection array, the input light, that is, the input light according to the brightness of the pixels on the recording medium facing each detection element, is photoelectrically converted into an analog electrical signal, and the time corresponding to the main scanning life is The analog image output of each detection element is sequentially and periodically taken out via an analog multiplexer etc. so that line image outputs for all detection elements of the detection array can be obtained at each predetermined period (main scanning period). . After that, it is binarized by a binarization circuit (for example, black pixels are
1'', and O'' for white pixels), this binarized serial image data is transmitted to the control circuit 12 together with a timing control signal. The control circuit 12 performs control related to the image sensor 11 and parallel conversion of image data sent in series.

一方、CPU13はROM14に記憶されたプログラム
に従って動作し、イメージセンサ−11が画像の走査を
行っている間は、制御回路12で直列イメージデータが
並列変換される都度、その並列データをイメージRAM
15に書き込んでいく0画像走査の終了後、CPU13
はイメージRAM15に記録されているイメージデータ
の解読作業に入り、その結果をRAM16に記録する。
On the other hand, the CPU 13 operates according to the program stored in the ROM 14, and while the image sensor 11 is scanning an image, each time the control circuit 12 converts the serial image data into parallel data, the parallel data is transferred to the image RAM.
After completing the 0 image scan, which is written to 15, the CPU 13
starts decoding the image data recorded in the image RAM 15 and records the result in the RAM 16.

解読作業は大きく分けて、イメージデータからデータの
サンプリング基準パターンを認識する処理と、その結果
に基づいてデータ本体である窮状パターンの各網目の明
暗を識別する処理とから成る0本実施例によればサンプ
リング基準パターンが汚れ等によって部分的に破壊され
ている場合でも、イメージデータ上におけるサンプリン
グ基準パターンの各位置を高い精度で割り出すことがで
き、これによって網状パターンに対する正確な解読結果
が得られるようにしている。その詳細は後述する。
According to this embodiment, the decoding work is roughly divided into a process of recognizing a sampling reference pattern of data from image data, and a process of identifying the brightness and darkness of each mesh of the predicament pattern, which is the main body of data, based on the result. For example, even if the sampling reference pattern is partially destroyed due to dirt, etc., each position of the sampling reference pattern on the image data can be determined with high precision, and this makes it possible to obtain accurate decoding results for the mesh pattern. I have to. The details will be described later.

第2図はデータ読取装置lOの読取対象である記録媒体
上の符号化画像の例である0図示の符号化画像20は内
部にデータ本体としての網状パターン22を有している
。網状パターン22は縦横に並べられた多数の網目から
成り、各網目はデータの単位であるビットを表現(符号
化)するため1選択的に暗(黒)または明(白)になっ
ており、例えば、黒の網目でビット“1″を表現し、白
の網目でビット“O”を表現している0図の例では網状
パターン22は48X72ビツトの情報をもっている。
FIG. 2 is an example of an encoded image on a recording medium to be read by the data reading device 10. The encoded image 20 shown in FIG. 2 has a mesh pattern 22 as a data body inside. The mesh pattern 22 consists of a large number of meshes arranged vertically and horizontally, and each mesh is selectively dark (black) or bright (white) in order to express (encode) bits that are units of data. For example, in the example shown in Figure 0 in which black mesh represents bit "1" and white mesh represents bit "O", mesh pattern 22 has 48x72 bits of information.

更に、符号化画像20はデータ本体である網状パターン
22に対する主走査と副走査のデータサンプリング基準
を指示するためのパターンないしマークをもっている。
Further, the encoded image 20 has a pattern or mark for indicating data sampling standards for main scanning and sub-scanning with respect to the mesh pattern 22 which is the data body.

第2図の場合、主走査のサンプリング基準のマークと副
走査のサンプリング基準のマークとは別々になっており
、主走査のサンプリング基準は網状パターン22の上と
下の両側に沿って副走査方向に延在する2本のガイドラ
イン21によって与えられ、副走査のサンプリング基準
は各ガイドライン21の内側に沿って、交互に黒と白の
網目を繰り返すパターンをもつ2つの同期マーク列25
によって与えられる、同期マーク列25の黒白網目の間
隔は網状パターン22の副走査方向の網目の間隔に一致
するかたちで同期しているので、同期マーク列25の各
網目のことをクロックと呼ぶことにする。
In the case of FIG. 2, the main scanning sampling reference mark and the sub-scanning sampling reference mark are separate, and the main scanning sampling reference mark extends in the sub-scanning direction along both the upper and lower sides of the mesh pattern 22. The sampling criteria for the sub-scanning is given by the two guidelines 21 that are present, and the sampling criteria for the sub-scanning is provided by two synchronization mark rows 25 having a pattern of alternating black and white meshes along the inside of each guideline 21.
Since the interval between the black and white meshes of the synchronization mark row 25 given by is synchronized in such a manner as to match the mesh interval in the sub-scanning direction of the mesh pattern 22, each mesh of the synchronization mark row 25 can be referred to as a clock. Make it.

主走査基準パターンとして間隔をあけた2本のガイドラ
イン21を、イメージセンサ−11の移動方向、即ち画
像20の副走査方向に沿って設けたのは、画像の走査中
にイメージセンサ−11の方向が変化した場合にも対応
できるようにするためである。即ち、イメージセンサ−
11からのイメージデータは主走査ライン別に識別可能
な仕方でイメージRAM15に記憶されるが、記憶され
た各々の主走査ラインイメージデータがどの方向でのラ
イン画像を示しているかははっきりしない、しかし、各
主走査ラインイメージデータ上における2つのガイドラ
イン21の位置を検出することにより、その検出結果か
ら、網状パターン22の各網目の縦方向の中心位M(あ
るいは縦方向の存在範囲でもよい)に相当する各主走査
ラインイメージデータ上における位置(主走査データサ
ンプリングの中心位R)を、原画がもつ位置関係、即ち
オリジナルである記録媒体上の符号化画像において2つ
のガイドライン21と網状パターン22との間に形成さ
れている所定の位置関係に従って決定することができる
6例えば、第2図の画像フォーマットの場合、2つのガ
イドライン21は互に平行で、かつ網状パターン22に
対しても平行であり、上のガイドライン21の1点と下
のガイドライン21の1点とを結ぶ直線は網状パターン
22における等間隔の複数の網目を通るので、そのよう
な直線の画像を表わすラインイメージデータにも、この
ことが保存されているはずであり、したがって、そのラ
インイメージデータ上から1両ガイドライン21の点を
みつけ、その間を等分することで、そのライン画像にお
ける各網目の主走査方向での中心位置が得られる。
The reason why the two guidelines 21 spaced apart as the main scanning reference pattern are provided along the moving direction of the image sensor 11, that is, the sub-scanning direction of the image 20, is because the image sensor 11 is directed during image scanning. This is to be able to respond even if the That is, the image sensor
The image data from 11 is stored in the image RAM 15 in a manner that allows each main scanning line to be identified, but it is not clear in which direction each stored main scanning line image data represents a line image. By detecting the positions of the two guidelines 21 on each main scanning line image data, the detection result corresponds to the vertical center position M (or the vertical existing range) of each mesh of the mesh pattern 22. The position on each main scanning line image data (center position R of main scanning data sampling) is calculated based on the positional relationship of the original image, that is, the positional relationship between the two guidelines 21 and the mesh pattern 22 in the encoded image on the original recording medium. For example, in the case of the image format shown in FIG. 2, the two guidelines 21 are parallel to each other and also parallel to the mesh pattern 22. Since a straight line connecting one point on the upper guideline 21 and one point on the lower guideline 21 passes through a plurality of equally spaced meshes in the mesh pattern 22, this also applies to line image data representing an image of such a straight line. Therefore, by finding the points of the two guide lines 21 on the line image data and dividing them equally, the center position of each mesh in the main scanning direction in the line image can be obtained. It will be done.

一方、副走査基準パターンである同期マーク列25は取
り込んだイメージデータにおける副走査方向における各
網目の位置を決定するのに利用される。即ち、上と下の
各同期マーク列25の各クロックをイメージデータ上か
ら検出し、上と下の対応するクロック同士に着目する。
On the other hand, the synchronization mark row 25, which is a sub-scanning reference pattern, is used to determine the position of each mesh in the sub-scanning direction in the captured image data. That is, the clocks of the upper and lower synchronization mark rows 25 are detected from the image data, and attention is paid to the corresponding clocks of the upper and lower rows.

第2図の符号化画像フォーマットの場合、この対応する
クロック同士の中心を結ぶ直線は網状パターン22の縦
のある列における各網目の横方向(副走査方向)での中
心を通る。したがって、1対の同期マーク列25の各ク
ロックの位置をイメージデータ上から検出することによ
り、イメージデータ上における網状パターン22の各網
目の副走査方向の中心位置あるいは副走査方向での存在
範囲を決定できる。
In the case of the encoded image format shown in FIG. 2, a straight line connecting the centers of the corresponding clocks passes through the center of each mesh in a certain vertical column of the mesh pattern 22 in the horizontal direction (sub-scanning direction). Therefore, by detecting the position of each clock of a pair of synchronization mark rows 25 from the image data, the center position or the existence range in the sub-scanning direction of each mesh of the mesh pattern 22 on the image data can be determined. You can decide.

更に、第2図の符号化画像20の場合、網状パターン2
2に先立って走査される領域に市松模様の網目群から成
るデータ開始マーク23があり、網状パターン22の走
査後に走査される領域には横に細長く主走査方向に沿っ
て交互に黒と白を繰り返すデータ終了マーク24が形成
されている。
Furthermore, in the case of the encoded image 20 in FIG.
There is a data start mark 23 consisting of a checkered mesh group in the area scanned prior to 2, and in the area scanned after the mesh pattern 22 is scanned, there is a horizontally long thin mark 23 in black and white alternately along the main scanning direction. A repeating data end mark 24 is formed.

この例のようにデータ開始マーク23.終了マーク24
は周期的あるいは規則的なパターンとすることでイメー
ジデータ上においてこれらのマークを容易に検出するこ
とができる。また、この例のように、データ開始マーク
23と終了マーク24とを視覚上1区別しやすいパター
ンにすることにより、使用者は符号化画像20に対する
イメージセンサ−11の走査方向(移動方向)を容易に
判断できる。更に、主走査基準としてのガイドライン2
1の端の部分が汚れ等で破壊されていても、データ開始
マーク23あるいは終了マーク24を検出することで、
データの開始や終了を検出でき、更にはガイドライン2
1のつぶれた位置を予測ないし評価することも可能とな
る。
As in this example, the data start mark 23. End mark 24
These marks can be easily detected on image data by forming periodic or regular patterns. Further, as in this example, by forming the data start mark 23 and the data end mark 24 in a pattern that is easily visually distinguishable, the user can easily determine the scanning direction (movement direction) of the image sensor 11 with respect to the encoded image 20. Easy to judge. Furthermore, Guideline 2 as a main scanning standard
Even if the end of data 1 is destroyed due to dirt, etc., by detecting the data start mark 23 or end mark 24,
It is possible to detect the start and end of data, and even guideline 2
It is also possible to predict or evaluate the collapsed position of 1.

第3図は第2図に示す符号化画像をイメージセンサ−1
1でややていねいに手動走査した場合に得られるイメー
ジを示したものである。実施例によれば、図示の程度の
歪みであれば、サンプリング基準パターンの部分的な欠
損、即ち、ガイドライン21や同期マーク列25が多少
破壊されていても、十分に対応でき、正しい解読結果を
与えることができる。
Figure 3 shows the encoded image shown in Figure 2 on the image sensor 1.
This figure shows the image obtained when manually scanning the image in step 1. According to the embodiment, even if the sampling reference pattern is partially missing, that is, the guideline 21 and the synchronization mark row 25 are somewhat destroyed, as long as the degree of distortion shown in the figure is present, it is possible to sufficiently cope with the problem and obtain correct decoding results. can give.

以下、実施例によるイメージデータの解読処理について
説明する。
Image data decoding processing according to an embodiment will be described below.

第4図は符号化画像20を走査したイメージデータのス
トアと、ストアされたイメージデータから主走査基準パ
ターンであるガイドライン21を認識して、イメージデ
ータを主走査サンプリングする処理のフローチャートで
あり、第5図は主走査サンプリングされたイメージデー
タから、副走査基準パターンである同期マーク列25を
認識してイメージデータの副走査サンプリングを行う処
理のフローチャートである。この実施例は、ガイドライ
ン21の認識と同期マーク列25の認識に特徴を有して
おり、以下説明するように、多少の破壊がガイドライン
21や同期マーク列25に生じている場合でも、高い精
度で破壊されている位置を割り出すことができる。
FIG. 4 is a flowchart of the process of storing image data obtained by scanning an encoded image 20, recognizing a guideline 21 which is a main scanning reference pattern from the stored image data, and performing main scanning sampling of the image data. FIG. 5 is a flowchart of a process for performing sub-scanning sampling of image data by recognizing a synchronization mark row 25, which is a sub-scanning reference pattern, from image data subjected to main-scanning sampling. This embodiment is characterized by the recognition of the guideline 21 and the synchronization mark row 25, and as described below, even if some damage occurs to the guideline 21 or the synchronization mark row 25, the accuracy is high. You can determine the location of the destruction.

第4図において、4−1から4−5は記録媒体の符号化
画像20をイメージセンサ−11で読み取ってイメージ
RAM15に書き込む工程である。なお、4−3に示す
走査終了条件(メモリー杯)は単なる例示であり、他の
任意の適当なイベント発生を走査終了の合図とすること
ができる。
In FIG. 4, 4-1 to 4-5 are steps for reading the encoded image 20 on the recording medium with the image sensor 11 and writing it into the image RAM 15. Note that the scan end condition (memory cup) shown in 4-3 is merely an example, and the occurrence of any other appropriate event can be used as a signal for the end of the scan.

また、4−4に示すように、イメージRAM15として
バイトメモリを想定している。第6図はイメージRAM
15のメモリマツプを示したもので、図の横の1行(イ
メージRAM15の文例の連続アドレス)に、1ライン
分のイメージ(ラインイメージ)が書き込まれる。
Further, as shown in 4-4, a byte memory is assumed as the image RAM 15. Figure 6 is image RAM
15, in which one line of image (line image) is written in one line on the side of the diagram (consecutive addresses of example sentences in image RAM 15).

イメージの解読作業は第4図の4−6から始まる。4−
6において、第6図のような形式で記憶されたイメージ
データの全体から、ガイドラインセット(主走査基準で
あるガイドラインを特徴づける画素群)の探索が行われ
る。第2図に示すようにガイドライン21は黒の連続線
であり、符号化画像20の他の要素にはない特徴をもっ
ている。したがって、例えば、第7図に例示するように
、適当な間隔をもつ白、黒、白の3本の平行なうンレン
グス73.74.75でガイドラインセットを定義し得
る。ガイドラインセットを見つけるために必要なランレ
ングスの間隔ないし輻76の初期値は固定の標準の限界
値を用いてもよいし、あるいは、ラインイメージに最も
高い頻度で現われる白や黒ドツトの幅を測定するなどし
て決定してもよい、適当な3本のランレングス73.7
4.75で定められるガイドラインセットの探索は、イ
メージRAM15の適当なラインイメージ上において適
当な間隔をもつ自ドツト、黒ドツト、白ドツトの位置か
ら、ラインイメージと垂直な深さ方向(第6図の場合、
縦の方向)に、イメージを追跡して、白、黒、白の各ド
ツトの続く数(ランレングス)を調べ、その結果をガイ
ドラインセットの条件と比較する処理を繰り返すなどし
て行える。探索に失敗したときは解読不可なのでエラー
となるが(4−7)探索に成功したときにはガイドライ
ンセットの情報からイメージデータ上のガイドラインの
幅や走査方向の傾きの標準値が定まる。更に、4−8に
おいて走査方向の傾きの標準値からの変動を考慮したマ
ージンを左右(第2図の場合は上下であるが、第6図に
従い、以下左右ということにする)のガイドラインセッ
トの位aに加えることにより、以降の処理で扱うイメー
ジデータの左右の探索領域(第8図の探索@81)が求
められる。なお、この探索幅81の制限は、第8図に示
すように、符号化画像20のまわりに文字等のその他の
イメージ(解読中にノイズとなるおそれのあるイメージ
)がある場合に望まれる処理であり、符号化画像20の
周囲が余白になっている場合は格別に必要ない。
The image decoding process begins at 4-6 in FIG. 4-
6, a guideline set (a group of pixels characterizing a guideline, which is a main scanning reference) is searched from the entire image data stored in the format shown in FIG. As shown in FIG. 2, the guideline 21 is a continuous black line, and has features that other elements of the encoded image 20 do not have. Therefore, for example, as illustrated in FIG. 7, a guideline set can be defined by three parallel lengths 73, 74, and 75 of white, black, and white with appropriate intervals. The initial value of the run length spacing or radius 76 needed to find the guideline set can be a fixed standard limit, or it can be measured by measuring the width of the white or black dot that most frequently appears in the line image. An appropriate three-run length 73.7, which may be determined by
The search for the guideline set defined in 4.75 starts from the positions of self-dots, black dots, and white dots with appropriate intervals on an appropriate line image in the image RAM 15, and searches in the depth direction perpendicular to the line image (see Fig. 6). in the case of,
This can be done by repeating the process of tracking the image in the vertical direction, checking the number of consecutive white, black, and white dots (run length), and comparing the results with the conditions of the guideline set. If the search fails, an error occurs because the information cannot be deciphered (4-7); however, if the search succeeds (4-7), standard values for the width of the guideline on the image data and the inclination in the scanning direction are determined from the information in the guideline set. Furthermore, in 4-8, the margins that take into account the variation of the tilt in the scanning direction from the standard value are set for the left and right (top and bottom in the case of Figure 2, but hereinafter referred to as left and right according to Figure 6). By adding to position a, the left and right search areas (search @ 81 in FIG. 8) of the image data to be handled in subsequent processing can be found. Note that this restriction on the search width 81 is desirable when there are other images such as characters around the encoded image 20 (images that may become noise during decoding), as shown in FIG. This is not particularly necessary if the encoded image 20 has a blank space around it.

4−9から4−11まではイメージデータの深さ方向の
探索領域の限定のための処理であり、そのためにデータ
開始マーク23とデータ終了マーク24を検出してこれ
らのマーク23.24が検出されたラインイメージにお
ける左右のガイドラインの位置を求めている。データ開
始マーク23と終了マーク24は、ラインイメージが周
期的な白黒のパターンを含むことで検出でき、例えば、
第2図の符号化画像の場合、開始、終了マーク23.2
4は24個の白黒の対の繰り返しであるので、マージン
を見込んで20個程度の同じ周期をもつ白黒の対が見つ
かったら、これらのマークであるとする条件で十分であ
る。データ開始マーク23はイメージデータの上のライ
ン(最初のライン)から探索し、データ終了マーク24
はイメージデータの下のライン(最後のライン)から探
索すると都合がよい、開始マーク23または終了マーク
24が検出できなかったときは、符号化画像20の一部
だけが走査された等の誤った操作等が原因と考えられる
のでエラーとして処理する(4−10.4−12)。
4-9 to 4-11 are processes for limiting the search area in the depth direction of image data, and for this purpose, the data start mark 23 and data end mark 24 are detected, and these marks 23 and 24 are detected. The position of the left and right guidelines in the line image is determined. The data start mark 23 and end mark 24 can be detected because the line image includes a periodic black and white pattern, for example,
In the case of the encoded image in Figure 2, start and end marks 23.2
4 is a repetition of 24 black and white pairs, so if about 20 black and white pairs with the same period are found, taking into account the margin, it is sufficient to identify these marks. The data start mark 23 is searched from the top line (first line) of the image data, and the data end mark 24 is searched from the top line (first line) of the image data.
It is convenient to search from the bottom line (last line) of the image data.If the start mark 23 or the end mark 24 cannot be detected, it is possible to detect an error such as only a part of the encoded image 20 being scanned. Since the cause is thought to be an operation, etc., it is treated as an error (4-10.4-12).

4−13から4−18までは、上述の処理によって探索
幅81と探索深さ(第8図でいえばスタートライン8・
2からエンドライン83まで)とが制限されたイメージ
データをサーチブロックと呼ばれる深さ方向で仕切られ
た複数の部分イメージにセグメント化し、各セグメント
におけるガイドラインの破壊の有無を調べているところ
である。
From 4-13 to 4-18, the search width 81 and search depth (start line 8 in FIG. 8) are determined by the above-mentioned processing.
2 to the end line 83) is segmented into a plurality of partial images partitioned in the depth direction called search blocks, and the presence or absence of guideline destruction in each segment is being investigated.

第8図の場合、イメージデータは8つのサーチブロック
84に分けられている。このようなサーチブロックの大
きさ(深さ)を4−13で決めスタートライン82の次
のラインから始まる最初のサーチプロッタを選択する。
In the case of FIG. 8, the image data is divided into eight search blocks 84. The size (depth) of such a search block is determined by 4-13, and the first search plotter starting from the line next to the start line 82 is selected.

サーチブロックの深さは、例えば4−6で得ているガイ
ドラインセットの情報や処理時間、精度等を考慮して決
定でき、その値が4−14で探索されるガイドラインセ
ットに関する白、黒、白のランレングスの必要な長さを
定める。即ち、白、黒、白の深さ方向のランレングスと
して、間隔が適当で、サーチブロックの深さ(以上)の
長さをもつものが見つかった場合、ガイドラインセット
ありとなり、その位置(ガイドラインセットで囲まれる
矩形領域)が記憶される。探索に失敗した場合はそのサ
ーチブロックのガイドラインに何らかの欠損が生じてい
ることになるので、左右どちらのガイドラインについて
失敗したか、あるいは両方失敗したか等、失敗状態に従
うフラグを立てておき、後でガイドライン位置の補間が
できるようにしておく(4−15,4−1・6)0例え
ば、第8図の場合、上から4番目と5番目のサーチブロ
ックの右ガイドライン部分に汚れ85が付いているので
、これらのサーチブロックでは右ガイドラインはエラー
とじて検出される。
The depth of the search block can be determined, for example, by considering the information on the guideline set obtained in 4-6, processing time, accuracy, etc., and its value is determined by the white, black, and white values related to the guideline set searched in 4-14. Determine the required run length. In other words, if a run length in the depth direction of white, black, and white with an appropriate interval and a length (greater than or equal to the depth of the search block) is found, a guideline set is present, and the position (guideline set) is found. (a rectangular area surrounded by ) is stored. If the search fails, it means that there is some kind of deficiency in the guideline of that search block, so set a flag according to the failure status, such as whether the guideline has failed on the left or right, or both. Make it possible to interpolate the guideline position (4-15, 4-1, 6) 0 For example, in the case of Figure 8, there is dirt 85 on the right guideline part of the fourth and fifth search blocks from the top. Therefore, the right guideline is detected as an error in these search blocks.

1つのサーチブロックについてガイドラインの状態を検
査したら次のサーチブロックを選択しく4−17)、検
査し、エンドライン83で終わる最後のサーチブロック
まで検査を繰り返す(4−18)。
After inspecting the state of the guideline for one search block, the next search block is selected (4-17) and inspected, and the inspection is repeated until the last search block ending at the end line 83 (4-18).

なお、第4図のフローでは行っていないが、サーチブロ
ックのサイズを探索結果に従って可変に局所化するよう
にしてもよい0例えば、4−15でガイドラインのエラ
ーがあるサーチブロックについて検出されたら、そのサ
ーチブロックの深さを半分にして再度、半分の深さの2
つのサーチブロックの各々についてガイドラインの探索
を行ったり、あるいは半分の深さのサーチブロックで4
−13から4−18のループを再開するようにしてもよ
い。
Although this is not done in the flow of FIG. 4, the size of the search block may be localized variably according to the search results.For example, if a search block with a guideline error is detected in 4-15, Halve the depth of that search block and try again with 2
Guideline searches in each of the three search blocks, or four search blocks with half depth.
The loop from -13 to 4-18 may be restarted.

第4図の4−19から最後までは、各サーチブロックに
ついて、各主走査ラインイメージにおける左右のガイド
ラインの各位置を決定し、その位置情報を基に、等分力
式で各ラインイメージの主走査サンプリング位n(その
全体の軌跡が第3図に参照番号31で示されている)を
求め、各サンプリング位置のイメージデータどット(I
i素、ドツト)をラインイメージから取り出して主走査
デコード配列100(第10図参照)を作成している。
From 4-19 to the end in Figure 4, for each search block, the positions of the left and right guide lines in each main scanning line image are determined, and based on the position information, the main scanning line image is The scanning sampling position n (whole trajectory is indicated by reference numeral 31 in FIG. 3) is determined, and the image data dot (I) at each sampling position is determined.
i elements, dots) are extracted from the line image to create a main scanning decoding array 100 (see FIG. 10).

各主走査ラインイメージ上のガイドラインの位置(ガイ
ドライン幅の中心位置)の決定は、その主走査ラインイ
メージが属するサーチブロックのそのガイドラインにつ
いてエラーないし破壊を示す失敗フラグが立っていない
場合には、実測によって行われるが、失敗フラグが立っ
ている場合にはガイドラインが正常な部分について実測
したガイドラインの位置から補間によって行われる。
The position of the guideline on each main scanning line image (center position of the guideline width) can be determined by actual measurement if no failure flag indicating error or destruction is set for the guideline in the search block to which the main scanning line image belongs. However, if the failure flag is set, interpolation is performed from the position of the guideline actually measured in the part where the guideline is normal.

例えば第4図に示すように失敗フラグのリストを参照し
て、前後のサーチブロックの端の主走査ラインイメージ
におけるガイドラインの位置からの直線的な補間により
、問題の主走査ラインイメージにおけるガイドラインの
位置を得ることができる。
For example, as shown in FIG. 4, the position of the guideline in the main scanning line image in question is determined by linear interpolation from the position of the guideline in the main scanning line image at the ends of the previous and next search blocks by referring to the list of failure flags. can be obtained.

フローに従うとチエツク4−20でNOとなるのは現サ
ーチブロックの左右のガイドラインがともに正常である
場合であり(対応する失敗フラグが下がっていることか
られかる)、その場合は4−29で現サーチブロック内
の各主走査ラインイメージについて左右のガイドライン
の中心位置を実測し、角位置の間において符号化画像の
フォーマットに応じた等分点の位置を主走査のサンプリ
ング点として得、各サンプリング点にあるイメージビッ
トを取り出す、4−20で左右のガイドラインのうち少
なくとも一方に失敗フラグが立っている場合には、4−
21以下に進み、失敗フラグが立っているガイドライン
の位置を補間するため、現サーチブロックより1ライン
上のガイドライン位置、即ち、前サーチブロックの最後
の主走査ラインイメージにおけるガイドライン位W(現
サーチブロックが最初のサーチブロックの場合には4−
9で得ているスタートラインのガイドライン位M)を補
間始端としく4−21)、次サーチブロック以降におい
て正常なガイドラインのサーチブロックを捜し出しく4
−22.4−26)、その正常サーチブロックの最上の
主走査ラインイメージにおけるガイドラインの位置を補
間候補として検出しく4−27)、補間の始端と終端と
の間にある問題のサーチブロックにおける各主走査ライ
ンイメージ上のガイドラインの位置を補間によって割り
出し、主走査サンプリングを行う(4−28)、なお、
フローには明記していないが一方のガイドラインが正常
な場合、その位置は直接的に実測されるようになってい
る。また、エンドライン近くでのガイドラインが破壊さ
れている場合には、4−11で評価したエンドラインの
ガイド位置が補間終端とされる(4−23.4−24)
According to the flow, the check 4-20 will be NO if both the left and right guidelines of the current search block are normal (this can be seen because the corresponding failure flag is lowered), and in that case, the check 4-29 will be NO. The center positions of the left and right guide lines are actually measured for each main scanning line image in the current search block, and the positions of equally divided points according to the format of the encoded image are obtained between the corner positions as main scanning sampling points, and each sampling Extract the image bit at the point, if at least one of the left and right guidelines has a failure flag in 4-20,
21 and below, in order to interpolate the position of the guideline with the failure flag set, the guideline position one line higher than the current search block, that is, the guideline position W in the last main scanning line image of the previous search block (current search block is the first search block, then 4-
Set the guideline position M) of the start line obtained in step 9 as the interpolation starting point 4-21), and search for a search block with a normal guideline from the next search block onwards.
-22.4-26), detect the position of the guideline in the uppermost main scanning line image of the normal search block as an interpolation candidate 4-27), and detect each position of the guideline in the problem search block between the start and end of interpolation. The position of the guideline on the main scanning line image is determined by interpolation, and main scanning sampling is performed (4-28).
Although it is not specified in the flow, if one guideline is normal, its position is directly measured. Additionally, if the guideline near the end line is destroyed, the guide position of the end line evaluated in 4-11 is taken as the interpolation end (4-23.4-24)
.

このようにしてエラーがあるガイドラインの区間は他の
正常なガイドラインの区間で実測した位置に基づいて補
間し、精度の高い主走査サンプリングを行う、この結果
、第1O図のような主走査デコードの配列100が完成
する。ここにおいて、この主走査デコードされたイメー
ジデータ100の両側の列は副走査基準パターンである
同期マーク列25の主走査中心軌跡31(第3図)に沿
うイメージドツトの一次元配列(ドツト列)となってい
る、この左右の同期マーク列25のドツト列を調べて、
同期マーク列25の各クロックにおける副走査方向の中
心位置を決定し、その結果を基に網状パターン22の副
走査データサンプリングを行って、各網目の明暗を識別
しているのが第5図のフローである。
In this way, the guideline sections with errors are interpolated based on the positions actually measured in other normal guideline sections, and highly accurate main scanning sampling is performed.As a result, main scanning decoding as shown in Figure 1O Array 100 is completed. Here, the columns on both sides of the main scanning decoded image data 100 are one-dimensional arrays of image dots (dot arrays) along the main scanning center locus 31 (FIG. 3) of the synchronization mark row 25, which is the sub-scanning reference pattern. Examine the dot row of this left and right synchronization mark row 25,
The center position in the sub-scanning direction for each clock of the synchronization mark row 25 is determined, and based on the result, sub-scanning data sampling of the mesh pattern 22 is performed to identify the brightness and darkness of each mesh, as shown in FIG. It's a flow.

第5図において5−1で主走査幅、即ち左右のガイドラ
イン21の間隔(第4図で得られている)から、スター
トクロックのチエツク5−3で標準値(比較参照値)と
なるクロックの深さ方向(副走査方向、第10図におい
て縦の方向)の長さを決定する。ただし、この実施例は
手動でイメージセンサ−11を符号化画像20に対して
走査することを想定しており、そのためクロック長に相
当量の変動が予想されるので標準値にかなり大きめのマ
ージンを付ける必要がある。なお、主走査幅から標準値
を算出する代りに、例えば、主走査デコード配列100
上の同期マーク列25のドツト列を調べて平均的な白、
黒のランレングスを求めて、それを標準値とするように
してもよい。
In Fig. 5, from the main scanning width, that is, the interval between the left and right guide lines 21 (obtained in Fig. 4) in 5-1, the start clock check 5-3 determines the standard value (comparison reference value) of the clock. The length in the depth direction (sub-scanning direction, vertical direction in FIG. 10) is determined. However, in this embodiment, it is assumed that the image sensor 11 is manually scanned with respect to the encoded image 20, and therefore a considerable amount of variation in the clock length is expected, so a fairly large margin is added to the standard value. It is necessary to attach it. Note that instead of calculating the standard value from the main scanning width, for example, the main scanning decoding array 100
Check the dot row in the synchronization mark row 25 above to find the average white,
You may also determine the run length of black and use it as the standard value.

5−2で主走査デコードされたイメージデータ100か
ら、両側にある左右の同期マーク列25の最初の(黒の
)クロックを検出し、その中心点、長さ、左右の最初の
クロック間の、イメージデータ100の主走査方向(第
10図の水平方向)に対する傾き等を実測する。そして
、5−3で実測結果のクロック長を5−1で得ていて標
準値の範囲内にあるかどうか判別する。この段階で標準
値の範囲内にないものは読み取りエラーとなる。標準値
内のときには、副走査サンプリングのため、左右のスタ
ートクロックの中心位置を結ぶ直線上のドツトの値を主
走査デコードされたイメージデータ100から取り出し
て、網状パターン22における最初の列の網目の明暗を
示すデータを得るとともに、5−2で実測した各特徴パ
ラメータ(中心位置、長さ、傾き等)を次クロックに対
する標準値としてセットする。
5-2, the first (black) clock of the left and right synchronization mark rows 25 on both sides is detected from the main scanning decoded image data 100, and the center point, length, and distance between the left and right first clocks are determined. The inclination of the image data 100 with respect to the main scanning direction (horizontal direction in FIG. 10) is actually measured. Then, in step 5-3, it is determined whether the actual clock length obtained in step 5-1 is within the standard value range. At this stage, anything that is not within the standard value range will result in a reading error. When it is within the standard value, for sub-scanning sampling, the value of the dot on the straight line connecting the center positions of the left and right start clocks is extracted from the main-scanning decoded image data 100, and the value of the dot in the first row of the mesh pattern 22 is extracted. Data indicating brightness is obtained, and each characteristic parameter (center position, length, inclination, etc.) actually measured in step 5-2 is set as a standard value for the next clock.

5−5で前クロックの長さを前クロックの中心位置に加
え、次のクロックの中心位置を予測する。この予測は、
この実施例の場合、記録媒体上において符号化画像20
(第2図)の同期マーク利が等しい長さの黒と白のクロ
ックの繰り返しパターンであること、したがって、クロ
ック長がクロック間隔に等しくなっていることによるも
のである0次に5−6でこの予測点から主走査デコード
されたイメージデータ上の同期マークのドツト列に沿っ
て、上下に予測点のドツト値と異なるドツト値が出るま
で探索して、次クロックを実測する6例えば予測点が黒
画素を示す“1″であれば、そこを中心に上下に連続す
る“1”を次のクロックとするわけである。そして、実
測結果として次クロックの長さ、中心、左右の傾き等を
得る(5−7)、このようにして、予測と実測を行った
場合、クロックにエラーがなければ予測の中心点と実測
の中心点とはある範囲内に収まるはずであるが、そのク
ロックが漬れていたりすると、第9図と第1O図に示す
ように、クロック長や傾きは標準値(前のクロックの長
さや前の左右のクロックの傾き)から犬きく変化するは
ずである。
In 5-5, the length of the previous clock is added to the center position of the previous clock to predict the center position of the next clock. This prediction is
In this embodiment, the encoded image 20 is
(Figure 2) is due to the fact that the synchronization mark interest is a repeating pattern of black and white clocks of equal length, so that the clock length is equal to the clock interval. The next clock is actually measured by searching above and below the predicted point along the synchronization mark dot row on the image data that has been decoded in the main scan until a dot value different from the dot value of the predicted point is found.6 For example, if the predicted point is If it is "1" indicating a black pixel, consecutive "1"s above and below that point will be used as the next clock. Then, as actual measurement results, the length, center, left and right slope, etc. of the next clock are obtained (5-7). When prediction and actual measurement are performed in this way, if there is no error in the clock, the predicted center point and the actual measurement are obtained. The center point of the clock should be within a certain range, but if the clock is dipped, the clock length and slope will be at standard values (the length and slope of the previous clock), as shown in Figures 9 and 1O. It should change sharply from the previous left and right clock inclinations.

第9図でいえば、汚れ63が右の同期マーク列25の2
番目の黒のクロックを潰しているため。
In FIG. 9, the dirt 63 is located at 2 of the synchronization mark row 25 on the right.
Because the second black clock is crushed.

第1O図の主走査デコードされたイメージデータlOO
上においてこの同期マーク列25のドットタl(第9図
の軌跡31上の画素の列)のなかに第10図中、点線で
囲んだ汚れ63の断片を示す黒ドツト列が形成される。
Main scanning decoded image data lOO in FIG.
Above, a black dot row representing a fragment of the stain 63 surrounded by a dotted line in FIG. 10 is formed in the dot l of this synchronization mark row 25 (the row of pixels on the locus 31 in FIG. 9).

したがって、右の同期マーク列25のドツト列における
前のクロック(白クロックであり、実測の中心をPlで
示しである)の長さより次クロックの長さの方が汚れの
分だけ長くなって観測される。また、予測した次クロ7
りの中心P2も、実測した中心P3から大きくずれるこ
とになる。一方、左側の同期マーク列25の対応する部
分には汚れがないので前のクロック(中心をPIで示し
ている)から予測した次クロックの中心P2と実測値P
3との差はあってもわずかである。したがって、次クロ
ックについて予測した特徴パラメータと実測した特徴パ
ラメータとを比較し、両者の差を調べることで汚れ等に
よるクロックのエラーの発生を検出できる。
Therefore, the length of the next clock is longer than the previous clock (white clock, the center of actual measurement is indicated by Pl) in the dot row of the synchronization mark row 25 on the right by the amount of dirt. be done. Also, the predicted next black 7
The center P2 of the curve will also deviate greatly from the actually measured center P3. On the other hand, since there is no dirt on the corresponding part of the synchronization mark row 25 on the left, the center P2 of the next clock predicted from the previous clock (the center is indicated by PI) and the actual value P
There is only a small difference from 3. Therefore, by comparing the predicted feature parameters and the actually measured feature parameters for the next clock and checking the difference between the two, it is possible to detect the occurrence of a clock error due to dirt or the like.

第5図のフローでは、予測した次クロックの中心点と実
測した次クロックの中心点との差を左右の同期マークの
それぞれについて求め(5−8)、その差が許容範囲内
かどうかを調べる(5−9.5−10.5−13)こと
で1次クロックが適正かどうかを判別している。5−1
1は左右ともクロックが適正でないときに行われる処理
であり、このような状況では同期マーク列25の前の状
態しか確実視できないので5−5で求めた左右の予測点
を次クロックの中心点として確定させる。そして、5−
16でその中心点同士を結ぶ直線上のドツト列を主走査
デコード配列100からサンプリングして関連する各網
目の明暗を示すデータとする。5−12と5−14と左
右の次クロックのうち一方が適正で他方が不正であった
ときの処理で、この場合は、不正な方のクロックの中心
点は前クロックからの予測点を用いてもよいが、少しで
も精度が上がるように、適正な方のクロックの実測中心
点から、傾きを基に不正クロックの中心点を求めている
0例えば、第9図、第10図において上方に見える左右
の適正な白クロックの傾きはその左クロックの中心点P
1と右クロックの中心点P1との間の縦方向の差2(ド
ツト)で評価でき、これらの2つの白クロックのそれぞ
れ下に位tする環クロックのうち右側が不正であり、左
側は適正でその中心点は図示のP2で実測されているの
で、この点を通る水平線と右の同期マーク列25のドツ
ト列である直線との交点から2ドツト上の位置(この場
合、たまたま、右側の前のクロック中心Piから予測し
た位置P2と一致している)が右側の不正クロックの中
心点として決定される。そして、5−15において、適
正だった方のクロック長のみをクロック間隔の標準値と
して更新し、5−16で左右のクロック中心間のドツト
列をサンプリングする0両クロックとも適正な場合は、
実測したクロック中心を確定させその間のドツト列を取
り出す、この場合5−15で標準パラメータは実測した
クロックの特徴パラメータによってすべて更新される。
In the flow shown in Figure 5, the difference between the predicted center point of the next clock and the measured center point of the next clock is determined for each of the left and right synchronization marks (5-8), and it is checked whether the difference is within the allowable range. (5-9.5-10.5-13) It is determined whether the primary clock is appropriate. 5-1
1 is a process that is performed when both the left and right clocks are not appropriate, and in such a situation, only the state before the synchronization mark row 25 can be seen reliably, so the left and right predicted points obtained in 5-5 are used as the center point of the next clock. Confirm as. And 5-
At step 16, a row of dots on a straight line connecting the center points is sampled from the main scanning decoding array 100 and used as data indicating the brightness of each related mesh. 5-12 and 5-14, when one of the left and right next clocks is correct and the other is incorrect, in this case, the center point of the incorrect clock uses the predicted point from the previous clock. However, in order to improve the accuracy as much as possible, the center point of the incorrect clock is calculated based on the slope from the actual measured center point of the correct clock. For example, in Figures 9 and 10, The correct tilt of the visible left and right white clocks is the center point P of the left clock.
It can be evaluated by the vertical difference 2 (dot) between 1 and the center point P1 of the right clock, and among the ring clocks located below each of these two white clocks, the right one is invalid and the left one is correct. Since the center point is actually measured at P2 in the figure, the position is two dots above the intersection of the horizontal line passing through this point and the straight line that is the dot row of the right synchronization mark row 25 (in this case, it happens to be the right The position P2 (which coincides with the predicted position P2 from the previous clock center Pi) is determined as the center point of the right fraudulent clock. Then, in 5-15, update only the clock length that was appropriate as the standard value of the clock interval, and in 5-16, sample the dot row between the centers of the left and right clocks.If both clocks are appropriate,
The center of the actually measured clock is determined and the dot row between them is taken out. In this case, in step 5-15, the standard parameters are all updated by the characteristic parameters of the actually measured clock.

5−17はデコードの終了判定であり、ここで符号化画
像20のフォーマットに従い予め定められたデータ数と
デコード処理5−16の実行回数とが比較される。デコ
ード処理5−16の実行回数がフォーマットの定める回
数に等しく、かつその後の同期マーク列25のドツト列
のなかにクロックがエンドラインのところまでない場合
(5−18)、即ち、主走査デコードされたイメージデ
ータ100上の同期マーク列25のドツト列から実測ま
たは補間によって検出されるクロック数がフォーマット
の定める数に等しい場合に、適正な処理が行われたもの
としてサンプリング処理が完了する。途中で誤ったクロ
ック補間等が行われた場合は、フォーマットのデータ数
が得られる前に配列100のエンドラインに達したり(
5−19でNo)、あるいはフォーマ−/ トのデータ
数が得られた後で更にクロックが見つかる(5−18で
No)のでエラーとして検出できる。
5-17 is a decoding end determination, in which a predetermined number of data according to the format of the encoded image 20 is compared with the number of executions of the decoding process 5-16. If the number of executions of the decoding process 5-16 is equal to the number specified by the format, and the clock does not reach the end line in the subsequent dot row of the synchronization mark row 25 (5-18), that is, main scanning decoding is performed. If the number of clocks detected from the dot row of the synchronization mark row 25 on the image data 100 by actual measurement or interpolation is equal to the number determined by the format, it is assumed that proper processing has been performed and the sampling processing is completed. If incorrect clock interpolation is performed on the way, the end line of array 100 may be reached before the number of data in the format is obtained (
5-19: No), or after the format data count is obtained, another clock is found (5-18: No), so it can be detected as an error.

以上のように第1実施例によれば、かなり厳しい環境条
件下での符号化画像20の読み込み、例えばイメージセ
ンサ−11による符号化画像20に対する走査が手動で
行われるために少なからず生じる走査中での走査速度の
大きさや向きの変化、更には符号化画像20の周囲にノ
イズ要因である文字等が記録されること等を考慮して符
号化画像20に含めるサンプリング基準(ガイドライン
21、同期マーク列25)のパターン等を工夫するとと
もに、読み込んだイメージデータに対するサンプリング
基準パターンの認識において、サンプリング基準パター
ンの一部が破壊されているような場合に備え、主走査基
準パターンであるガイドライン21についてはセグメン
ト方式により他の部分でのガイドライン21の位置の実
測を可能にするとともにその位置情報を基にして問題の
部分のガイドライン位置を補間し、副走査基準パターン
である同期マーク列25については、各クロックの位置
を、近くのクロックの特徴パラメータによる予測、予測
点からの実測、実測結果と予測結果との比較、クロック
エラーの比較結果に対する位置の再決定、の手続を踏む
ことによって得ている。したがって、まぎられしい文字
、走査方向の変動、汚れ等の比較的厳しい使用環境であ
るにもかかわらず、イメージデータからサンプリング基
準パターンの各位置をできるだけ高い精度で割り出すこ
とができ、その結果から網状パターン22の各網目の明
暗を高い正確度で識別することができる。
As described above, according to the first embodiment, reading of the encoded image 20 under fairly severe environmental conditions, for example, due to manual scanning of the encoded image 20 by the image sensor 11, a considerable amount of scanning occurs. Sampling standards for inclusion in the encoded image 20 (Guideline 21, synchronization mark In addition to devising the patterns in column 25), guidelines 21, which is the main scanning reference pattern, have been modified in case a part of the sampling reference pattern is destroyed during recognition of the sampling reference pattern for the read image data. The segment method makes it possible to actually measure the position of the guideline 21 in other parts, and interpolates the guideline position in the problem part based on the position information. The position of the clock is obtained by following the steps of prediction using characteristic parameters of nearby clocks, actual measurement from the predicted point, comparison of the actual measurement result with the predicted result, and re-determination of the position based on the clock error comparison result. Therefore, even in a relatively harsh usage environment with confusing characters, fluctuations in the scanning direction, dirt, etc., each position of the sampling reference pattern can be determined from the image data with the highest possible accuracy, and the results can be used to determine the position of the sampling reference pattern. The brightness and darkness of each mesh of the pattern 22 can be identified with high accuracy.

爪ヱJJ虻例 この発明の第2実施例に係るデータ読取装置110の全
体構成を第11図に示す、この実施例は記録媒体118
に対するイメージセンサ−111の走査を機械的に行う
ようにしたものである0図示のように、制御回路112
によってステッピングモータ117を駆動し、このステ
ッピングモータ117によりイメージセンサ−111を
所定のレール等の径路に沿って動かす、この構成の場合
、イメージセンサ−111の移動速度や方向の変動が手
操作に比べはるかに少なくなるので、読み込んだイメー
ジデータの歪みが格段に小さくなるメリットが生じる(
モータ117をサーボ機構等で特別に制御しない場合で
あっても成立する)、シたがってこの性質を利用するこ
とにより、第1実施例で述べた構成要素や処理のいくつ
かをより簡略化したり省略することが可能である0例え
ば、第12図に示すようにデータ終了マークなしの符号
化画像120を用いたとしても、イメージセンサ−11
1の正確な走査速度からデータ開始マーク23のほぼ何
ライン下でデータが終了するかを正しく予測できる。ま
た、サーチブロック84を大きくとっても破壊されたガ
イドラインの位置を高精度で補間できる。更に、副走査
基準パターンである同期マーク列25の認識処理におい
ても、比較の標準値として1つ前のクロ7りの特徴パラ
メータといったような局所的なパラメータではなく、イ
メージ全体から平均をとったようなグローバルなパラメ
ータを使用することができ、それによってより高い精度
で次クロックの位この予測、評価などが可能になる。
Figure 11 shows the overall configuration of a data reading device 110 according to a second embodiment of the present invention.
As shown in the figure, the control circuit 112 mechanically scans the image sensor 111.
In this configuration, the stepping motor 117 is driven by the stepping motor 117, and the image sensor 111 is moved along a path such as a predetermined rail. This has the advantage of significantly reducing the distortion of the read image data (
(This holds true even when the motor 117 is not specially controlled by a servo mechanism, etc.) Therefore, by utilizing this property, some of the components and processes described in the first embodiment can be simplified. For example, even if an encoded image 120 without a data end mark is used as shown in FIG.
From an accurate scanning speed of 1, it is possible to accurately predict approximately how many lines below the data start mark 23 the data will end. Furthermore, even if the search block 84 is made large, the position of the destroyed guideline can be interpolated with high precision. Furthermore, in the recognition process for the synchronization mark row 25, which is the sub-scan reference pattern, the standard value for comparison is not a local parameter such as the feature parameter of the previous black 7, but an average from the entire image. It is possible to use global parameters such as, which allows predicting, evaluating, etc. the next clock position with greater accuracy.

[変形例1 以上で実施例の説明を終えるがこの発明の範囲内で種々
の変形、変更が可能である。
[Modification 1 This concludes the description of the embodiment, but various modifications and changes are possible within the scope of the present invention.

例えば第1実施例において述べたデータ開始マーク23
とデータ終了マーク24はガイドライン21のこれらの
マークの対応する部分が破壊されているような場合に、
その部分のガイドライン位置の予測を行う(第4図の4
−9.4−11で行われる)のに有効であるが、通常の
場合におけるマーク23.24の機能、#ち、データの
開始、終了を示す機能はこれらのマークなしでも達成し
得る8例えば、第2図においてデータ開始マーク23と
終了マーク24がないとするとこれらの部分(白部分)
を通った主走査ラインイメージには2本のガイドライン
21の黒の断片の間が白画素の連続となって現われるの
で、これから、データの開始、終了を検出できる。
For example, the data start mark 23 described in the first embodiment
and data end marks 24 are used when the corresponding parts of these marks on the guideline 21 are destroyed.
Predict the guideline position of that part (4 in Figure 4).
-9.4-11), but the functions of marks 23 and 24 in the normal case, #i.e., the function of indicating the start and end of data, can also be achieved without these marks, e.g. , if there are no data start mark 23 and data end mark 24 in Fig. 2, these parts (white parts)
In the main scanning line image passed through the line, a continuous white pixel appears between the black fragments of the two guidelines 21, so that the start and end of data can be detected from this.

また、上記実施例では符号化画像20.120における
主走査基準パターンとして2本のガイドライン21を網
状パターン22の外側に配置しているが、他の任意の適
当な主走査基準パターンを使用できる0例えば、第13
図に示すように、3本(あるいはそれ以上)の平行なガ
イドラインPRを網状パターンMPに対する主走査基準
パターンとして使用すれば、ガイドラインPRの部分的
な破壊に対して一層、強力なガイドライン位置の復元が
野山となり1例えば、3本中、1本のガイドラインPR
について破壊がある部分については残る2本のガイドラ
インの対応する位置から正確に破壊ガイシライン部の位
置を割り出せる。また、第13図の真中のガイドライン
PRで例示するように網状パターン22の内部に主走査
基準パターンを配置してもよい、また、イメージセンサ
−の走査方向が安定しているような場合には、第14図
に例示するように網状パターンMPの主走査方向に沿う
1本のガイドラインPRで主走査基準パターンを構成し
てもよい、この場合、イメージセンサ−の走査方向(移
動方向)は、例えばガイドラインPRを通る主走査ライ
ンイメージを調べることで決定できる。また、そのよう
な主走査ラインイメージを調べることにより、ガイドラ
インPRの端点の位置を決定でき、その結果及び画像フ
ォーマットとして定められているガイドラインPRの端
点と網状パターンMPの各網目との位置関係とから、読
み込んだイメージデータ上における各網目の主走査方向
における中心位置を決定して主走査サンプリングが行え
る。更に、主走査基準パターンは黒あるいは他の色と異
なる色の連続線であるのが有利であるが、不連続的なマ
ークでも構成し得る。
Further, in the above embodiment, the two guidelines 21 are arranged outside the mesh pattern 22 as the main scanning reference pattern in the encoded image 20.120, but any other suitable main scanning reference pattern can be used. For example, the 13th
As shown in the figure, if three (or more) parallel guidelines PR are used as the main scanning reference pattern for the mesh pattern MP, the guideline position can be more strongly restored against partial destruction of the guideline PR. 1.For example, 1 guideline PR out of 3
For the part where there is a fracture, the position of the fracture insulator line can be accurately determined from the corresponding positions of the remaining two guidelines. Furthermore, a main scanning reference pattern may be arranged inside the mesh pattern 22 as exemplified by the guideline PR in the middle of FIG. As illustrated in FIG. 14, the main scanning reference pattern may be composed of one guideline PR along the main scanning direction of the mesh pattern MP. In this case, the scanning direction (movement direction) of the image sensor is as follows. For example, it can be determined by examining a main scanning line image passing through the guideline PR. In addition, by examining such a main scanning line image, the positions of the end points of the guideline PR can be determined, and the positional relationship between the end points of the guideline PR and each mesh of the mesh pattern MP defined as the image format can be determined. From this, main scanning sampling can be performed by determining the center position of each mesh in the main scanning direction on the read image data. Furthermore, although the main scanning reference pattern is advantageously a continuous line of black or another color, it may also consist of discontinuous marks.

また、実施例の符号化画像20.120では副走査基準
パターンとして、網状パターン22の両側において白と
黒の網目(クロック)を交互に繰り返す2列の同期マー
ク列25を使用しているが、網状パターン22の副走査
方向における網目の列と同期するような(位置的に対応
づけ可能な)任意の適当なパターンを副走査基準とする
ことができる0例えば、イメージセンサ−の走査方向が
安定している場合には、第15図に示すように、網状パ
ターン22の副走査方向に沿って延在するような1列の
同期マークSRがあれば十分である。また、部分的なり
ロシクの破壊に対してより精度の高い復元ができるよう
に、3列あるいはそれ以上の列の同期マークを主走査方
向に間隔をあけて配置してもよい、また、同期マークに
おけるクロックの長さは任意であり得、例えば第16図
に示すように、細長い黒の断片を成すクロックを並べた
同期マークSRを、網状パターンMPの上下に、対応す
るクロック同士を結ぶ線が網状パターンMPの網目の境
界を通るような関係で配置することによって副走査基準
パターンを形成してもよい、また、第17図に示すよう
に、第1のクロックマークの列SRIに加え、第1のク
ロックマークの列SRの所定数のクロックマークごとに
、1つのクロックマークが付くような第2のクロックマ
ークの列SR2を設け、この両者によって網状パターン
17に対する副走査基準を与えるようにしてもよい、こ
の構成の場合、イメージの解読作業において、クロック
数の管理が容易になり、部分的なりロックマークの欠損
に対する復元をより確実なものにできる0例えば、第1
のクロックマーフタl5RIと第2のクロックマーク列
SR2との間で一致するクロック同士を読み込んだイメ
ージデータ上で発見した位置で、第1のクロー、クマー
ク列SRIに対するクロックマークのカウンタを初期化
しておき、それ以降、第1のクロックマーク列SR上の
クロックマークを検出あるいは実施例に従う復元によっ
て決定する都度、クロックマークカウンタをインクリメ
ントする処理を行うものとする。そして再び、第1クロ
ックマーク列SRIのクロックと第2クロックマーク列
SR2のクロ、ツクとの一致が検出されたときに。
Further, in the encoded image 20.120 of the embodiment, two synchronization mark rows 25 that alternately repeat white and black meshes (clocks) on both sides of the mesh pattern 22 are used as the sub-scanning reference pattern. Any suitable pattern that is synchronized with the row of meshes in the sub-scanning direction of the mesh pattern 22 (which can be correlated in position) can be used as the sub-scanning reference. For example, if the scanning direction of the image sensor is stable. In this case, as shown in FIG. 15, it is sufficient to have one row of synchronization marks SR extending along the sub-scanning direction of the mesh pattern 22. In addition, three or more rows of synchronization marks may be arranged at intervals in the main scanning direction to enable more accurate restoration in the event of partial damage. For example, as shown in FIG. 16, a synchronization mark SR in which clocks in the form of elongated black fragments are lined up is placed above and below a mesh pattern MP with lines connecting the corresponding clocks. The sub-scanning reference pattern may be formed by arranging them so as to pass through the mesh boundaries of the mesh pattern MP.Also, as shown in FIG. 17, in addition to the first clock mark row SRI, A second clock mark row SR2 is provided with one clock mark for every predetermined number of clock marks in the first clock mark row SR, and both of them provide a sub-scanning reference for the mesh pattern 17. With this configuration, the number of clocks can be easily managed during image decoding work, and recovery from partial or missing lock marks can be made more reliable.
Initialize the clock mark counter for the first clock mark row SRI at the position found on the image data where the clock marks that match each other are read between the clock mark 15RI and the second clock mark row SR2. After that, the clock mark counter is incremented each time a clock mark on the first clock mark row SR is detected or determined by restoration according to the embodiment. Then, again, when a coincidence between the clock of the first clock mark row SRI and the clock of the second clock mark row SR2 is detected.

クロックマークカウンタを調べる。第17図のフォーマ
ットの場合、もしその値が8n(nは自然数)に等しけ
れば、第1のクロックマーク列は適正に認識できたと考
えられ、nが2以上なら、第2のクロックマーク列SR
2に欠損があると評価でき、8nに等しくなければ、第
1のクロックマークの認識に誤りがあるとしてエラー検
出できる。結果として、第1のクロックマーク列SRに
部分的に破壊が生じていて、かつ実施例で述べたような
次クロック位置の予測、実測、比較、再評価の処理(第
5図参照)を通じてクロックを復元したような場合に、
その復元のプロセスに生じた誤りを第2のクロックマー
ク列SRのクロック間隔という局所化された領域に狭め
ることができ、更には、その部分の各クロック位置を第
2クロックマーク列SR2の2つのクロックの間で等分
するなどして得ることができる。したがって、網状パタ
ーンMP全体に対する各網目の明暗の識別をこのような
局所的エラーがあったことは認めながらも1行うことが
できる(実施例の場合は第5図の5−17から5−19
に示すように全体がエラーとなり解読不能とされる)、
実用的には、網状パターンのデータには検査コードが含
まれるので、それらの検査コードによるエラー訂正処理
において上述したような局所的エラーがあったところの
明暗識別データに対し、十分な訂正の機会が与えられる
ことになる。
Examine the clock mark counter. In the case of the format shown in FIG. 17, if the value is equal to 8n (n is a natural number), it is considered that the first clock mark string has been properly recognized, and if n is 2 or more, the second clock mark string SR
It can be evaluated that 2 is missing, and if it is not equal to 8n, an error can be detected as an error in the recognition of the first clock mark. As a result, the first clock mark row SR is partially destroyed, and through the process of predicting, actually measuring, comparing, and reevaluating the next clock position as described in the embodiment (see FIG. 5), the clock is In the case of restoring
Errors introduced in the restoration process can be narrowed down to a localized area of the clock interval of the second clock mark row SR, and each clock position of that part can be reduced to the two clock intervals of the second clock mark row SR2. It can be obtained by dividing it equally between the clocks. Therefore, it is possible to identify the brightness and darkness of each mesh for the entire mesh pattern MP, even though it is acknowledged that there is such a local error (in the case of the embodiment, 5-17 to 5-19 in FIG. 5).
As shown in the figure, the entire result is an error and is considered unreadable).
In practical terms, since the mesh pattern data includes inspection codes, error correction processing using those inspection codes provides sufficient opportunity for correction of brightness discrimination data where there are local errors as described above. will be given.

また、実施例では符号化画像の近くや周りに文字等の解
読にとっては望ましくないイメージがあることを想定し
たが、当然なくてもよく、その場合、サンプリング基準
パターンの認識等が相当容易になり、文字等のイメージ
と区別するために望まれた基準パターンの条件(配置、
幾可学的形状等の条件)が軽減される。
In addition, in the embodiment, it was assumed that there is an image near or around the encoded image that is undesirable for decoding characters, etc., but it is of course not necessary to have it, and in that case, recognition of the sampling reference pattern etc. will be considerably easier. , the conditions (arrangement,
conditions such as geometric shape) are reduced.

また、実施例ではサンプリング基準パターンとして、主
走査用のもの(ガイドライン21)と副走査用のもの(
同期マーク列25)とを画像上の別々の構成要素で実現
しているが、両者を兼用するようなサンプリング基準パ
ターンを使用することもできる。
In addition, in the embodiment, as sampling reference patterns, one for main scanning (guideline 21) and one for sub-scanning (guideline 21) are used.
Although the synchronization mark string 25) is realized by separate components on the image, a sampling reference pattern that serves both may also be used.

例えば、第16図に戻って図示の同期マーク列SRを主
走査兼副走査の基準マークとして使用できる。第16図
の場合、同期マーク列SRはデータ本体である網状パタ
ーンMPの外側にある。したがって網状パターンMPと
同期マーク列SR以外に不要なイメージがないような場
合、同期マーク列SRを読み込んだイメージデータ上か
ら検出するのは困難なことではない0例えば、読み込ん
だイメージデータの各主走査ラインイメージに注目して
みると、主走査ラインイメージの両端近くに現われる黒
画素は同期マーク列SRの断片の可能性を示唆する0手
動の場合、各主走査ラインイメージは第16図において
完全に縦の方向ではなく変動しながら若干類いた方向に
おいて読み取られるのが通常である。したがって、各主
走査ラインイメージのなかで両端近くに黒画素群をもつ
主走査ラインイメージが連続して数ライン分(例えば2
〜3ライン分)、現われれば、それが、同期マーク列S
Rのクロックマークの高い可能性を示す、かつ、このよ
うな黒画素群のなかである程度の周期性をもって、イメ
ージデータ上に分布しているものは、クロックマークと
考えて間違いはない、そこで、このような数ライン分の
黒画素群に着目し、その中心を実測すれば、それがクロ
ックマークの中心ということになる。破壊しているクロ
ックマークについては、例えば、第5図の対応する処理
と同様にして前回のクロックマークと前回のクロックマ
ークの間隔(前々回のクロックマ−りの中心と前回のク
ロックマークの中心との距離)から予測し、それを中心
として実測し、予測値と実測結果とを比較し、その差が
大きいことから検出でき、その場合、予測点を現クロッ
クマークの中心として決めたり、あるいは他の列の現ク
ロックマークの中心から前回のクロックマーク同土間の
傾きを基に取り出した位置を現クロックマークの中心と
して決めることができる。このようにして、各クロック
マークの中心位置が決まったら、上下の同期マーク列S
Rから対応するクロックマーク同士を選び、その中心同
士を結んで、その直線を画像プオーマットに従って等分
し、等分位置にあるイメージビットを読むことで各網目
の中心における明暗を知ることができる(なおこの最後
の説明は、第16図における同期マーク列SRの各クロ
ックが網状パターンMPの各網目の中心に一致するよう
、各クロックを水平方向に網目の半分だけずらした場合
を想定している)。
For example, returning to FIG. 16, the illustrated synchronization mark row SR can be used as a reference mark for both main scanning and sub-scanning. In the case of FIG. 16, the synchronization mark row SR is located outside the mesh pattern MP which is the data body. Therefore, if there are no unnecessary images other than the mesh pattern MP and the synchronization mark row SR, it is not difficult to detect the synchronization mark row SR from the read image data. Looking at the scanning line images, the black pixels appearing near both ends of the main scanning line image suggest the possibility of fragments of the synchronization mark row SR.In the manual mode, each main scanning line image is completely It is usually read not in the vertical direction, but in a slightly similar direction with fluctuations. Therefore, in each main scanning line image, main scanning line images having black pixel groups near both ends are consecutively distributed for several lines (for example, 2
~3 lines), if it appears, it is the synchronization mark string S
If there is a high probability that it is an R clock mark, and if it is distributed on the image data with a certain degree of periodicity among such black pixel groups, it is safe to assume that it is a clock mark. If we focus on such a group of black pixels for several lines and actually measure the center, we will find that it is the center of the clock mark. For the broken clock mark, for example, the distance between the previous clock mark and the previous clock mark (the distance between the center of the clock mark before the previous one and the center of the previous clock mark) can be determined in the same way as the corresponding process in Figure 5. It is possible to detect a large difference by comparing the predicted value and the actual measurement result. In this case, the predicted point can be determined as the center of the current clock mark, or other methods can be used. The center of the current clock mark can be determined from the center of the current clock mark in the row based on the slope of the previous clock mark. In this way, once the center position of each clock mark is determined, the upper and lower synchronization mark rows S
By selecting corresponding clock marks from R, connecting their centers, dividing the straight line into equal parts according to the image format, and reading the image bits at the equally divided positions, you can know the brightness and darkness at the center of each mesh ( Note that this last explanation assumes that each clock in the synchronization mark row SR in FIG. 16 is shifted by half of the mesh in the horizontal direction so that each clock coincides with the center of each mesh in the mesh pattern MP. ).

第16図のように、各クロックの長さ方向が網状パター
ンMPの網目間の境界に一致する配置になっている場合
は、例えば上下の同期マーク列SRからi番目と(i 
+ 1)番目のクロックマークの中心U+ 、U+・l
 、Bi 、 B141 を選釈し、その位置情報から
目的とする縦の網目列の各中心位置を計算できる。これ
を第18図と第19図について説明すると、第18図に
おいて、上の同期マーク列SRのi番目と(i+1)番
目のクロックマークの中心U+ 、U+、+  (読み
込んだイメージデータ上での位置である)を結びその中
点C1を計算する。同様にして下の同期マーク列SRの
i番目と(i+1)番目のクロックマークの中心Bi、
B+、+  とを結びその中点C2を求める。第19図
は読み込んだイメージデータのうち、中点CIとC2を
含む部分を示したもので、同図の水平方向のそれぞれの
行が、主走査ラインイメージである。第19図の1つの
ます目は1ビツト(1画素)のメモリセルを表わしてい
る。この中点C1と02とを結び画像のフォーマットに
従って等分することにより、目的とする網目の列におけ
る各網目の、イメージデータメモリ上における中心位置
即ち記憶場所(図中、X印で示している)が決まる0以
上のような中点方式の場合、データサンプリング点を2
つの隣り合うクロック中心の対から求めているので、同
期マーク列SRM定点〔あるいは補間点〕である位置U
i 、 Ul−Bi 、B1.l に含まれる誤差を平
均化によって吸収し、減少させることができる。
As shown in FIG. 16, when the length direction of each clock is arranged to match the boundary between the meshes of the mesh pattern MP, for example, the i-th and (i
+ 1) Center of the 1st clock mark U+, U+・l
, Bi, and B141, and from the position information, it is possible to calculate each center position of the target vertical mesh row. To explain this with reference to FIGS. 18 and 19, in FIG. 18, the centers U+, U+, + (on the read image data ) and calculate the midpoint C1. Similarly, the centers Bi of the i-th and (i+1)-th clock marks of the lower synchronization mark row SR,
Connect B+ and + to find the midpoint C2. FIG. 19 shows a portion of the read image data including midpoints CI and C2, and each row in the horizontal direction in the figure is a main scanning line image. One square in FIG. 19 represents a 1-bit (1 pixel) memory cell. By connecting these midpoints C1 and 02 and dividing the image into equal parts according to the format of the image, the center position, that is, the storage location (indicated by ) is determined by 0 or more, in the case of a midpoint method, the data sampling point is set to 2.
Since the calculation is made from a pair of two adjacent clock centers, the position U which is the fixed point [or interpolation point] of the synchronization mark sequence SRM
i, Ul-Bi, B1. The error included in l can be absorbed and reduced by averaging.

なお、第19図でX印で示す点だけをデータサンプリン
グすることによって各網目の明暗を識別し得るが、所望
であれば、X印の点を中心としてその近傍(例えば上下
左右)の画素値を調べ、その結果から、網目の明暗を決
めてもよい、あるいは近停の画素値が同期マーク列SR
の認識結果から求めたX印の点の画素値と矛盾するよう
な場合、このことを記憶しておさ、その情報を検査コー
ドによる後のエラー訂正処理に役立てることができ、そ
れによってエラー訂正能力の強化を図れる0例えば、あ
るブロックの明暗識別データを検査ワードに従って調べ
たときにエラーが検出された場合に、そのブロック内に
先の矛盾発見箇所が含まれていれば、それをエラー発生
箇所と推定することによりいわゆるイレージヤ−訂正(
誤りの位nが判明しているときのエラー訂正)が可1砒
になる。
Note that the brightness and darkness of each mesh can be identified by data sampling only the points indicated by the X mark in FIG. The brightness and darkness of the mesh can be determined based on the results, or the pixel values at nearby stops can be determined by the synchronization mark row SR.
If there is a discrepancy with the pixel value of the point marked with an For example, if an error is detected when examining the light/dark discrimination data of a certain block according to the test word, if the previously discovered contradiction is included in that block, it can be detected as an error. So-called erasure correction (
Error correction when the order of error (n) is known is acceptable.

サンプリング基準パターンとデータ本体であ□る網状パ
ターンとの関係は、定義可能な位置関係であれば、定義
された位置関係とイメージデータ上で求めたサンプリン
グ基準パターンの各位置の情報から、イメージデータ上
における網状パターンの各網目の中心位置を求めること
ができる。このことを第20図から第22図を参照して
説明してみる。この場合、符号化画像に対するイメージ
センサ−の走査速度と方向にある程度の変動があること
を想定しており、また、説明の便宜上クロックマークを
もつ間隔のあいた2列の同期マークがサンプリング基準
パターンとして使用され、この2夕1(7)同iマーク
にはぎまれで網状パターンが配置されているとする。
If the relationship between the sampling reference pattern and the mesh pattern that is the data body is a definable positional relationship, the image data is The center position of each mesh in the mesh pattern above can be determined. This will be explained with reference to FIGS. 20 to 22. In this case, it is assumed that there is some variation in the scanning speed and direction of the image sensor with respect to the encoded image, and for convenience of explanation, two rows of spaced synchronization marks with clock marks are used as the sampling reference pattern. It is assumed that a net-like pattern is arranged between the i marks.

第20図はイメージセンサ−から読み込んだイメージデ
ータ上における位置関係を示したちので、U】 とU 
1* +は上側の同期マーク列のi番目と(N+1)番
目のクロックの中心位置であり、B、とB 1.i は
下側の同期マーク列の1番目と(N+1)番目のクロッ
クの中心位置である0例えば、 Ui とBJ、Ul、
I とB r−+ は読み込んだイメージデータ上にお
いて副走査方向の距離が一番小さいクロック同士であり
得る。第20図において、点U1の座標は原点(0,0
)で示され、点U i −1の座標はX軸上の点(x+
 、O)として示されている。これは、単に説明の都合
上イメージメモリ上での位置を正規化して表現したもの
にすぎない、Y・軸の方向が主走査ラインイメージの方
向である。
Figure 20 shows the positional relationship on the image data read from the image sensor, so U] and U
1*+ is the center position of the i-th and (N+1)-th clocks in the upper synchronization mark row, B, and B1. i is the center position of the 1st and (N+1)th clocks in the lower synchronization mark row 0. For example, Ui and BJ, Ul,
I and B r-+ may be clocks having the smallest distance in the sub-scanning direction on the read image data. In FIG. 20, the coordinates of point U1 are the origin (0, 0
), and the coordinates of the point U i −1 are the point (x+
, O). This is merely a normalized representation of the position on the image memory for convenience of explanation, and the direction of the Y-axis is the direction of the main scanning line image.

第21図は第20図と対応するが記録媒体上での位置関
係を示している。Ti とTt・1が上側の同期マーク
列のi番目と(N+1)番目のクロックの中心であり、
A」 とAj・1が下側の同期マーク列のi番目とN+
1)番目のクロックマークの中心である。記録媒体上に
おける同期マーク列の各クロック中心(T1)、(AI
 ) と基準パターンの各網目の中心位置(P)はデー
タ読取装置にとっては既知の事項であり符号化画像モデ
ルとして有している0例えば、これらの位置のデータを
全部記憶しておいてもよいし、位置間に同期性のある場
合には工ないし数個の位置データと同期データとからす
べての中心位置を演算できる。第21図ではT、とT 
i 、I を結ぶ上側同期マーク列のラインと、A3と
A」、1を結ぶ下側同期マーク列のラインとは平行に描
いているが、必ずしもその必要はない、第21図でも、
上側同期マーク列のi番目のクロック中心を原点(0,
0)とし、(N+1)番目のクロー2り中心をX軸上の
点(D、O)として示している。
FIG. 21 corresponds to FIG. 20, but shows the positional relationship on the recording medium. Ti and Tt・1 are the centers of the i-th and (N+1)-th clocks in the upper synchronization mark row,
A'' and Aj・1 are the i-th and N+ of the lower synchronization mark row
1) It is the center of the th clock mark. Each clock center (T1), (AI
) and the center position (P) of each mesh of the reference pattern are known matters to the data reading device and are held as an encoded image model.For example, all data at these positions may be stored. However, if there is synchronicity between positions, all center positions can be calculated from one or more position data and synchronization data. In Figure 21, T, and T
Although the line of the upper synchronization mark row connecting i and I is drawn parallel to the line of the lower synchronization mark row connecting A3 and A'', 1, this is not necessarily necessary.
The i-th clock center of the upper synchronization mark row is the origin (0,
0), and the (N+1)th claw center is shown as a point (D, O) on the X axis.

いま、読み込んだイメージデータから基準パターンであ
る同期マーク列の各クロック中心が上述したような仕方
で得られたとし、第20図に示すような4つのクロック
中心tL+、Ut。l 、Bl 、B1.1で囲まれる
四角のイメージブロックに注目したとする0問題はこの
四角のイメージブロック内にある各網目の中心位置を知
ることである。そこでデータ読取装置は符号化画像モデ
ルから、モデル上(したがって記録媒体上)での対応す
るクロック中心Ti 、Ti−+ 、Aj 、Aj、+
 を選択する。符号化画像モデルには全符号化画像にお
ける各網目の中心の位置情報(P)が含まれているので
・T1・TI・+ 、 Aj 、 Aj・1で囲まれる
四角形(ここでは平行四辺形)の内部にある網目の中心
位置のセットを作成できる0例えば、第21図の場合で
あれば。
Now, suppose that each clock center of the synchronization mark string, which is a reference pattern, is obtained from the read image data in the manner described above, and four clock centers tL+ and Ut as shown in FIG. 20 are obtained. Suppose we are looking at a rectangular image block surrounded by l, Bl, and B1.1, and the problem is to know the center position of each mesh within this rectangular image block. The data reading device then calculates the corresponding clock centers Ti, Ti-+, Aj, Aj, + on the model (and therefore on the recording medium) from the encoded image model.
Select. Since the encoded image model includes the position information (P) of the center of each mesh in all encoded images, the rectangle (parallelogram here) surrounded by T1, TI, +, Aj, Aj, and 1. For example, in the case of FIG.

O≦x+Ly≦D(Lは傾き) を満足する座標(x、y)の組を全網目の中心位置のセ
ラ) (P)から選択すればよい。
A set of coordinates (x, y) that satisfies O≦x+Ly≦D (L is the slope) may be selected from the coordinates (P) at the center positions of all the meshes.

モデル上のTI、Ti・1、Aj・Aj、+ で囲まれ
る四角形の内部点は、読み込んだイメージデータ上にお
いてUi 、Ui・+ 、BJ、Bj−+ で囲まれる
内部点に対応し、その外部に出ることはない、したがっ
て、このようにして四角形の内部にある各網目の中心位
置が、符号化画像モデルの座標系x−yにおいて判明し
たら、後はその各位置を、読み込んだイメージデータの
座標系X−Yにおける位置に座標変換し、変換された位
置でのイメージビットを取り出せばよい。
The internal points of the rectangle surrounded by TI, Ti・1, Aj・Aj, + on the model correspond to the internal points surrounded by Ui, Ui・+, BJ, Bj−+ on the read image data, and their Therefore, once the center position of each mesh inside the rectangle is known in the x-y coordinate system of the encoded image model, each position is then added to the read image data. It is sufficient to perform coordinate transformation to a position in the coordinate system X-Y, and extract the image bit at the transformed position.

座標変換の例を第2?図に示す、同図(a)はモデル上
での問題のイメージブロックであり、ある網目の中心が
座標(x、y)で示されている。
Second example of coordinate transformation? The figure (a) shown in the figure is an image block of the problem on the model, and the center of a certain mesh is indicated by coordinates (x, y).

同図(f)は読み込んだイメージデータ上での対応する
イメージブロック(目的イメージブロック)であり、座
標(x、y)に相当する座標を(x、y)で示している
。(a)から(b)は四角形の上辺の長さを合わせるた
めの横方向のスケーリングであり、(b)から(C)は
傾きを目的のイメージブロックの下辺(UiからBJ)
の傾きに合わせるための変換であり、(C)から(d)
は左辺の長さを目的のイメージブロックの左辺の長さに
合わせるためのスケーリングであり、ここまでで、目的
イメージブロックの4つの頂点Ul 、Ui−+ 、B
j 、B)。1のうち、3点Ul 、Ul−+ 、BJ
が一致するイメージブロックとなっている。そこで(e
)に示すように点U1の対角になる点B」、1 にこの
イメージブロック(d)の対応する点をずらせば目的の
イメージブロックになる。イメージブロックは局部的な
領域であり1手動走査の場合であってもqのような局部
的な領域内での速度変動や方向の変化はわずかであるの
で(d)から(e)への変換を−様な歪み(面積比に比
例する歪み)と考えて問題はない。
FIG. 3(f) shows a corresponding image block (target image block) on the read image data, and the coordinates corresponding to the coordinates (x, y) are shown as (x, y). (a) to (b) are horizontal scaling to match the length of the top side of the rectangle, and (b) to (C) are the slopes of the bottom side of the target image block (Ui to BJ).
This is a conversion to match the slope of (C) to (d)
is scaling to match the length of the left side to the length of the left side of the target image block, and up to this point, the four vertices of the target image block Ul, Ui-+, B
j, B). 1, 3 points Ul, Ul-+, BJ
is the matching image block. So (e
), if the corresponding point of this image block (d) is shifted to point B, which is diagonal to point U1, the target image block will be obtained. An image block is a local area, and even in the case of one manual scan, the speed fluctuation and direction change within a local area like q are slight, so the conversion from (d) to (e) is There is no problem in considering this as a −-like distortion (distortion proportional to the area ratio).

結果として、目的の座標(X、Y)は、X−Xd・ΔO
・(生リム)・(狂)(1)XI       Y2 Y−Yd・−H・(をリム)値当    (2)Xi 
   Y2 ここに、 ΔD=  (X3− X2)−Xi         
(3)ΔH= Y 3− Y 2          
       (4)XI Xd=  (−→ −x+  (M−L)  ・y  
  (5)Yd=C当・y(6) で与えられる(式(1)と(2)のΔD、ΔHに対する
乗数は第22図の(d)における実線の四角形と座m(
Xd、Yd)を対角点とする点線の四角形との面積比を
示しており、ΔDは目的のイメージブロックの上辺の長
さと下辺の長さとの差、ΔHは目的イメージブロックの
左右の辺のY軸方向の長さの差であり、その他のXi、
X2.X3、Y2、Y3は第20図を参照されたい)、
このようにして、モデルにおける網目中心の座標(x、
y)から目的イメージブロックにおける対応する網目の
中心の座標(x、y)が得られる。
As a result, the target coordinates (X, Y) are X-Xd・ΔO
・(raw rim)・(crazy) (1)XI Y2 Y-Yd・-H・(rim) worth (2)Xi
Y2 Here, ΔD= (X3- X2)-Xi
(3)ΔH=Y3-Y2
(4) XI Xd= (−→ −x+ (ML) ・y
(5) Yd=C/y (6) (The multipliers for ΔD and ΔH in equations (1) and (2) are the solid rectangle in (d) of Figure 22 and the coordinate m (
It shows the area ratio with the dotted rectangle whose diagonal points are It is the difference in length in the Y-axis direction, and the other Xi,
X2. For X3, Y2, and Y3, please refer to Figure 20),
In this way, the coordinates (x,
y), the coordinates (x, y) of the center of the corresponding mesh in the target image block are obtained.

したがって、位置(X、Y)にあるイメージビットをサ
ンプリングすることにより、網目の明暗を示す情報が得
られる。なお、点T、、T、や1、Aj 、AJ−1に
より形成される画像の枠は実際には非常に細長い局所的
な領域であるので(第2図参照)1手走査を行ったとし
ても通常の場合はずれΔHは無視される大きさ(ΔH=
O)と考えられ、したがって式(2)の代りにY=Yd
として簡略化できる。
Therefore, by sampling the image bits at the position (X, Y), information indicating the brightness of the mesh can be obtained. Note that the image frame formed by points T, , T, 1, Aj, and AJ-1 is actually a very elongated local area (see Figure 2), so it is assumed that one-handed scanning is performed. In the normal case, ΔH is ignored (ΔH=
O), therefore, instead of equation (2), Y=Yd
It can be simplified as

[発明の効果] 以上詳細に述べたように、この発明では記録媒体上の符
号化画像を取り込んだイメージデータを複数の部分イメ
ージデータのブロックにセグメント化し、セグメント化
された各部分イメージデータのブロックを探索単位とし
て主走査基準パターンの断片を特徴とする特徴画素群を
探索し、探索に失敗した部分イメージデータのブロック
における主走査基準パターンの位置については、探索に
成功した特徴画素群によって示される健全な主走査基準
パターンの断片の位置情報から割り出しているので、記
録媒体上の汚れ等によって部分的に主走査基準パターン
が破壊されても、高精度にその位置を求めることができ
、主走査基準パターンの位置情報に基づいて行われる網
状パターンの各網目における明暗の識別を確実なものに
することができる利点がある。
[Effects of the Invention] As described in detail above, in the present invention, image data that captures an encoded image on a recording medium is segmented into a plurality of partial image data blocks, and each segmented partial image data block is is searched for a feature pixel group characterized by a fragment of the main scanning reference pattern as a search unit, and the position of the main scanning reference pattern in the block of partial image data for which the search failed is indicated by the feature pixel group for which the search was successful. Since the position information is determined from the position information of a fragment of a healthy main scanning reference pattern, even if the main scanning reference pattern is partially destroyed due to dirt on the recording medium, the position can be determined with high precision, and the main scanning There is an advantage that brightness and darkness in each mesh of the mesh pattern can be reliably distinguished based on the positional information of the reference pattern.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の第1実施例に係るデータ読取装置の
全体構成図。 第2図は読取り対象である記録媒体上の符号化画像を例
示する図、 第3図は第2図の符号化画像を手動のイメージセンサ−
で走査して得られるイメージ例を示す図、 第4図は符号化画像の走査によるイメージデータをスト
アし、ストアされたイメージデータから主走査基準パタ
ーンであるガイドラインを認識して主走査デコードを行
うためのフローチャート、第5図は主走査デコードされ
たイメージデータから副走査基準パターンである同期マ
ーク列を認識して副走査デコードを行うためのフローチ
ャート。 第6図はイメージRAMのメモリマツプを示す図、 第7図はガイドラインの断片を特徴づけるガイドライン
セットの説明図。 第8図は周囲に文字等がある符号化画像を示すとともに
符号化画像を区分けした複数のサーチブロックを示す図
、 第9図は汚れの付いたガイドラインと同期マーク列の画
像を例示した図、 第10図は第9図の画像に対応する主走査デコードされ
たイメージデータを示す図、 第11図は第2実施例に係るデータ読取装置の全体構成
図、 第12図はデータ終了マークなしの符号化画像の例を示
す図。 第13図はガイドラインが3木の場合の符号化画像例の
概略図、 第14図はガイドラインが1本の場合の符号化画像例の
概略図、 第15図は同期マーク列が1列の場合の符号化画像例の
概略・図。 第16図はクロックとして細長い黒マークを並べた同期
マーク列が付いた符号化画像例の概略図、 第17図は周期の異なる2種類の同期マーク列が付いた
符号化画像例の概略図、 第18図は同期マーク列の4つのクロックの中心から中
点方式で各網目の明暗を識別する処理の説明に用いた図
、 第19図は第18図に示す中点C1、C2を含むイメー
ジRAM上のイメージデータの配置を示す図、 5S20図は読み込んだイメージデータ上でのサンプリ
ング基準パターンの4つの位置と内部にある網目の位置
との関係を示す図。 第21図は第20図に対応するが記録媒体上でのサンプ
リング基準パターンの4つの位置と内部にある網目の位
置との関係を示す図。 第22図は記録媒体上での網目の中心座標をイメージデ
ータ上での網目の中心位置へ座標変換する処理の説明に
用いた図である。 20・・・・・・符号化画像、21・・・・・・ガイド
ライン(主走査基準パターン)、22・・・・・・網状
パターン、25・・・・・・同期マーク列(副走査基準
パターン)、11.111・・・・・・イメージセンサ
−113・・・・・・CPU、14・・・・・・ROM
、15・・・・・・イメージRAM。 第2図 第1図 図面の浄書 第 図 第 図 第 図 第 9 図 第 0 図 第 13 図 第 4 図 第 5 図 第16 図 5R2−111 5R1,1111111111111111111第 7 図 第 8 図 (a) i is 第 1 図 in [F]) 第 2 図 (C) 手続補正書(方式) 平成1年lO月26日
FIG. 1 is an overall configuration diagram of a data reading device according to a first embodiment of the present invention. Fig. 2 is a diagram illustrating an encoded image on a recording medium to be read, and Fig. 3 is a diagram showing an example of an encoded image on a recording medium to be read.
Figure 4 shows an example of an image obtained by scanning an encoded image. Image data obtained by scanning an encoded image is stored, and a guideline, which is a main scanning reference pattern, is recognized from the stored image data to perform main scanning decoding. FIG. 5 is a flowchart for performing sub-scan decoding by recognizing a synchronization mark string, which is a sub-scan reference pattern, from main-scan decoded image data. FIG. 6 is a diagram showing a memory map of the image RAM, and FIG. 7 is an explanatory diagram of a guideline set that characterizes guideline fragments. FIG. 8 is a diagram showing an encoded image with surrounding characters, etc., and a plurality of search blocks in which the encoded image is divided; FIG. 9 is a diagram illustrating an image of a guideline with dirt and a synchronization mark string; Fig. 10 is a diagram showing main scanning decoded image data corresponding to the image in Fig. 9, Fig. 11 is an overall configuration diagram of the data reading device according to the second embodiment, and Fig. 12 is a diagram showing the image data without a data end mark. The figure which shows the example of an encoded image. Figure 13 is a schematic diagram of an example of an encoded image when there are three guideline trees. Figure 14 is a schematic diagram of an example of an encoded image when there is one guideline. Figure 15 is a diagram of an example of an encoded image when there is one synchronization mark row. A schematic diagram of an example of an encoded image. FIG. 16 is a schematic diagram of an example of an encoded image with a synchronization mark row of elongated black marks arranged as a clock, FIG. 17 is a schematic diagram of an example of an encoded image with two types of synchronization mark rows with different periods, Fig. 18 is a diagram used to explain the process of identifying the brightness and darkness of each mesh using the midpoint method from the center of the four clocks of the synchronization mark string, and Fig. 19 is an image including the midpoints C1 and C2 shown in Fig. 18. Figure 5S20 is a diagram showing the arrangement of image data on the RAM; Figure 5S20 is a diagram showing the relationship between the four positions of the sampling reference pattern on the read image data and the positions of internal meshes. FIG. 21 is a diagram corresponding to FIG. 20, but showing the relationship between the four positions of the sampling reference pattern on the recording medium and the positions of internal meshes. FIG. 22 is a diagram used to explain the process of converting the center coordinates of the mesh on the recording medium to the center position of the mesh on the image data. 20...Encoded image, 21...Guideline (main scanning reference pattern), 22...Mesh pattern, 25...Synchronization mark string (sub-scanning reference pattern) pattern), 11.111... Image sensor-113... CPU, 14... ROM
, 15... Image RAM. Fig. 2 Fig. 1 Engraving of drawing Fig. Fig. 9 Fig. 0 Fig. 13 Fig. 4 Fig. 5 Fig. 16 Fig. 5R2-111 5R1,1111111111111111111 Fig. 7 Fig. 8 Fig. 8 (a) i is Figure 1 in [F]) Figure 2 (C) Procedural Amendment (Method) 26th October, 1999

Claims (2)

【特許請求の範囲】[Claims] (1)記録媒体に記録された画像に符号化されたデータ
を読み取るデータ読取方法において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの主走査方向におけるデータサンプリン
グ基準を指示するための主走査基準パターンとから成る
画像が記録された記録媒体から、該画像を表わすイメー
ジデータを読み取り、 (B)読み取られたイメージデータを複数の部分イメー
ジデータにセグメント化し、 (C)セグメント化された各部分イメージデータについ
て、その部分イメージデータのなかから上記主走査基準
パターンの断片を特徴づける特徴画素群を探索し、 (D)探索において上記特徴画像群が検出されなかった
部分イメージデータについては、他の部分イメージデー
タに対する探索において検出された特徴画素群によって
示される上記主走査基準パターンの断片の位置から、そ
の部分イメージデータにおける上記主走査基準パターン
の断片の位置を割り出すことにより、上記イメージデー
タにおける上記主走査基準パターンの各断片の位置情報
を生成し、 (E)生成された上記位置情報に基づいて上記イメージ
データにおける上記網状パターンの各網目の明暗を識別
する、 工程を有することを特徴とするデータ読取方法。
(1) In a data reading method for reading data encoded in an image recorded on a recording medium, (A) a mesh pattern in which data is encoded by brightness and darkness formed in each of a plurality of meshes arranged vertically and horizontally; ,
(B) reading image data representing the image from a recording medium on which an image consisting of a main scanning reference pattern for indicating a data sampling standard in the main scanning direction of the mesh pattern is recorded; (B) reading the read image data; segmenting into a plurality of partial image data; (C) searching for a characteristic pixel group characterizing the fragment of the main scanning reference pattern from among the partial image data for each segmented partial image data; (D) searching; Regarding the partial image data for which the characteristic image group was not detected in the search for other partial image data, the above-mentioned characteristic image group in the partial image data is determined from the position of the fragment of the main scanning reference pattern indicated by the characteristic pixel group detected in the search for other partial image data. (E) generating positional information of each fragment of the main scanning reference pattern in the image data by determining the positions of the fragments of the main scanning reference pattern; A data reading method comprising the step of identifying the brightness and darkness of each mesh of a pattern.
(2)記録媒体に記録された画像に符号化されたデータ
を読み取るデータ読取装置において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの主走査方向におけるデータサンプリン
グ基準を指示するための主走査基準パターンとから成る
画像が記録された記録媒体から、該画像を表わすイメー
ジデータを読み取るイメージセンサー手段と、 (B)読み取られたイメージデータを複数の部分イメー
ジデータにセグメント化するセグメント化手段と、 (C)セグメント化された各部分イメージデータについ
て、その部分イメージデータのなかから上記主走査基準
パターンの断片を特徴づける特徴画素群を探索する主走
査基準パターン探索手段と、 (D)探索において上記特徴画像群が検出されなかった
部分イメージデータについては、他の部分イメージデー
タに対する探索において検出された特徴画素群によって
示される上記主走査基準パターンの断片の位置から、そ
の部分イメージデータにおける上記主走査基準パターン
の断片の位置を割り出すことにより、上記イメージデー
タにおける上記主走査基準パターンの各断片の位置情報
を生成する主走査基準パターン位置生成手段と、 (E)生成された上記位置情報に基づいて上記イメージ
データにおける上記網状パターンの各網目の明暗を識別
する識別手段と を有することを特徴とするデータ読取装置。
(2) In a data reading device that reads data encoded in an image recorded on a recording medium, (A) a mesh pattern in which data is encoded by brightness and darkness formed in each of a plurality of meshes arranged vertically and horizontally; ,
(B) image sensor means for reading image data representing the image from a recording medium on which an image consisting of a main scanning reference pattern for indicating a data sampling reference in the main scanning direction of the mesh pattern is recorded; (C) for each segmented partial image data, a feature pixel that characterizes a fragment of the main scanning reference pattern from among the partial image data; (D) For partial image data in which the above-mentioned characteristic image group was not detected in the search, the above-mentioned characteristic pixel group indicated by the characteristic pixel group detected in the search for other partial image data; A main scanning reference that generates positional information of each fragment of the main scanning reference pattern in the image data by determining the position of the fragment of the main scanning reference pattern in the partial image data from the position of the fragment of the main scanning reference pattern. A data reading device comprising: pattern position generation means; and (E) identification means for identifying the brightness and darkness of each mesh of the mesh pattern in the image data based on the generated position information.
JP1145255A 1989-06-09 1989-06-09 Data reading method and device Expired - Lifetime JP2734638B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP1145255A JP2734638B2 (en) 1989-06-09 1989-06-09 Data reading method and device
US07/530,630 US5153928A (en) 1989-06-09 1990-05-30 Method and apparatus for recording/reproducing mesh pattern data
US07/869,012 US5454054A (en) 1989-06-09 1992-04-14 Method and apparatus for recording/reproducing mesh pattern data
US08/451,544 US5664030A (en) 1989-06-09 1995-05-26 Method and apparatus for recording/reproducing mesh pattern data
US08/451,545 US5790715A (en) 1989-06-09 1995-05-26 Method and apparatus for recording/reproducing mesh pattern data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1145255A JP2734638B2 (en) 1989-06-09 1989-06-09 Data reading method and device

Publications (2)

Publication Number Publication Date
JPH0311483A true JPH0311483A (en) 1991-01-18
JP2734638B2 JP2734638B2 (en) 1998-04-02

Family

ID=15380906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1145255A Expired - Lifetime JP2734638B2 (en) 1989-06-09 1989-06-09 Data reading method and device

Country Status (1)

Country Link
JP (1) JP2734638B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235267A (en) * 2003-01-28 2004-08-19 Kyocera Corp Solar cell element
US8836809B2 (en) 1997-07-15 2014-09-16 Google Inc. Quad-core image processor for facial detection
US8866923B2 (en) 1999-05-25 2014-10-21 Google Inc. Modular camera and printer
US8896724B2 (en) 1997-07-15 2014-11-25 Google Inc. Camera system to facilitate a cascade of imaging effects
US8902340B2 (en) 1997-07-12 2014-12-02 Google Inc. Multi-core image processor for portable device
US8902333B2 (en) 1997-07-15 2014-12-02 Google Inc. Image processing method using sensed eye position
US8908075B2 (en) 1997-07-15 2014-12-09 Google Inc. Image capture and processing integrated circuit for a camera
US8936196B2 (en) 1997-07-15 2015-01-20 Google Inc. Camera unit incorporating program script scanner
US9055221B2 (en) 1997-07-15 2015-06-09 Google Inc. Portable hand-held device for deblurring sensed images

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902340B2 (en) 1997-07-12 2014-12-02 Google Inc. Multi-core image processor for portable device
US9544451B2 (en) 1997-07-12 2017-01-10 Google Inc. Multi-core image processor for portable device
US9338312B2 (en) 1997-07-12 2016-05-10 Google Inc. Portable handheld device with multi-core image processor
US8947592B2 (en) 1997-07-12 2015-02-03 Google Inc. Handheld imaging device with image processor provided with multiple parallel processing units
US8947679B2 (en) 1997-07-15 2015-02-03 Google Inc. Portable handheld device with multi-core microcoded image processor
US9237244B2 (en) 1997-07-15 2016-01-12 Google Inc. Handheld digital camera device with orientation sensing and decoding capabilities
US8896720B2 (en) 1997-07-15 2014-11-25 Google Inc. Hand held image capture device with multi-core processor for facial detection
US8902333B2 (en) 1997-07-15 2014-12-02 Google Inc. Image processing method using sensed eye position
US8902357B2 (en) 1997-07-15 2014-12-02 Google Inc. Quad-core image processor
US8902324B2 (en) 1997-07-15 2014-12-02 Google Inc. Quad-core image processor for device with image display
US8908069B2 (en) 1997-07-15 2014-12-09 Google Inc. Handheld imaging device with quad-core image processor integrating image sensor interface
US8908051B2 (en) 1997-07-15 2014-12-09 Google Inc. Handheld imaging device with system-on-chip microcontroller incorporating on shared wafer image processor and image sensor
US8908075B2 (en) 1997-07-15 2014-12-09 Google Inc. Image capture and processing integrated circuit for a camera
US8913151B2 (en) 1997-07-15 2014-12-16 Google Inc. Digital camera with quad core processor
US8913182B2 (en) 1997-07-15 2014-12-16 Google Inc. Portable hand-held device having networked quad core processor
US8913137B2 (en) 1997-07-15 2014-12-16 Google Inc. Handheld imaging device with multi-core image processor integrating image sensor interface
US8922791B2 (en) 1997-07-15 2014-12-30 Google Inc. Camera system with color display and processor for Reed-Solomon decoding
US8922670B2 (en) 1997-07-15 2014-12-30 Google Inc. Portable hand-held device having stereoscopic image camera
US8928897B2 (en) 1997-07-15 2015-01-06 Google Inc. Portable handheld device with multi-core image processor
US8934053B2 (en) 1997-07-15 2015-01-13 Google Inc. Hand-held quad core processing apparatus
US8934027B2 (en) 1997-07-15 2015-01-13 Google Inc. Portable device with image sensors and multi-core processor
US8937727B2 (en) 1997-07-15 2015-01-20 Google Inc. Portable handheld device with multi-core image processor
US8936196B2 (en) 1997-07-15 2015-01-20 Google Inc. Camera unit incorporating program script scanner
US9584681B2 (en) 1997-07-15 2017-02-28 Google Inc. Handheld imaging device incorporating multi-core image processor
US8866926B2 (en) 1997-07-15 2014-10-21 Google Inc. Multi-core processor for hand-held, image capture device
US8953060B2 (en) 1997-07-15 2015-02-10 Google Inc. Hand held image capture device with multi-core processor and wireless interface to input device
US9560221B2 (en) 1997-07-15 2017-01-31 Google Inc. Handheld imaging device with VLIW image processor
US8896724B2 (en) 1997-07-15 2014-11-25 Google Inc. Camera system to facilitate a cascade of imaging effects
US9124736B2 (en) 1997-07-15 2015-09-01 Google Inc. Portable hand-held device for displaying oriented images
US9060128B2 (en) 1997-07-15 2015-06-16 Google Inc. Portable hand-held device for manipulating images
US9124737B2 (en) 1997-07-15 2015-09-01 Google Inc. Portable device with image sensor and quad-core processor for multi-point focus image capture
US9055221B2 (en) 1997-07-15 2015-06-09 Google Inc. Portable hand-held device for deblurring sensed images
US9131083B2 (en) 1997-07-15 2015-09-08 Google Inc. Portable imaging device with multi-core processor
US9137398B2 (en) 1997-07-15 2015-09-15 Google Inc. Multi-core processor for portable device with dual image sensors
US9143636B2 (en) 1997-07-15 2015-09-22 Google Inc. Portable device with dual image sensors and quad-core processor
US9143635B2 (en) 1997-07-15 2015-09-22 Google Inc. Camera with linked parallel processor cores
US9148530B2 (en) 1997-07-15 2015-09-29 Google Inc. Handheld imaging device with multi-core image processor integrating common bus interface and dedicated image sensor interface
US9168761B2 (en) 1997-07-15 2015-10-27 Google Inc. Disposable digital camera with printing assembly
US9179020B2 (en) 1997-07-15 2015-11-03 Google Inc. Handheld imaging device with integrated chip incorporating on shared wafer image processor and central processor
US9185246B2 (en) 1997-07-15 2015-11-10 Google Inc. Camera system comprising color display and processor for decoding data blocks in printed coding pattern
US9185247B2 (en) 1997-07-15 2015-11-10 Google Inc. Central processor with multiple programmable processor units
US9191529B2 (en) 1997-07-15 2015-11-17 Google Inc Quad-core camera processor
US9191530B2 (en) 1997-07-15 2015-11-17 Google Inc. Portable hand-held device having quad core image processor
US9197767B2 (en) 1997-07-15 2015-11-24 Google Inc. Digital camera having image processor and printer
US9219832B2 (en) 1997-07-15 2015-12-22 Google Inc. Portable handheld device with multi-core image processor
US8953178B2 (en) 1997-07-15 2015-02-10 Google Inc. Camera system with color display and processor for reed-solomon decoding
US8953061B2 (en) 1997-07-15 2015-02-10 Google Inc. Image capture device with linked multi-core processor and orientation sensor
US9432529B2 (en) 1997-07-15 2016-08-30 Google Inc. Portable handheld device with multi-core microcoded image processor
US8836809B2 (en) 1997-07-15 2014-09-16 Google Inc. Quad-core image processor for facial detection
US8866923B2 (en) 1999-05-25 2014-10-21 Google Inc. Modular camera and printer
JP2004235267A (en) * 2003-01-28 2004-08-19 Kyocera Corp Solar cell element

Also Published As

Publication number Publication date
JP2734638B2 (en) 1998-04-02

Similar Documents

Publication Publication Date Title
JP3458737B2 (en) Reading method of two-dimensional code and recording medium
US5153928A (en) Method and apparatus for recording/reproducing mesh pattern data
EP0669593B1 (en) Two-dimensional code recognition method
JP3115610B2 (en) High speed image capture system and method
EP1456811B1 (en) Reconstruction of virtual raster
US6181839B1 (en) Two-dimensional code reader
CN101155238B (en) Image area detection method and device thereof
JPH0612515A (en) Method and apparatus for decoding two-dimensional bar code using ccd/cmd camera
JP2000222517A (en) Method and device for reading two-dimensional code, and recording medium
JP3716527B2 (en) 2D code reading method
JPH0311483A (en) Method and device for reading data
JP3571128B2 (en) Method and apparatus for recognizing dimensions of drawings
JPH0311484A (en) Method and device for reading data
JP2726969B2 (en) Data reader
JPH11312215A (en) Two-dimensional code decoder and storage medium thereof
JP2007094584A (en) Method for detecting two dimensional code, detecting device, and detecting program
JPH0679330B2 (en) Pixel resolution inspection method for image sensor
JPH0311481A (en) Method and device for recording data, recording medium, and method and device for reproducing data
JPH0793476A (en) Character string detector
JP2737755B2 (en) Data reader
JP4074718B2 (en) Inspection device and inspection method
JPH08212292A (en) Frame line recognition device
JPH0434793B2 (en)
JP4218179B2 (en) Pattern detection apparatus and method
JP2001250079A (en) Two-dimensional code reader

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

EXPY Cancellation because of completion of term
R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12