JP2006331216A - Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program - Google Patents
Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program Download PDFInfo
- Publication number
- JP2006331216A JP2006331216A JP2005156104A JP2005156104A JP2006331216A JP 2006331216 A JP2006331216 A JP 2006331216A JP 2005156104 A JP2005156104 A JP 2005156104A JP 2005156104 A JP2005156104 A JP 2005156104A JP 2006331216 A JP2006331216 A JP 2006331216A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- range
- processing apparatus
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 268
- 238000000034 method Methods 0.000 title claims description 66
- 238000001514 detection method Methods 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 13
- 230000000994 depressogenic effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Character Input (AREA)
Abstract
Description
この発明は画像処理装置、画像処理装置における処理対象範囲指定方法、画像処理範囲指定プログラム、および画像処理範囲指定プログラムを記録する記録媒体に関し、特に、取得画像のうちの処理対象とする範囲を、容易に指定することのできる画像処理装置、画像処理装置における処理対象範囲指定方法、画像処理範囲指定プログラム、および画像処理範囲指定プログラムを記録する記録媒体に関する。 The present invention relates to an image processing device, a processing target range specifying method in the image processing device, an image processing range specifying program, and a recording medium for recording an image processing range specifying program. The present invention relates to an image processing apparatus that can be specified easily, a processing target range specifying method in the image processing apparatus, an image processing range specifying program, and a recording medium that records the image processing range specifying program.
近年の、デジタル電子カメラ、カメラ付き携帯電話など撮像機能を有する携帯機器の記憶容量、表示サイズなどの性能向上が著しく、カメラで撮像した画像を文字入力手段に用いるなどさまざまな用途が広がってきている。 In recent years, performance improvements such as storage capacity and display size of portable devices having an imaging function such as digital electronic cameras and camera-equipped mobile phones have remarkably improved, and various applications such as using images captured by cameras as character input means have spread. Yes.
応用例として、以下の特許文献1に開示されているような携帯端末を用いて、撮像画像から文字範囲を切出して文字認識を行なう手法が提案されている。この手法の場合、利用者が携帯端末の位置や向きを手動で調整することで、表示部に表示された認識対象フレームの中に認識対象となる文字列が収まるように調整する必要がある。 As an application example, a method has been proposed in which character recognition is performed by cutting out a character range from a captured image using a portable terminal as disclosed in Patent Document 1 below. In the case of this method, it is necessary for the user to manually adjust the position and orientation of the portable terminal so that the character string to be recognized fits in the recognition target frame displayed on the display unit.
また、以下の特許文献2では、利用者が携帯端末に配置されたボタン(キー)を押下するなどの入力操作によって、認識対象とする文字列を選択する方法が提案されている。この手法の場合、文字列が単語単位で正しく切出されていれば、簡単なボタン操作で容易に入力対象とする単語を選択することができる。 In Patent Document 2 below, a method is proposed in which a user selects a character string to be recognized by an input operation such as pressing a button (key) arranged on a mobile terminal. In the case of this method, if a character string is correctly cut out in units of words, a word to be input can be easily selected by a simple button operation.
また、以下の特許文献3では、加速度センサなどの移動量検出手段により検出された機器本体の移動量により、画面上に表示された画像等の情報のサイズを、拡大あるいは縮小する電子機機器が提案されている。
上述のように、携帯可能な画像処理装置を用いて特定範囲の画像を入力する場合には、いくつかの手法が存在するが、それぞれ以下のような課題がある。 As described above, when inputting an image in a specific range using a portable image processing apparatus, there are several methods, but each has the following problems.
表示されたフレームに対象が収まるように撮像する手法においては、利用者が画像処理対象範囲を指定する場合において、慎重に端末本体の位置や向きや対象対照物との距離を調整する必要がある。このため、シャッターボタンの押下動作による端末本体の振動でフレームから外れる、撮像対象に近づけ過ぎるとオートフォーカスの範囲外となり画像がぼける、などの問題がある。 In the method of capturing an image so that the target fits in the displayed frame, the user needs to carefully adjust the position and orientation of the terminal body and the distance from the target object when specifying the image processing target range. . For this reason, there is a problem that the terminal body is out of the frame due to the vibration of the terminal body due to the pressing operation of the shutter button, and the image is blurred when it is too close to the imaging target and out of the autofocus range.
また、端末のボタン入力操作により単語単位で切出された部分から画像処理対象範囲の指示を行なう方法の場合、現在の技術では、イタリック体などの傾いた文字等が含まれるときには必ずしも正確に単語単位の切出しができないことがある。そのため、単語の切出し位置を修正するために、多数のボタン入力操作を行なう必要があり、操作が煩雑であるという問題がある。たとえば横書きの文字列を入力し左右の入力対象範囲の境界位置が正しく検出されていない場合、境界位置移動させるためには繰り返し入力ボタンを操作する必要があり、操作が煩雑である。 In addition, in the case of a method for instructing an image processing target range from a portion cut out in units of words by a button input operation on a terminal, the current technique does not always accurately include a word when a tilted character such as italic is included. Units may not be cut out. Therefore, in order to correct the word extraction position, it is necessary to perform a large number of button input operations, and there is a problem that the operation is complicated. For example, when a horizontally written character string is input and the boundary position between the left and right input target ranges is not correctly detected, it is necessary to operate the input button repeatedly in order to move the boundary position, and the operation is complicated.
また、単語単位で切出す手法は、日本語、中国語、韓国語など、単語間にスペースがない言語においては適用できないため、それらの言語において用いる場合には始点と終点とをボタン入力操作で指示する必要があり、操作が煩雑であるという問題がある。また、単語単位で切出された部分から画像処理対象範囲を選択するためには、前後の境界位置の選択と、位置の選択との2種類の操作が必要であり、より多くの操作時間が必要となるという問題もある。 Also, the method of cutting out in units of words cannot be applied to languages such as Japanese, Chinese, Korean, etc. where there is no space between words. There is a problem that it is necessary to instruct and the operation is complicated. In addition, in order to select an image processing target range from a portion cut out in units of words, two kinds of operations, that is, selection of the front and rear boundary positions and position selection are necessary, and more operation time is required. There is also a problem that it is necessary.
また、機器本体の移動を検出し、表示サイズを変更する手法は、画像処理対象範囲の指定など、情報の入力や指定操作に適用することが難しいという問題がある。 In addition, there is a problem that the method of detecting the movement of the device body and changing the display size is difficult to apply to information input and designation operations such as designation of an image processing target range.
また、上述の各手法のように、撮像と画像処理対象範囲の指定とを、容易かつ一連の動作で行なうことができない場合、利用者は繰返しボタン操作を行なう必要があり、作業が中断され、作業効率が大きく低下するという問題がある。 In addition, as in each of the above-described methods, when it is not possible to easily perform imaging and designation of an image processing target range by a series of operations, the user needs to perform repeated button operations, and the work is interrupted. There is a problem that work efficiency is greatly reduced.
本発明は、以上のような点を鑑みてなされたもので、特に携帯情報端末または携帯電話等を用いて得られた撮像画像から画像処理対象範囲を指定する場合において、簡単な操作により、容易に処理対象とする範囲を指定することのできる画像処理装置、画像処理装置における処理対象範囲指定方法、画像処理範囲指定プログラム、および画像処理範囲指定プログラムを記録する記録媒体を提供することを目的とする。 The present invention has been made in view of the above points. In particular, in the case of designating an image processing target range from a captured image obtained using a portable information terminal or a mobile phone, the present invention can be easily performed by a simple operation. It is an object to provide an image processing apparatus capable of specifying a processing target range, a processing target range specifying method in the image processing apparatus, an image processing range specifying program, and a recording medium for recording the image processing range specifying program. To do.
上記目的を達成するために、本発明のある局面に従うと、画像処理装置は、画像を取得する画像取得手段と、当該画像処理装置の移動を検出する移動検出手段と、取得した画像に対して処理を行なう画像処理手段と、移動検出手段が検出した画像処理装置の移動に応じて、上記画像のうち、画像処理手段における処理対象範囲を決定する画像処理範囲決定手段とを備える。 In order to achieve the above object, according to one aspect of the present invention, an image processing apparatus performs image acquisition means for acquiring an image, movement detection means for detecting movement of the image processing apparatus, and the acquired image. An image processing unit that performs processing, and an image processing range determination unit that determines a processing target range in the image processing unit among the images according to the movement of the image processing apparatus detected by the movement detection unit.
さらに、画像取得手段は、被写体を撮影する撮像手段を含み、画像処理手段における処理対象の画像として、撮像手段において撮影されて取得された画像の中から1つの画像を確定する撮像画像確定手段を備え、移動検出手段は、撮像手段において撮影されて取得された画像を用いて画像処理装置の移動を検出することが好ましい。 Furthermore, the image acquisition unit includes an imaging unit that captures a subject, and a captured image determination unit that determines one image from images captured and acquired by the imaging unit as an image to be processed by the image processing unit. It is preferable that the movement detection means detects movement of the image processing apparatus using an image captured and acquired by the imaging means.
また、画像処理装置は物理的操作入力手段をさらに備え、画像処理範囲決定手段は、移動検出手段が検出した画像処理装置の移動と、物理的操作入力手段からの入力とに基づいて処理対象範囲を決定することが好ましい。 The image processing apparatus further includes physical operation input means, and the image processing range determining means is based on the movement of the image processing apparatus detected by the movement detection means and the input from the physical operation input means. Is preferably determined.
また、画像処理装置は、上記画像のうち、処理対象範囲を自動的に判定する処理対象範囲判定手段をさらに備え、画像処理範囲決定手段は、処理対象判定手段において判定された処理対象範囲を変更することが好ましい。 The image processing apparatus further includes a processing target range determination unit that automatically determines a processing target range of the image, and the image processing range determination unit changes the processing target range determined by the processing target determination unit. It is preferable to do.
さらに、画像処理装置は、処理対象判定手段において判定された処理対象範囲を示す画像を表示する表示手段を備えることが好ましい。 Furthermore, the image processing apparatus preferably includes a display unit that displays an image indicating the processing target range determined by the processing target determination unit.
さらに、表示手段は、処理対象判定手段において判定された処理対象範囲のうちの、画像処理範囲決定手段において変更する範囲と、処理対象範囲のうちの変更する範囲以外の範囲とを、異なる表示形態とすることがより好ましい。 Furthermore, the display unit displays different ranges of the range to be changed by the image processing range determination unit in the processing target range determined by the processing target determination unit and the range other than the range to be changed in the processing target range. More preferably.
また、画像処理範囲決定手段は、移動検出手段が検出した画像処理装置の移動がしきい値以上の移動である場合、処理対象範囲に対する変更を取消すことが好ましい。 Further, it is preferable that the image processing range determination unit cancels the change to the processing target range when the movement of the image processing apparatus detected by the movement detection unit is a movement equal to or greater than a threshold value.
また、画像処理装置は物理的操作入力手段をさらに備え、画像処理範囲決定手段は、物理的操作入力手段からの入力に基づいて、変更を決定することが好ましい。 The image processing apparatus preferably further includes a physical operation input unit, and the image processing range determination unit preferably determines the change based on an input from the physical operation input unit.
また、移動検出手段は、画像処理装置の移動が検出されなかった場合に、検出を繰返すことが好ましい。 The movement detection means preferably repeats the detection when the movement of the image processing apparatus is not detected.
また、前記画像処理手段は、具体的には文字認識手段を含み、画像処理範囲決定手段は、文字認識手段における文字認識の対象とする範囲を決定することが好ましい。 Further, the image processing means preferably includes character recognition means, and the image processing range determination means preferably determines a range for character recognition in the character recognition means.
また、画像処理手段は、具体的にはデータベース照合手段を含み、画像処理範囲決定手段は、データベース照合手段においてデータベースと照合する範囲を決定することが好ましい。 Further, it is preferable that the image processing unit specifically includes a database collating unit, and the image processing range determining unit determines a range to be collated with the database in the database collating unit.
本発明の他の局面に従うと、画像処理装置における処理対象範囲指定方法は、画像処理装置において処理対象とする範囲を指定する方法であって、画像を取得する画像取得ステップと、画像処理装置の移動を検出する移動検出ステップと、移動検出ステップにおいて検出された画像処理装置の移動に応じて、取得された画像のうち、処理対象とする範囲を決定する画像処理範囲決定ステップとを備える。 According to another aspect of the present invention, a processing target range specifying method in an image processing apparatus is a method of specifying a range to be processed in the image processing apparatus, and includes an image acquisition step for acquiring an image, A movement detection step for detecting movement, and an image processing range determination step for determining a range to be processed in the acquired image according to the movement of the image processing apparatus detected in the movement detection step.
本発明のさらに他の局面に従うと、画像処理範囲指定プログラムは、画像処理の対象とする範囲を指定する処理をコンピュータに実行させるプログラムであって、画像を取得する画像取得ステップと、画像処理装置の移動を検出する移動検出ステップと、移動検出ステップにおいて検出された画像処理装置の移動に応じて、取得された画像のうち、処理対象とする範囲を決定する画像処理範囲決定ステップとを実行させる。 According to still another aspect of the present invention, the image processing range specifying program is a program for causing a computer to execute processing for specifying a range to be subjected to image processing, an image acquisition step for acquiring an image, and an image processing device A movement detection step for detecting a movement of the image processing range, and an image processing range determination step for determining a range to be processed in the acquired image according to the movement of the image processing apparatus detected in the movement detection step. .
本発明のさらに他の局面に従うと、記録媒体は、コンピュータ読取可能な記録媒体であって、上記プログラムを記録する。 According to still another aspect of the present invention, the recording medium is a computer-readable recording medium, and records the program.
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。 Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1は、本発明の実施の形態にかかる画像処理装置の構成の具体例を示す図である。本実施の形態にかかる画像処理装置としては、カメラ付き携帯電話やカメラ付きパーソナルコンピュータなど、画像取得機能と取得された画像を処理する画像処理機能とを備える装置が該当する。 FIG. 1 is a diagram showing a specific example of the configuration of the image processing apparatus according to the embodiment of the present invention. The image processing apparatus according to the present embodiment corresponds to an apparatus having an image acquisition function and an image processing function for processing the acquired image, such as a camera-equipped mobile phone or a camera-equipped personal computer.
図1を参照して、本発明の実施の形態にかかる画像処理装置は、画像取得手段の一例である撮像部101、表示部102、操作部103、RAM(Random Access Memory)105、ROM(Read Only Memory)107、付加装置106、およびこれらを制御する中央制御部104を備えて構成される。 Referring to FIG. 1, an image processing apparatus according to an embodiment of the present invention includes an imaging unit 101, a display unit 102, an operation unit 103, a RAM (Random Access Memory) 105, a ROM (Read Only Memory) 107, an additional device 106, and a central control unit 104 for controlling them.
撮像部101は、デジタル電子カメラ等により被写体を工学的に撮像してデジタル画像データを得る。表示部102は、液晶パネル等を用いて画像表示プログラムにより作成された画像を表示する。操作部103は、撮像画像確定手段のためのシャッターボタンなどの操作ボタンを有している。また付加装置106は、加速度センサのほか、マイク、スピーカ、ライト、通信装置、メモリカードI/F(インタフェース)などの外部記憶装置との接続装置を備えてもよい。 The imaging unit 101 obtains digital image data by engineeringly imaging a subject with a digital electronic camera or the like. The display unit 102 displays an image created by an image display program using a liquid crystal panel or the like. The operation unit 103 has operation buttons such as a shutter button for a captured image determination unit. In addition to the acceleration sensor, the additional device 106 may include a connection device with an external storage device such as a microphone, a speaker, a light, a communication device, and a memory card I / F (interface).
なお、画像取得手段の他の例として、撮像部101に換えて、上記外部記憶装置との接続装置であって、接続して記憶されている画像を取得したり、通信装置装置であって、他の装置から画像を受信して取得したりする、付加装置106であってもよい。 In addition, as another example of the image acquisition unit, instead of the imaging unit 101, a connection device with the external storage device that acquires a connected and stored image, or a communication device device, The additional device 106 may receive and acquire an image from another device.
RAM105は、撮像した画像を一時記憶する画像バッファ、画像データを記憶するための画像記憶部、および中央制御部104がプログラムを実行するためのワークバッファを備えて構成される。また、ROM107は、移動検出プログラム、文字認識プログラム、画像表示プログラム、およびその他プログラム、ならびに文字認識辞書、英和辞書等の上記プログラムの実行時に用いられるデータベースを記憶する領域を備えて構成される。 The RAM 105 includes an image buffer for temporarily storing captured images, an image storage unit for storing image data, and a work buffer for the central control unit 104 to execute a program. The ROM 107 includes an area for storing a movement detection program, a character recognition program, an image display program, and other programs, and a database used when executing the above programs such as a character recognition dictionary and an English-Japanese dictionary.
移動検出プログラムは、左右、上下、回転などの画像処理装置に入力される画像の移動を検出する移動検出手段で用いるプログラムである。文字認識プログラムは、入力画像から行抽出を行なった後、文字画像を切出して文字コードに変換する一連のプログラムである。画像表示プログラムは表示部102で表示すべき画像を生成するプログラムである。その他プログラムは、上記以外の処理を実行するためのプログラムである。 The movement detection program is a program used by movement detection means for detecting movement of an image input to the image processing apparatus such as left and right, up and down, and rotation. The character recognition program is a series of programs that extract lines from an input image and then extract the character image and convert it into a character code. The image display program is a program for generating an image to be displayed on the display unit 102. The other program is a program for executing processing other than the above.
中央制御部104は、ROM107に格納された各プログラムを実行し、各部の動作制御を行なう。 The central control unit 104 executes each program stored in the ROM 107 and controls the operation of each unit.
図2は、本実施の形態にかかる画像処理装置において検出される、当該画像処理の移動方向の定義を説明する図である。 FIG. 2 is a diagram for explaining the definition of the moving direction of the image processing detected by the image processing apparatus according to the present embodiment.
図2を参照して、本実施の形態にかかる画像処理装置においては、撮像部101から撮像された画像が左に動いたときに検出される当該画像処理装置の移動方向を左と定義し、画像が上に動いたときに検出される当該画像処理装置の移動方向を上と定義する。同様に上下左右方向およびその組合わせからなる当該画像処理装置の移動方向を定義する。また、画像処理装置を前後に動かすなどにより撮像画像が大きくなったときに検出される当該画像処理装置の移動方向を前、小さくなったときに検出される当該画像処理装置の移動方向を後、さらに、画像が反時計回りに回転したときに検出される当該画像処理装置の移動方向を左回転方向、時計回りに回転したときに検出される当該画像処理装置の移動方向を右回転方向と定義する。 With reference to FIG. 2, in the image processing apparatus according to the present embodiment, the moving direction of the image processing apparatus detected when the image captured from the imaging unit 101 moves to the left is defined as the left, The moving direction of the image processing apparatus detected when the image moves up is defined as up. Similarly, the moving direction of the image processing apparatus consisting of the vertical and horizontal directions and the combination thereof is defined. In addition, the moving direction of the image processing apparatus detected when the captured image becomes large by moving the image processing apparatus back and forth, the moving direction of the image processing apparatus detected when the captured image becomes small, Further, the moving direction of the image processing device detected when the image is rotated counterclockwise is defined as the left rotating direction, and the moving direction of the image processing device detected when the image is rotated clockwise is defined as the right rotating direction. To do.
[第1の実施の形態]
図3は、第1の実施の形態にかかる画像処理装置における画像処理の一例を示すフローチャートであり、以下、この図に従って説明する。図3のフローチャートに示される処理は、中央制御部104がROM107に格納された各プログラムを読出して実行し、図1に示される各部の動作制御を行なうことで実現される。
[First Embodiment]
FIG. 3 is a flowchart showing an example of image processing in the image processing apparatus according to the first embodiment. The processing shown in the flowchart of FIG. 3 is realized by the central control unit 104 reading and executing each program stored in the ROM 107 and controlling the operation of each unit shown in FIG.
また、図4は、図3のフローチャートに示される処理過程における画像の具体例を示す図であり、図5は、図3のフローチャートに示される処理過程における表示部102の表示画面の具体例を示す図である。 4 is a diagram showing a specific example of an image in the process shown in the flowchart of FIG. 3, and FIG. 5 is a specific example of a display screen of the display unit 102 in the process shown in the flowchart of FIG. FIG.
図3を参照して、まず、ステップS201において利用者が操作部のシャッターボタン等を操作することにより撮像画像が確定され、確定されたデジタル画像データがRAM105内の画像バッファに格納される。ステップS202において、格納されたデジタル画像データが、文字に相当する黒画素と背景に相当する白画素との二値画像に変換される。図4(A)は、RAM105内の画像バッファに格納され、二値画像に変換された画像の具体例を示す図である。 Referring to FIG. 3, first, in step S <b> 201, the user operates a shutter button or the like of the operation unit to determine a captured image, and the determined digital image data is stored in an image buffer in RAM 105. In step S202, the stored digital image data is converted into a binary image of black pixels corresponding to characters and white pixels corresponding to the background. FIG. 4A is a diagram illustrating a specific example of an image stored in an image buffer in the RAM 105 and converted into a binary image.
次に、ステップS203〜S205においては、処理対象範囲判定手段の一例である以下の処理を行なうプログラムが実行され、予め自動的に画像処理対象と推定される範囲が検出されて、その検出された範囲が表示画面上で利用者に提示される。すなわち、ステップS203において、ステップS202で得られた二値画像から行が抽出される。ステップS203で中央制御部104は、二値画像を横方向に投影し、その投影分布を求める。投影を求める方法は本発明において限定されるものではない。1つの具体例としては、横方向に画素数を加算する方法が簡素で好ましいものとして挙げられるが、他の具体例として、連結成分の外接矩形の加算値を計算するなどの方法も挙げられる。 Next, in steps S203 to S205, a program that performs the following processing, which is an example of a processing target range determination unit, is executed, and a range that is presumed to be an image processing target is automatically detected in advance. The range is presented to the user on the display screen. That is, in step S203, rows are extracted from the binary image obtained in step S202. In step S203, the central control unit 104 projects the binary image in the horizontal direction and obtains the projection distribution. The method for obtaining the projection is not limited in the present invention. As one specific example, a method of adding the number of pixels in the horizontal direction is simple and preferable, but another specific example is a method of calculating an addition value of a circumscribed rectangle of connected components.
図4(B)は、ステップS203において行が切出された画像の具体例を示す図であって、図4(A)に示される画像において切出された複数の行のうち、撮像画像の中央部に最も近い行が選択された場合の画像の具体例を示す図である。なお、本実施の形態においては、図4(B)に示されるように、ステップS203において、撮像画像の中央部に最も近い行が目的の行であると自動的に判断されて選択されるものとするが、機器の上下方向の移動などにより、所望の行を選択する機能が追加されてもよい。 FIG. 4B is a diagram illustrating a specific example of the image in which the row is cut out in step S203. Of the plurality of rows cut out in the image shown in FIG. It is a figure which shows the specific example of an image when the line nearest to a center part is selected. In the present embodiment, as shown in FIG. 4B, in step S203, the line closest to the center of the captured image is automatically determined and selected as the target line. However, a function of selecting a desired row may be added by moving the device up and down.
次に、ステップS204において、中央制御部104は、選択された行に含まれる黒画素を連結成分に分割し、それぞれの連結成分の外接矩形を求める。さらに、この外接矩形相互間の距離を計算し、隣接する矩形間の距離が一定値(たとえば矩形の平均高さの0.5倍)を超えた場合、その連結成分の間隔を単語の区切りと判断する。英語等の言語においては、単語内の文字間よりも単語間に大きな空白部分が配され、「単語の区切り」とは、この単語間の空白部分を示す。ステップS204で中央制御部104は、ステップS203で選択された行の内で、上記「単語の区切り」で区切られた複数の範囲の中で、中央部に最も近い範囲を画像処理対象範囲として抽出し、1つの単語として切出す。 Next, in step S204, the central control unit 104 divides the black pixels included in the selected row into connected components, and obtains a circumscribed rectangle for each connected component. Further, the distance between the circumscribed rectangles is calculated, and when the distance between adjacent rectangles exceeds a certain value (for example, 0.5 times the average height of the rectangles), the interval between the connected components is defined as a word break. to decide. In a language such as English, a larger blank portion is arranged between words than between characters in the word, and “word break” indicates a blank portion between words. In step S204, the central control unit 104 extracts, as the image processing target range, the range closest to the central portion among the plurality of ranges delimited by the “word delimiter” in the row selected in step S203. And cut out as one word.
図4(C)は、ステップS204において、画像処理対象として、1つの単語であるとした文字列が切出された画像の具体例を示す図である。図4(C)においては、連結成分「from」の外接矩形と連結成分「queue」の外接矩形との間の距離(「m」と「q」と間の距離)、および連結成分「queue」の外接矩形と連結成分「because」の外接矩形との間の距離(「e」と「b」と間の距離)が上記一定値よりも小さいため、これらの連結成分間が単語の区切りと判断されておらず、連結成分「from queue because」が1つの単語であるとして切出されている。 FIG. 4C is a diagram illustrating a specific example of an image obtained by cutting out a character string that is regarded as one word as an image processing target in step S204. In FIG. 4C, the distance between the circumscribed rectangle of the connected component “from” and the circumscribed rectangle of the connected component “queue” (the distance between “m” and “q”), and the connected component “queue”. Since the distance between the circumscribed rectangle and the circumscribed rectangle of the connected component “because” (the distance between “e” and “b”) is smaller than the predetermined value, it is determined that the segment between these connected components is a word break The connected component “from queue because” is cut out as one word.
ステップS204で1つの単語であるとして切出された文字列は、画像処理対象範囲として利用者が把握できるように、ステップS205において、液晶パネル等からなる表示部102の表示画面に表示される。図5(A)は、ステップS205での表示部102の表示画面の具体例を示す図であり、1つの単語であるとして切出された文字列を提示する表示画面の具体例を示す図である。図5(A)に示される表示例では、1つの単語であるとして切出された文字列が矩形に囲まれた領域の黒字画素部分として提示されている。なお、切出された文字列の提示方法は図5(A)に示されたような矩形で囲む方法に限定されず、切出された文字列が他の文字列から識別可能なように他の文字列と異なる表示形態となればよく、文字列の表示色あるいは背景色の表示色を変える、点滅表示を行なうなどの提示方法でもよいし、矩形に囲まれた領域外の部分の表示色を変更するなどの提示方法でもよい。 The character string cut out as one word in step S204 is displayed on the display screen of the display unit 102 formed of a liquid crystal panel or the like in step S205 so that the user can grasp it as an image processing target range. FIG. 5A is a diagram illustrating a specific example of the display screen of the display unit 102 in step S205, and is a diagram illustrating a specific example of the display screen presenting a character string cut out as one word. is there. In the display example shown in FIG. 5A, a character string cut out as a single word is presented as a black pixel portion in an area surrounded by a rectangle. Note that the method of presenting the extracted character string is not limited to the method of enclosing with a rectangle as shown in FIG. 5A, and other methods are used so that the extracted character string can be identified from other character strings. The display method may be different from that of the character string, may be a presentation method such as changing the display color of the character string or the background color, or performing blinking display, or the display color of the portion outside the area surrounded by the rectangle The presentation method may be changed.
次に、ステップS206において、利用者の指示操作に基づいて、表示画面上に表示された画像処理対象範囲が、利用者が所望する文字列であるか否かが判定される。ステップS206では、具体的には、たとえば画像処理対象範囲を決定する機能を付与した「確定キー」が押下されたかどうかが判定されて、利用者が所望する文字列であるか否かが判定される。確定キーが押下された場合(ステップS206でYES)、処理はステップS211に進み、押下されない場合(ステップS206でNO)、処理はステップS207に進む。すなわち、ステップS205において表示画面で提示された画像処理対象範囲である文字列が所望の単語を表わす文字列であった場合(ステップS206でYES)、利用者は確定操作することで、上記所望の単語を表わす文字列に対して、文字列認識処理等、所望する画像処理を行なうことができる。 Next, in step S206, based on the user's instruction operation, it is determined whether or not the image processing target range displayed on the display screen is a character string desired by the user. In step S206, specifically, for example, it is determined whether or not a “confirmation key” having a function for determining the image processing target range is pressed, and it is determined whether or not the character string is desired by the user. The If the confirmation key has been pressed (YES in step S206), the process proceeds to step S211. If not (NO in step S206), the process proceeds to step S207. In other words, when the character string that is the image processing target range presented on the display screen in step S205 is a character string that represents a desired word (YES in step S206), the user performs a confirming operation so that the desired string is displayed. Desired image processing such as character string recognition processing can be performed on a character string representing a word.
一方、画面上に表示された画像処理対象範囲である文字列が、利用者が所望する単語ではない場合、すなわち確定キーが押下されない場合(ステップS206でNO)、中央制御部104は、移動検出手段の一例である移動検出プログラムを実行する。 On the other hand, when the character string that is the image processing target range displayed on the screen is not a word desired by the user, that is, when the confirmation key is not pressed (NO in step S206), the central control unit 104 detects the movement. A movement detection program which is an example of the means is executed.
移動検出プログラムは、たとえばカメラのオートフォーカス機能で利用している距離データを0.1秒ごとに取得し、過去の距離値と現在の値とを比較することで、当該装置と対象物との距離の変化を判定し、距離が小さくなった場合は装置が前方向に、大きくなった場合は後ろ方向に動いたと判定する処理を実行させるプログラムである。 The movement detection program acquires, for example, the distance data used in the autofocus function of the camera every 0.1 second, and compares the past distance value with the current value, so that the device and the object can be compared. This is a program for determining a change in the distance and executing a process of determining that the apparatus has moved in the forward direction when the distance is reduced and moved in the backward direction when the distance is increased.
または、中央制御部104は、移動検出手段の一例である加速度センサなどを用いて画像処理装置本体の移動方向を検出し、その結果に基づいて移動方向を判断する処理を実行させてもよい。 Alternatively, the central control unit 104 may execute a process of detecting the moving direction of the image processing apparatus main body using an acceleration sensor which is an example of a movement detecting unit and determining the moving direction based on the result.
ステップS207〜S210では、ステップS206で移動検出手段を用いて検出された画像処理装置の移動方向または移動量に基づき、画像処理対象範囲を指定/変更する処理が実行される。たとえば、画像処理装置を入力対象に近づけることで画像処理対象範囲を狭めるように変更する。すなわち、ステップS207において、距離検出プログラムが実行されることで撮像部101から入力される撮像に基づいて当該画像処理装置が前方向に移動したか否かが判定され、前方向に移動したと判定された場合(ステップS207でYES)、ステップS208において、中央制御部104は、ステップS204で1つの単語であるとして切出された文字列の両端を内側に移動させる。図5(B)は、ステップS208で、図5(A)に示された、1つの単語であるとして切出された文字列の両端を、内側に移動させた文字列を提示する表示画面の具体例を示す図である。 In steps S207 to S210, processing for designating / changing the image processing target range is executed based on the moving direction or moving amount of the image processing apparatus detected by using the movement detecting means in step S206. For example, the image processing device is changed so as to narrow the image processing target range by bringing the image processing device closer to the input target. That is, in step S207, it is determined whether or not the image processing apparatus has moved forward based on the imaging input from the imaging unit 101 by executing the distance detection program, and it has been determined that the image processing apparatus has moved forward. If it is determined (YES in step S207), in step S208, the central control unit 104 moves both ends of the character string cut out as one word in step S204 to the inside. FIG. 5B shows a display screen that presents a character string in which both ends of the character string extracted as being one word shown in FIG. 5A are moved inward in step S208. It is a figure which shows a specific example.
また、画像処理装置を入力対象から離す操作で画像処理対象範囲を広げるように変更する。すなわち、ステップS209において、距離検出プログラムが実行されることで当該画像処理装置が後方向に移動したか否かが判定され、後方向に移動したと判定された場合(ステップS209でYES)、ステップS210において、中央制御部104は、ステップS204で1つの単語として切出された文字列の両端を外側に移動させる。図5(C)は、ステップS210で、図5(A)に示された、1つの単語として切出された文字列の両端を、外側に移動させた文字列を提示する表示画面の具体例を示す図である。 Further, the image processing apparatus is changed so as to widen the image processing target range by moving the image processing apparatus away from the input target. That is, in step S209, it is determined whether or not the image processing apparatus has moved backward by executing the distance detection program. If it is determined that the image processing apparatus has moved backward (YES in step S209), step S209 is performed. In S210, the central control unit 104 moves both ends of the character string extracted as one word in step S204 to the outside. FIG. 5C shows a specific example of a display screen that presents a character string in which both ends of the character string cut out as one word shown in FIG. 5A are moved outward in step S210. FIG.
ここで、「入力対象に近づける」とは、撮像部101の一例であるカメラの、表面レンズに対して垂直方向に、画像処理装置本体を撮像対象がある方向に向かって移動させることを意味し、入力対象から離す」とは、この逆の向きの移動を意味している。 Here, “close to the input target” means that the image processing apparatus main body is moved in the direction perpendicular to the surface lens of the camera as an example of the imaging unit 101 in the direction in which the imaging target is present. "Separate from input object" means movement in the opposite direction.
または、ステップ214においては、利用者が画像処理の途中終了操作をしたかが判定される。ステップ214では、具体的には、たとえば途中終了機能を付与した「キャンセルキー」が押下されたかどうかが判定され、キャンセルキーが押下された場合(ステップS214でYES)に一連の処理を終了する。 Alternatively, in step 214, it is determined whether the user has performed an end operation during the image processing. In step 214, specifically, for example, it is determined whether or not the “cancel key” to which the halfway termination function has been added has been pressed. If the cancel key has been pressed (YES in step S214), the series of processing ends.
上記ステップS205〜S209の処理が繰返し実行されることで表示画面において提示された画像処理対象範囲である文字列が利用者の所望する単語を示す文字列となると(ステップS206でYES)、処理はステップ211に進む。 When the character string that is the image processing target range presented on the display screen becomes a character string indicating a word desired by the user by repeating the processes of steps S205 to S209 (YES in step S206), the process is as follows. Proceed to step 211.
ステップ211以降では、撮影画像のうちの画像処理対象範囲に対して所望する画像処理が実行される。本実施の形態における画像処理装置では、ステップ211以降において画像処理対象範囲である文字列に対して文字列認識処理が実行されるものとする。 In step 211 and subsequent steps, desired image processing is executed on the image processing target range in the photographed image. In the image processing apparatus according to the present embodiment, it is assumed that a character string recognition process is executed on a character string that is an image processing target range after step 211.
ステップ211で中央制御部104は、まず、ステップ204で用いられた黒画素連結成分情報を用いて、画像処理対象範囲である文字列に対して文字単位に切出しを行なう。そして、切出された文字ごとに、ROM107に格納されている文字認識辞書との照合を行ない、最も辞書形状に近い文字を文字認識結果として出力する。 In step 211, first, the central control unit 104 uses the black pixel connected component information used in step 204 to cut out the character string that is the image processing target range in units of characters. Then, for each extracted character, collation with the character recognition dictionary stored in the ROM 107 is performed, and the character closest to the dictionary shape is output as the character recognition result.
さらに、ステップS212において、ROM107に格納されている英和辞書から文字認識結果の文字列を検索し、ステップS213においてその結果を表示する。 In step S212, a character string as a character recognition result is searched from the English-Japanese dictionary stored in the ROM 107, and the result is displayed in step S213.
図5(D)は、上記ステップS205〜S209の処理後の画像処理対象範囲を提示する表示画面の具体例であって、上記ステップS206において、図5(D)に示される提示状態で確定キーが押下されると(ステップS206でYES)、ステップS211における文字列認識結果が「queue」となり、ステップS212でROM107に格納されている英和辞典が検索された結果が「列を作る」であれば、ステップS213において検索した単語「queue」と検索結果「列を作る」とが表示画面上に表示される。 FIG. 5D is a specific example of a display screen that presents the image processing target range after the processing in steps S205 to S209. In step S206, the confirmation key is displayed in the presentation state shown in FIG. Is pressed (YES in step S206), the character string recognition result in step S211 is "queue". If the English-Japanese dictionary stored in the ROM 107 is searched in step S212, the result is "create column". The word “queue” searched in step S213 and the search result “create column” are displayed on the display screen.
なお、上記処理例では、データベースの例として英和辞典が用いられる場合が示されているが、国語辞典、漢和辞典などの辞書類の他、住所録など検索可能なデータベースであれば何であっても構わない。 In the above processing example, the case where an English-Japanese dictionary is used as an example of the database is shown. However, any database that can be searched such as an address book in addition to dictionaries such as a Japanese language dictionary and a Chinese-Japanese dictionary can be used. I do not care.
また、上記処理例では、画像処理装置が前方向に移動した場合に画像処理対象範囲が狭くなり、後方向に移動した場合に画像処理対象範囲広くなる場合が示されているが、移動方向が逆であっても構わない。また、遠近方向ではなく、たとえば上下方向の移動を検出する方法も本発明に含まれる。 In the above processing example, the image processing target range is narrowed when the image processing apparatus is moved forward, and the image processing target range is widened when the image processing apparatus is moved backward. The reverse is also acceptable. Further, the present invention includes a method for detecting, for example, movement in the vertical direction instead of the perspective direction.
上記上下方向の移動を検出する場合は、移動検出プログラムが実行されることで、撮像部101で取得される画像に基づいて画像処理装置がどの方向に動いたかが検出される。撮像部101で取得される画像の変化は、ある時点で取得された画像と、その時点以前に取得された画像との差分から求められる。たとえば、0.1秒前に撮像された画像のすべての画素と、現時点で撮像された画像のすべての画素とを、x軸方向およびy軸方向について撮像幅の±25%の範囲において1画素単位で移動させ、計算できるすべて各画素間のRGB値の差を求める。その画素の値の差の平均が最も小さくなるx軸方向の移動量とy軸方向の移動量とを、画像処理装置の移動量として検出することができる。なお、上下方向の移動を検出する場合においては、必要な移動量の判定は上下(撮像画像上のy軸方向)方向のみであるが、利用者は厳密に上下のみに動かすことが困難であり、左右方向のブレをも吸収するために、x軸方向の移動量の検出も行なうことが好ましい。 When detecting the movement in the vertical direction, the movement detection program is executed to detect in which direction the image processing apparatus has moved based on the image acquired by the imaging unit 101. The change in the image acquired by the imaging unit 101 is obtained from the difference between the image acquired at a certain time and the image acquired before that time. For example, all the pixels of the image captured 0.1 seconds ago and all the pixels of the image captured at the present time are 1 pixel in the range of ± 25% of the imaging width in the x-axis direction and the y-axis direction. Move in units to find the difference in RGB values between all pixels that can be calculated. The amount of movement in the x-axis direction and the amount of movement in the y-axis direction that minimize the average of the pixel value differences can be detected as the amount of movement of the image processing apparatus. Note that in the case of detecting movement in the vertical direction, the required amount of movement is determined only in the vertical direction (y-axis direction on the captured image), but it is difficult for the user to strictly move only in the vertical direction. It is also preferable to detect the amount of movement in the x-axis direction in order to absorb blur in the left-right direction.
また、移動検出プログラムが実行されることで画像処理装置の左右の動きが検出され、その動きに応じて、現在表示されている画像処理対象範囲を、左隣あるいは右隣の単語区切りで囲まれた画像処理対象範囲に移動させてもよい。 In addition, the movement detection program is executed to detect the left and right movement of the image processing apparatus, and the currently displayed image processing target range is surrounded by a word break on the left or right side according to the movement. The image processing target range may be moved.
なお、上記ステップS205〜S210において実行される移動検出手段は、ある時点で移動検出に失敗した場合、失敗した時点までの検出結果を廃棄して、改めて繰返し移動検出処理を行なってもよい。また、しきい値以上の大きな動きを検出した場合、現在までの操作がキャンセルされたと判断し、所定のキャンセル操作を行なってもよい。 Note that the movement detection means executed in steps S205 to S210 may discard the detection results up to the point of failure when the movement detection fails at a certain time and perform the repeated movement detection process again. Further, when a large movement equal to or greater than the threshold value is detected, it may be determined that the operation up to the present time has been canceled, and a predetermined cancel operation may be performed.
つまり、上記ステップS205〜S210の処理において、一定時間(たとえば0.5秒間)連続して移動検出に失敗した場合、もしくは、所定のしきい値を超える加速度を一定時間検出した場合、中央制御部104は画像処理装置が連続して大きく動いたと判定し、予め保存しておいた単語切出し結果を画面上に表示するようにしてもよい。なお、このときの加速度は、0.2秒程度の一定時間の平均値を用いることが好ましい。 In other words, in the processes of steps S205 to S210, when the movement detection fails continuously for a certain time (for example, 0.5 seconds), or when acceleration exceeding a predetermined threshold is detected for a certain time, the central control unit In 104, it may be determined that the image processing apparatus has continuously moved greatly, and a word extraction result stored in advance may be displayed on the screen. In addition, it is preferable to use the average value of the fixed time of about 0.2 second for the acceleration at this time.
本実施の形態にかかる画像処理装置において上記処理が実行されることで、撮像装置である撮像部101からの入力を用いて移動検出手段により移動方向が検出され、検出された移動方向により、撮像画像の処理対象範囲を確定または変更することができる。 When the above processing is executed in the image processing apparatus according to the present embodiment, the movement direction is detected by the movement detection unit using the input from the imaging unit 101 that is the imaging apparatus, and the imaging is performed based on the detected movement direction. The processing target range of the image can be confirmed or changed.
さらに、検出された移動方向により、文字認識および辞書検索に代表されるデータベース検索を行なうことで、利用者の直感的な動作に近い操作性をもつ画像処理を行なう電子辞書機能が提供できる。 Furthermore, by performing a database search represented by character recognition and dictionary search according to the detected moving direction, an electronic dictionary function for performing image processing with operability close to the intuitive operation of the user can be provided.
すなわち、機器を空間で動かすという直感的動作と簡単な操作入力手段とを用いて、利用者は、たとえば入力対象とする文字列範囲などの画像処理対象範囲の指定や変更を行なうことができる。 That is, using an intuitive operation of moving the device in space and simple operation input means, the user can specify or change an image processing target range such as a character string range to be input.
[第2の実施の形態]
第2の実施の形態にかかる画像処理装置は、操作部103に上下左右の方向を指定するための物理的操作入力手段である十字キーなどが含まれて、利用者の物理的操作入力手段の操作を検出する操作検出手段を備え、操作検出手段および移動検出手段の結果に基づいて画像処理対象範囲の境界の指定および変更を行なう。
[Second Embodiment]
The image processing apparatus according to the second embodiment includes a cross key that is a physical operation input unit for designating the up, down, left, and right directions on the operation unit 103, and the physical operation input unit of the user. Operation detection means for detecting an operation is provided, and the boundary of the image processing target range is designated and changed based on the results of the operation detection means and the movement detection means.
図6は、第2の実施の形態にかかる画像処理装置における画像処理の一例を示すフローチャートであり、以下、この図に従って説明する。図6のフローチャートに示される処理は、図3に示された第1の実施の形態にかかる画像処理装置における画像処理の一例のうち、画像処理対象範囲を選択する処理(ステップS205〜S210)に相当し、中央制御部104がROM107に格納された各プログラムを読出して実行し、図1に示される各部の動作制御を行なうことで実現される。 FIG. 6 is a flowchart showing an example of image processing in the image processing apparatus according to the second embodiment. The process shown in the flowchart of FIG. 6 is a process (steps S205 to S210) for selecting an image processing target range from the example of image processing in the image processing apparatus according to the first embodiment shown in FIG. Correspondingly, it is realized by the central control unit 104 reading out and executing each program stored in the ROM 107 and controlling the operation of each unit shown in FIG.
また、図7は、図6のフローチャートに示される処理過程における表示部102の表示画面の具体例を示す図である。 FIG. 7 is a diagram showing a specific example of the display screen of the display unit 102 in the process shown in the flowchart of FIG.
第2の実施の形態においては、第1の実施の形態にかかる処理と同様に、英語の文字列データを撮像し画像処理対象範囲として所望の単語を文字列矩形として入力する場合に、十字キーで指定した画像処理対象範囲の境界を、画像処理装置を前方向に移動させて狭め、後ろ方向に移動させて広げるように変更する処理を実行する。 In the second embodiment, as in the process according to the first embodiment, when the English character string data is imaged and a desired word is input as a character string rectangle as an image processing target range, the cross key The process of changing the boundary of the image processing target range specified in step 1 to be narrowed by moving the image processing apparatus in the forward direction and widening by moving it in the backward direction is executed.
図6を参照して、第1の実施の形態にかかる画像処理と同様に、撮像画像から行抽出および画像処理対象範囲となる単語が抽出され、ステップS601で、表示部102の表示画面に表示される。続いてステップS602において、第1の実施の形態にかかる画像処理と同様に、確定キーが押下されたか否が判定されて、表示画面上に表示された画像処理対象範囲が、利用者が所望する文字列であるか否かが判定される。 Referring to FIG. 6, as in the image processing according to the first embodiment, words that are subject to line extraction and image processing are extracted from the captured image and displayed on the display screen of display unit 102 in step S601. Is done. Subsequently, in step S602, similarly to the image processing according to the first embodiment, it is determined whether or not the confirmation key has been pressed, and the user desires an image processing target range displayed on the display screen. Whether it is a character string or not is determined.
画面上に表示された画像処理対象範囲である文字列が、利用者が所望する単語ではない場合、すなわち確定キーが押下されない場合(ステップS602でNO)、中央制御部104は、移動検出手段の一例である移動検出プログラムを実行し、第1の実施の形態にかかる画像処理と同様に、撮像部101から入力される撮像に基づいて当該画像処理装置が前後方向のどちらに動いたかを検出する。 When the character string that is the image processing target range displayed on the screen is not a word desired by the user, that is, when the confirmation key is not pressed (NO in step S602), the central control unit 104 determines whether the movement detection unit A movement detection program as an example is executed to detect whether the image processing apparatus has moved in the front-rear direction based on imaging input from the imaging unit 101 as in the image processing according to the first embodiment. .
十字キーの左が押下されたことが検出され、かつ、画像処理装置が前方向に移動したと判定された場合(ステップS603でYES)、中央制御部104は、ステップS610において、現在、画像処理対象範囲とされている文字列を囲む矩形の、左側境界を内側に移動させる(画像処理対象範囲を狭くする)。図7(A)はステップS610の処理後の、表示部102の表示画面の具体例を示す図であり、図5(A)に示された表示画面に対してステップS610の処理が施された場合の具体例を示す図である。 When it is detected that the left side of the cross key is pressed and it is determined that the image processing apparatus has moved forward (YES in step S603), the central control unit 104 currently performs image processing in step S610. The left border of the rectangle surrounding the character string that is the target range is moved inward (the image processing target range is narrowed). FIG. 7A is a diagram illustrating a specific example of the display screen of the display unit 102 after the process of step S610. The process of step S610 is performed on the display screen illustrated in FIG. It is a figure which shows the specific example in a case.
また、十字キーの左が押下されたことが検出され、かつ、画像処理装置が後方向に移動したと判定された場合(ステップS604でYES)、中央制御部104は、ステップS611において、現在、画像処理対象範囲とされている文字列を囲む矩形の、左側境界を外側に移動させる(画像処理対象範囲を広くする)。 If it is detected that the left side of the cross key has been pressed and it is determined that the image processing apparatus has moved backward (YES in step S604), the central control unit 104, in step S611, The left boundary of the rectangle surrounding the character string that is the image processing target range is moved outward (the image processing target range is widened).
また、十字キーの右が押下されたことが検出され、かつ、画像処理装置が前方向に移動したと判定された場合(ステップS605でYES)、中央制御部104は、ステップS612において、現在、画像処理対象範囲とされている文字列を囲む矩形の、右側境界を内側に移動させる(画像処理対象範囲を狭くする)。図7(B)はステップS612の処理後の、表示部102の表示画面の具体例を示す図であり、図5(A)に示された表示画面に対してステップS612の処理が施された場合の具体例を示す図である。 If it is detected that the right side of the cross key has been pressed and it is determined that the image processing apparatus has moved forward (YES in step S605), the central control unit 104, in step S612, The right boundary of the rectangle surrounding the character string that is the image processing target range is moved inward (the image processing target range is narrowed). FIG. 7B is a diagram illustrating a specific example of the display screen of the display unit 102 after the process of step S612. The process of step S612 is performed on the display screen illustrated in FIG. It is a figure which shows the specific example in a case.
また、十字キーの右が押下されたことが検出され、かつ、画像処理装置が後方向に移動したと判定された場合(ステップS606でYES)、中央制御部104は、ステップS613において、現在、画像処理対象範囲とされている文字列を囲む矩形の、右側境界を外側に移動させる(画像処理対象範囲を広くする)。 If it is detected that the right side of the cross key has been pressed and it is determined that the image processing apparatus has moved backward (YES in step S606), the central control unit 104, in step S613, The right boundary of the rectangle surrounding the character string that is the image processing target range is moved outward (the image processing target range is widened).
また、十字キーが押下されたことが検出されず、かつ、画像処理装置が前方向に移動したと判定された場合(ステップS607でYES)、中央制御部104は、ステップS614において、現在、画像処理対象範囲とされている文字列を囲む矩形の、境界の両端を内側に移動させる(画像処理対象範囲を狭くする)。また、画像処理装置が後方向に移動したと判定された場合(ステップS608でYES)、中央制御部104は、ステップS614において、現在、画像処理対象範囲とされている文字列を囲む矩形の、境界の両端を外側に移動させる(画像処理対象範囲を広くする)。これらの処理は第1の実施の形態にかかる画像処理のステップS207〜S210の処理と同様である。 On the other hand, if it is not detected that the cross key has been pressed and it is determined that the image processing apparatus has moved forward (YES in step S607), the central control unit 104 determines that the image is currently displayed in step S614. Both ends of the rectangle surrounding the character string that is the processing target range are moved inward (the image processing target range is narrowed). If it is determined that the image processing apparatus has moved backward (YES in step S608), the central control unit 104 determines in step S614 that a rectangular character string surrounding the character string that is currently the image processing target range is displayed. Move both ends of the boundary to the outside (widen the image processing target range). These processes are the same as the processes in steps S207 to S210 of the image processing according to the first embodiment.
なお、画像処理対象範囲を変更するために十字キーが押された時点で、押された側の(変更対象とする)画像処理対象範囲の境界の表示色を変える、あるいは太さなどの線の表示方法を変えるなど、当該境界の表示方法を通常の境界の表示方法と異なる方法として、画像処理対象範囲を示す境界のどの部分が変更対象となっているかを利用者に明示することが好ましい。あるいは、変更対象としない境界部分の表示方法を通常の境界の表示方法と異なる方法としても、同様にどの部分が変更対象となっているかを利用者に明示できる。 When the cross key is pressed to change the image processing target range, the display color of the border of the pressed image processing target range (to be changed) is changed, or the line such as the thickness is changed. It is preferable to clearly indicate to the user which part of the boundary indicating the image processing target range is to be changed, by changing the display method of the boundary, such as changing the display method, to be different from the normal boundary display method. Alternatively, even if the display method of the boundary part not to be changed is different from the normal boundary display method, it is possible to clearly indicate to the user which part is the change target.
以上の処理を、利用者が所望する文字列矩形の範囲が指定されるまで繰返した後、指定された対象範囲に対して画像処理を行なう。具体的には、第1の実施の形態にかかる画像処理と同様に文字列認識と辞書検索とを行ない、その結果を表示画面上に表示する、などの画像処理を行なうことができる。 The above processing is repeated until the range of the character string rectangle desired by the user is designated, and then image processing is performed on the designated target range. Specifically, it is possible to perform image processing such as performing character string recognition and dictionary search and displaying the result on the display screen in the same manner as the image processing according to the first embodiment.
第2の実施の形態にかかる画像処理装置で上記処理が実行されることで、撮像装置からの入力を用いた移動検出装置と物理的操作入力手段とにより、撮像された画像の画像処理対象範囲が変更、確定されるため、利用者は、十字キーなどのキー操作で変更する画像処理対象範囲の境界部分を指定し、同時に装置を動かす動作で、任意に画像処理対象範囲を変更することができる。また、画像処理装置に確定キーを設けられることで、ある時点での境界に決定することもできる。 When the above processing is executed by the image processing apparatus according to the second embodiment, the image processing target range of the image captured by the movement detection device using the input from the imaging device and the physical operation input unit. Therefore, the user can arbitrarily change the image processing target range by specifying the boundary portion of the image processing target range to be changed by a key operation such as a cross key and simultaneously moving the apparatus. it can. In addition, by providing a confirmation key in the image processing apparatus, it is possible to determine a boundary at a certain point in time.
以上のことより、本発明にかかる画像処理装置は、機器を空間で動かすという直感的動作を感知することで、容易に入力対象範囲の指定できる。そのため、利用者は効率的な入力操作が可能となる。すなわち、複雑なキー操作を必要としない自然な感覚での操作性を実現できるため、誰でも簡単に使いこなすことができる。すなわち、本発明にかかる画像処理装置を用いて、利用者は、画像を撮像する動作から、複雑な操作を介することなく、装置を動かすという直感的動作を用いて、撮像した画像から処理対象とする範囲を選択することが可能となる。このことは、利用者が携帯機器への入力操作と一連の動作で、目的の画像処理対象部分、たとえば特定の文字列部分を選出し、辞書検索に入力する等の操作を、容易に行なうことを可能とする。 As described above, the image processing apparatus according to the present invention can easily specify the input target range by detecting an intuitive operation of moving the device in space. Therefore, the user can perform an efficient input operation. That is, since operability with a natural feeling that does not require complicated key operations can be realized, anyone can easily use it. In other words, using the image processing apparatus according to the present invention, the user can change the object to be processed from the captured image using an intuitive operation of moving the apparatus without performing a complicated operation. It is possible to select a range to be performed. This means that the user can easily perform operations such as selecting a target image processing target part, for example, a specific character string part, and inputting it to a dictionary search through a series of input operations to the mobile device. Is possible.
また、本発明にかかる画像処理装置では、撮像部から入力される画像より移動検出を行なうため、速度センサ等の特別な装置を追加することなく画像処理装置の移動方向を判別することが可能である。そのため、画像処理装置の小型軽量化と利用者の操作を簡略化との両立が可能である。 Further, in the image processing apparatus according to the present invention, since the movement is detected from the image input from the imaging unit, it is possible to determine the moving direction of the image processing apparatus without adding a special device such as a speed sensor. is there. Therefore, it is possible to achieve both reduction in size and weight of the image processing apparatus and simplification of user operations.
さらに、十字キーや確定キー等の単純なボタン操作と、機器の動きという同時に操作可能な手法を連動させることで、利用者にとってより容易な操作を実現できる。たとえば単語を指定する場合において、変更したい境界の指定と境界の移動の操作とを同時に行なうことが可能となる。 Furthermore, a simple button operation such as a cross key or a confirmation key and a method that can be operated at the same time, such as movement of the device, are linked to each other, so that an operation that is easier for the user can be realized. For example, when a word is designated, it is possible to simultaneously designate a boundary to be changed and move the boundary.
また、本手法は、日本語、中国語などの単語間のスペースを用いない言語においても、入力対象範囲、単語などの範囲を容易に指定することが可能となる。 In addition, according to this method, it is possible to easily specify an input target range, a range of words, and the like even in a language that does not use a space between words such as Japanese and Chinese.
入力対象範囲の変更操作時において、変更対象とする境界の表示方法、あるいは、変更対象としない境界の表示方法を変更することにより、利用者の誤操作を未然に防ぐことができる。 By changing the display method of the boundary to be changed or the display method of the boundary not to be changed at the time of changing the input target range, it is possible to prevent an erroneous operation of the user.
また、装置を大きく動かすという単純な動作によるキャンセル機能を追加することにより、誤って意図と異なる操作入力された場合においても、容易に選択動作前の状態に戻すことが可能であるため、利用者は指示操作のキャンセルを容易に行なうことができる。 In addition, by adding a cancel function based on a simple operation that greatly moves the device, it is possible to easily return to the state before the selection operation even if an operation input that is different from the intended one is accidentally entered. Can easily cancel the instruction operation.
また、移動検出手段が移動検出に失敗した場合でも、移動検出が繰返し実行されることによって、範囲指定操作を継続することが可能である。このことにより、カメラの撮影可能範囲に撮像した対象を捉え続ける必要はなく、利用者がカメラの向きを自由に変更できるという利点がある。 In addition, even when the movement detection unit fails to detect movement, the range designation operation can be continued by repeatedly executing the movement detection. As a result, there is no need to continue capturing the imaged object within the camera's imageable range, and there is an advantage that the user can freely change the direction of the camera.
さらに、本実施の形態にかかる画像処理装置において実行される画像処理方法を、プログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disc-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。 Furthermore, an image processing method executed in the image processing apparatus according to the present embodiment can be provided as a program. Such a program is recorded on a computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disc-Read Only Memory), a ROM, a RAM, and a memory card, and provided as a program product. You can also. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.
提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。 The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
101 撮像部、102 表示部、103 操作部、104 中央制御部、105 RAM、106 付加装置、107 ROM。 DESCRIPTION OF SYMBOLS 101 Image pick-up part, 102 Display part, 103 Operation part, 104 Central control part, 105 RAM, 106 Additional apparatus, 107 ROM.
Claims (14)
当該画像処理装置の移動を検出する移動検出手段と、
前記画像に対して処理を行なう画像処理手段と、
前記移動検出手段が検出した前記画像処理装置の移動に応じて、前記画像のうち、前記画像処理手段における処理対象範囲を決定する画像処理範囲決定手段とを備える、画像処理装置。 Image acquisition means for acquiring images;
Movement detection means for detecting movement of the image processing apparatus;
Image processing means for processing the image;
An image processing apparatus comprising: an image processing range determining unit that determines a processing target range in the image processing unit of the image according to the movement of the image processing apparatus detected by the movement detecting unit.
前記画像処理手段における処理対象の画像として、前記撮像手段において撮影されて取得された画像の中から1つの画像を確定する撮像画像確定手段をさらに備え、
前記移動検出手段は、前記撮像手段において撮影されて取得された画像を用いて前記画像処理装置の移動を検出する、請求項1に記載の画像処理装置。 The image acquisition means includes imaging means for photographing a subject,
The image processing unit further includes a captured image determining unit that determines one image from images captured and acquired by the imaging unit as an image to be processed.
The image processing apparatus according to claim 1, wherein the movement detection unit detects movement of the image processing apparatus using an image captured and acquired by the imaging unit.
前記画像処理範囲決定手段は、前記移動検出手段が検出した前記画像処理装置の移動と、前記物理的操作入力手段からの入力とに基づいて前記処理対象範囲を決定する、請求項1に記載の画像処理装置。 A physical operation input means;
The said image processing range determination means determines the said process target range based on the movement of the said image processing apparatus which the said movement detection means detected, and the input from the said physical operation input means. Image processing device.
前記画像処理範囲決定手段は、前記処理対象判定手段において判定された前記処理対象範囲を変更する、請求項1に記載の画像処理装置。 A processing target range determination unit that automatically determines the processing target range of the image,
The image processing apparatus according to claim 1, wherein the image processing range determination unit changes the processing target range determined by the processing target determination unit.
前記画像処理範囲決定手段は、前記物理的操作入力手段からの入力に基づいて、前記変更を決定する、請求項4に記載の画像処理装置。 A physical operation input means;
The image processing apparatus according to claim 4, wherein the image processing range determination unit determines the change based on an input from the physical operation input unit.
前記画像処理範囲決定手段は、前記文字認識手段における文字認識の対象とする範囲を決定する、請求項1に記載の画像処理装置。 The image processing means includes character recognition means,
The image processing apparatus according to claim 1, wherein the image processing range determination unit determines a range to be subjected to character recognition by the character recognition unit.
前記画像処理範囲決定手段は、前記データベース照合手段においてデータベースと照合する範囲を決定する、請求項1に記載の画像処理装置。 The image processing means includes a database collating means,
The image processing apparatus according to claim 1, wherein the image processing range determining unit determines a range to be compared with a database in the database collating unit.
画像を取得する画像取得ステップと、
前記画像処理装置の移動を検出する移動検出ステップと、
前記移動検出ステップにおいて検出された前記画像処理装置の移動に応じて、前記画像のうち、前記処理対象とする範囲を決定する画像処理範囲決定ステップとを備える、画像処理装置における処理対象範囲指定方法。 A method for specifying a range to be processed in an image processing apparatus,
An image acquisition step of acquiring an image;
A movement detecting step for detecting movement of the image processing apparatus;
A processing target range designation method in an image processing apparatus, comprising: an image processing range determination step of determining a range to be processed among the images according to the movement of the image processing apparatus detected in the movement detection step. .
画像を取得する画像取得ステップと、
前記画像処理装置の移動を検出する移動検出ステップと、
前記移動検出ステップにおいて検出された前記画像処理装置の移動に応じて、前記画像のうち、前記処理対象とする範囲を決定する画像処理範囲決定ステップとを実行させる、画像処理範囲指定プログラム。 A program for causing a computer to execute processing for specifying a range to be subjected to image processing,
An image acquisition step of acquiring an image;
A movement detecting step for detecting movement of the image processing apparatus;
An image processing range designation program for executing an image processing range determination step for determining a range to be processed among the images according to the movement of the image processing apparatus detected in the movement detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005156104A JP2006331216A (en) | 2005-05-27 | 2005-05-27 | Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005156104A JP2006331216A (en) | 2005-05-27 | 2005-05-27 | Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006331216A true JP2006331216A (en) | 2006-12-07 |
Family
ID=37552821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005156104A Pending JP2006331216A (en) | 2005-05-27 | 2005-05-27 | Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006331216A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018159972A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Information processing apparatus, method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH064208A (en) * | 1992-06-19 | 1994-01-14 | Sharp Corp | Information processor |
JPH07220025A (en) * | 1994-01-31 | 1995-08-18 | Canon Inc | Picture processor |
JPH10240436A (en) * | 1996-12-26 | 1998-09-11 | Nikon Corp | Information processor and recording medium |
JP2004005535A (en) * | 2003-03-31 | 2004-01-08 | Seiko Epson Corp | Character display device, control method thereof, recording medium, and program |
JP2005018507A (en) * | 2003-06-27 | 2005-01-20 | Hitachi Ltd | Portable information terminal and character recognition method using the same |
JP2005134968A (en) * | 2003-10-28 | 2005-05-26 | Sony Corp | Portable information terminal device, information processing method, recording medium, and program |
-
2005
- 2005-05-27 JP JP2005156104A patent/JP2006331216A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH064208A (en) * | 1992-06-19 | 1994-01-14 | Sharp Corp | Information processor |
JPH07220025A (en) * | 1994-01-31 | 1995-08-18 | Canon Inc | Picture processor |
JPH10240436A (en) * | 1996-12-26 | 1998-09-11 | Nikon Corp | Information processor and recording medium |
JP2004005535A (en) * | 2003-03-31 | 2004-01-08 | Seiko Epson Corp | Character display device, control method thereof, recording medium, and program |
JP2005018507A (en) * | 2003-06-27 | 2005-01-20 | Hitachi Ltd | Portable information terminal and character recognition method using the same |
JP2005134968A (en) * | 2003-10-28 | 2005-05-26 | Sony Corp | Portable information terminal device, information processing method, recording medium, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018159972A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Information processing apparatus, method, and program |
US10832100B2 (en) | 2017-03-22 | 2020-11-10 | Kabushiki Kaisha Toshiba | Target recognition device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7343049B2 (en) | Method and apparatus for performing optical character recognition (OCR) and text stitching | |
JP6763417B2 (en) | Electronics | |
KR102236616B1 (en) | Information processing apparatus, control method thereof, and storage medium | |
US8237818B2 (en) | Camera | |
KR101002899B1 (en) | Character recognition method and device | |
JP5699432B2 (en) | Image processing device | |
JP3649242B2 (en) | Mobile phone device and character input method for mobile phone device | |
US10291843B2 (en) | Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium | |
JP4443194B2 (en) | Processing object selection method in portable terminal character recognition and portable terminal | |
CN107273004A (en) | Image display device and image display control method | |
JP4605458B2 (en) | Image processing apparatus and image processing program | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP5043767B2 (en) | Image processing apparatus and image processing method | |
JP2011023898A (en) | Display device, display method, and integrated circuit | |
JP2014050022A (en) | Image processing device, imaging device, and program | |
JP2006293783A (en) | Image processing device and image processing program | |
JP4898655B2 (en) | Imaging apparatus and image composition program | |
JP2010217997A (en) | Device, program, and method for recognizing character | |
JP4716266B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP4923956B2 (en) | Image display device, image display program, and image display method | |
JP4487247B2 (en) | Human image search device | |
JP2006331216A (en) | Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program | |
JP2003216893A (en) | Portable information terminal with camera | |
JP6873397B2 (en) | Image display device, image display control method and program | |
JP6598402B1 (en) | Receipt and other form image automatic acquisition / reading method, program, and portable terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110405 |