[go: up one dir, main page]

WO2013038872A1 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
WO2013038872A1
WO2013038872A1 PCT/JP2012/070973 JP2012070973W WO2013038872A1 WO 2013038872 A1 WO2013038872 A1 WO 2013038872A1 JP 2012070973 W JP2012070973 W JP 2012070973W WO 2013038872 A1 WO2013038872 A1 WO 2013038872A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
designated area
designated
cut
Prior art date
Application number
PCT/JP2012/070973
Other languages
English (en)
French (fr)
Inventor
亜希 田中
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to JP2013533583A priority Critical patent/JP5991323B2/ja
Priority to US14/343,027 priority patent/US9396405B2/en
Priority to EP12832626.1A priority patent/EP2757502B1/en
Publication of WO2013038872A1 publication Critical patent/WO2013038872A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program.
  • This image information processing apparatus determines whether or not a recognition target is suitable as an image for recognizing a character string in order to reduce erroneous recognition of the character string due to camera shake or the like, and obtained by the determination Character recognition processing is performed on the image.
  • An image processing apparatus includes a camera that photoelectrically converts an optical image incident from a lens to acquire image data, and the image data.
  • a display unit for displaying a camera image based on the control unit, an operation unit for detecting a designated area designated on the display screen of the display unit
  • a specified unit that acquires designated area image position information indicating the position of an image
  • an image cutout processing unit that cuts out an image corresponding to the designated area from the camera image based on the designated area image position information, and a cutout from the camera image
  • a memory unit for storing image data of a clipped image corresponding to the designated area, and when the designated area is designated,
  • a program that constitutes the specifying unit that acquires the designated area image position information of a fixed area and a program that constitutes the image cutout processing unit that cuts out an image corresponding to the designated area are executed for each designated area.
  • an image processing method includes a step of photoelectrically converting an optical image incident from a lens to acquire image data, and the image data.
  • the image cutout processing unit cuts out an image corresponding to the designated area from the camera image based on the designated area image position information, and extracts image data of the cutout image corresponding to the designated area cut out from the camera image. Storing in the memory unit.
  • An image processing program includes: a camera unit that photoelectrically converts an optical image incident from a lens to acquire image data; a display unit that displays a camera image based on the image data; and the display unit Operating means for detecting a designated area designated on the display screen, and specifying means for obtaining designated area image position information indicating a position of an image corresponding to the designated area in the camera image for each detected designated area Image cutting processing means for cutting out an image corresponding to the specified area from the camera image based on the specified area image position information, and memory means for storing image data of a cut image corresponding to the specified area cut out from the camera image When the designated area is designated, the designated area image of the designated area A program that configures the specifying unit for acquiring position information and a program that configures the image cut-out processing unit that cuts out an image corresponding to the designated area function as processing control means for executing each of the designated areas. This is an image processing program.
  • the image processing according to the present invention it is possible to improve the operability of the user when executing the image recognition processing on the image captured by the camera.
  • FIG. 1 is a diagram for explaining an overview of an information processing apparatus according to an embodiment of the present invention.
  • the information processing apparatus is a mobile terminal with a camera
  • the present invention is not limited to this, and the information processing apparatus may be a smartphone, a portable game machine, a tablet PC (Personal Computer), a notebook PC, or the like.
  • the user designates an area to be subjected to image recognition processing (hereinafter referred to as a designated area) for the live view captured by the camera.
  • An image corresponding to the designated area is cut out from the live view and stored in the memory unit.
  • an image recognition process is instructed for a cut image (hereinafter referred to as a cut image)
  • the cut image is read from the memory unit and the image recognition process is executed.
  • the live view is an image input from a camera lens, and is an image displayed on a monitor based on image data continuously output by an imaging device based on an optical image incident on the lens.
  • the portable terminal 100 may cut out a designated area designated on the captured image in a state where the shutter button is pressed and the captured image is reproduced.
  • a mobile terminal 100 includes a camera 1, an image processing unit 2, a memory unit 3, a display control unit 4, a touch panel 5, a processing control unit 6, An information source specifying unit 7, an image cutout processing unit 8, an image recognition processing unit 9, an application processing unit 10, a camera control unit 11, an operation button 12, and a communication unit 13 are provided.
  • the touch panel 5 includes a display unit 501 and an operation unit 502.
  • the camera 1 converts an analog signal of image data output from the optical system 101, an image sensor 102 that generates image data from an optical image incident through the optical system 101, and image data output from the image sensor 102 into an image. And an A / D converter 103 that outputs a digital signal of data.
  • the camera 1 when the camera 1 is turned on via a switch button included in the operation button 12, the camera 1 generates image data from the incident optical image and continuously outputs the image data to the image processing unit 2.
  • the mobile terminal 100 displays a live view on the display unit 501 of the touch panel 5 based on continuous image data generated in a state where the camera 1 can capture an image. The user can determine an image to be captured while viewing the live view.
  • the image processing unit 2 performs image processing on the image data output from the camera 1, and stores the image data after the image processing in the live view image data storage area 301 of the memory unit 3.
  • the memory unit 3 stores program and application data used in each process of the mobile terminal 100 and temporarily holds information used in various processes of the mobile terminal 100.
  • the memory unit 3 includes a live view image data storage area 301, a captured image data storage area 302, a cut image data storage area 303, a cut text data storage area 304, Application storage area 305.
  • the live view image data storage area 301 is a storage area for temporarily storing live view image data acquired by the camera 1.
  • the captured image data storage area 302 is a storage area for storing image data of a captured image captured by the camera 1 when the user presses the shutter button included in the operation button 12.
  • the cut-out image data storage area 303 is a storage area for storing a cut-out image cut out by the image cut-out processing unit 8.
  • the cut-out text data storage area 304 is a storage area for storing a recognition result indicating the image content of the cut-out image recognized by the image recognition processing unit 9.
  • the application storage area 305 is a storage area for storing an application installed by the mobile terminal 100.
  • the display control unit 4 controls the display unit 501 of the touch panel 5. For example, the display control unit 4 controls the display unit 501 so that the cut image cut out by the image cut-out processing unit 8 is displayed on one screen together with the live view. In addition, when the cut image is a target of image recognition processing by the image recognition processing unit 9, the display control unit 4 displays the display unit 501 so as to distinguish and display each display mode according to the process of the image recognition processing. To control. For example, the display control unit 4 displays the outer peripheral portion of the cut image before the image recognition processing in red, the outer peripheral portion of the cut image during the image recognition processing in purple, and the outer peripheral portion of the cut image after the image recognition processing in blue. Display each one.
  • the display unit 501 of the touch panel 5 displays display contents according to the control of the display control unit 4.
  • the display unit 501 is provided integrally with the operation unit 502 as a display screen of the touch panel 5.
  • the display screen of the display unit 501 also functions as an operation screen when the operation unit 502 receives an operation.
  • the display screen of the display unit 501 defines an XY coordinate system having a predetermined reference point (for example, the upper left of the screen) as the origin.
  • coordinate values (X, Y) in the XY coordinate system are assigned to each pixel included in the display unit 501.
  • the operation unit 502 of the touch panel 5 includes a sensor that receives an operation from the user, and outputs a detection result by the sensor to the processing control unit 6, the information source specifying unit 7, and the image recognition processing unit 9.
  • the operation unit 502 detects the contact position of the user's finger that touches the display screen of the display unit 501 with a sensor at predetermined time intervals. Output the detection result.
  • the contact position of the user's finger is indicated by coordinate values in the XY coordinate system on the operation screen (display screen).
  • the portable terminal according to the present invention is not limited to this, and for example, the position of a user's finger or an operation instruction unit in the vicinity of the display screen of the display unit 501 may be detected by a non-contact sensor.
  • the display unit 501 and the operation unit 502 may not be the touch panel 5, but may be an operation unit such as a button or a keyboard connected to a computer, an external keyboard, a display of an external monitor, or the like.
  • FIGS. 2A and 2B are reference diagrams for explaining an example of a method for detecting the designated area E (i) by the information processing apparatus (mobile terminal) according to the embodiment of the present invention.
  • the process control unit 6 determines whether or not the designated area E (i) is designated based on the detection result of the sensor of the operation unit 502. Note that i is an identification number for distinguishing each designated area. If the process control unit 6 determines that the designated area E (i) is designated, the process control unit 6 may assign a different identification number i to each designated area E (i).
  • the processing control unit 6 determines that the touch operation has been input. Further, when the processing control unit 6 detects that the finger has moved in a state where the finger is in contact with the display screen of the touch panel 5 based on the detection result of the operation unit 502 of the touch panel 5, the slide operation is input. It is determined that it was done. Furthermore, when the processing control unit 6 detects that the finger is released from the display screen in a state where the finger is in contact with the display screen of the touch panel 5 based on the detection result of the operation unit 502 of the touch panel 5, It is determined that a touch release operation has been input.
  • the processing control unit 6 determines that the start point Ps (i) of the specified area E (i) has been specified, and determines the position on the display screen where the touch operation has been input. And obtained as the position of the starting point Ps (i) (FIG. 2A).
  • the processing control unit 6 detects XY coordinate values (Xs i , Ys i ) indicating the position of the detected start point Ps (i) on the display screen.
  • the process control unit 6 determines that the end point Pe (i) of the specified area E (i) has been specified, and on the display screen where the touch release operation has been input. The position is acquired as the position of the end point Pe (i).
  • the processing control unit 6 detects XY coordinate values (Xe i , Ye i ) indicating the position of the detected end point Pe (i) on the display screen (FIG. 2B).
  • the process control unit 6 determines the start point Ps (i) and the end point Pe (i) as vertices on the diagonal line. Is designated as the designated area E (i). That is, the process control unit 6 determines that the specified area E (i) is specified by determining that the start point Ps (i) and the end point Pe (i) are specified.
  • the processing control unit 6 includes the start point Ps (i) and the end point Pe (i) at both ends, and the finger pressure and the finger thickness that are in contact with the display surface of the touch panel 5 An area determined according to the length of the input slide operation may be detected as the designated area E (i).
  • the processing control unit 6 determines that the designated area E (i) is designated, the designated area image position information J (i) indicating the position of the image corresponding to the designated area E (i) in the live view. ) Is executed to execute a program constituting the (i) -th information source specifying unit 7 (i). As a result, the processing unit that functions as the (i) th information source specifying unit 7 (i) is started (activated). In other words, when the designated area E (i) is designated, the processing control unit 6 executes a program constituting the information source identifying unit 7 (i) for each designated area E (i) designated. .
  • each information source specifying unit 7 (i) can independently detect designated area image position information J (i) indicating the position on the live view of the image corresponding to the designated area E (i). it can.
  • the process control unit 6 determines that the designated area E (i) is designated, the process control unit 6 extracts the (i) th image for extracting the cut image G (i) corresponding to the designated area E (i).
  • a program constituting the cutout processing unit 8 (i) is executed.
  • the processing control unit 6 executes a program constituting the image cutout processing unit 8 (i) for each designated area E (i) designated. .
  • each image cutout processing unit 8 (i) can cut out the cutout image G (i) corresponding to the designated area E (i) independently of each other.
  • the information source specifying unit 7 detects the XY coordinate values (Xs i , Ys i ) of the start point Ps (i) of the designated area E (i) detected by the processing control unit 6 and the XY coordinate values (Xs i , Ys i ) of the end point Pe (i). Based on Xe i , Ye i ), designated area image position information J (i) indicating the position of the cutout image G (i) on the live view corresponding to the designated area E (i) is acquired.
  • the information source specifying unit 7 includes an information source specifying unit 7 (i) activated by the processing control unit 6 for each designated area E (i). Each information source specifying unit 7 (i) can execute processing for detecting the above-mentioned designated area image position information J (i) in parallel.
  • the image cutout processing unit 8 converts the cutout image G (i) corresponding to the designated area E (i) to a live view. Cut out from image data.
  • the live view is a video displayed based on a plurality of continuous image data.
  • the display unit 501 of the touch panel 5 sequentially displays the images acquired in time series one by one to display a live view. Therefore, an image based on a plurality of pieces of image data is displayed on the display unit 501 of the touch panel 5 from when the start point Ps (i) is specified until the end point Pe (i) is specified.
  • the image cutout processing unit 8 includes the end point Pe (i) among a plurality of live view image data displayed on the display unit 501 when the designated area E (i) is designated.
  • the cut-out image G (i) is cut out from the live view image data displayed on the display unit 501 when is detected.
  • the image cutout processing unit 8 displays the display unit 501 of the touch panel 5 from when the start point Ps (i) is specified until the end point Pe (i) is specified.
  • the cut image G (i) may be cut out from the image data having the highest contrast among the plurality of pieces of image data displayed on.
  • the image cutout processing unit 8 includes an image cutout processing unit 8 (i) activated by the processing control unit 6. Each image cutout processing unit 8 (i) can execute the above-described process of cutting out the cutout image G (i) in parallel.
  • the image recognition processing unit 9 is designated from the cut-out text data storage area 304 of the memory unit 3 when, for example, execution of image recognition processing for the cut-out image G (i) designated via the operation unit 502 is instructed.
  • the extracted image G (i) is read out.
  • the image recognition processing unit 9 may automatically execute the image recognition processing when a predetermined timing is reached. For example, it may be determined in advance that the image recognition process is executed in an operation with a low processing load such as a state in which the photographing operation by the camera 1 is not executed.
  • the image recognition processing unit 9 sequentially reads out the cut-out image G (i) for which the image recognition processing has not been executed from the cut-out text data storage area 304. Also good.
  • the image recognition processing unit 9 performs image recognition on an image cut-out image G (i) that has not been subjected to image recognition processing read from the cut-out text data storage area 304 at the following predetermined timing. Processing may be executed. This predetermined timing may be, for example, when shooting by the camera 1 is stopped or ended. Further, the image cutting operation may not be input for a predetermined time or more and the image cutting process by the image cutting processing unit 8 may not be executed for the predetermined time or more.
  • the user may be when the user performs a predetermined operation on the cut image G (i) cut by the image cut processing unit 8. For example, when the user gives an operation instruction to display the cutout image G (i) on the display unit 501 of the touch panel 5, or when the display magnification of the cutout image G (i) being displayed is enlarged or reduced, etc. It is. Furthermore, it may be when a predetermined time or more has elapsed after the image cutting processing by the image cutting processing unit 8 is executed. Further, the application processing unit 10 may use the cut image G (i) according to another application.
  • the image recognition processing unit 9 performs image recognition processing on the read cut image G (i). For example, the image recognition processing unit 9 collates predetermined pattern data with the cutout image G (i), and character strings (Hiragana, Katakana, Kanji, Alphabet, (Including numbers, etc.) and text data of the recognized character string is extracted. Information indicating the image content of the cut-out image G (i) acquired by the image recognition processing unit 9 through the image recognition process, here, text data is hereinafter referred to as a recognition result K (i).
  • the image recognition processing unit 9 may perform image recognition processing for recognizing graphics such as logo marks and pictograms, image recognition processing for reading code information from a one-dimensional code, a two-dimensional code, and the like.
  • the image recognition processing unit 9 stores the recognition result K (i) acquired by the image recognition processing in the cut-out text data storage area 304 of the memory unit 3.
  • the application processing unit 10 executes an application stored in the application storage area 305 of the memory unit 3 according to the recognition result K (i), and starts up a processing unit in charge of processing of each application. For example, in a state where the recognition result K (i) is displayed on the display unit 501 of the touch panel 5, the application processing unit 10 recognizes the recognition result K () by a touch operation from the user via the operation unit 502 of the touch panel 5. When i) is designated, it is determined that execution of an application for the designated recognition result K (i) has been instructed. In this case, the application processing unit 10 executes an application predetermined as an execution application related to the designated recognition result K (i), and starts up a processing unit corresponding to the application.
  • the application processing unit 10 executes a search application 351 that is determined in advance as an execution application corresponding to the character string. Thereby, the application processing unit 10 starts up the search processing unit 1001.
  • the search processing unit 1001 transmits information that instructs the keyword search engine to search for information related to the character string of the designated recognition result K (i) via a communication unit 13 connected via a network ( (Not shown).
  • the display control unit 4 causes the display unit 501 of the touch panel 5 to display the received search result.
  • the application processing unit 10 executes the browser application 352 that is predetermined as an execution application corresponding to the URL. As a result, the application processing unit 10 starts up the WEB site connection processing unit 1002.
  • the WEB site connection processing unit 1002 transmits the URL of the designated recognition result K (i) to a server (not shown) connected via a network via the communication unit 13.
  • the display control unit 4 causes the display unit 501 of the touch panel 5 to display the received WEB image.
  • the application processing unit 10 is determined in advance as an execution application corresponding to the information indicating the location.
  • the map application 353 is executed. Thereby, the application processing unit 10 starts up the map display processing unit 1003.
  • the map display processing unit 1003 is a server (not shown) connected to the network via the communication unit 13 for instructing to search the map search engine for the location of the designated recognition result K (i). Send to.
  • the display control unit 4 causes the display unit 501 of the touch panel 5 to display the received search result.
  • the operation button 12 is an operation input unit from the user including, for example, a power switch button and a shutter button.
  • the operation button 12 may include an operation input unit such as a cross key.
  • the operation button 12 receives an operation from the user and outputs operation information indicating the received operation.
  • the communication unit 13 is communicably connected to an external device such as a server via a network, and transmits and receives information.
  • FIGS. 2A and 2B are reference diagrams for explaining an example of a method for detecting the designated area E (i) by the processing control unit 6 according to an embodiment of the present invention.
  • the processing control unit 6 determines that a touch operation has been input, and sets the start point Ps (i) of the designated area E (i). To detect. Then, the user slides with the finger touching the display screen of the touch panel 5.
  • the touch panel 5 is an area in which the user designates a rectangular area whose vertex is on the diagonal line with the point where the user's finger is currently in contact with the start point Ps (i). For example, a color is displayed.
  • the process control unit 6 determines that the touch release operation has been input, and detects the end point Pe (i) of the designated area E (i). Thereby, the designated area E (i) is determined.
  • This designated area E (i) is shown in FIG. 2B. Thereby, an image including information indicating the URL is designated as the designated area E (i).
  • FIG. 3 is a reference diagram for explaining an example of a display control method by the display control unit 4.
  • the user designates the designated area E (i) from the display screen of the touch panel 5 that displays the live view.
  • the processing control unit 6 sets a rectangular area having the start point Ps (i) and the end point Pe (i) as vertices on the diagonal line as the designated area E (i). To detect.
  • the user designates an image including a two-dimensional code as the designated area E (i).
  • the processing control unit 6 executes the program constituting the information source specifying unit 7 (i) corresponding to the designated area E (i) and the program constituting the image cutout processing unit 8 (i). To do.
  • the information source specifying unit 7 (i) and the image cutout processing unit 8 (i) are started up.
  • the information source specifying unit 7 detects designated area image position information J (i) indicating the position of the image corresponding to the designated area E (i).
  • the image cutout processing unit 8 cuts out a cutout image G (i) corresponding to the designated area E (i).
  • the cut image G (i) is stored in the cut image data storage area 303 of the memory unit 3.
  • the processing control unit 6 notifies the display control unit 4 to that effect.
  • the display control unit 4 receives a notification indicating that the cutout image G (i) has been cut out from the processing control unit 6, the display control unit 4 displays the cutout image G (i) along with the live view on the display unit 501 of the touch panel 5.
  • a stock cut-out image display area 511 for displaying thumbnails is created. An example in which the stock cutout image display area 511 is displayed on the touch panel 5 is shown in FIG. 3B. As shown in FIG. 3B, when the designated area E (i) is designated, a live view and a thumbnail of the cut image G (i) of the designated area E (i) are displayed on the display screen of the touch panel 5. .
  • the display control unit 4 displays the thumbnail of the cut image G (i) of the designated area E (i) in the stock cut image display area 511.
  • the thumbnail of the cut image G (i + 1) in the designated area E (i + 1) is displayed.
  • the image recognition processing unit 9 executes image recognition processing of the cut-out image G (i) designated by the touch operation.
  • the image recognition processing unit 9 recognizes the diagram of the two-dimensional code from the cut image G (i).
  • the code information included in the two-dimensional code is read out.
  • the image recognition processing unit 9 stores the read code information as a recognition result K (i) in the cut-out text data storage area 304 of the memory unit 3.
  • the application processing unit 10 executes the browser application 352 and starts up the WEB site connection processing unit 1002. Then, the WEB site connection processing unit 1002 transmits the URL of the restaurant WEB site to a server (not shown) connected via a network via the communication unit 13. And the display control part 4 displays the received WEB image on the touch panel 5, when the WEB image of the WEB site shown by URL is received from the server.
  • the image recognition processing by the image recognition processing unit 9 is executed, and the acquired recognition result K (i) is displayed.
  • the corresponding application is executed. Thereby, the user can use the information acquired from the designated area E (i) soon after designating the designated area E (i).
  • FIG. 4 is a flowchart for explaining an example of a cutout image acquisition method by the mobile terminal 100 according to an embodiment of the present invention.
  • Step ST1 When the operation button 12 is pressed and the power is turned on, the portable terminal 100 photoelectrically converts an optical image incident on the optical system 101 of the camera 1 and the A / D conversion unit 103 as image data. Output. That is, the camera 1 acquires continuous live view image data based on the incident optical image.
  • Step ST2 Then, the camera 1 outputs live view image data to the image processing unit 2.
  • the image processing unit 2 converts input image data into a live view image size and image quality, and stores the converted image data in the live view image data storage area 301 of the memory unit 3. Then, the display control unit 4 reads live view image data from the live view image data storage area 301 and causes the display unit 501 of the touch panel 5 to display the live view image data. As a result, the current video (live view) captured by the camera 1 can be displayed on the touch panel 5.
  • Step ST3 the operation unit 502 of the touch panel 5 determines whether an operation for designating the start point Ps (i) of the designated area has been received. For example, the operation unit 502 determines whether a touch operation for touching the operation screen of the touch panel 5 has been detected. (Step ST4) If it is determined that an operation for designating the start point Ps (i) of the designated area has been received, the process control unit 6 determines the position (Xs i ) of the start point Ps (i) that is the position of the display screen on which the user's finger touched in the touch operation. , Ys i ).
  • the operation unit 502 determines whether an operation for specifying the start point Ps (i) of the specified area has been received. For example, after the touch operation for touching the display screen of the touch panel 5 is detected, the operation unit 502 detects a slide operation that is moved in a state where the display screen and the finger are touched. It is determined whether or not a touch release operation in which the finger is released from the display screen is detected.
  • Step ST5 If it is determined that an operation for designating the end point Pe (i) of the designated area has been received, the process control unit 6 determines the position (Xe i ) of the end point Pe (i) that is the position where the touched finger is released from the display screen. , Ye i ). When the process control unit 6 detects the start point Ps (i) and the end point Pe (i), the process control unit 6 corresponds to the designated area E (i) defined by the start point Ps (i) and the end point Pe (i). A program constituting the (i) th information source specifying unit 7 (i) for detecting designated area image position information J (i) indicating the position of the image on the live view is executed. Thereby, the information source specifying unit 7 (i) is activated.
  • the activated information source specifying unit 7 (i) acquires designated area image position information J (i) indicating the position of the image corresponding to the designated area E (i) in the live view. For example, the information source specifying unit 7 (i), based on the position (Xs i , Ys i ) of the start point Ps (i) on the display screen acquired by the processing control unit 6, the start point Ps (i ) And the position (x1 i , y1 i ) of the first vertex P1 (i) corresponding to the first vertex P1 (i).
  • the information source specifying unit 7 (i) then designates a rectangular image area on the live view with the first vertex P1 (i) and the second vertex P2 (i) as vertices on the diagonal line.
  • Image position information J (i) is acquired.
  • the information source specifying unit 7 (i) acquires a third vertex P3 (i) and a fourth vertex P4 (i) different from the first vertex P1 (i) and the second vertex P2 (i). Also good.
  • the third vertex P3 (i) is a vertex adjacent to the first vertex P1 (i) and the second vertex P2 (i), and the coordinate values thereof are (x1 i , y2 i). ).
  • the fourth vertex P4 (i) is a vertex adjacent to the first vertex P1 (i) and the second vertex P2 (i), and the coordinate value thereof is (x2 i , y1 i ).
  • the information source specifying unit 7 (i) includes the coordinate values (x1 i , y1 i ) of the first vertex P1 (i), the coordinate values (x2 i , y2 i ) of the second vertex P2 (i),
  • the coordinate value (x1 i , y2 i ) of the three vertices P3 (i) and the coordinate value (x2 i , y1 i ) of the fourth vertex P4 (i) are designated as specified area image position information of the specified area E (i).
  • the image is output to the image cutout processing unit 8 (i) as J (i).
  • Step ST7 When the process control unit 6 detects the start point Ps (i) and the end point Pe (i), the process control unit 6 corresponds to the designated area E (i) defined by the start point Ps (i) and the end point Pe (i).
  • a program constituting the (i) th image cutout processing unit 8 (i) for cutting out the cutout image G (i) to be executed is executed. As a result, the image cutout processing unit 8 (i) is activated.
  • Step ST8 Then, the started image cutout processing unit 8 (i) cuts out the cutout image G (i) from the live view based on the designated area image position information J (i) acquired by the information source specifying unit 7 (i). .
  • the image cutout processing unit 8 (i) cuts out the cutout image G (i) from the live view in which the end point Pe (i) is detected. (Step ST9) Next, the image cutout processing unit 8 saves the cut out cutout image G (i) in the cutout text data storage area 304 of the memory unit 3.
  • FIG. 5 is a flowchart for explaining an example of an image recognition processing method by the mobile terminal 100 according to an embodiment of the present invention.
  • the image recognition processing unit 9 determines whether or not to execute the image recognition process. For example, when the execution of the image recognition process for the specified cut image G (i) is instructed via the operation unit 502, the image recognition processing unit 9 determines to execute the image recognition process.
  • Step ST22 When it is determined that execution of the image recognition process has been instructed, the image recognition processing unit 9 reads the specified cut image G (i) from the cut text data storage area 304.
  • Step ST23 the image recognition processing unit 9 performs image recognition processing on the read cut image G (i). For example, the image recognition processing unit 9 executes image recognition processing for recognizing characters included in the cut image G (i).
  • Step ST24 the image recognition processing unit 9 extracts a character string included in the cut-out image G (i) by image recognition processing, and acquires the extracted character string as a recognition result K (i).
  • Step ST25 the image recognition processing unit 9 stores the acquired recognition result K (i) in the cut-out text data storage area 304 of the memory unit 3.
  • the mobile terminal 100 cuts out the cut image G (i) corresponding to the designated area E (i) designated in the live view, and cuts out the image data storage area of the memory unit 3. Saved in 303.
  • the information source specifying unit 7 configures the information source specifying unit 7 (i) for each specified area E (i) when the processing control unit 6 determines that the specified area E (i) is specified. Execute the program to be executed. Further, when it is determined by the processing control unit 6 that the designated area E (i) has been designated, the image cutout processing unit 8 configures the image cutout processing unit 8 (i) for each designated area E (i). Execute the program to be executed.
  • the mobile terminal 100 can designate the designated area. For each of E (i) and (i + 1), processing until the cut image G (i) is cut out can be executed in parallel. Therefore, even when a plurality of designated areas E (i) are designated successively, the designation of the designated area E (i) from the user is continuously received, and the cutout image G (i) is stored in the memory. Part 3 can be saved.
  • the mobile terminal 100 stores the cut image G (i) corresponding to the designated area E (i) in the cut image data storage area 303 of the memory unit 3.
  • the image recognition processing unit 9 sequentially executes the image recognition process on the cut image G (i) read from the cut image data storage area 303.
  • the user specifies an image including an information source that is likely to be necessary after that, and specifies the cut-out image G ( i) can be saved. Therefore, the user can use the portable terminal 100 that executes image recognition processing using a camera more easily.
  • the portable terminal 100 which concerns on this Embodiment has a computer system inside.
  • the process of operation is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer system reading and executing this program.
  • the “computer system” herein includes a CPU, various memories, an OS, and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • Computer-readable recording medium means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, and a storage such as a hard disk built in a computer system.
  • the “computer-readable recording medium” means a volatile memory (for example, DRAM (for example, DRAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Dynamic Random Access Memory)) may also be included which hold a program for a certain period of time.
  • DRAM for example, DRAM
  • Dynamic Random Access Memory Dynamic Random Access Memory
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • the image processing apparatus of the present invention it is possible to improve user operability when executing image recognition processing on an image captured by a camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Character Input (AREA)
  • Image Input (AREA)

Abstract

 表示部の表示画面上において指定された指定エリアを検出する操作部と、前記検出された指定エリア毎に、カメラ画像において前記指定エリアに対応する位置を示す指定エリア画像位置情報を取得する特定部と、前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出す画像切出し処理部と、前記カメラ画像から切り出した前記指定エリアに対応する画像の画像データを保存するメモリ部と、前記指定エリアが指定された場合、当該指定エリアの指定エリア画像位置情報を取得する前記特定部と、当該指定エリアに対応する画像を切り出す処理部とを、それぞれ前記指定エリア毎に起動させる処理制御部と、を備える。

Description

画像処理装置、画像処理方法、および画像処理プログラム
 本発明は、画像処理装置、画像処理方法、および画像処理プログラムに関する。
 カメラが撮像した画像に基づき、画像内の文字列を認識し、認識した文字列をテキストデータに変換する画像情報処理装置がある(例えば、特許文献1参照)。
 この画像情報処理装置は、手ブレ等に起因する文字列の誤認識を低減させるために、認識対象が文字列を認識するための画像として適当であるか否かを判定し、判定により得た画像に対して文字認識処理を行う。
特開2004-206548号公報
 しかしながら、全ての画像に対して文字認識処理を実行すると、文字認識処理を実行すべきデータ処理量の増加に伴い、装置全体の処理負荷が増大し、同一の装置内で行なわれる他の処理が遅延する問題がある。この場合、ユーザからの操作指示に対して、装置の反応が悪くなり、装置の操作性が悪くなる問題があった。
 本発明は、上記課題を解決することができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。
 この発明は上述した課題を解決するためになされたもので、本発明の一実施形態における画像処理装置は、レンズから入射する光学像を光電変換して画像データを取得するカメラと、前記画像データに基づくカメラ画像を表示する表示部と、前記表示部の表示画面上において指定された指定エリアを検出する操作部と、前記検出された指定エリア毎に、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得する特定部と、前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出す画像切出し処理部と、前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データを保存するメモリ部と、前記指定エリアが指定された場合、当該指定エリアの前記指定エリア画像位置情報を取得する前記特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させる処理制御部と、を備える。
 この発明は上述した課題を解決するためになされたもので、本発明の一実施形態における画像処理方法は、レンズから入射する光学像を光電変換して画像データを取得するステップと、前記画像データに基づくカメラ画像を表示部に表示するステップと、前記表示部の表示画面上において指定された指定エリアを検出するステップと、前記指定エリアが指定された場合、前記指定エリアの前記指定エリア画像位置情報を取得する特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させるステップと、前記特定部が、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得するステップと、前記画像切出し処理部が、前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出すステップと、前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データをメモリ部に保存するステップと、を備える。
 本発明の一実施形態における画像処理プログラムは、コンピュータを、レンズから入射する光学像を光電変換して画像データを取得するカメラ手段、前記画像データに基づくカメラ画像を表示する表示手段、前記表示部の表示画面上において指定された指定エリアを検出する操作手段、前記検出された指定エリア毎に、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得する特定手段、前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出す画像切出し処理手段、前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データを保存するメモリ手段、前記指定エリアが指定された場合、当該指定エリアの前記指定エリア画像位置情報を取得する前記特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させる処理制御手段、として機能させるための画像処理プログラムである。
 本発明係わる画像処理によれば、カメラが撮像した画像に対して画像認識処理を実行する際のユーザの操作性を向上させることができる。
本発明の一実施形態に係る情報処理装置(携帯端末)の構成の一例を示すブロック図である。 本発明の一実施形態に係る情報処理装置(携帯端末)による指定エリアE(i)の検出方法の一例について説明するための参考図である。 本発明の一実施形態に係る情報処理装置(携帯端末)による指定エリアE(i)の検出方法の一例について説明するための参考図である。 本発明の一実施形態に係る情報処理装置(携帯端末)による表示制御方法の一例について説明するための参考図である。 本発明の一実施形態に係る情報処理装置(携帯端末)による表示制御方法の一例について説明するための参考図である。 本発明の一実施形態に係る情報処理装置(携帯端末)による切出し画像の取得方法の一例について説明するためのフローチャートである。 本発明の一実施形態に係る情報処理装置(携帯端末)による画像認識処理方法の一例について説明するためのフローチャートである。
 以下、図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態に係る情報処理装置の概要について説明するための図である。なお、本発明の一実施形態では、この情報処理装置がカメラ付き携帯端末である場合の例について、以下説明する。しかし、本発明はこれに限られず、情報処理装置は、スマートフォン、携帯ゲーム機、タブレット型PC(Personal Computer)、あるいは、ノート型PC等であってもよい。
 本発明の一実施形態に係る携帯端末100は、カメラが撮像したライブビューに対して、画像認識処理の実行対象のエリア(以下、指定エリアという)指定がユーザからあった場合、ユーザが指定した指定エリアに対応する画像をライブビューから切り出して、メモリ部に保存する。そして、切り出した画像(以下、切出し画像という)に対しての画像認識処理が指示された場合、メモリ部から切出し画像を読み出して、画像認識処理を実行する。なお、ライブビューとは、カメラのレンズから入力する映像であって、レンズに入射する光学像に基づき撮像素子が連続して出力する画像データに基づきモニタに表示される映像である。
 なお、本発明の一実施形態において、携帯端末100がライブビューから切出し画像を切り出す例を用いて以下説明するが、本発明はこれに限られない。例えば、携帯端末100は、シャッターボタンが押下され、撮像した撮像画像を再生している状態において、撮像画像上において指定された指定エリアを切り出すものであってよい。
 図1に示す通り、本発明の一実施形態に係る携帯端末100は、カメラ1と、画像処理部2と、メモリ部3と、表示制御部4と、タッチパネル5と、処理制御部6と、情報源特定部7と、画像切出し処理部8と、画像認識処理部9と、アプリ処理部10と、カメラ制御部11と、操作ボタン12と、通信部13と、を備える。なお、タッチパネル5は、表示部501と、操作部502とを含む。
 カメラ1は、光学系101と、光学系101を介して入射する光学像から画像データを生成する撮像素子102と、撮像素子102から出力される画像データのアナログ信号をデジタル信号に変換し、画像データのデジタル信号を出力するA/D変換部103とを備える。このカメラ1は、例えば、操作ボタン12に含まれるスイッチボタンを介して電源が投入されると、入射する光学像から画像データを生成して、連続的に画像処理部2に出力する。このように、携帯端末100は、カメラ1が撮像可能な状態において生成した連続する画像データに基づき、ライブビューをタッチパネル5の表示部501に表示する。
ユーザは、このライブビューを見ながら、撮像する画像を決定することができる。
 画像処理部2は、カメラ1から出力される画像データに対して画像処理を実行し、画像処理後の画像データを、メモリ部3のライブビュー画像データ記憶領域301に保存する。
 メモリ部3は、携帯端末100の各処理において利用するプログラムやアプリケーションのデータを保存するとともに、携帯端末100の各種処理において利用する情報を一時的に保持する。本発明の一実施形態に係る携帯端末において、メモリ部3は、ライブビュー画像データ記憶領域301と、撮像画像データ記憶領域302と、切出し画像データ記憶領域303と、切出しテキストデータ記憶領域304と、アプリケーション記憶領域305と、を含む。
 ライブビュー画像データ記憶領域301は、カメラ1が取得したライブビューの画像データを、一時的に保存する記憶領域である。
 撮像画像データ記憶領域302は、ユーザが操作ボタン12に含まれるシャッターボタンを押下したことによりカメラ1が撮像した撮像画像の画像データを保存する記憶領域である。
 切出し画像データ記憶領域303は、画像切出し処理部8によって切出された切出し画像を保存する記憶領域である。
 切出しテキストデータ記憶領域304は、画像認識処理部9によって画像認識された切出し画像の画像内容を示す認識結果を保存する記憶領域である。
 アプリケーション記憶領域305は、携帯端末100によってインストールされたアプリケーションを保存する記憶領域である。
 表示制御部4は、タッチパネル5の表示部501を制御する。例えば、表示制御部4は、画像切出し処理部8によって切出された切出し画像を、ライブビューとともに1つの画面に表示させるように表示部501を制御する。また、表示制御部4は、切出し画像が画像認識処理部9による画像認識処理の対象となっている場合、画像認識処理の処理過程に応じてそれぞれの表示態様を区別して表示させるよう表示部501を制御する。例えば、表示制御部4は、画像認識処理前の切出し画像の外周部分を赤色に、画像認識処理中の切出し画像の外周部分を紫色に、画像認識処理後の切出し画像の外周部分を青色に、それぞれ表示させる。
 タッチパネル5の表示部501は、表示制御部4の制御に応じた表示内容を表示する。
 本発明の一実施形態に係る携帯端末において、表示部501は、タッチパネル5の表示画面として操作部502と一体的に設けられている。この表示部501の表示画面は、操作部502が操作を受け付ける際の操作画面としても機能する。なお、表示部501の表示画面には、予め決められた基準点(例えば、画面左上)を原点とするXY座標系が規定されている。本発明の一実施形態に係る携帯端末において、表示部501に含まれる画素毎に、XY座標系における座標値(X,Y)が割り当てられている。なお、この表示部501の表示画面におけるXY座標系は、操作画面のXY座標系と一致している。
 タッチパネル5の操作部502は、ユーザからの操作を受け付けるセンサーを備え、センサーによる検出結果を、処理制御部6、情報源特定部7、および画像認識処理部9に出力する。本発明の一実施形態に係る携帯端末において、操作部502は、表示部501の表示画面に接触するユーザの指の接触位置を、所定の一定時間間隔毎に、センサーにより検出し、このセンサーの検出結果を出力する。なお、ユーザの指の接触位置は、操作画面(表示画面)におけるXY座標系の座標値で示す。
 なお、本発明に係る携帯端末はこれに限られず、例えば、表示部501の表示画面に近接するユーザの指や操作指示部等の位置を非接触センサーにより検出するものであってもよい。また、表示部501と操作部502とは、タッチパネル5でなくてもよく、コンピュータに接続されるボタンやキーボード等の操作部や、外部キーボード、あるいは、外部モニタのディスプレイ等であってもよい。
 図2Aおよび図2Bに、本発明の一実施形態に係る情報処理装置(携帯端末)による指定エリアE(i)の検出方法の例について説明するための参考図を示す。
 処理制御部6は、操作部502のセンサーの検出結果に基づき、指定エリアE(i)が指定されたか否かを判定する。なお、iは、各指定エリアを区別するための識別番号である。処理制御部6は、指定エリアE(i)が指定されたと判定すると、各指定エリアE(i)にそれぞれ異なる識別番号iを割り当てるものであってもよい。
 この処理制御部6は、例えば、タッチパネル5の操作部502の検出結果に基づき、タッチパネル5の表示画面に指が接触していることを検出した場合、タッチ操作が入力されたことを判定する。また、処理制御部6は、タッチパネル5の操作部502の検出結果に基づき、タッチパネル5の表示画面に指が接触している状態において、その指が移動したことを検出した場合、スライド操作が入力されたことを判定する。さらに、処理制御部6は、タッチパネル5の操作部502の検出結果に基づき、タッチパネル5の表示画面に指が接触している状態において、その指が表示画面から離されたことを検出した場合、タッチ解除操作が入力されたことを判定する。
 また、処理制御部6は、タッチ操作が入力されたことを判定した場合、指定エリアE(i)の始点Ps(i)が指定されたと判定し、タッチ操作が入力された表示画面における位置を、始点Ps(i)の位置として取得する(図2A)。この処理制御部6は、検出した始点Ps(i)の表示画面における位置を示すXY座標値(Xs,Ys)を検出する。
 さらに、処理制御部6は、タッチ解除操作が入力されたことを判定した場合、指定エリアE(i)の終点Pe(i)が指定されたと判定し、タッチ解除操作が入力された表示画面における位置を、終点Pe(i)の位置として取得する。この処理制御部6は、検出した終点Pe(i)の表示画面における位置を示すXY座標値(Xe,Ye)を検出する(図2B)。
 この処理制御部6は、例えば、指定エリアE(i)の始点Ps(i)および終点Pe(i)を検出した場合、この始点Ps(i)と終点Pe(i)とを対角線上の頂点とする矩形エリアを指定エリアE(i)と決定する。つまり、処理制御部6は、始点Ps(i)と終点Pe(i)とが指定されたことを判定することで、指定エリアE(i)が指定されたことを判定する。なお、本発明は、これに限られず、処理制御部6が、始点Ps(i)と終点Pe(i)とを両端に含み、タッチパネル5の表示面と接触する指の圧力や指の太さと、スライド操作が入力された長さに応じて決められる領域を、指定エリアE(i)として検出するものであってもよい。
 さらにまた、処理制御部6は、指定エリアE(i)が指定されたことを判定した場合、ライブビューにおける指定エリアE(i)に対応する画像の位置を示す指定エリア画像位置情報J(i)を検出するための第(i)番目の情報源特定部7(i)を構成するプログラムを実行する。これにより、第(i)番目の情報源特定部7(i)として機能する処理部が立ち上がる(起動される)。言い換えると、この処理制御部6は、指定エリアE(i)の指定があった場合、指定された指定エリアE(i)毎に、情報源特定部7(i)を構成するプログラムを実行する。これにより、各情報源特定部7(i)が、それぞれ独立に、指定エリアE(i)に対応する画像のライブビュー上の位置を示す指定エリア画像位置情報J(i)を検出することができる。
 また、処理制御部6は、指定エリアE(i)が指定されたことを判定した場合、指定エリアE(i)に対応する切出し画像G(i)を切り出すための第(i)番目の画像切出し処理部8(i)を構成するプログラムを実行する。言い換えると、この処理制御部6は、指定エリアE(i)の指定があった場合、指定された指定エリアE(i)毎に、画像切出し処理部8(i)を構成するプログラムを実行する。これにより、各画像切出し処理部8(i)が、それぞれ独立に、指定エリアE(i)に対応する切出し画像G(i)を切り出すことができる。
 情報源特定部7は、処理制御部6によって検出された指定エリアE(i)の始点Ps(i)のXY座標値(Xs,Ys)と、終点Pe(i)のXY座標値(Xe,Ye)とに基づき、指定エリアE(i)に対応するライブビュー上の切出し画像G(i)の位置を示す指定エリア画像位置情報J(i)を取得する。
 この情報源特定部7は、処理制御部6によって指定エリアE(i)ごとに起動された情報源特定部7(i)を備える。各情報源特定部7(i)は、それぞれ並行して、上述の指定エリア画像位置情報J(i)を検出する処理を実行することができる。
 画像切出し処理部8は、情報源特定部7(i)によって取得された指定エリア画像位置情報J(i)に基づき、指定エリアE(i)に対応する切出し画像G(i)をライブビューの画像データから切り出す。なお、ライブビューは、複数の連続する画像データに基づき表示される映像である。指定エリアE(i)が指定される際、タッチパネル5の表示部501は、時系列に取得された画像を一枚ずつ順次表示して、ライブビューを表示している。よって、始点Ps(i)が指定されたときから終点Pe(i)が指定されるまでの間に、タッチパネル5の表示部501には、複数枚の画像データに基づく画像が表示される。
 本発明の一実施形態において、画像切出し処理部8は、指定エリアE(i)が指定された際に表示部501に表示されたライブビューの複数枚の画像データのうち、終点Pe(i)が検出された際に表示部501に表示されたライブビューの画像データから、切出し画像G(i)を切り出す。なお、本発明はこれに限られず、例えば、画像切出し処理部8は、始点Ps(i)が指定されたときから終点Pe(i)が指定されるまでの間に、タッチパネル5の表示部501に表示された複数枚の画像データのうち、最もコントラストが大きい画像データから切出し画像G(i)を切り出すものであってもよい。
 この画像切出し処理部8は、処理制御部6によって起動された画像切出し処理部8(i)を備える。各画像切出し処理部8(i)は、それぞれ並行して、上述の切出し画像G(i)を切り出す処理を実行することができる。
 画像認識処理部9は、例えば、操作部502を介して指定された切出し画像G(i)についての画像認識処理の実行が指示された場合、メモリ部3の切出しテキストデータ記憶領域304から指定された切出し画像G(i)を読み出す。このように、画像認識処理部9の動作を画像切出し処理部8の処理と独立して実行することにより、画像認識処理部9による認識処理中も、画像切出し処理部8に対する画像切り出しの操作を指示し、実行させることができる。
 なお、画像認識処理部9は、予め決められたタイミングに到達した場合、自動的に画像認識処理を実行するものであってもよい。例えば、カメラ1による撮影動作が実行されていない状態等、処理負荷が低い動作時において、画像認識処理を実行することが予め決められているものであってもよい。この場合、処理負荷が低い動作状態において、画像認識処理部9は、切出しテキストデータ記憶領域304から、画像認識処理が実行されていない画像切出し画像G(i)を、逐次、読み出すものであってもよい。
 また、画像認識処理部9は、以下のような予め決められたタイミングにおいて、切出しテキストデータ記憶領域304から読み出した画像認識処理が実行されていない画像切出し画像G(i)に対して、画像認識処理を実行するものであってもよい。この予め決められたタイミングは、例えば、カメラ1による撮影が停止あるいは終了するときであってもよい。また、画像切出し操作が所定時間以上入力されておらず画像切出し処理部8による画像切出し処理が所定時間以上実行されていないときであってもよい。さらに、画像切出し処理部8によって切出された切出し画像G(i)に対して、ユーザが所定操作を行ったときであってもよい。例えば、切出し画像G(i)をタッチパネル5の表示部501に表示するという操作指示をユーザが行った場合、あるいは、表示している切出し画像G(i)の表示倍率を拡大あるいは縮小した場合等である。さらにまた、画像切出し処理部8による画像切出し処理が実行されたのち所定時間以上が経過したときであってもよい。また、アプリ処理部10が、他のアプリケーションに従って、切出し画像G(i)を利用するときであってもよい。
 また、画像認識処理部9は、読み出した切出し画像G(i)に対して、画像認識処理を実行する。例えば、画像認識処理部9は、予め決められたパターンデータと切出し画像G(i)とを照合して、切出し画像G(i)に含まれている文字列(ひらがな、カタカナ、漢字、アルファベット、数字等を含む)を認識し、認識した文字列のテキストデータを抽出する。画像認識処理部9が画像認識処理により取得する切出し画像G(i)の画像内容を示す情報、ここではテキストデータを、以下、認識結果K(i)と記す。
 なお、画像認識処理部9は、ロゴマークや絵文字等の図形を認識する画像認識処理や、1次元コードや2次元コード等からコード情報を読み取る画像認識処理等を行うものであってもよい。
 この画像認識処理部9は、画像認識処理により取得した認識結果K(i)を、メモリ部3の切出しテキストデータ記憶領域304に保存する。
 アプリ処理部10は、認識結果K(i)に応じて、メモリ部3のアプリケーション記憶領域305に記憶されているアプリケーションを実行し、各アプリケーションの処理を担当する処理部を立ち上げる。このアプリ処理部10は、例えば、タッチパネル5の表示部501に、認識結果K(i)を表示している状態において、タッチパネル5の操作部502を介して、ユーザからタッチ操作により認識結果K(i)が指定された場合、指定された認識結果K(i)についてのアプリケーションの実行が指示されたと判定する。この場合、アプリ処理部10は、指定された認識結果K(i)に関する実行アプリケーションとして予め決められているアプリケーションを実行し、アプリケーションに対応する処理部を立ち上げる。
 例えば、認識結果K(i)として、文字列を示す情報がユーザによって指定された場合、アプリ処理部10は、文字列に対応する実行アプリケーションとして予め決められている検索アプリ351を実行する。これにより、アプリ処理部10は、検索処理部1001を立ち上げる。この検索処理部1001は、指定された認識結果K(i)の文字列に関連する情報をキーワード検索エンジンで検索するよう指示する情報を、通信部13を介してネットワークで接続されているサーバ(図示せず)に送信する。キーワード検索エンジンによる検索結果をサーバから受信した場合、表示制御部4が、受信した検索結果をタッチパネル5の表示部501に表示させる。
 また、認識結果K(i)として、URLを示す情報がユーザによって指定された場合、アプリ処理部10は、URLに対応する実行アプリケーションとして予め決められているブラウザアプリ352を実行する。これにより、アプリ処理部10は、WEBサイト接続処理部1002を立ち上げる。このWEBサイト接続処理部1002は、指定された認識結果K(i)のURLを通信部13を介してネットワークで接続されているサーバ(図示せず)に送信する。URLで示すWEBサイトのWEB画像をサーバから受信した場合、表示制御部4が、受信したWEB画像をタッチパネル5の表示部501に表示させる。
 さらに、認識結果K(i)として、住所、地名、施設名等の場所を示す情報がユーザによって指定された場合、アプリ処理部10は、場所を示す情報に対応する実行アプリケーションとして予め決められている地図アプリ353を実行する。これにより、アプリ処理部10は、地図表示処理部1003を立ち上げる。この地図表示処理部1003は、指定された認識結果K(i)の場所を地図検索エンジンで検索するよう指示する情報を、通信部13を介してネットワークで接続されているサーバ(図示せず)に送信する。地図検索エンジンによる検索結果をサーバから受信した場合、表示制御部4が、受信した検索結果をタッチパネル5の表示部501に表示させる。
 カメラ制御部11は、操作ボタン12に含まれるシャッターボタンが押下された場合、カメラ1に入射する光学像に基づき、撮像画像の画像データを取得するようカメラ1を制御する。なお、撮像画像は、ライブビューよりも画質が高い画像であることが好ましい。
 操作ボタン12は、例えば、電源スイッチボタンやシャッターボタン等を含むユーザからの操作入力部である。なお、操作ボタン12は、これ以外にも、十字キー等の操作入力部を含むものであってもよい。この操作ボタン12は、ユーザからの操作を受け付け、受け付けた操作を示す操作情報を出力する。
 通信部13は、ネットワークを介して、サーバ等の外部装置と通信可能に接続され、情報の送受信を行う。
 次に、図2Aと図2Bを参照して、本発明の一実施形態に係る処理制御部6による指定エリアE(i)の検出方法の一例について説明する。図2Aと図2Bは、本発明の一実施形態に係る処理制御部6による指定エリアE(i)の検出方法の一例について説明するための参考図である。 図2Aに示す通り、タッチパネル5の表示画面にユーザの指が接触した場合、処理制御部6は、タッチ操作が入力されたことを判定し、指定エリアE(i)の始点Ps(i)を検出する。 そして、ユーザが、指をタッチパネル5の表示画面にタッチした状態のままスライドさせる。これにより、例えば、タッチパネル5には、ユーザの指が現在接触している点と始点Ps(i)とを対角線上の頂点とする矩形エリアを、ユーザが指定しているエリアであることがわかるように、例えば、色を付けて表示する。 ユーザがタッチパネル5の表示画面から指を離すと、処理制御部6は、タッチ解除操作が入力されたことを判定し、指定エリアE(i)の終点Pe(i)を検出する。これにより、指定エリアE(i)が決定される。この指定エリアE(i)を、図2Bに示す。 これにより、URLを示す情報を含む画像が、指定エリアE(i)として指定される。
 次に、図3を参照して、表示制御部4による表示制御方法の一例について説明する。
 図3は、表示制御部4による表示制御方法の一例について説明するための参考図である。
 図3Aに示す通り、ユーザが、ライブビューを表示するタッチパネル5の表示画面上から、指定エリアE(i)を指定する。例えば、図2Aと図2Bを参照して説明したとおり、処理制御部6は、始点Ps(i)と終点Pe(i)とを対角線上の頂点とする矩形エリアを指定エリアE(i)として検出する。図示の例では、ユーザが、2次元コードを含む画像を指定エリアE(i)として指定する。
 これにより、処理制御部6は、この指定エリアE(i)に対応する情報源特定部7(i)を構成するプログラムと、画像切出し処理部8(i)を構成するプログラムとを、それぞれ実行する。これにより、情報源特定部7(i)と画像切出し処理部8(i)とが立ち上がる。
 そして、情報源特定部7は、この指定エリアE(i)に対応する画像の位置を示す指定エリア画像位置情報J(i)を検出する。画像切出し処理部8は、指定エリアE(i)に対応する切出し画像G(i)を切り出す。これにより、メモリ部3の切出し画像データ記憶領域303に、切出し画像G(i)が保存される。
 次いで、処理制御部6は、画像切出し処理部8(i)によって切出し画像G(i)が切出された場合、その旨を表示制御部4に通知する。表示制御部4は、処理制御部6から切出し画像G(i)が切出されたことを示す通知を受けた場合、タッチパネル5の表示部501に、ライブビューとともに、切出し画像G(i)のサムネイルを表示するストック切出し画像表示エリア511を作成する。このストック切出し画像表示エリア511をタッチパネル5に表示した一例を図3Bに示す。
 図3Bに示す通り、指定エリアE(i)が指定されると、タッチパネル5の表示画面には、ライブビューと、指定エリアE(i)の切出し画像G(i)のサムネイルとが表示される。
 なお、次に、URLを含む指定エリアE(i+1)が指定された場合、表示制御部4は、ストック切出し画像表示エリア511に、指定エリアE(i)の切出し画像G(i)のサムネイルと、指定エリアE(i+1)の切出し画像G(i+1)のサムネイルとを、表示させる。
 このように、切出し画像G(i)のサムネイルをタッチパネル5のストック切出し画像表示エリア511に表示することにより、ユーザは、指定した指定エリアE(i)の画像がメモリ部3に保存されていることを認識することができる。
 また、このストック切出し画像表示エリア511に表示されているサムネイルがタッチ操作により指定された場合、画像認識処理部9は、タッチ操作により指定された切出し画像G(i)の画像認識処理を実行する。
 例えば、2次元コードを含む指定エリアE(i)の切出し画像G(i)が指定された場合、画像認識処理部9は、この切出し画像G(i)から2次元コードの図を認識するとともに、この2次元コードに含まれるコード情報を読み出す。そして、画像認識処理部9は、読み出したコード情報を認識結果K(i)として、メモリ部3の切出しテキストデータ記憶領域304に保存する。
 ここで、2次元コードから読み出したコード情報が、例えばレストランのWEBサイトのURLであった場合、アプリ処理部10は、ブラウザアプリ352を実行し、WEBサイト接続処理部1002を立ち上げる。そして、WEBサイト接続処理部1002は、レストランのWEBサイトのURLを、通信部13を介してネットワークで接続されているサーバ(図示せず)に送信する。そして、表示制御部4は、URLで示すWEBサイトのWEB画像をサーバから受信した場合、受信したWEB画像をタッチパネル5に表示させる。
 このように、ストック切出し画像表示エリア511に表示されている切出し画像G(i)を指定することで、画像認識処理部9による画像認識処理が実行され、取得された認識結果K(i)に応じたアプリケーションが実行される。これにより、ユーザは、指定エリアE(i)を指定してまもなく、この指定エリアE(i)から取得された情報を利用することができる。
 次に、図4を参照して、本発明の一実施形態に係る携帯端末100による切出し画像の取得方法の一例について説明する。図4は、本発明の一実施形態に係る携帯端末100による切出し画像の取得方法の一例について説明するためのフローチャートである。
 (ステップST1)
 携帯端末100は、操作ボタン12が押下され、電源がオンされると、カメラ1の光学系101に入射する光学像を、撮像素子102が光電変換し、A/D変換部103が画像データとして出力する。つまり、カメラ1は、入射する光学像に基づき、連続するライブビューの画像データを取得する。
 (ステップST2)
 そして、カメラ1は、ライブビューの画像データを画像処理部2に出力する。この画像処理部2は、入力する画像データをライブビューの画像サイズや画質に変換して、メモリ部3のライブビュー画像データ記憶領域301に格納する。そして、表示制御部4は、ライブビュー画像データ記憶領域301からライブビューの画像データを読み出し、タッチパネル5の表示部501に表示させる。これにより、カメラ1で撮像している現在の映像(ライブビュー)をタッチパネル5に表示することができる。
 (ステップST3)
 次いで、タッチパネル5の操作部502は、指定エリアの始点Ps(i)を指定する操作を受け付けたか否かを判定する。例えば、操作部502は、タッチパネル5の操作画面をタッチするタッチ操作が検出されたか否かを判定する。
 (ステップST4)
 指定エリアの始点Ps(i)を指定する操作を受け付けたと判定した場合、処理制御部6は、タッチ操作においてユーザの指が接触した表示画面の位置である始点Ps(i)の位置(Xs,Ys)を検出する。
 また、操作部502は、指定エリアの始点Ps(i)を指定する操作を受け付けたと判定した場合、続けて、指定エリアの終点Pe(i)を指定する操作を受け付けたか否かを判定する。例えば、操作部502は、タッチパネル5の表示画面をタッチするタッチ操作が検出された後、続けて、表示画面と指がタッチした状態において移動されるスライド操作が検出され、さらに、タッチした状態の指が表示画面から離されるタッチ解除操作が検出されたか否かを判定する。
(ステップST5)
 指定エリアの終点Pe(i)を指定する操作を受け付けたと判定した場合、処理制御部6は、タッチした状態の指が表示画面から離された位置である終点Pe(i)の位置(Xe,Ye)を検出する。
 また、処理制御部6は、始点Ps(i)と終点Pe(i)とを検出した場合、この始点Ps(i)と終点Pe(i)とで規定される指定エリアE(i)に対応するライブビュー上の画像の位置を示す指定エリア画像位置情報J(i)を検出するための第(i)番目の情報源特定部7(i)を構成するプログラムを実行する。これにより、情報源特定部7(i)が起動される。
 (ステップST6)
 そして、起動された情報源特定部7(i)は、ライブビューにおいて指定エリアE(i)と対応する画像の位置を示す指定エリア画像位置情報J(i)を取得する。例えば、情報源特定部7(i)は、処理制御部6によって取得された表示画面上の始点Ps(i)の位置(Xs,Ys)に基づき、このライブビュー上において始点Ps(i)と対応する第1頂点P1(i)の位置(x1,y1)を取得する。また、情報源特定部7(i)は、処理制御部6によって取得された表示画面上の終点Pe(i)の位置(Xe,Ye)に基づき、このライブビュー上おいて終点Pe(i)と対応する第2頂点P2(i)の位置(x2,y2)を取得する。
 そして、情報源特定部7(i)は、この第1頂点P1(i)と第2頂点P2(i)とを対角線上の頂点とするライブビュー上の矩形の画像エリアの位置を示す指定エリア画像位置情報J(i)を取得する。この情報源特定部7(i)は、第1頂点P1(i)と第2頂点P2(i)と異なる第3頂点P3(i)と第4頂点P4(i)を取得するものであってもよい。本発明の一実施形態において、第3頂点P3(i)は、第1頂点P1(i)と第2頂点P2(i)と隣り合う頂点であって、その座標値は(x1,y2)である。また、第4頂点P4(i)は、第1頂点P1(i)と第2頂点P2(i)と隣り合う頂点であって、その座標値は(x2,y1)である。
 情報源特定部7(i)は、これら第1頂点P1(i)の座標値(x1,y1)と、第2頂点P2(i)の座標値(x2,y2)と、第3頂点P3(i)の座標値(x1,y2)と、第4頂点P4(i)の座標値(x2,y1)とを、指定エリアE(i)の指定エリア画像位置情報J(i)として画像切出し処理部8(i)に出力する。
 (ステップST7)
 また、処理制御部6は、始点Ps(i)と終点Pe(i)とを検出した場合、この始点Ps(i)と終点Pe(i)とで規定される指定エリアE(i)に対応する切出し画像G(i)を切り出すための第(i)番目の画像切出し処理部8(i)を構成するプログラムを実行する。これにより、画像切出し処理部8(i)が起動させる。
 (ステップST8)
 そして、起動された画像切出し処理部8(i)は、情報源特定部7(i)によって取得された指定エリア画像位置情報J(i)に基づき、ライブビューから切出し画像G(i)を切り出す。なお、本発明の一実施形態において、画像切出し処理部8(i)は、終点Pe(i)が検出されたライブビューから切出し画像G(i)を切り出す。
 (ステップST9)
 次いで、画像切出し処理部8は、切出した切出し画像G(i)をメモリ部3の切出しテキストデータ記憶領域304に保存する。
 次に、図5を参照して、本発明の一実施形態に係る携帯端末100による画像認識処理方法の一例について説明する。図5は、本発明の一実施形態に係る携帯端末100による画像認識処理方法の一例について説明するためのフローチャートである。
 (ステップST21)
 画像認識処理部9は、画像認識処理の実行をするか否かを判定する。例えば、操作部502を介して指定された切出し画像G(i)についての画像認識処理の実行が指示された場合、画像認識処理部9は、画像認識処理の実行をすると判定する。
 (ステップST22)
 そして、画像認識処理の実行が指示されたと判定した場合、画像認識処理部9は、指定された切出し画像G(i)を切出しテキストデータ記憶領域304から読み出す。
 (ステップST23)
 次いで、画像認識処理部9は、読み出した切出し画像G(i)に対して、画像認識処理を実行する。例えば、画像認識処理部9は、切出し画像G(i)に含まれる文字を認識する画像認識処理を実行する。
 (ステップST24)
 そして、画像認識処理部9は、画像認識処理により、切出し画像G(i)に含まれる文字列を抽出し、抽出した文字列を認識結果K(i)として取得する。
 (ステップST25)
 次いで、画像認識処理部9は、取得した認識結果K(i)を、メモリ部3の切出しテキストデータ記憶領域304に保存する。
 このように、本発明の一実施形態に係る携帯端末100は、ライブビューにおいて指定された指定エリアE(i)に対応する切出し画像G(i)を切出し、メモリ部3の切出し画像データ記憶領域303に保存しておく。また、情報源特定部7は、処理制御部6によって指定エリアE(i)が指定されたことが判定された場合、指定エリアE(i)毎に、情報源特定部7(i)を構成するプログラムを実行する。さらに、画像切出し処理部8は、処理制御部6によって指定エリアE(i)が指定されたことが判定された場合、指定エリアE(i)毎に、画像切出し処理部8(i)を構成するプログラムを実行する。
 これにより、携帯端末100は、指定エリアE(i)の切出し画像G(i)を切り出す処理が完了する以前に、次の指定エリアE(i+1)が指定された場合であっても、指定エリアE(i)、(i+1)ごとに、切出し画像G(i)を切り出すまでの処理を並行して実行することができる。よって、複数の指定エリアE(i)が、連続して指定された場合であっても、ユーザからの指定エリアE(i)の指定を継続して受け付けて、切出し画像G(i)をメモリ部3に保存しておくことができる。
 また、本発明の一実施形態に係る携帯端末100は、指定エリアE(i)に対応する切出し画像G(i)をメモリ部3の切出し画像データ記憶領域303に保存しておく。また、画像認識処理を実行するタイミングに到達した場合、順次、切出し画像データ記憶領域303から読み出した切出し画像G(i)に対して、画像認識処理部9が画像認識処理を実行する。これにより、ユーザは、画像認識処理を実行するか否かをまだ決めていない場合であっても、とりあえず、その後必要になりそうな情報源を含む画像を指定して、指定した切出し画像G(i)を保存しておくことができる。よって、ユーザは、もっと気軽に、カメラを利用した画像認識処理を実行する携帯端末100を利用することができるようになる。
 また、本実施の形態に係る携帯端末100は、内部にコンピュータシステムを有している。そして、動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 また、「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものであってもよい。
 さらに、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
 また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
 さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 本願は、2011年9月16日に、日本に出願された特願2011-202860号に基づき優先権を主張し、その内容をここに援用する。
 本発明に係わる画像処理装置によれば、カメラが撮像した画像に対して画像認識処理を実行する際のユーザの操作性を向上させることができる。
 1  カメラ
 2  画像処理装置
 3  メモリ部
 4  表示制御部
 5  タッチパネル
 6  処理制御部
 7  情報源特定部
 8  画像切出し処理部
 9  画像認識処理部
 10  アプリ処理部
 11  カメラ制御部
 12  操作ボタン
 100  携帯端末

Claims (9)

  1.  レンズから入射する光学像を光電変換して画像データを取得するカメラと、
     前記画像データに基づくカメラ画像を表示する表示部と、
     前記表示部の表示画面上において指定された指定エリアを検出する操作部と、
     前記検出された指定エリア毎に、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得する特定部と、
     前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出す画像切出し処理部と、
     前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データを保存するメモリ部と、
     前記指定エリアが指定された場合、当該指定エリアの前記指定エリア画像位置情報を取得する前記特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させる処理制御部と、
     を備えることを特徴とする画像処理装置。
  2.  前記メモリ部に保存されている前記画像データの中から、前記操作部を介して指定された前記画像データを読み出し、当該画像データに含まれる画像内容を認識する画像認識処理を実行する画像認識処理部をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3.  前記画像認識処理部は、
     予め決められたタイミングに到達した場合、前記メモリ部に保存されている前記画像データの中から画像認識処理が実行されていない前記画像データを読み出し、当該画像データに含まれる画像内容を認識する画像認識処理を実行することを特徴とする請求項2に記載の画像処理装置。
  4.  前記画像認識処理部による認識結果に応じたアプリケーションを実行するアプリ処理部をさらに備えることを特徴とする請求項2あるいは3に記載の画像処理装置。
  5.  前記画像認識処理部は、
     前記メモリ部に保存されている前記切出し画像の画像データに基づき、当該画像データに含まれる文字情報を取得することを特徴とする請求項2から4のうちいずれか一項に記載の画像処理装置。
  6.  前記画像切出し処理部により切出された画像を、前記カメラ画像とともに表示させるよう前記表示部を制御する表示制御部をさらに備えることを特徴とする請求項1から5のうちいずれか一項に記載の画像処理装置。
  7.  前記表示制御部は、
     前記画像切出し処理部により切り出された切出し画像が前記画像認識処理部によって画像認識処理される際、画像認識処理の経過にともなってそれぞれの表示態様が異なるように、画像認識処理前の画像と、画像認識処理中の画像と、画像認識処理後の画像とを表示させるよう前記表示部を制御することを特徴とする請求項6に記載の画像処理装置。
  8.  レンズから入射する光学像を光電変換して画像データを取得するステップと、
     前記画像データに基づくカメラ画像を表示部に表示するステップと、
     前記表示部の表示画面上において指定された指定エリアを検出するステップと、
     前記指定エリアが指定された場合、前記指定エリアの前記指定エリア画像位置情報を取得する特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させるステップと、
     前記特定部が、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得するステップと、
     前記画像切出し処理部が、前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出すステップと、
     前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データをメモリ部に保存するステップと、
     を備えることを特徴とする画像処理方法。
  9.  コンピュータを、
     レンズから入射する光学像を光電変換して画像データを取得するカメラ部、
     前記画像データに基づくカメラ画像を表示する表示部、
     前記表示部の表示画面上において指定された指定エリアを検出する操作部、
     前記検出された指定エリア毎に、前記カメラ画像において前記指定エリアに対応する画像の位置を示す指定エリア画像位置情報を取得する特定部、
     前記指定エリア画像位置情報に基づき、前記指定エリアに対応する画像を前記カメラ画像から切り出す画像切出し処理部、
     前記カメラ画像から切り出した前記指定エリアに対応する切出し画像の画像データを保存するメモリ部、
     前記指定エリアが指定された場合、当該指定エリアの前記指定エリア画像位置情報を取得する前記特定部を構成するプログラムと、当該指定エリアに対応する画像を切り出す前記画像切出し処理部を構成するプログラムとを、それぞれ前記指定エリア毎に実行させる処理制御部、
     として機能させるための画像処理プログラム。
PCT/JP2012/070973 2011-09-16 2012-08-20 画像処理装置、画像処理方法、および画像処理プログラム WO2013038872A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013533583A JP5991323B2 (ja) 2011-09-16 2012-08-20 画像処理装置、画像処理方法、および画像処理プログラム
US14/343,027 US9396405B2 (en) 2011-09-16 2012-08-20 Image processing apparatus, image processing method, and image processing program
EP12832626.1A EP2757502B1 (en) 2011-09-16 2012-08-20 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-202860 2011-09-16
JP2011202860 2011-09-16

Publications (1)

Publication Number Publication Date
WO2013038872A1 true WO2013038872A1 (ja) 2013-03-21

Family

ID=47883106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070973 WO2013038872A1 (ja) 2011-09-16 2012-08-20 画像処理装置、画像処理方法、および画像処理プログラム

Country Status (4)

Country Link
US (1) US9396405B2 (ja)
EP (1) EP2757502B1 (ja)
JP (1) JP5991323B2 (ja)
WO (1) WO2013038872A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059529A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、並びに携帯端末装置
JPWO2019187502A1 (ja) * 2018-03-29 2021-04-15 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US20210216803A1 (en) * 2020-01-10 2021-07-15 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119486A (ja) * 1992-10-02 1994-04-28 Seiko Epson Corp 文字認識装置および表示方法
JPH0728946A (ja) * 1993-07-15 1995-01-31 Hitachi Eng Co Ltd 文字認識装置及び方法
JP2000251012A (ja) * 1999-03-01 2000-09-14 Hitachi Ltd 帳票処理方法およびシステム
JP2002352190A (ja) * 2001-05-28 2002-12-06 Kenwood Corp 携帯端末装置
JP2004206548A (ja) 2002-12-26 2004-07-22 Sharp Corp 画像情報処理装置、画像情報処理プログラム、および、プログラム記録媒体
JP2007133701A (ja) * 2005-11-10 2007-05-31 Pfu Ltd 自動文字認識システム及びその機能をコンピュータに実現させるためのコンピュータプログラム
JP2010244211A (ja) * 2009-04-02 2010-10-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力装置および情報入力方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4704601B2 (ja) * 2000-11-01 2011-06-15 富士通株式会社 文字認識方法,プログラム及び記録媒体
JP4038771B2 (ja) * 2003-10-28 2008-01-30 ソニー株式会社 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム
US20080267504A1 (en) * 2007-04-24 2008-10-30 Nokia Corporation Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
JP2011050038A (ja) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119486A (ja) * 1992-10-02 1994-04-28 Seiko Epson Corp 文字認識装置および表示方法
JPH0728946A (ja) * 1993-07-15 1995-01-31 Hitachi Eng Co Ltd 文字認識装置及び方法
JP2000251012A (ja) * 1999-03-01 2000-09-14 Hitachi Ltd 帳票処理方法およびシステム
JP2002352190A (ja) * 2001-05-28 2002-12-06 Kenwood Corp 携帯端末装置
JP2004206548A (ja) 2002-12-26 2004-07-22 Sharp Corp 画像情報処理装置、画像情報処理プログラム、および、プログラム記録媒体
JP2007133701A (ja) * 2005-11-10 2007-05-31 Pfu Ltd 自動文字認識システム及びその機能をコンピュータに実現させるためのコンピュータプログラム
JP2010244211A (ja) * 2009-04-02 2010-10-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力装置および情報入力方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2757502A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019187502A1 (ja) * 2018-03-29 2021-04-15 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP7363767B2 (ja) 2018-03-29 2023-10-18 ソニーグループ株式会社 画像処理装置と画像処理方法およびプログラム
WO2020059529A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、並びに携帯端末装置
US11983877B2 (en) 2018-09-20 2024-05-14 Fujifilm Corporation Image processing device, image processing method, program, and portable terminal device
US20210216803A1 (en) * 2020-01-10 2021-07-15 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium
US11508139B2 (en) * 2020-01-10 2022-11-22 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
EP2757502B1 (en) 2017-04-12
JPWO2013038872A1 (ja) 2015-03-26
US20140226037A1 (en) 2014-08-14
US9396405B2 (en) 2016-07-19
EP2757502A4 (en) 2015-07-01
JP5991323B2 (ja) 2016-09-14
EP2757502A1 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
US8564682B2 (en) Method for creating content using a camera of a portable terminal and a portable terminal adapted therefor
JP5347673B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20110273474A1 (en) Image display apparatus and image display method
JP4759638B2 (ja) リアルタイムなカメラ辞書
WO2014176912A1 (en) Two dimensional-code scanning method and device
CN109032358A (zh) 基于手势识别的ar交互虚拟模型的控制方法及装置
CN106775561B (zh) 一种截题方法、装置及智能设备
TW201322049A (zh) 電子設備及其文本導讀方法
JP5989479B2 (ja) 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5991323B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2014120132A (ja) 画像処理端末、画像処理システム、および画像処理端末の制御プログラム
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
JP4596754B2 (ja) 文字認識方法とそれを用いた携帯端末システム
JP2010282311A (ja) 表示制御装置、画像処理装置、及びプログラム
JP5991538B2 (ja) データ処理装置、データ処理システム及びプログラム
JP6828421B2 (ja) 卓上カメラ−プロジェクタシステムでの文書閲覧時における関連文書及び人物を可視化するための計算実行方法、プログラムおよび計算処理システム
JP2010244211A (ja) 情報入力装置および情報入力方法
CN114049638A (zh) 图像处理方法、装置、电子设备及存储介质
JP6408055B2 (ja) 情報処理装置、方法及びプログラム
JP6288336B2 (ja) 情報処理装置
CN107133620A (zh) 一种搜索目标的确定方法及装置
CN113780019B (zh) 识别码选择方法、装置和电子设备
JP5382788B2 (ja) 対象物情報表示装置、対象物情報表示方法、対象物情報表示プログラム
CN113852675B (zh) 图像分享方法、装置、设备、存储介质和程序产品
JP2010191907A (ja) 文字入力装置および文字入力方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12832626

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012832626

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012832626

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14343027

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013533583

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE