[go: up one dir, main page]

JP2007156729A - Retrieval device and retrieval method and camera having retrieval device - Google Patents

Retrieval device and retrieval method and camera having retrieval device Download PDF

Info

Publication number
JP2007156729A
JP2007156729A JP2005349628A JP2005349628A JP2007156729A JP 2007156729 A JP2007156729 A JP 2007156729A JP 2005349628 A JP2005349628 A JP 2005349628A JP 2005349628 A JP2005349628 A JP 2005349628A JP 2007156729 A JP2007156729 A JP 2007156729A
Authority
JP
Japan
Prior art keywords
information
image
attribute
search
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005349628A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005349628A priority Critical patent/JP2007156729A/en
Publication of JP2007156729A publication Critical patent/JP2007156729A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a retrieval device and a retrieval method for performing efficient image retrieval by a simple input operation and a camera having the retrieval device. <P>SOLUTION: In a retrieval device, factor information having at least one of image attributes, temporal attributes and positional attributes is derived by an image information part 16 under conditions owned by at least one character and word. Then, at least one image is retrieved from among a plurality of images according to the factor information derived by the image information part 16 by a microcontroller 10. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は検索装置及び検索方法並びに検索装置を有するカメラに関し、より詳細には、数多く撮りためたカメラの撮影画像の中から所望の画像を検索するための検索装置及び検索方法の技術に関するものである。   The present invention relates to a search device, a search method, and a camera having the search device, and more particularly, to a search device and a search method technique for searching for a desired image from images taken by a camera taken many times. is there.

近年、小型のデジタルカメラの普及やカメラが携帯電話器や携帯型音楽プレーヤに搭載されるようになり、人が日常撮影する画像の数が多くなってきている。こうした中で、撮影した画像を後で鑑賞しようとしても、撮影画像の数が多い場合、見つけるのに時間がかかってしまい、あきらめてしまうことも多いものであった。また、インターネットのサイト運営の会社等も、近年、画像や音楽を検索する技術を重視している。   In recent years, the use of small digital cameras and the mounting of cameras on mobile phones and portable music players have increased the number of images that people take every day. Under these circumstances, even when trying to view the captured images later, if there are a large number of captured images, it takes time to find them and often gives up. In addition, Internet site management companies and the like have recently emphasized technology for searching for images and music.

そこで、画像に感性的なキーワードを付して検索する技術や、意味情報を付す技術が提案されている(例えば、特許文献1及び特許文献2参照)。更に、画像を文章によって検索するような提案等も知られている(例えば、特許文献3参照)。
特開2004−5534号公報 特開2004−102792号公報 特開平8−83287号公報
In view of this, a technique for searching by attaching an emotional keyword to an image and a technique for attaching semantic information have been proposed (see, for example, Patent Document 1 and Patent Document 2). Furthermore, a proposal for searching for an image by text is also known (see, for example, Patent Document 3).
JP 2004-5534 A JP 2004-102792 A JP-A-8-83287

しかしながら、上述した特許文献1乃至特許文献3に記載の技術は、人の感覚や感性に依存したり、辞書情報のように膨大なデータベースを必要とした上、文章を入力する等、入力時にユーザに多くの負荷がかかるものであった。   However, the techniques described in Patent Document 1 to Patent Document 3 described above depend on human senses and sensibilities, require a huge database such as dictionary information, and input text such as inputting text. It took a lot of load.

したがって本発明の目的は、簡単な入力操作によって、効率的な画像検索を行うことができる検索装置及び検索方法並びに検索装置を有するカメラを提供することである。   Accordingly, an object of the present invention is to provide a search device, a search method, and a camera having a search device that can perform an efficient image search by a simple input operation.

すなわち請求項1に記載の発明は、複数のキャラクタまたは単語の有する意味合いより、画像的属性、時間的属性または位置的属性を有する因子情報を導出する導出手段と、上記導出手段の出力より、上記画像的属性、時間的属性または位置的属性によって導出された各因子情報に従って、複数の画像から少なくとも1つの画像を選択する選択手段と、を具備することを特徴とする。   That is, the invention according to claim 1 derives factor information having an image attribute, a temporal attribute, or a positional attribute from the meaning of a plurality of characters or words, and outputs the factor information from the derivation means. And selecting means for selecting at least one image from a plurality of images according to each factor information derived by the image attribute, the time attribute, or the position attribute.

請求項2に記載の発明は、請求項1に記載の発明に於いて、上記複数のキャラクタまたは単語から導出される画像的属性には、明暗情報、明暗分布情報、色情報、色分布情報、等の因子が含まれることを特徴とする。   The invention according to claim 2 is the invention according to claim 1, wherein the image attributes derived from the plurality of characters or words include brightness information, brightness distribution information, color information, color distribution information, Etc. are included.

請求項3に記載の発明は、請求項1に記載の発明に於いて、上記複数のキャラクタまたは単語から導出される時間的属性には、季節情報、朝昼夕情報等の因子が含まれることを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, the temporal attribute derived from the plurality of characters or words includes factors such as seasonal information and morning and evening information. It is characterized by.

請求項4に記載の発明は、請求項1に記載の発明に於いて、上記複数のキャラクタまたは単語から導出される位置的属性には、緯度経度情報、または室内/屋外情報の因子が含まれることを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the present invention, the positional attribute derived from the plurality of characters or words includes a factor of latitude / longitude information or indoor / outdoor information. It is characterized by that.

請求項5に記載の発明は、請求項1に記載の発明に於いて、検索された画像と共に、上記検索された画像が有する時間情報や位置情報を上記画像と共に表示する表示手段を更に具備することを特徴とする。   The invention according to claim 5 further comprises display means for displaying time information and position information of the searched image together with the searched image together with the searched image in the invention of claim 1. It is characterized by that.

請求項6に記載の発明は、請求項1に記載の発明に於いて、画像選択は、表示された検索用の複数のキャラクタより選択することを特徴とする。   The invention described in claim 6 is characterized in that, in the invention described in claim 1, the image selection is selected from a plurality of displayed characters for search.

請求項7に記載の発明は、請求項1に記載の発明に於いて、上記導出手段は、キャラクタに応じて対応付けされた、複数の属性内の各因子の特徴的な情報に基づいて導出することを特徴とする。   The invention according to claim 7 is the invention according to claim 1, wherein the deriving means derives based on characteristic information of each factor in a plurality of attributes associated with each other according to the character. It is characterized by doing.

請求項8に記載の発明は、請求項1に記載の発明に於いて、上記選択手段によって選択された画像をグループとしてまとめて表示する表示手段を更に具備することを特徴とする。   The invention according to claim 8 is the invention according to claim 1, further comprising display means for collectively displaying the images selected by the selection means as a group.

請求項9に記載の発明は、請求項1に記載の発明に於いて、上記選択手段は、その前後に撮影された写真の撮影の頻度や撮影地点の変化の情報に従って特定の画像を選択することを特徴とする。   The invention according to claim 9 is the invention according to claim 1, wherein the selecting means selects a specific image in accordance with information on the frequency of photographing of the photographs taken before and after that and information on changes in the photographing points. It is characterized by that.

請求項10に記載の発明は、少なくとも1つのキャラクタ及び単語の有する条件より、画像的属性、時間的属性及び位置的属性の少なくとも1つを有する因子情報を導き出す導出手段と、上記導出手段により導き出された因子情報に従って、複数の画像から少なくとも1つの画像を検索する検索手段と、を具備することを特徴とする。   The invention according to claim 10 is derived by the deriving means for deriving factor information having at least one of an image attribute, a temporal attribute and a positional attribute from the condition of at least one character and word, and the deriving means. Search means for searching for at least one image from a plurality of images according to the factor information.

請求項11に記載の発明は、請求項10に記載の発明に於いて、上記画像的属性には、少なくとも明暗情報、明暗分布情報、色情報、色分布情報の因子のうちの1つが含まれることを特徴とする。   The invention according to claim 11 is the invention according to claim 10, wherein the image attribute includes at least one of factors of light / dark information, light / dark distribution information, color information, and color distribution information. It is characterized by that.

請求項12に記載の発明は、請求項10に記載の発明に於いて、上記時間的属性には、少なくとも季節情報、朝昼夕情報のうちの1つの因子が含まれることを特徴とする。   The invention described in claim 12 is the invention described in claim 10, wherein the temporal attribute includes at least one factor of season information and morning / day / night information.

請求項13に記載の発明は、請求項10に記載の発明に於いて、上記位置的属性には、少なくとも緯度経度情報、室内/屋外情報のうちの1つの因子が含まれることを特徴とする。   The invention according to claim 13 is the invention according to claim 10, wherein the positional attribute includes at least one factor of latitude / longitude information and indoor / outdoor information. .

請求項14に記載の発明は、請求項10に記載の発明に於いて、上記検索手段で検索された少なくとも1つの画像を表示する表示手段を更に具備することを特徴とする。   The invention described in claim 14 is the invention described in claim 10, further comprising display means for displaying at least one image searched by the search means.

請求項15に記載の発明は、請求項14に記載の発明に於いて、上記検索手段で検索された少なくとも1つの画像が複数存在する場合に、上記表示手段に表示された複数の画像から所望の画像を選択する選択手段を更に具備することを特徴とする。   According to a fifteenth aspect of the invention, in the invention according to the fourteenth aspect, when there are a plurality of at least one image searched by the search means, a desired one is obtained from the plurality of images displayed on the display means. The image processing apparatus further includes selection means for selecting the image.

請求項16に記載の発明は、請求項15に記載の発明に於いて、上記表示手段は、上記検索手段で検索された画像と共に、上記検索された画像が有する情報を表示することを特徴とする。   The invention according to claim 16 is the invention according to claim 15, wherein the display means displays information contained in the searched image together with the image searched by the searching means. To do.

請求項17に記載の発明は、請求項16に記載の発明に於いて、上記表示手段は、上記選択手段によって選択された画像をグループとしてまとめて表示することを特徴とする。   The invention according to claim 17 is the invention according to claim 16, wherein the display means collectively displays the images selected by the selection means as a group.

請求項18に記載の発明は、請求項66に記載の発明に於いて、上記選択手段は、上記表示手段に表示された画像が有する情報に基づいて選択することを特徴とする。   According to an eighteenth aspect of the present invention, in the invention according to the sixty-sixth aspect, the selection means performs selection based on information included in an image displayed on the display means.

請求項19に記載の発明は、請求項16に記載の発明に於いて、上記選択手段は、その前後に撮影された写真の撮影の頻度や撮影地点の変化の情報に従って特定の画像を選択することを特徴とする。   The invention according to claim 19 is the invention according to claim 16, wherein the selecting means selects a specific image in accordance with information on the frequency of photographing and the change in photographing location of the photographs taken before and after that. It is characterized by that.

請求項20に記載の発明は、請求項10に記載の発明に於いて、上記導出手段は、画像に応じて対応付けされた複数の属性内の各因子の特徴的な情報に基づいて導出することを特徴とする。   The invention according to claim 20 is the invention according to claim 10, wherein the deriving means derives based on characteristic information of each factor in a plurality of attributes associated according to an image. It is characterized by that.

請求項21に記載の発明は、請求項1乃至請求項20に記載の検索装置を有することを特徴とする。   A twenty-first aspect of the invention includes the search device according to the first to twentieth aspects.

請求項22に記載の発明は、複数のキャラクタまたは単語の有する意味合いより、画像的属性と、時間的属性または位置的属性を有する因子を導出する第1のステップと、上記第1のステップにより、上記画像的属性、時間的属性または位置的属性によって導出された各因子情報に従って、複数の画像から少なくとも1つの画像を選択する第2のステップと、を具備することを特徴とする。   The invention according to claim 22 includes a first step of deriving a factor having an image attribute and a temporal attribute or a positional attribute from the meanings of a plurality of characters or words, and the first step, And a second step of selecting at least one image from a plurality of images according to each factor information derived by the image attribute, the time attribute, or the position attribute.

本発明によれば、簡単な入力操作によって、効率的な画像検索を行うことができる検索装置及び検索方法並びに検索装置を有するカメラを提供することができる。   According to the present invention, it is possible to provide a search device, a search method, and a camera having a search device that can perform an efficient image search by a simple input operation.

そして、本発明によれば、単純な入力によって豊富な情報を駆使して適切な画像を選択できるので、ユーザは、好きな時に手軽に、古い写真の中から自分の見たいものをみつけて写真鑑賞を楽しむことができる。   In addition, according to the present invention, an appropriate image can be selected by using abundant information by simple input, so that the user can easily find what he / she wants to see from old photos when he / she likes. You can enjoy watching.

以下、図面を参照して、本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る検索装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a search device according to an embodiment of the present invention.

図1に於いて、マイクロコントローラ10は導出手段に対応するもので、この検索装置全体の制御動作を司るものである。このマイクロコントローラ10には、キャラクタ入力部11と、選択部12と、表示部13と、操作部14と、画像情報部16及び画像添付情報部17とを有したメモリ15と、明暗検出部20a、色検出部20b、人物検出部20cと、データベース(DB)22に接続された情報生成部21とが、それぞれ接続されている。   In FIG. 1, a microcontroller 10 corresponds to the derivation means and controls the overall control operation of the search device. The microcontroller 10 includes a character input unit 11, a selection unit 12, a display unit 13, an operation unit 14, a memory 15 having an image information unit 16 and an image attachment information unit 17, and a light / dark detection unit 20a. The color detection unit 20b, the person detection unit 20c, and the information generation unit 21 connected to the database (DB) 22 are connected to each other.

キャラクタ入力部11は、ユーザが見たい画像のキーワード等を入力するためのもので、ユーザの記憶力が非常に確実なものならば、例えば、「○月○日に○○に行った時の画像」というように入力すれば簡単にデータ検索を行うことが可能である。しかしながら、一般にユーザが見たいと思う状況では、以前旅行に行った時はどんな感じであったか、或いは、A氏の結婚式はどうであったか、というように、日付けや場所までを特定せずに、漠然としたイメージしか覚えていない場合が多い。そのイメージをキーボードから単語のような型で入力するようにしてもよいが、本実施形態では、特に撮影機会の多いシーンをいくつかのキャラクタで表現して、キーボード等を用意せずともイメージ入力ができるようにしている。   The character input unit 11 is for inputting a keyword or the like of an image that the user wants to see. If the user's memory is very certain, for example, “the image when going to XX on XX ", It is possible to easily search for data. However, in general, the situation that the user wants to see without specifying the date or place, such as what it was like when you traveled before or how Mr. A's wedding was I often remember only vague images. The image may be input in a word-like form from the keyboard. However, in this embodiment, a scene with a large number of shooting opportunities is expressed by several characters and the image is input without preparing a keyboard or the like. To be able to.

表示部13はキャラクタ入力部11の入力結果に応じて各画像や添付情報の分析結果を表示するものである。選択部12は、この表示部13に出力表示された情報の更なる絞り込みを行うためのものである。また、操作部14は、後述する撮影日等の情報入力等の操作を行うためのものである。   The display unit 13 displays the analysis result of each image and attached information according to the input result of the character input unit 11. The selection unit 12 is for further narrowing down the information output and displayed on the display unit 13. The operation unit 14 is for performing operations such as inputting information such as a shooting date, which will be described later.

メモリ15内の画像情報部16には、画像データが多数記録されている。この画像データは、マイクロコントローラ10よって、画像情報部16の中から所望するものが選び出されるようになっている。一方、画像添付情報部17は、時間情報や場所情報等の画像に添付された情報が記録されているものである。   A large number of image data is recorded in the image information section 16 in the memory 15. This image data is selected by the microcontroller 10 from the image information section 16 as desired. On the other hand, the image attachment information section 17 records information attached to the image such as time information and location information.

上記明暗検出部20a及び色検出部20bは、画像情報部16に記録されている個々の画像が明暗の情報や分布、色の情報を有するので、これらの情報を抽出するために設けられている。すなわち、明暗検出部20aは画像情報部16に記録されている個々の画像の明暗情報、明暗分布情報等を検出するものであり、色検出部20bは画像情報部16に記録されている個々の画像の色情報や色分布情報等を検出するものである。更に、画像データより人物の顔等を検出して人数を検出する方法も公知であるので、このような技術を利用して人物検出部20cが設けられて、画像情報部16に記憶されている個々の画像から人物を検出するようになっている。   The brightness / darkness detection unit 20a and the color detection unit 20b are provided to extract the information because each image recorded in the image information unit 16 has light / dark information, distribution, and color information. . In other words, the light / dark detection unit 20a detects light / dark information, light / dark distribution information, and the like of each image recorded in the image information unit 16, and the color detection unit 20b detects each image recorded in the image information unit 16. It detects the color information, color distribution information, etc. of the image. Further, since a method for detecting the number of persons by detecting a person's face or the like from image data is also known, a person detection unit 20c is provided using such a technique and stored in the image information unit 16. A person is detected from each image.

また、上記情報生成部21は、データベース(DB)22に記録されている情報を加味して場所情報を検索して情報化するためのものであり、撮影頻度を表す情報も検索情報に変換する役割を有している。   The information generating unit 21 is for searching for information by converting the information recorded in the database (DB) 22 into information, and also converts information representing the photographing frequency into search information. Have a role.

図2は、図1に示された構成の検索装置が適用されたカメラの構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration of a camera to which the search device having the configuration illustrated in FIG. 1 is applied.

図2に於いて、このカメラは本発明の特徴たる検索装置30と、衛星を用いたグローバルポジショニングシステム(GPS)を使用した測位により現在地点の位置情報を入手するGPS部31と、時計情報を有する時計部32を内蔵している。この検索装置30は、シーケンスコントローラ(MPU)33と、画像処理エンジン35と、画像情報部16及び画像添付情報部17を有するメモリ15と、データベース22と接続されている。シーケンスコントローラ33には、また、操作スイッチ33aと、アナログ処理回路(AFE)38と、閃光発光装置40が接続されている。   In FIG. 2, this camera includes a search device 30 that is a feature of the present invention, a GPS unit 31 that obtains position information of a current location by positioning using a global positioning system (GPS) using satellites, and clock information. It has a built-in clock part 32. The search device 30 is connected to a sequence controller (MPU) 33, an image processing engine 35, a memory 15 having an image information unit 16 and an image attachment information unit 17, and a database 22. The sequence controller 33 is also connected to an operation switch 33a, an analog processing circuit (AFE) 38, and a flash light emitting device 40.

上記アナログ処理回路38には、撮影レンズ36から入射された被写体像が撮像素子37上で結像されて電気信号に変換された画像データが入力される。このアナログ処理回路38に入力された画像データの信号は、画像処理エンジン35に供給されて圧縮されたデジタル信号に変換される。この変換結果はメモリ15に記録される。このとき、必要に応じて、閃光発光装置40が発光制御され、時計部32によって判定された撮影日時情報や、GPS部31の情報も、シーケンスコントローラ33を介して、メモリ15内の画像添付情報部17に、画像情報部16の画像と関連付けて記録される。また、データベース22はカメラに内蔵可能なものを想定している。地図情報等は、図毎でも膨大なデータとなるので、地域別に入れ替え可能にしてもよい。   The analog processing circuit 38 receives image data in which a subject image incident from the photographing lens 36 is formed on the image sensor 37 and converted into an electrical signal. The image data signal input to the analog processing circuit 38 is supplied to the image processing engine 35 and converted into a compressed digital signal. This conversion result is recorded in the memory 15. At this time, if necessary, the flash light emitting device 40 is controlled to emit light, and the shooting date / time information determined by the clock unit 32 and the information of the GPS unit 31 are also attached to the image attachment information in the memory 15 via the sequence controller 33. The image is recorded in the unit 17 in association with the image in the image information unit 16. The database 22 is assumed to be built into the camera. Since the map information and the like is a huge amount of data for each figure, it may be exchangeable for each region.

例えば、図3(a)に示されるようなカメラの場合、カメラ45の側面部にメモリスロットが2つ設けられており、その一方のメモリ15には、画像や添付データ用のデータが入力されるようにする。そして、もう一方のメモリ22には、読み出し専用でよいのでデータベースのみが格納されるようにする。   For example, in the case of a camera as shown in FIG. 3A, two memory slots are provided on the side surface of the camera 45, and image or data for attached data is input to one memory 15. So that The other memory 22 may be read-only so that only the database is stored.

尚、図3(a)に於いて、カメラ45の前面部には撮影レンズ36及び閃光発光装置40が設けられており、上面部にはレリーズスイッチ(操作スイッチ)33aが設けられている。   In FIG. 3A, a photographing lens 36 and a flash light emitting device 40 are provided on the front surface of the camera 45, and a release switch (operation switch) 33a is provided on the upper surface.

また、図3(b)に示されるように、カメラ45の背面部には、表示部13として構成された大型の表示用LCD13aと、選択部12として構成された十字キー12aが配置されている。   Further, as shown in FIG. 3B, a large display LCD 13 a configured as the display unit 13 and a cross key 12 a configured as the selection unit 12 are disposed on the back surface of the camera 45. .

本発明は写真撮影等で多数記録された画像データを、後から鑑賞する場合に、見たい画像を簡単に検索して表示できる検索装置である。そして、ここで検索される画像は、例えば、図4のフローチャートに従って撮影等に画像記録の他、他の付随情報が添付されているものを想定している。   The present invention is a retrieval apparatus that can easily retrieve and display an image to be viewed when viewing a large number of image data recorded by photography or the like later. The image searched here is assumed to be attached with other accompanying information in addition to image recording for shooting or the like according to the flowchart of FIG.

以下、図4のフローチャートを参照して、図2の構成のカメラによる撮影動作について説明する。   Hereinafter, with reference to the flowchart of FIG. 4, the photographing operation by the camera having the configuration of FIG. 2 will be described.

先ず、ステップS1にて、図示されない被写体の画像が撮像素子37で撮像されてメモリ15に記録される。それと共に、ステップS2〜S4に於いて、時間情報IP 、GPS情報IG 及びモード情報IM が、同じメモリ内に撮影画像と関連付けられて記録される。但し、これらに限られものではなく、いくつかの情報はなくともよい。 First, in step S <b> 1, an image of a subject (not shown) is captured by the image sensor 37 and recorded in the memory 15. At the same time, in steps S2 to S4, time information I P , GPS information I G, and mode information I M are recorded in the same memory in association with the captured image. However, the information is not limited to these, and some information may be omitted.

上記時間情報IP は、カメラに内蔵の時計部32の時計によって、撮影のタイミングを情報とする。また、GPS情報IGが存在する場合は、日付けや、時差も考慮した時刻にすることができる。更に、撮影時に自動、手動で設定する閃光発光装置40のオン、オフやズーミングの結果や、撮影時の距離やマクロモード情報等を画像に関連付けて記録するようにする。 The time information I P uses the time of photographing by the clock of the clock unit 32 built in the camera as information. Also, when the GPS information I G is present, the date and time difference can also be into account the time. Further, on / off and zooming results of the flash light emitting device 40 set automatically or manually at the time of shooting, the distance at the time of shooting, macro mode information, and the like are recorded in association with the image.

このような画像に添付された情報も、画像添付情報部17に記録されているので、本発明では、これらを有効利用して画像の絞り込みが行われる。また、単にGPS情報IGだけでは、場所の特定までができないので、情報生成部21では、データベース情報を加味して場所情報を検索して情報化する。また、時間情報も、各画像に1つ1つ付いているだけでは情報量が少ないが、隣接して記録された画像の撮影されたタイミングが隣接する場合や、1日や1時間等単位時間に撮影された枚数までを検索時の情報に利用すると、検索において格段に有効な情報となる。 Since the information attached to such an image is also recorded in the image attachment information section 17, in the present invention, the image is narrowed down by using these effectively. Further, simply GPS information I G, because it can not to the location of a particular, the information generating unit 21, information of searching for location information in consideration of the database information. In addition, the amount of time information is small if only one image is attached to each image, but the time when the images recorded adjacent to each other are adjacent to each other, or a unit time such as one day or one hour. If up to the number of shots is used as information at the time of retrieval, the information becomes much more effective in retrieval.

上述した構成のマイクロコントローラ10は、キャラクタ入力部11の入力結果に応じて、各画像の分析、添付情報を分析して、その結果を表示部13に出力表示する。表示方法や更なる絞り込みには、選択部12が使用される。   The microcontroller 10 configured as described above analyzes each image and attached information according to the input result of the character input unit 11, and outputs and displays the result on the display unit 13. The selection unit 12 is used for the display method and further narrowing down.

このような構成の画像検出が、どのような方法によって表示する画像を絞り込んでいくかは、図5に示される表に例示される。   The table shown in FIG. 5 illustrates how the image detection with such a configuration narrows down the images to be displayed.

図5は、キャラクタ毎の画像属性と時間属性及び位置属性との対応を示した表である。図5の例では、縦軸にキャラクタ例が4つ示されている。ここでは、よく一般のカメラユーザが撮影する写真のシーンについて、「旅行」、「結婚式」、「入学式」、「運動会」の4つのシーンが挙げられており、キャラクタのデザインと共に表示されるようにしている。また、横軸には、画像情報部16から得られる画像の明暗レベル、明暗分布の特徴、色、色の分布や人物の有無の特徴、及び画像添付情報部17から得られる時間属性や撮影された位置属性等の項目について、各撮影シーンに於いてどのような特徴があるかを一覧表示している。例えば、画像特性としては、明暗」、「明暗分布」、「色」、「色分布」、「人物」が、時間属性としては「季節」、「朝夕」、「記念日」、「撮影頻度」が、そして位置属性としては「緯度経度」、「室内外」が挙げられている。   FIG. 5 is a table showing correspondence between image attributes, time attributes, and position attributes for each character. In the example of FIG. 5, four character examples are shown on the vertical axis. Here, four scenes of “travel”, “wedding”, “entrance ceremony”, and “athletic day” are listed as the scenes of photographs often taken by general camera users, and are displayed together with the character design. I am doing so. Also, on the horizontal axis, the brightness level of the image obtained from the image information unit 16, the characteristics of the light / dark distribution, the color, the characteristics of the color distribution and the presence / absence of a person, the time attribute obtained from the image attachment information unit 17, and the imaged For items such as position attributes, a list of the characteristics of each shooting scene is displayed. For example, the image characteristics are “brightness”, “lightness distribution”, “color”, “color distribution”, “person”, and the time attributes are “season”, “morning / evening”, “anniversary”, “shooting frequency” However, “latitude and longitude” and “indoor / outdoor” are listed as position attributes.

この図5に示される表のような特徴によって、各シーンの画像は特徴付けられるものとし、本実施形態のマイクロコントローラ10は、これらの条件を満たした画像を候補として表示部13に表示する。   It is assumed that the image of each scene is characterized by the characteristics shown in the table shown in FIG. 5, and the microcontroller 10 of this embodiment displays images satisfying these conditions on the display unit 13 as candidates.

尚、このキャラクタ毎の各種属性の対応は、図5に示される表のものに限られるものではない。すなわち、キャラクタは上述した4つのシーン以外のシーン以外のものであってもよく、またシーンの数も4つに限定されるものではない。また、それぞれの属性についても上述したものに限られるものではない。   The correspondence of various attributes for each character is not limited to the one shown in FIG. That is, the character may be other than the above-described four scenes, and the number of scenes is not limited to four. Further, the respective attributes are not limited to those described above.

そして、マイクロコントローラ10により、図6のフローチャートに従って候補画像の選定が行われる。   Then, the candidate image is selected by the microcontroller 10 according to the flowchart of FIG.

先ず、ステップS1にて、ユーザによりキャラクタ入力部11によって検索したい画像が入力されたか否かが判定される。ここで、キャラクタ入力が無い場合は、ステップS12に移行して、操作部14が操作されてユーザによる撮影日の入力が行われる。次いで、ステップS13に於いて、撮影日の指定の有無が判定される。その結果、撮影日の指定が有った場合は、ステップS14に移行して、画像に添付された撮影日情報より、指定された日に相当するデータの画像が表示用LCD13aに一覧表示される。一方、撮影日指定も、キャラクタ入力も無い場合には、ステップS15に移行して最新の撮影データが表示用LCD13aに表示される。   First, in step S1, it is determined whether or not an image to be searched for has been input by the character input unit 11 by the user. Here, when there is no character input, it transfers to step S12 and the operation part 14 is operated and the imaging date input by a user is performed. Next, in step S13, it is determined whether or not a shooting date is designated. As a result, if the shooting date is specified, the process proceeds to step S14, and images of data corresponding to the specified date are displayed in a list on the display LCD 13a from the shooting date information attached to the image. . On the other hand, if there is no shooting date designation or character input, the process proceeds to step S15, and the latest shooting data is displayed on the display LCD 13a.

これに対し、上記ステップS11に於いて検索したい画像が入力された場合には、ステップS16に移行して、本発明の特徴たる画像検索の処理動作に入る。尚、画像の入力は、例えば、図7(a)に示されるように、表示用LCD13aに表示されたイメージキャラクタの中から、当該画像が、十字キースイッチ14a等で選択されることによって行われる。   On the other hand, when an image to be searched is input in the above step S11, the process proceeds to step S16 to start an image search processing operation which is a feature of the present invention. For example, as shown in FIG. 7A, the image is input by selecting the image from the image characters displayed on the display LCD 13a with the cross key switch 14a or the like. .

ステップS16〜S18では、画像データそのものより、各々の画像データの明暗分析、色分析、人物が撮影されているか否かの分析が行われる。次いで、ステップS19では、各々の画像に添付された情報より撮影された地点の情報(GPS情報)や、撮影された日時分を示す情報が参照される。この時、日時情報については海外に移動した場合等は、GPS情報から時差の補正がなされる。したがって、続くステップS20にて、先ずGPS情報とデータベースより撮影の場所が分析され、更にステップS21にて補正された日時情報によって季節や時刻が参照される。   In steps S16 to S18, the image data itself is subjected to light / dark analysis, color analysis, and whether or not a person is photographed. Next, in step S19, information on the spot (GPS information) taken from the information attached to each image and information indicating the date and time taken are referenced. At this time, when the date / time information is moved overseas, the time difference is corrected from the GPS information. Accordingly, in the subsequent step S20, the shooting location is first analyzed from the GPS information and the database, and the season and time are referred to by the date and time information corrected in step S21.

GPS情報から求められた場所情報によって、北半球、南半球の何れであるかがわかるので、季節については、このような情報も考慮される。また、その地域によって、記念日等は変化するが、ステップS22にて行われる記念日分析は、日時情報と場所情報とデータベースより実行される。尚、海外旅行をしないユーザは、ここまでの検索は必要はないので季節や記念日判定に参照するGPS情報は省略してもよい。   Since the location information obtained from the GPS information indicates whether it is the northern hemisphere or the southern hemisphere, such information is also considered for the season. Further, the anniversary etc. changes depending on the area, but the anniversary analysis performed in step S22 is executed from the date / time information, the location information and the database. In addition, since the user who does not travel abroad does not need the search so far, the GPS information referred to season or anniversary determination may be omitted.

更に、ステップS23では、上記ステップS20で求められた場所の情報や、閃光発光の有無の情報やホワイトバランス(WB)の補正情報によって室内の撮影であるか否かが分析される。このホワイトバランスとは、被写体を照明する光の波長の具合を調べて、白いものを白く撮影する画像電子処理の1つであり、太陽光と、蛍光灯やランプとでは、光の波長分布が異なるのでこれを補正するものである。この技術を応用して、人工光源の光の波長分布である場合は室内と判定してもよい。   Further, in step S23, whether or not the image is taken indoors is analyzed based on the location information obtained in step S20, information on the presence or absence of flash emission, and white balance (WB) correction information. This white balance is one of image electronic processing that examines the condition of the wavelength of light that illuminates the subject and shoots white objects in white, and the wavelength distribution of light between sunlight and fluorescent lamps and lamps. Since it is different, this is corrected. By applying this technique, if the wavelength distribution of the light from the artificial light source is used, it may be determined as indoor.

ステップS24では、各画像の撮影日時分情報より、撮影が頻繁に行われたか否かが分析される。つまり、頻繁に撮影されるシーンとして代表的なものは、例えば結婚式等がある。例えば、図7(a)に示されるような表示用LCD13a内に表示されている4つの画像47a〜47dの中から、右上のイメージキャラクタ(画像47b)が選択された場合には、ここで頻繁に撮影されたと判定されたような画像が優先して表示されるようにする。   In step S24, it is analyzed from the shooting date / time information of each image whether or not shooting was frequently performed. In other words, typical scenes that are frequently photographed include, for example, weddings. For example, when the upper right image character (image 47b) is selected from the four images 47a to 47d displayed in the display LCD 13a as shown in FIG. An image that is determined to have been taken is preferentially displayed.

このように、画像やそれに添付されたデータより、図5に示される表のような情報が生成され、これによって候補の画像グループが、図5のような考え方で検索される。これによって、図7(b)に示されるように、検索された画像グループの代表画面が、表示用LCD13aに表示される。尚、場所情報から地名まで判定できたものは、その地名が併記されるようにしてもよい。   In this manner, information such as the table shown in FIG. 5 is generated from the image and the data attached thereto, and thus candidate image groups are searched based on the concept shown in FIG. Thereby, as shown in FIG. 7B, the representative screen of the searched image group is displayed on the display LCD 13a. In addition, if the place name can be determined from the place information, the place name may be written together.

このように表示された代表画面から、更にグループを構成する画像群の内容を見たい場合は、十字キー14a等の操作により当該画像を選択する。つまり、ステップS26〜S28によって、選択された画像のグループを構成する各画像が、図7(c)に示されるように表示される。   When it is desired to view the contents of the image group constituting the group from the representative screen displayed in this way, the image is selected by operating the cross key 14a or the like. That is, in steps S26 to S28, the images constituting the selected group of images are displayed as shown in FIG.

このとき、画像と共に場所、地名の他、日付けや、撮影された時間も表示するようにすれば、ユーザはいろいろな思い出にひたることができる。   At this time, if the date and the time when the image was taken are displayed in addition to the location and the place name, the user can have various memories.

以上説明したように、本実施形態によれば、ユーザはイメージを入力するだけで、それに相当する画像データを簡単に楽しむことが可能な検索装置を提供することができる。   As described above, according to the present embodiment, it is possible to provide a search device that allows a user to easily enjoy image data corresponding to a user simply by inputting an image.

また、画像自体が有する特徴や撮影の時間、場所情報、前後の写真の撮影状況を考慮している。   In addition, the characteristics of the image itself, the shooting time, location information, and the shooting conditions of the previous and subsequent photos are taken into consideration.

尚、この検索装置は、パーソナルコンピュータ等で構成してもよく、その場合はデータベースとしてインターネット経由で参照するようにしてもよい。また、CDやDVDの形式で情報を入力するようにしてもよい。   This search device may be configured by a personal computer or the like, and in that case, it may be referred to via the Internet as a database. In addition, information may be input in a CD or DVD format.

尚、上述した実施形態では、構成するグループのみを表示するようにしているが、これに限られるものではない。また、撮影時の限定より、目的とする画像のシーンが選択したキャラクタと相違が有る場合でも検索することができるようにしてもよい。   In the above-described embodiment, only the constituent groups are displayed. However, the present invention is not limited to this. Further, because of the limitation at the time of shooting, it may be possible to search even when the scene of the target image is different from the selected character.

更に、図5に示される表の条件を、重み付けや統計的検索条件に応じて更に絞り込んだり緩和したりするようにしてもよい。   Furthermore, the conditions of the table shown in FIG. 5 may be further narrowed down or relaxed according to weighting or statistical search conditions.

ところで、本発明は、複雑な検索式をキーボードを用いて詳細に設定する検索ではなく、単純なキーワードやイメージで設定可能な方式であるから、上述した図2に示されるような構成のカメラに応用すると更なる効果が得られる。   By the way, the present invention is not a search in which a complicated search expression is set in detail using a keyboard, but is a method that can be set with a simple keyword or image. Therefore, the camera having the configuration as shown in FIG. When applied, further effects can be obtained.

このようなカメラの応用として、データベース22内に地図の画像情報も有しておき、その他の情報と共に表示部に同時に表示するようにしてもよい。   As an application of such a camera, map image information may be stored in the database 22 and displayed on the display unit together with other information.

例えば、図8(a)に示されるように、撮影画像131 と共に、地図132 と、地名や撮影日情報133 を、表示用LCD13aに同時に表示するようにしてもよい。このように、撮影地点も地図上に表示すれば、いろいろな思い出となる。 For example, as shown in FIG. 8 (a), together with the captured image 13 1, and the map 13 2, place names and shooting date information 13 3, may be simultaneously displayed in the display LCD13a. In this way, if the shooting location is also displayed on the map, it will be a variety of memories.

また、図8(b)に示されるように、画面内の指示部13bによって人数情報を入力すれば、人物検出部による人物判定時に検出された人数情報より、それに適切な画像134 を絞り込んで選択検索できるようにもなる。 Further, as shown in FIG. 8 (b), by entering the number information by instruction section 13b in the screen, from the number information detected at the person determination by the person detecting unit, it is narrowed down appropriate image 13 4 Selective search is also possible.

このような機能によって、更にユーザの見たい画像の検索が容易なカメラを提供することができる。   With such a function, it is possible to provide a camera that allows the user to easily search for an image that the user wants to see.

また、上述した図6のフローチャートでは、検索時に各画像の内容から検索用情報を求めていくようにしていたが、このような検索を前提に、カメラで撮影する時に1枚1枚、その都度に検索用情報を画像やGPS情報から分析抽出しておき、画像に逐次添付するようにしてもよい。その方が、高速検索が可能となる。   Further, in the flowchart of FIG. 6 described above, search information is obtained from the contents of each image at the time of search. On the premise of such search, one image is taken each time when shooting with a camera. Alternatively, the search information may be analyzed and extracted from the image or GPS information and attached to the image sequentially. That way, faster search is possible.

このように、本実施形態によれば、ユーザが見たい画像を高速で検索可能なカメラを提供することができる。   As described above, according to the present embodiment, it is possible to provide a camera that can search for an image that the user wants to see at high speed.

また、GPS情報からデータベースを利用して地名情報が検索されないようなシステムであっても、GPS情報による位置の変化や、単位時間あたりの移動量を算出して、画像検索の一助とすることができる。まとまって数多く撮影されるシーン(イベント)には、例えば、旅行や結婚式、運動会があるが、撮影者の撮影時の移動距離でその特徴をまとめると、図9に示される表のようになる。   Further, even in a system in which place name information is not searched using a database from GPS information, it is possible to assist in image search by calculating a change in position due to GPS information and a movement amount per unit time. it can. Many scenes (events) taken together include, for example, travel, wedding ceremony, and athletic meet. When the characteristics are summarized by the distance traveled by the photographer, the table shown in FIG. 9 is obtained. .

図9に示されるように、例えば、旅行はいろんな場所にて撮影されるので、位置の変化が多いものとされる。一方、結婚式は、もっぱら同じ室内または建物の近くで撮影がなされるため、位置変化が少ないものとされる。そして、運動会はこれらの中間の変化と考えられる。   As shown in FIG. 9, for example, travel is photographed at various places, so that the position changes frequently. On the other hand, since the wedding is photographed exclusively in the same room or near the building, it is assumed that the position change is small. And athletic meet is considered to be an intermediate change between these.

以下、本発明の一実施形態の変形例として、図9の表に従った画像検索の動作について、図10のフローチャートを参照して説明する。   Hereinafter, as a modification of the embodiment of the present invention, an image search operation according to the table of FIG. 9 will be described with reference to the flowchart of FIG.

本フローチャートでは、ステップS31〜S33にて、図9に示される表の3つのシーンのうち1つがユーザによって選択すると、ステップS34〜S37にてそれに応じた位置変化をした撮影のひとまとめの画像群を検索して表示し、更にステップS34〜S36にて、添付情報から撮影時刻とGPS情報を求め、そこから位置の変化率を求め、それに上述した実施形態のように時間的頻度等の情報も加味して画像群を選択するようにしている。   In this flowchart, when one of the three scenes in the table shown in FIG. 9 is selected by the user in steps S31 to S33, a group of imaged images that have undergone position changes in accordance with the selected scenes in steps S34 to S37. In step S34 to S36, the photographing time and GPS information are obtained from the attached information, the position change rate is obtained therefrom, and information such as time frequency is added to the information as in the above-described embodiment. The image group is selected.

画像検索が開始されると、先ず、ステップS31〜S33に於いて、図9に示される表に従って、ユーザがイメージしているシーンが入力される。これらは、表示部13に表示された図9の表に対して、ユーザにより選択部12及び操作部14が操作されることにより入力される。ここで、旅行のイベントが選択されると、ステップS34に移行して位置変化が大きい画像群であるとされて検索される。また、運動会のイベントが選択されると、ステップS35に移行して、位置変化が中くらいの画像群であると認識されて検索される。すなわち、1日にまとまった数の撮影がなされるもので、位置変化が中くらいの画像群であるということになる。更に、結婚式のイベントが選択されると、2〜3時間でまとまった数の撮影がなされるもので、位置変化が小さい画像群であると認識されて検索される。   When the image search is started, first, in steps S31 to S33, a scene imaged by the user is input according to the table shown in FIG. These are input when the selection unit 12 and the operation unit 14 are operated by the user on the table of FIG. 9 displayed on the display unit 13. Here, when a travel event is selected, the process proceeds to step S34 and is searched for an image group having a large positional change. If an athletic meet event is selected, the process proceeds to step S35, where it is recognized that the position change is an intermediate image group and searched. That is, it is a group of images in which the number of images taken in one day is taken and the position change is medium. Further, when a wedding event is selected, a set number of images are taken in 2 to 3 hours, and the image is recognized as a group of images with a small positional change and searched.

その後、ステップS37にて、上記ステップS34、S35、S36で検索された画像が表示部13に表示される。   Thereafter, in step S37, the images searched in steps S34, S35, and S36 are displayed on the display unit 13.

このように、本実施形態の変形例によると、GPS情報と時間情報を利用して、各種イベントの写真を迅速に検索することができる。   Thus, according to the modification of this embodiment, it is possible to quickly search for photos of various events using GPS information and time information.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、本発明の要旨を逸脱しない範囲で種々の変形実施が可能である。   As mentioned above, although embodiment of this invention was described, in the range which does not deviate from the summary of this invention other than embodiment mentioned above, this invention can be variously modified.

本発明の一実施形態に係る検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the search device which concerns on one Embodiment of this invention. 図1に示された構成の検索装置が適用されたカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera to which the search apparatus of the structure shown by FIG. 1 was applied. 図2に示されるカメラの外観構成を示した図である。It is the figure which showed the external appearance structure of the camera shown by FIG. 図2の構成のカメラによる撮影動作について説明するフローチャートである。3 is a flowchart for describing a photographing operation by the camera having the configuration of FIG. 2. キャラクタ毎の画像属性と時間属性及び位置属性との対応を示した表である。It is the table | surface which showed the response | compatibility with the image attribute for every character, a time attribute, and a position attribute. 本発明の一実施形態に係る検索装置による画像検索の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the image search by the search device concerning one Embodiment of this invention. カメラの表示用LCDに表示される画像の例を示した図である。It is the figure which showed the example of the image displayed on the display LCD of a camera. 本発明の一実施形態の応用として、画像情報とその他の情報を、カメラの表示部に同時に表示するようにした例を示した図である。It is the figure which showed the example which displayed the image information and other information simultaneously on the display part of a camera as application of one Embodiment of this invention. 本発明の一実施形態の変形例として、位置変化属性を示した表である。It is the table | surface which showed the position change attribute as a modification of one Embodiment of this invention. 本発明の一実施形態の変形例として、図9の表に従った画像検索の動作について説明するフローチャートである。FIG. 10 is a flowchart illustrating an image search operation according to the table of FIG. 9 as a modification of the embodiment of the present invention.

符号の説明Explanation of symbols

10…マイクロコントローラ、11…キャラクタ入力部、12…選択部、13…表示部、15…メモリ、16…画像情報部、17…画像添付情報部、20a…明暗検出部、20b…色検出部、20c…人物検出部、21…情報生成部、22…データベース(DB)、30…検索装置、31…GPS部、32…時計部、33…シーケンスコントローラ(MPU)、35…画像処理エンジン、36…撮影レンズ、37…撮像素子、38…アナログ処理回路(AFE)、40…閃光発光装置。   DESCRIPTION OF SYMBOLS 10 ... Microcontroller, 11 ... Character input part, 12 ... Selection part, 13 ... Display part, 15 ... Memory, 16 ... Image information part, 17 ... Image attachment information part, 20a ... Brightness detection part, 20b ... Color detection part, 20c ... person detection unit, 21 ... information generation unit, 22 ... database (DB), 30 ... search device, 31 ... GPS unit, 32 ... clock unit, 33 ... sequence controller (MPU), 35 ... image processing engine, 36 ... Photographic lens, 37... Image sensor, 38... Analog processing circuit (AFE), 40.

Claims (22)

複数のキャラクタまたは単語の有する意味合いより、画像的属性、時間的属性または位置的属性を有する因子情報を導出する導出手段と、
上記導出手段の出力より、上記画像的属性、時間的属性または位置的属性によって導出された各因子情報に従って、複数の画像から少なくとも1つの画像を選択する選択手段と、
を具備することを特徴とする検索装置。
Deriving means for deriving factor information having an image attribute, a temporal attribute or a positional attribute from the meanings of a plurality of characters or words;
Selection means for selecting at least one image from a plurality of images according to each factor information derived from the image attribute, temporal attribute or position attribute from the output of the deriving means;
A search apparatus comprising:
上記複数のキャラクタまたは単語から導出される画像的属性には、明暗情報、明暗分布情報、色情報、色分布情報、等の因子が含まれることを特徴とする請求項1に記載の検索装置。   2. The search apparatus according to claim 1, wherein the image attribute derived from the plurality of characters or words includes factors such as light / dark information, light / dark distribution information, color information, and color distribution information. 上記複数のキャラクタまたは単語から導出される時間的属性には、季節情報、朝昼夕情報等の因子が含まれることを特徴とする請求項1に記載の検索装置。   The search device according to claim 1, wherein the temporal attribute derived from the plurality of characters or words includes factors such as season information and morning and evening information. 上記複数のキャラクタまたは単語から導出される位置的属性には、緯度経度情報、若しくは室内/屋外情報の因子が含まれることを特徴とする請求項1に記載の検索装置。   2. The search apparatus according to claim 1, wherein the positional attribute derived from the plurality of characters or words includes a factor of latitude / longitude information or indoor / outdoor information. 検索された画像と共に、上記検索された画像が有する時間情報や位置情報を上記画像と共に表示する表示手段を更に具備することを特徴とする請求項1に記載の検索装置。   The search device according to claim 1, further comprising display means for displaying time information and position information of the searched image together with the searched image together with the searched image. 画像選択は、表示された検索用の複数のキャラクタより選択することを特徴とする請求項1に記載の検索装置。   2. The search apparatus according to claim 1, wherein the image is selected from a plurality of displayed search characters. 上記導出手段は、キャラクタに応じて対応付けされた、複数の属性内の各因子の特徴的な情報に基づいて導出することを特徴とする請求項1に記載の検索装置。   The search device according to claim 1, wherein the deriving means derives based on characteristic information of each factor in a plurality of attributes associated with each other according to a character. 上記選択手段によって選択された画像をグループとしてまとめて表示する表示手段を更に具備することを特徴とする請求項1に記載の検索装置。   2. The search apparatus according to claim 1, further comprising display means for collectively displaying the images selected by the selection means as a group. 上記選択手段は、その前後に撮影された写真の撮影の頻度や撮影地点の変化の情報に従って特定の画像を選択することを特徴とする請求項1に記載の検索装置。   2. The search apparatus according to claim 1, wherein the selection means selects a specific image according to information on the frequency of taking photographs taken before and after that and information on changes in the photographing points. 少なくとも1つのキャラクタ及び単語の有する条件より、画像的属性、時間的属性及び位置的属性の少なくとも1つを有する因子情報を導き出す導出手段と、
上記導出手段により導き出された因子情報に従って、複数の画像から少なくとも1つの画像を検索する検索手段と、
を具備することを特徴とする検索装置。
Deriving means for deriving factor information having at least one of an image attribute, a temporal attribute, and a positional attribute from conditions of at least one character and a word;
Search means for searching for at least one image from a plurality of images according to the factor information derived by the derivation means;
A search apparatus comprising:
上記画像的属性には、少なくとも明暗情報、明暗分布情報、色情報、色分布情報の因子のうちの1つが含まれることを特徴とする請求項10に記載の検索装置。   11. The search apparatus according to claim 10, wherein the image attribute includes at least one of factors of light / dark information, light / dark distribution information, color information, and color distribution information. 上記時間的属性には、少なくとも季節情報、朝昼夕情報のうちの1つの因子が含まれることを特徴とする請求項10に記載の検索装置。   The search device according to claim 10, wherein the temporal attribute includes at least one factor of seasonal information and morning / day / night information. 上記位置的属性には、少なくとも緯度経度情報、室内/屋外情報のうちの1つの因子が含まれることを特徴とする請求項10に記載の検索装置。   The search device according to claim 10, wherein the positional attribute includes at least one factor of latitude / longitude information and indoor / outdoor information. 上記検索手段で検索された少なくとも1つの画像を表示する表示手段を更に具備することを特徴とする請求項10に記載の検索装置。   The search device according to claim 10, further comprising display means for displaying at least one image searched by the search means. 上記検索手段で検索された少なくとも1つの画像が複数存在する場合に、上記表示手段に表示された複数の画像から所望の画像を選択する選択手段を更に具備することを特徴とする請求項14に記載の検索装置。   15. The apparatus according to claim 14, further comprising selection means for selecting a desired image from the plurality of images displayed on the display means when there are a plurality of at least one image searched by the search means. The described search device. 上記表示手段は、上記検索手段で検索された画像と共に、上記検索された画像が有する情報を表示することを特徴とする請求項15に記載の検索装置。   16. The search device according to claim 15, wherein the display means displays information included in the searched image together with the image searched by the searching means. 上記表示手段は、上記選択手段によって選択された画像をグループとしてまとめて表示することを特徴とする請求項16に記載の検索装置。   The search device according to claim 16, wherein the display means collectively displays the images selected by the selection means as a group. 上記選択手段は、上記表示手段に表示された画像が有する情報に基づいて選択することを特徴とする請求項16に記載の検索装置。   The search device according to claim 16, wherein the selection means performs selection based on information included in an image displayed on the display means. 上記選択手段は、その前後に撮影された写真の撮影の頻度や撮影地点の変化の情報に従って特定の画像を選択することを特徴とする請求項16に記載の検索装置。   The search device according to claim 16, wherein the selection means selects a specific image in accordance with information on the frequency of taking photographs taken before and after that and information on changes in the photographing locations. 上記導出手段は、画像に応じて対応付けされた複数の属性内の各因子の特徴的な情報に基づいて導出することを特徴とする請求項10に記載の検索装置。   11. The search apparatus according to claim 10, wherein the deriving means derives based on characteristic information of each factor in a plurality of attributes associated with each other according to an image. 請求項1乃至請求項20に記載の検索装置を有することを特徴とするカメラ。   A camera comprising the search device according to claim 1. 複数のキャラクタまたは単語の有する意味合いより、画像的属性と、時間的属性または位置的属性を有する因子を導出する第1のステップと、
上記第1のステップにより、上記画像的属性、時間的属性または位置的属性によって導出された各因子情報に従って、複数の画像から少なくとも1つの画像を選択する第2のステップと、
を具備することを特徴とする検索方法。
A first step of deriving a factor having an image attribute and a temporal attribute or a positional attribute from the meaning of a plurality of characters or words;
A second step of selecting at least one image from a plurality of images according to each factor information derived by the image attribute, the time attribute or the position attribute according to the first step;
A search method comprising:
JP2005349628A 2005-12-02 2005-12-02 Retrieval device and retrieval method and camera having retrieval device Pending JP2007156729A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005349628A JP2007156729A (en) 2005-12-02 2005-12-02 Retrieval device and retrieval method and camera having retrieval device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005349628A JP2007156729A (en) 2005-12-02 2005-12-02 Retrieval device and retrieval method and camera having retrieval device

Publications (1)

Publication Number Publication Date
JP2007156729A true JP2007156729A (en) 2007-06-21

Family

ID=38241028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005349628A Pending JP2007156729A (en) 2005-12-02 2005-12-02 Retrieval device and retrieval method and camera having retrieval device

Country Status (1)

Country Link
JP (1) JP2007156729A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049886A (en) * 2007-08-22 2009-03-05 Casio Comput Co Ltd Image search device, photographing device, image search method and program
JP2010081428A (en) * 2008-09-26 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program
JP2010176421A (en) * 2009-01-29 2010-08-12 Canon Inc Data retrieval device, method of controlling the same, and computer program
WO2012026709A3 (en) * 2010-08-27 2012-05-31 Samsung Electronics Co., Ltd. Content display method and apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049886A (en) * 2007-08-22 2009-03-05 Casio Comput Co Ltd Image search device, photographing device, image search method and program
JP2010081428A (en) * 2008-09-26 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program
JP2010176421A (en) * 2009-01-29 2010-08-12 Canon Inc Data retrieval device, method of controlling the same, and computer program
WO2012026709A3 (en) * 2010-08-27 2012-05-31 Samsung Electronics Co., Ltd. Content display method and apparatus

Similar Documents

Publication Publication Date Title
US8599251B2 (en) Camera
TWI450111B (en) Method, computer useable medium, and device for guided photography based on image capturing device rendered user recommendations
US7656451B2 (en) Camera apparatus and imaging method
JP4914778B2 (en) camera
CN101919234A (en) Photographing with captured background image
CN101146178A (en) Camera
JP2010259064A (en) Display and image pickup device
JP2009141516A (en) Image display device, camera, image display method, program, image display system
JP2006072614A (en) Image file storage method and related technology
KR20100003898A (en) Method of controlling image processing apparatus, image processing apparatus and image file
US8756235B2 (en) Information processor, method, and program
US20060039674A1 (en) Image editing apparatus, method, and program
JP4279083B2 (en) Image processing method and apparatus, and image processing program
JP2009081785A (en) Imaging apparatus, image generation method, and program
JP2002209131A (en) Electronic camera and imaging system
JP6098796B2 (en) Image processing apparatus, imaging apparatus, and computer program
JP2017228828A (en) Imaging device, display device, and imaging display system
US20240284041A1 (en) Information processing apparatus and information processing method
JP2007156729A (en) Retrieval device and retrieval method and camera having retrieval device
JP4901258B2 (en) Camera and data display method
CN116134473A (en) Information processing device, information processing method and program
JP4889554B2 (en) Camera, content creation method, and program
US20250175694A1 (en) Systems and methods for providing artistic assistance on image capturing
JP2007164269A (en) Retrieval device, retrieval/reproducing device, and image reproducing device
JP2010041527A (en) Photographing support method, system, program