[go: up one dir, main page]

JP2011257868A - Image server, imaging apparatus, and control program - Google Patents

Image server, imaging apparatus, and control program Download PDF

Info

Publication number
JP2011257868A
JP2011257868A JP2010130290A JP2010130290A JP2011257868A JP 2011257868 A JP2011257868 A JP 2011257868A JP 2010130290 A JP2010130290 A JP 2010130290A JP 2010130290 A JP2010130290 A JP 2010130290A JP 2011257868 A JP2011257868 A JP 2011257868A
Authority
JP
Japan
Prior art keywords
preference
image data
information
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010130290A
Other languages
Japanese (ja)
Inventor
Hirotaka Yamashita
寛貴 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010130290A priority Critical patent/JP2011257868A/en
Publication of JP2011257868A publication Critical patent/JP2011257868A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate a barrier such as limitation and labor imposed on an user when the user acquires his/her own favorite contents quickly, though the user has used the same contents many times and has acquired adequate contents from a server by inputting the user's hobby and preference to an apparatus.SOLUTION: In order to solve the above problem, an image server comprises: a reception part for receiving an image data from a terminal device via a network; a taste extraction part for analyzing the image data received by the reception part and extracting user's preference information in the terminal device; and a transmission part for selecting information related to the preference information extracted by the taste extraction part from a database and transmitting the information to the terminal device via the network.

Description

本発明は、画像サーバ、撮像装置および制御プログラムに関する。   The present invention relates to an image server, an imaging device, and a control program.

例えば楽曲等を蓄積するサーバが、ユーザの趣味、嗜好を反映させたコンテンツを、ネットワークと接続された機器に配信できるように、コンテンツを予め分類する技術が知られている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2007−279788号公報
For example, a technique for classifying content in advance so that a server that stores music or the like can distribute content reflecting a user's hobbies and preferences to devices connected to a network is known.
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Unexamined Patent Application Publication No. 2007-279788

ユーザは、同じコンテンツを何度も利用したり、自らの趣味、嗜好を機器に入力して、サーバから適当なコンテンツを得ていた。しかしながら、いずれにしてもユーザが負う制限、手間などは、ユーザが好みのコンテンツを迅速に取得する障壁となっていた。   The user has obtained appropriate content from the server by using the same content many times or by inputting his / her hobbies and preferences to the device. However, in any case, the restrictions and labors imposed on the user have become barriers for the user to quickly acquire favorite content.

上記課題を解決するために、本発明の第1の態様における画像サーバは、ネットワークを介して画像データを端末装置から受け付ける受付部と、受付部が受け付けた画像データを解析して、端末装置のユーザの嗜好に関する嗜好情報を抽出する嗜好抽出部と、嗜好抽出部により抽出された嗜好情報に関連する関連情報をデータベースから選択して、ネットワークを介して端末装置に送信する送信部とを備える。   In order to solve the above-described problem, an image server according to a first aspect of the present invention analyzes a reception unit that receives image data from a terminal device via a network, and the image data received by the reception unit. A preference extraction unit that extracts preference information related to the user's preference, and a transmission unit that selects related information related to the preference information extracted by the preference extraction unit from the database and transmits the selected information to the terminal device via the network.

また、上記課題を解決するために、本発明の第2の態様における撮像装置は、上記画像サーバと通信する。   Moreover, in order to solve the said subject, the imaging device in the 2nd aspect of this invention communicates with the said image server.

また、上記課題を解決するために、本発明の第3の態様における制御プログラムは、ネットワークを介して画像データを端末装置から受け付ける受付ステップと、受付ステップで受け付けた画像データを解析して、端末装置のユーザの嗜好に関する嗜好情報を抽出する嗜好抽出ステップと、嗜好抽出ステップにより抽出された嗜好情報に関連する関連情報をデータベースから選択して、ネットワークを介して端末装置に送信する送信ステップとをコンピュータに実行させる。   In order to solve the above-described problem, a control program according to a third aspect of the present invention includes a reception step of receiving image data from a terminal device via a network, and analyzing the image data received in the reception step to obtain a terminal A preference extraction step for extracting preference information related to the preference of the user of the device, and a transmission step for selecting related information related to the preference information extracted in the preference extraction step from the database and transmitting it to the terminal device via the network. Let the computer run.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る画像サーバを用いたコンテンツ供給の概念を説明する概念図である。It is a conceptual diagram explaining the concept of the content supply using the image server which concerns on this embodiment. 画像サーバの概略構成図である。It is a schematic block diagram of an image server. 画像ファイルのファイル構造を示す図である。It is a figure which shows the file structure of an image file. 嗜好抽出部の詳細な構造を示す図である。It is a figure which shows the detailed structure of a preference extraction part. グループ間の隣接関係を示す概念図である。It is a conceptual diagram which shows the adjacent relationship between groups. グループ間の隣接情報を示す隣接情報テーブルの例である。It is an example of the adjacent information table which shows the adjacent information between groups. 画像データの所属グループを示すリンクテーブルの例である。It is an example of the link table which shows the affiliation group of image data. ユーザの嗜好順位を示すユーザテーブルの例である。It is an example of the user table which shows a user's preference order. ユーザの嗜好情報としてのコンテンツがカメラに表示された様子を示す図である。It is a figure which shows a mode that the content as a user's preference information was displayed on the camera. 画像サーバの処理フローの例である。It is an example of the processing flow of an image server.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る画像サーバ50を用いたコンテンツ供給の概念を説明する概念図である。ユーザY、Y、Yは、それぞれカメラ11、12、13のユーザである。ユーザYは、カメラ11で撮影した画像データを逐次カメラ11から、ネットワーク20を介して画像サーバ50へ送る。ユーザY、Yも同様にそれぞれのカメラ12、13から画像データを画像サーバ50へ送る。画像サーバ50は、例えばカメラメーカーなどに管理されるサーバであり、ユーザから送られてくる画像データを順次蓄積していく。ネットワークには更にコンテンツサーバ30が接続されており、画像サーバ50は、コンテンツサーバ30からコンテンツを取得し蓄積する。 FIG. 1 is a conceptual diagram illustrating the concept of content supply using the image server 50 according to the present embodiment. Users Y 1 , Y 2 , and Y 3 are users of the cameras 11, 12, and 13, respectively. The user Y 1 sequentially sends image data captured by the camera 11 from the camera 11 to the image server 50 via the network 20. Similarly, the users Y 1 and Y 2 send image data from the respective cameras 12 and 13 to the image server 50. The image server 50 is a server managed by a camera manufacturer, for example, and sequentially accumulates image data sent from the user. A content server 30 is further connected to the network, and the image server 50 acquires and accumulates content from the content server 30.

ユーザが携帯するカメラは、CCD、CMOSなどである撮像素子を用いて被写体像を撮影できるデジタルカメラであり、いわゆるレンズ交換式デジタルカメラ、コンパクトデジタルカメラの他、デジタルカメラ機能を備える携帯電話、ノートPC、携帯ゲーム機器等である。ここではこれらの機器を纏めてカメラと呼ぶ。カメラは、多くの場合LCD等の表示部を備えており、ユーザは、撮影した画像の他にも、様々な情報を観察することができる。本実施形態においてユーザは、撮影した画像を画像サーバ50へ次々と送ることにより、自分の趣味嗜好に合ったコンテンツを画像サーバ50から取得して、カメラの表示部で楽しむことができる。   A camera carried by a user is a digital camera that can capture a subject image using an image sensor such as a CCD or CMOS. In addition to a so-called interchangeable lens digital camera and a compact digital camera, a mobile phone having a digital camera function, a notebook PC, portable game device, etc. Here, these devices are collectively referred to as a camera. In many cases, the camera includes a display unit such as an LCD, and the user can observe various information in addition to the captured image. In this embodiment, the user can acquire the content that suits his / her hobbies and preferences from the image server 50 by sending the taken images to the image server 50 one after another and enjoy it on the display unit of the camera.

画像サーバ50は、それぞれのユーザから送られてくる画像データを解析して、ユーザごとに嗜好を判定する。そして、判定された嗜好のカテゴリーに分類された嗜好グループから、他の画像データ、関連情報等のコンテンツを選択して、ユーザのカメラへ送信する。なお、嗜好グループに属する関連情報等は、コンテンツサーバ30から定期的に取得して画像サーバ50内に蓄積されている。   The image server 50 analyzes the image data sent from each user and determines the preference for each user. Then, content such as other image data and related information is selected from the preference group classified into the determined preference category and transmitted to the user's camera. Note that related information and the like belonging to the preference group is periodically acquired from the content server 30 and stored in the image server 50.

図2は、画像サーバ50の概略構成図である。画像受付部51は、ネットワーク20を介して送られてくるユーザからの画像データを受け付ける。受け付けた画像データは、嗜好抽出部52により解析され、当該画像データを送信したユーザの嗜好を判定する。嗜好抽出部52の具体的な構成および嗜好の判定については後述する。   FIG. 2 is a schematic configuration diagram of the image server 50. The image receiving unit 51 receives image data from a user sent via the network 20. The received image data is analyzed by the preference extraction unit 52 to determine the preference of the user who transmitted the image data. The specific configuration of the preference extraction unit 52 and preference determination will be described later.

画像データの嗜好判定が完了すると、グループ分類部53により、当該画像データのグループ分類が実行される。グループ分類は、当該画像データが如何なる嗜好グループに属するかの所属情報の付与作業であり、より具体的には、当該画像データと予め設定されている嗜好グループを結びつけるリンクテーブルの更新作業である。   When the preference determination of the image data is completed, the group classification unit 53 executes group classification of the image data. The group classification is a task of assigning affiliation information as to which preference group the image data belongs to, and more specifically, a link table update operation that links the image data with a preset preference group.

グループ分類を終えた画像データは、画像データベース61へ記憶される。画像データベース61は、様々なユーザがこのように継続的に送信してくる画像データを次々と記録蓄積していく。なお、蓄積された画像データは、蓄積画像更新部71により、例えば記録されてからの経過時間により、または、ネットワークを介した明示的な指示等により消去される。したがって、画像データベース61に蓄積された画像データは、利用に供するように適宜更新された状態が維持されている。   The image data after the group classification is stored in the image database 61. The image database 61 records and accumulates image data continuously transmitted by various users in this way. Note that the accumulated image data is deleted by the accumulated image update unit 71, for example, by the elapsed time since recording or by an explicit instruction via the network. Accordingly, the image data stored in the image database 61 is maintained in an appropriately updated state for use.

ユーザは、画像サーバ50に対して画像データの送信のみを行うこともできるが、画像データの送信と共に、コンテンツの要求も行うことができる。ユーザのカメラは、画像データの送信と共にコンテンツの要求を行う場合は、画像データの付帯情報であるタグ情報としてコンテンツ要求フラグを付与しても良いし、画像データ送信と共にコンテンツ要求信号を画像サーバ50に送っても良い。   The user can only transmit image data to the image server 50, but can also request content together with the transmission of image data. When the user's camera requests content along with the transmission of image data, the user's camera may add a content request flag as tag information that is incidental information of the image data. May be sent to

画像サーバ50は、ユーザのカメラから送信されてくるコンテンツ要求をコンテンツ要求受付部54で受け付けると、コンテンツ要求に付帯されているカメラ情報を、カメラ情報取得部55で抽出する。特に、抽出するカメラ情報として、ユーザのカメラがどれほどの容量のコンテンツ情報を記録できるかに関するメモリ容量の情報を含む。カメラが記録するコンテンツ情報のメモリ容量は、カメラのメモリ空間における空き容量であっても、ユーザが指定した容量であっても良い。なお、コンテンツ要求が画像データの送信と共に行われる場合、画像データのタグ情報にメモリ容量に関する情報が記述されていれば、これを用いることもできる。   When the content request transmitted from the user's camera is received by the content request reception unit 54, the image server 50 extracts the camera information attached to the content request by the camera information acquisition unit 55. In particular, the camera information to be extracted includes memory capacity information relating to how much content information the user's camera can record. The memory capacity of the content information recorded by the camera may be an empty capacity in the camera memory space or a capacity specified by the user. In the case where the content request is made together with the transmission of the image data, if the information about the memory capacity is described in the tag information of the image data, this can be used.

それぞれのユーザが画像サーバ50へ送信する画像が蓄積されるに従って、ユーザごとの嗜好が確立される。具体的には、嗜好抽出部52で判定されたユーザの嗜好により画像データをグループ分類部53でグループに分類するときに、グループ分類部53は、ユーザごとの嗜好順位を示すユーザテーブルの更新も併せて実行する。ユーザテーブルは、テーブル管理部62で管理されており、更新に合わせてグループ分類部53に読み出される。したがって、テーブル管理部62がユーザテーブルを管理更新することにより、画像サーバ50は、それぞれのユーザが如何なる趣味嗜好を持ち合わせるかの情報を構築することができる。   As the images transmitted by the respective users to the image server 50 are accumulated, the preference for each user is established. Specifically, when the image data is classified into groups by the group classification unit 53 according to the user preference determined by the preference extraction unit 52, the group classification unit 53 also updates the user table indicating the preference order for each user. Run together. The user table is managed by the table management unit 62, and is read by the group classification unit 53 in accordance with the update. Therefore, when the table management unit 62 manages and updates the user table, the image server 50 can construct information about what hobbies and preferences each user has.

コンテンツ選択部56は、テーブル管理部62で管理されているユーザテーブルを読み出し、コンテンツ要求を送信しているユーザの嗜好を抽出する。そして、ユーザテーブルに記述されている嗜好順位に従って、コンテンツデータベース63に蓄積されているコンテンツを読み出す。コンテンツデータベース63に蓄積されているコンテンツは、コンテンツ更新部73を介して定期的にコンテンツサーバ30から取得され更新されている。また、画像データベース61に蓄積されたコンテンツは、画像データが分類されている上述の嗜好グループごとに分類されている。したがって、コンテンツ選択部56は、ユーザテーブルに記述されている嗜好グループに分類されているコンテンツを読み出せば良い。   The content selection unit 56 reads the user table managed by the table management unit 62 and extracts the preference of the user who is transmitting the content request. Then, the content stored in the content database 63 is read according to the preference order described in the user table. The content stored in the content database 63 is periodically acquired and updated from the content server 30 via the content update unit 73. Further, the contents stored in the image database 61 are classified for each of the above-described preference groups in which the image data is classified. Therefore, the content selection unit 56 may read content classified into the preference group described in the user table.

なお、コンテンツデータベース63は、コンテンツそのものを蓄積するのではなく、当該コンテンツへのリンク情報のみを蓄積しても良い。この場合、リンク情報が嗜好グループごとに分類されて管理されることになる。このように構成すれば、コンテンツデータベース63の記憶容量を抑えることができる。   Note that the content database 63 does not store the content itself, but may store only link information to the content. In this case, the link information is classified and managed for each preference group. With this configuration, the storage capacity of the content database 63 can be suppressed.

コンテンツ選択部56は、コンテンツデータベース63のコンテンツを読み出すと共に、または、コンテンツデータベース63のコンテンツを読み出すことに替えて、画像データベース61から当該嗜好グループに属する画像データを、ユーザの嗜好に関連する情報として抽出しても良い。この場合、コンテンツ要求をしているユーザが送信した画像ではなく、他のユーザが送信して画像データベース61に記録されている画像データを抽出すると良い。コンテンツ要求をしているユーザは、同様の嗜好を有する他のユーザがどのような写真を撮影しているのかを知ることができ、自らの撮影プランの参考にもなるので、他のユーザの画像データは有効なコンテンツとなり得る。   The content selection unit 56 reads out the content in the content database 63 or, instead of reading out the content in the content database 63, the image data belonging to the preference group from the image database 61 as information related to the user's preference. It may be extracted. In this case, it is preferable to extract the image data transmitted by another user and recorded in the image database 61 instead of the image transmitted by the user requesting the content. The user who is requesting the content can know what kind of photograph the other user having the same preference is taking, and can also be used as a reference for his own shooting plan. Data can be valid content.

コンテンツ選択部56は、カメラが許容するコンテンツ情報のメモリ容量に収まるように、優先度の高いコンテンツから順に送信対象として確定する。このように確定されたコンテンツは、送信部57に送られ、送信部57は、当該コンテンツをユーザのカメラに送信する。ユーザは、カメラが備える表示部を介して送信されてきたコンテンツを利用することができる。   The content selection unit 56 determines the transmission targets in order from the content with the highest priority so as to fit in the memory capacity of the content information allowed by the camera. The content thus determined is sent to the transmission unit 57, and the transmission unit 57 transmits the content to the user's camera. The user can use the content transmitted via the display unit included in the camera.

次に、画像データベース61が蓄積する画像データのファイル構造について説明する。図3は、画像ファイルのファイル構造を示す図である。画像ファイルは、圧縮処理された画素データとしての本画像データ、表示部への表示等に用いられる縮小リサイズされたサムネイル画像データ、および本画像データの関連情報であるタグ情報を主な要素とするファイル構造を有する。画像ファイルのファイルフォーマットとしてJPGファイルフォーマットを採用した場合、タグ情報は、EXIF情報として規定されている。タグ情報は、図示するように、カテゴリーごとに分類されて様々な情報が記述されている。以下に主な情報について説明する。   Next, the file structure of image data stored in the image database 61 will be described. FIG. 3 is a diagram illustrating a file structure of an image file. The image file mainly includes main image data as compressed pixel data, reduced and resized thumbnail image data used for display on a display unit, and tag information that is related information of the main image data. Has a file structure. When the JPG file format is adopted as the file format of the image file, the tag information is defined as EXIF information. As shown, the tag information is classified for each category and various information is described. The main information is described below.

ファイル情報のカテゴリーには、画像情報が記述されている。具体的には、本画像データのx方向およびy方向のドット数、および各ドットが有する色数であるビット数が記されている。撮影情報のカテゴリーには、撮影日時が記述されている。蓄積画像更新部71は、この日付情報を監視することにより古い画像データを消去する。また、撮影情報のカテゴリーには、露出時間、F値、ISO感度といった露出情報、撮影レンズの焦点距離、撮影時に設定されていた撮影モードが記述されている。これらの情報は、嗜好を分類する指標となり得る。例えば、短い露出時間を多用するユーザは動体を被写体とする場合が多いことが推測でき、スポーツ写真、乗り物写真などの撮影が趣味であると判断する手掛かりとなる。同様に、撮影モードとして風景モードを選択する頻度が高ければ、風景写真の撮影が趣味であると判断する手掛かりとなる。また、測距点中心座標の記述に基づいて当該座標の周辺領域を画像解析すれば、ユーザが何を撮影したかったかを推測することができるので、測距点中心座標の記述は、やはり興味の対象を判断する有効な材料となり得る。   Image information is described in the file information category. Specifically, the number of dots in the x direction and the y direction of the main image data and the number of bits that are the number of colors of each dot are described. The shooting date and time are described in the shooting information category. The accumulated image update unit 71 deletes the old image data by monitoring the date information. The shooting information category describes exposure information such as exposure time, F value, ISO sensitivity, focal length of the shooting lens, and shooting mode set at the time of shooting. Such information can be an index for classifying preferences. For example, it can be inferred that a user who frequently uses a short exposure time often uses a moving object as a subject, and this is a clue that it is a hobby to shoot sports photographs, vehicle photographs, and the like. Similarly, if the frequency of selecting the landscape mode as the shooting mode is high, it is a clue to determine that taking a landscape photograph is a hobby. Moreover, if the image analysis is performed on the surrounding area of the coordinates based on the description of the distance measuring point center coordinates, it is possible to guess what the user wanted to photograph. It can be an effective material for judging the target of the.

GPS情報のカテゴリーには、緯度、経度、高度といった、撮影地情報が記述されている。この情報を地図情報と対比させることにより、画像サーバ50は、撮影地に関する情報を取得できる。例えば日付情報と組み合わせて「京都の紅葉」が推測できれば、嗜好の分類として「京都」「紅葉」のグループを候補に挙げることができる。   In the GPS information category, shooting location information such as latitude, longitude, and altitude is described. By comparing this information with the map information, the image server 50 can acquire information regarding the shooting location. For example, if “Kyoto autumn leaves” can be inferred in combination with date information, the group of “Kyoto” and “Autumn leaves” can be listed as candidates for preference classification.

属性情報のカテゴリーには、ユーザID、蓄積対象可否、公開対象可否が記述されている。画像サーバ50は、ユーザIDによりユーザを判断し、このユーザIDに基づいてユーザテーブルを構築する。また、画像サーバ50は、蓄積対象可否のフラグにより、画像データベース61へ当該画像データを記録するか否かを決定する。蓄積対象可否のフラグがYであれば、嗜好抽出を行った上で画像データベース61へ記録するが、Nであれば、嗜好抽出の対象とせず画像データベース61へも記録しない。蓄積対象可否のフラグはユーザのカメラのメニュー項目から選択できるが、Nのフラグを選択しておけば、嗜好判断の対象から当該画像データを除外することができる。したがって、ユーザは、撮影した画像データを大量に画像サーバ50へ送信するときに、逐一画像の選択を行うことなく一括して送信することができる。   In the category of attribute information, a user ID, storage target availability, and disclosure target availability are described. The image server 50 determines a user based on the user ID, and constructs a user table based on the user ID. Further, the image server 50 determines whether or not to record the image data in the image database 61 based on a flag indicating whether or not to accumulate. If the accumulation target availability flag is Y, the preference is extracted and recorded in the image database 61. If it is N, the preference is not extracted and is not recorded in the image database 61. The flag indicating whether or not to be stored can be selected from the menu item of the user's camera, but if the N flag is selected, the image data can be excluded from the target of preference determination. Therefore, when transmitting a large amount of captured image data to the image server 50, the user can transmit the image data all at once without selecting images one by one.

また、画像サーバ50は、公開対象可否のフラグにより、ユーザの嗜好に関する情報として当該画像データを他のユーザに送信することの許否を判断する。ユーザは自らの画像データを画像サーバ50へ送信するときに、Nのフラグを選択しておけば当該画像を公開対象外設定することができる。Yのフラグを選択すれば公開を許容したことになり、他人へ当該画像が紹介され得る。   Further, the image server 50 determines whether or not to allow the image data to be transmitted to other users as information related to the user's preference based on the flag indicating whether or not to be disclosed. When the user transmits his / her image data to the image server 50, if the N flag is selected, the user can set the image as a non-publication target. If the Y flag is selected, the release is permitted, and the image can be introduced to others.

次に、嗜好抽出部がどのようにユーザの嗜好を判定するかについて更に説明する。図4は、嗜好抽出部52の詳細な構造を示す図である。図示するように、嗜好抽出部52は、上述のタグ情報を解析するタグ解析部81と、本画像データまたはサムネイル画像データを利用して画像解析を行う画像解析部91を含む。   Next, how the preference extraction unit determines the user's preference will be further described. FIG. 4 is a diagram illustrating a detailed structure of the preference extraction unit 52. As shown in the figure, the preference extraction unit 52 includes a tag analysis unit 81 that analyzes the above tag information, and an image analysis unit 91 that performs image analysis using the main image data or thumbnail image data.

タグ解析部81は更に、GPS情報解析部82、測距点抽出部83、露出情報抽出部84等を含む。GPS情報解析部82は、上述のように、GPS情報から緯度、経度、高度といった撮影地点を読み出し、ネットワーク20などを介して取得される地図情報と対比させて、撮影地情報を得る。さらに、撮影地情報がいわゆる観光地などに分類されるスポット地域であるかを判断する。スポット地域は予め設定されてリスト化されており、それぞれのスポット地域は、嗜好グループと直接的または間接的に関連付けられて分類されている。例えば、スポット地域がある「動物園」であれば、嗜好グループとして「ファミリー」の分類が与えられ、「神社仏閣」であれば、「歴史」の分類が与えられる。   The tag analysis unit 81 further includes a GPS information analysis unit 82, a distance measurement point extraction unit 83, an exposure information extraction unit 84, and the like. As described above, the GPS information analysis unit 82 reads shooting locations such as latitude, longitude, and altitude from the GPS information and compares them with map information acquired via the network 20 or the like to obtain shooting location information. Further, it is determined whether the shooting location information is a spot area classified as a so-called sightseeing spot. Spot areas are preset and listed, and each spot area is classified in association with a preference group directly or indirectly. For example, a “zoo” with a spot area is given a “family” classification as a preference group, and a “history” classification is given for a “shrine and shrine”.

測距点抽出部83は、上述のようにカメラが焦点調整を行った被写体座標を抽出する。測距点座標は、ユーザの被写体に対する興味領域として画像解析部91へ引き渡される。露出情報抽出部は、タグ情報から露出情報を抽出する。そして、例えば、露出時間が予め設定されている時間よりも短いかにより、ユーザが移動体撮影を好む傾向にあるか、あるいは、屋外撮影を好む傾向にあるかなどの推定を行う。これらの推定は、撮影日時情報、GPS情報等と組み合わされて確定される。   The distance measuring point extraction unit 83 extracts subject coordinates on which the camera has adjusted the focus as described above. The distance measurement point coordinates are delivered to the image analysis unit 91 as a region of interest for the user's subject. The exposure information extraction unit extracts exposure information from the tag information. Then, for example, it is estimated whether the user tends to prefer moving body photography or outdoor photography depending on whether the exposure time is shorter than a preset time. These estimates are determined in combination with shooting date / time information, GPS information, and the like.

画像解析部91は更に、顔認識部92、色情報解析部93、焦点状態解析部94等を含む。顔認識部92は、本画像データまたはサムネイル画像データから被写体に存在する顔領域を認識する。送信されてくる画像データにおいて、顔認識される割合が高ければ、ユーザの嗜好としてポートレート写真、スナップ写真の傾向が推定される。特に、登録されている特定の個人の顔を認識できるように構成すれば、家族写真であるかを推定でき、「ファミリー」の分類を与えることもできる。   The image analysis unit 91 further includes a face recognition unit 92, a color information analysis unit 93, a focus state analysis unit 94, and the like. The face recognition unit 92 recognizes a face area existing on the subject from the main image data or the thumbnail image data. If the ratio of face recognition in the transmitted image data is high, the tendency of portrait photographs and snap photographs is estimated as user preferences. In particular, if it is configured to be able to recognize the face of a specific registered individual, it can be estimated whether it is a family photo, and a “family” classification can also be given.

色情報解析部93は、被写体領域に大きな割合を占める特定の色の情報を解析することにより、例えば、青空、夕焼け、夜空等を推定でき、「風景」、「夜景」といった分類を与えることができる。焦点状態解析部94は、本画像データまたはサムネイル画像データの高周波成分を抽出することにより、ボケ画像であるか否かを判断する。ボケ画像であると判断される場合には、嗜好判断から除外する等の処理を実行することができる。   The color information analysis unit 93 can estimate, for example, a blue sky, a sunset, a night sky, etc. by analyzing information of a specific color that occupies a large proportion of the subject area, and can give classifications such as “landscape” and “night view”. it can. The focus state analysis unit 94 determines whether the image is a blurred image by extracting high-frequency components of the main image data or the thumbnail image data. When it is determined that the image is a blurred image, processing such as excluding from preference determination can be executed.

次に、嗜好グループの相関関係について説明する。図5は、グループ間の隣接関係を示す概念図である。嗜好グループは、大分類としてのカテゴリー分類と、カテゴリー分類内で細分化される小分類としての項目分類とに分けられる。例えば、カテゴリー分類Aには、項目分類としてA−1、A−2、A−3などが存在する。図では、カテゴリー分類として更にBとCを示す。カテゴリー分類としては、例えば、「撮影地」「撮影対象」といった、異なるカテゴリーが割り当てられる。そして、項目分類としては、カテゴリー分類「撮影地」を細分化する項目として「京都」「横浜」「富士山」「遊園地」などが割り当てられる。カテゴリー分類「撮影対象」に対しては、「風景」「ファミリー」「スポーツ」などが割り当てられる。   Next, the correlation between preference groups will be described. FIG. 5 is a conceptual diagram showing the adjacency relationship between groups. The preference group is classified into a category classification as a major classification and an item classification as a minor classification subdivided within the category classification. For example, category classification A includes item classifications A-1, A-2, A-3, and the like. In the figure, B and C are further shown as the category classification. As the category classification, for example, different categories such as “shooting place” and “shooting target” are assigned. As the item classification, “Kyoto”, “Yokohama”, “Mt. Fuji”, “Amusement park”, etc. are assigned as items for subdividing the category classification “shooting place”. “Landscape”, “Family”, “Sports”, etc. are assigned to the category classification “shooting object”.

このように分類すると、嗜好の関連性から、互いのカテゴリー分類および個別の項目分類間に相関関係が生まれる。例えば、「遊園地」と「ファミリー」は近い関係にあると言える。したがって、個々の項目分類には、相関性の高いカテゴリー分類、項目分類に対して予め隣接グループとしての隣接情報が与えられている。例えば、図5によれば、A−1はB−1とC−1に対して隣接情報が与えられている。隣接情報は、同じカテゴリー分類内の他の項目分類に対しても与えられ得るし、ある項目分類が他のカテゴリー分類全体に対して与えられることもある。例えば、図によれば、A−2は同じカテゴリー分類内のA−3に対して隣接情報を持つし、B−2はカテゴリー分類Cの全体に対して隣接情報を持つ。   When classified in this way, a correlation is created between the category classification and the individual item classification due to the relevance of the preference. For example, it can be said that “amusement park” and “family” are closely related. Therefore, adjacent information as an adjacent group is given to each item classification in advance with respect to a highly correlated category classification and item classification. For example, according to FIG. 5, A-1 is given adjacent information to B-1 and C-1. Adjacent information may be provided for other item classifications within the same category classification, or one item classification may be provided for other entire category classifications. For example, according to the figure, A-2 has adjacent information for A-3 in the same category classification, and B-2 has adjacent information for the entire category classification C.

画像サーバ50に送信される画像データは、このように隣接情報が定義された嗜好グループに分類される。例えば、画像データI01は、カテゴリー分類Aの項目分類A−1に分類されている。一つの画像は、いくつかの項目分類に属することもあり得る。例えば、図によれば、画像データI02は、A−2に属すると同時にB−3にも属している。 The image data transmitted to the image server 50 is classified into preference groups in which adjacent information is defined in this way. For example, the image data I 01 is classified into item classification A-1 of category classification A. An image may belong to several item categories. For example, according to the figure, the image data I 02 belongs to B-2 as well as A-2.

以上のような関係は、隣接情報テーブルおよびリンクテーブルとしてテーブル管理部62に記録されている。図6は、グループ間の隣接情報を示す隣接情報テーブルの例である。図示するように、左の列には対象グループが列挙され、右の列にはそれぞれ行方向の対象グループに対応するように、隣接グループが列挙されている。隣接情報テーブルは、予め設定されて記録されており、適宜グループ分類部53およびコンテンツ選択部56から参照される。なお、隣接情報テーブルの更新は、画像サーバ50の管理者により適宜行われる。   The above relationship is recorded in the table management unit 62 as an adjacent information table and a link table. FIG. 6 is an example of an adjacency information table indicating adjacency information between groups. As illustrated, target groups are listed in the left column, and adjacent groups are listed in the right column so as to correspond to target groups in the row direction. The adjacent information table is preset and recorded, and is referred to by the group classification unit 53 and the content selection unit 56 as appropriate. The adjacent information table is appropriately updated by the administrator of the image server 50.

図7は、画像データの所属グループを示すリンクテーブルの例である。図示するように、左の列には画像データベース61に記録される画像データが列挙され、右の列にはそれぞれの行方向の対象画像データが所属する所属グループが列挙されている。リンクテーブルは、画像データを画像サーバ50が受け付け、グループ分類部53がグループ分類を実行するたびに更新される。また、画像データがコンテンツ選択部56から選択されるときは、リンクテーブルが参照されて対象となる画像データが特定される。   FIG. 7 is an example of a link table indicating the group to which image data belongs. As shown in the figure, image data recorded in the image database 61 is listed in the left column, and a group to which target image data in each row direction belongs is listed in the right column. The link table is updated every time the image server 50 receives image data and the group classification unit 53 executes group classification. When image data is selected from the content selection unit 56, the target image data is specified by referring to the link table.

テーブル管理部62は更に、ユーザテーブルを記録している。図8は、ユーザの嗜好順位を示すユーザテーブルの例である。図示するように、ユーザテーブルは、左端の列にはユーザが列挙され、右側の列にはそれぞれの行方向のユーザに対応する嗜好グループが列挙されている。嗜好グループは、嗜好順位として例えば第1優先から第3優先まで順位立てて列挙されている。ユーザの列挙は、タグ情報に記述されているユーザIDに対応して行われる。したがって、ユーザのカメラ側で複数のユーザを登録できるのであれば、撮影のたびにユーザ切り替えを行うことにより、一台のカメラであっても複数人のユーザとしてユーザテーブルに登録することができる。   The table management unit 62 further records a user table. FIG. 8 is an example of a user table indicating the user preference order. As shown in the figure, in the user table, users are listed in the leftmost column, and preference groups corresponding to users in the respective row directions are listed in the right column. The preference groups are listed in order of preference, for example, from the first priority to the third priority. The enumeration of users is performed corresponding to the user IDs described in the tag information. Therefore, if a plurality of users can be registered on the user's camera side, the user can be registered in the user table as a plurality of users even with one camera by switching the user every time shooting is performed.

嗜好順位は、それぞれの嗜好グループに属する画像データの数と、それぞれの嗜好グループが有する隣接グループの関連性によって決定される。例えば、1000枚の画像データが嗜好グループとしてC−1に属し、10枚の画像データC−2に属するのであれば、C−2の嗜好順位よりも、C−1に対して隣接情報を有するA−1の嗜好順位を優先する。したがって、この場合は、第1優先としてC−1が、第2優先としてA−1が、第3優先としてC−2が定義される。コンテンツ選択部56は、ユーザテーブルを参照してコンテンツを選択するので、ユーザが送信した画像データが直接的に属する嗜好グループでなくても、隣接する嗜好グループであればコンテンツ選択の対象グループとなり得る。なお、隣接グループの関連性をどれ程重視するかは、予め定められた基準により決定されている。また、隣接グループ間に予め相関の度合いを設けて隣接情報テーブルに記述しておき、相関度合いの高い嗜好グループから順にコンテンツ選択の対象グループと定めても良い。   The preference ranking is determined by the number of image data belonging to each preference group and the relevance of adjacent groups that each preference group has. For example, if 1000 pieces of image data belong to C-1 as a preference group and belong to 10 pieces of image data C-2, they have adjacent information to C-1 rather than the preference order of C-2. Priority is given to the preference order of A-1. Therefore, in this case, C-1 is defined as the first priority, A-1 is defined as the second priority, and C-2 is defined as the third priority. Since the content selection unit 56 refers to the user table and selects the content, even if the image data transmitted by the user is not the preference group to which the image data directly belongs, the content selection unit 56 can be a target group for content selection if it is an adjacent preference group. . It should be noted that how much importance is given to the relevance of adjacent groups is determined by a predetermined standard. Alternatively, a degree of correlation may be provided in advance between adjacent groups and described in the adjacent information table, and a target group for content selection may be determined in order from a preference group having a higher degree of correlation.

ユーザテーブルは、それぞれのユーザが画像サーバ50に送信する画像データにより嗜好抽出部52で嗜好が判定されるたびに見直され、嗜好順位に変動があれば更新される。したがって、画像データベース61に画像データが蓄積されるほど、それぞれのユーザの嗜好は正確に反映される。   The user table is reviewed each time the preference is extracted by the preference extraction unit 52 based on the image data transmitted by each user to the image server 50, and is updated if the preference ranking varies. Therefore, the more the image data is accumulated in the image database 61, the more accurately the preference of each user is reflected.

以上のように画像サーバ50からユーザのカメラに送信されたコンテンツ情報は、カメラの表示部に表示される。図9は、ユーザの嗜好情報としてのコンテンツがカメラ100に表示された様子を示す図である。図示するように、カメラの背面に設けられる表示部101の近傍には操作部材としての十字SW102が設けられており、ユーザは十字SW102を操作することで、選択範囲を上下左右に移動させることができる。十字SW102の中央には決定ボタン103が設けられており、ユーザは決定ボタン103を押下げることにより十字SW102による選択を確定させる。   The content information transmitted from the image server 50 to the user's camera as described above is displayed on the display unit of the camera. FIG. 9 is a diagram illustrating a state in which content as user preference information is displayed on the camera 100. As shown in the figure, a cross SW 102 as an operation member is provided in the vicinity of the display unit 101 provided on the back of the camera, and the user can move the selection range up, down, left, and right by operating the cross SW 102. it can. An enter button 103 is provided at the center of the cross switch 102, and the user presses the enter button 103 to confirm the selection by the cross switch 102.

表示部101には、画像サーバ50から受信したコンテンツ情報が表示されるが、例えば、タイトル111に示すように、撮影スポット情報が表示される。コンテンツは、逐次更新されるコンテンツデータベースに蓄積されたものの中から、ユーザの嗜好に従って選択され生成されるので、タイムリーかつ独自の情報として表示部101に表示される。また、カメラのメモリに下位の嗜好順位の嗜好グループに関するコンテンツも記録されていれば、ユーザは、操作部材の操作により現在の表示を切り替えて当該コンテンツを表示させることもできる。   The display unit 101 displays content information received from the image server 50. For example, as shown in the title 111, shooting spot information is displayed. Since the content is selected and generated according to the user's preference from those stored in the content database that is sequentially updated, the content is displayed on the display unit 101 as timely and unique information. Further, if content related to a preference group with a lower preference order is also recorded in the memory of the camera, the user can switch the current display by operating the operation member and display the content.

例えば図においては、撮影スポット情報として、推奨ウィンドウ112に「新宿御苑」が、推奨ウィンドウ113に「多摩動物園」が表示されている。それぞれのテキストはハイパーリンクになっており、ユーザは、当該テキストを選択すれば詳細な情報を取得することができる。また、それぞれの推奨ウィンドウ112、113には付帯情報114、115が表示される。付帯情報として表示される情報もハイパーリンクを採用しており、ユーザは詳細な情報を知りたいときには、テキストを選択すれば良い。   For example, in the figure, “Shinjuku Gyoen” is displayed in the recommended window 112 and “Tama Zoo” is displayed in the recommended window 113 as shooting spot information. Each text is a hyperlink, and the user can acquire detailed information by selecting the text. Also, incidental information 114 and 115 are displayed in the recommended windows 112 and 113, respectively. Information displayed as supplementary information also employs hyperlinks, and the user can select text when he wants to know detailed information.

さらに、推奨ウィンドウ112、113には関連画像116、117が表示される。関連画像は、例えば、「新宿御苑」で他のユーザにより最近撮影された画像データが表示される。このような画像データは、コンテンツ選択部56が画像データベース61からユーザの嗜好グループに属する画像データとして選択する画像データである。なお、推奨ウィンドウが多数存在する場合には、スクロールバー118の操作により切り替えて表示するように構成できる。   Further, related images 116 and 117 are displayed in the recommendation windows 112 and 113. As the related image, for example, image data recently taken by another user at “Shinjuku Gyoen” is displayed. Such image data is image data that the content selection unit 56 selects from the image database 61 as image data belonging to the user preference group. In addition, when there are many recommended windows, it can be configured to be switched and displayed by operating the scroll bar 118.

次に、画像サーバ50における処理フローについて再度説明する。図10は、画像サーバの処理フローの例である。ステップS101で、画像受付部51がユーザのカメラから画像データを受け付けると、ステップS102で、嗜好抽出部52が当該画像データからユーザの嗜好を抽出し判定する。そして、ステップS102で、グループ分類部53が当該外画像データのグループ分類を実行する。   Next, the processing flow in the image server 50 will be described again. FIG. 10 is an example of the processing flow of the image server. When the image receiving unit 51 receives image data from the user's camera in step S101, the preference extracting unit 52 extracts and determines the user's preference from the image data in step S102. In step S102, the group classification unit 53 executes group classification of the outside image data.

ステップS104では、グループ分類部53は、画像データのタグ情報のうち蓄積対象フラグを確認して、蓄積対象であればステップS105へ進み、当該画像データを画像データベース61へ記録蓄積する。蓄積対象でなければ、そのまま当該画像データを破棄する。なお、蓄積対象であるか否かの判断は、画像受付部51が行って、蓄積対象でなければ、嗜好の抽出等を行うことなく画像データを破棄しても良い。   In step S104, the group classification unit 53 checks the accumulation target flag in the tag information of the image data. If the accumulation target flag is to be accumulated, the group classification unit 53 proceeds to step S105 and records and accumulates the image data in the image database 61. If it is not an accumulation target, the image data is discarded as it is. Note that the image receiving unit 51 determines whether or not the image is to be accumulated. If the image is not to be accumulated, the image data may be discarded without performing preference extraction or the like.

ステップS106では、コンテンツ要求受付部54が、当該画像データにコンテンツ要求信号が付随するか否かを確認し、コンテンツ要求信号が付随しない場合には、一連の処理を終了する。コンテンツ要求信号が付随する場合には、ステップS107へ進む。   In step S106, the content request receiving unit 54 checks whether or not a content request signal is attached to the image data. If no content request signal is attached, the series of processing ends. If a content request signal is attached, the process proceeds to step S107.

ステップS107では、カメラ情報取得部55がカメラの情報、特に、カメラのメモリ容量の情報を取得する。さらに、ステップS108でユーザIDを取得してユーザを確定する。   In step S107, the camera information acquisition unit 55 acquires camera information, particularly information on the memory capacity of the camera. In step S108, the user ID is acquired and the user is confirmed.

コンテンツ選択部56は、ステップS109で、テーブル管理部62からユーザテーブル、隣接情報テーブルおよびリンクテーブルを読み出して参照する。そして、コンテンツ選択部56は、ステップS110で、読み出した各テールの情報に従って、画像データベース61およびコンテンツデータベース63からコンテンツおよび画像データを取得する。さらに、コンテンツ選択部56は、カメラが許容するコンテンツ情報のメモリ容量に収まるように、優先度の高いコンテンツから順に送信対象として確定させ、このように確定されたコンテンツは、ステップS111で、送信部57によりユーザのカメラへ送信される。そして、一連の処理を終了する。   In step S109, the content selection unit 56 reads the user table, the adjacent information table, and the link table from the table management unit 62 and refers to them. In step S110, the content selection unit 56 acquires content and image data from the image database 61 and the content database 63 according to the read information on each tail. Further, the content selection unit 56 determines the content to be transmitted in order from the content with the highest priority so as to fit in the memory capacity of the content information allowed by the camera, and the content thus determined is determined as the transmission unit in step S111. 57 to the user's camera. Then, a series of processing ends.

以上の実施形態においては、ユーザ端末としてカメラを例に説明したが、画像データを取り扱う端末であれば、ユーザ端末はカメラに限らない。例えば、ユーザがデジタルフォトフレームに好みの撮影画像データを収集しているのであれば、ユーザはデジタルフォトフレームをユーザ端末として画像サーバ50に接続して、コンテンツを要求することができる。また、携帯音楽プレーヤーに収集している音楽コンテンツに付随するジャケット画像データの中から、ユーザが好みの画像データを画像サーバ50に送信すれば、画像サーバ50は、当該画像データを解析して携帯音楽プレーヤーにコンテンツを送ることができる。この場合、携帯音楽プレーヤーがユーザ端末となる。嗜好抽出部52は、撮影画像データが備えるようなタグ情報を持たない画像データを扱う場合は、例えば、予め用意されているテンプレート画像とのパターンマッチングを行うなどして、画像データの輪郭情報等からユーザの嗜好を判定する。   In the above embodiment, the camera has been described as an example of the user terminal. However, the user terminal is not limited to the camera as long as the terminal handles image data. For example, if the user collects favorite photographed image data in a digital photo frame, the user can request content by connecting the digital photo frame as a user terminal to the image server 50. If the user transmits favorite image data to the image server 50 from the jacket image data attached to the music content collected by the portable music player, the image server 50 analyzes the image data and carries the portable data. You can send content to a music player. In this case, the portable music player becomes the user terminal. In the case of handling image data that does not have tag information that the captured image data has, the preference extraction unit 52 performs, for example, pattern matching with a template image that is prepared in advance, and the like, such as contour information of the image data. From the user's preference is determined.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

11、12、13 カメラ、20 ネットワーク、30 コンテンツサーバ、50 画像サーバ、51 画像受付部、52 嗜好抽出部、53 グループ分類部、54 コンテンツ要求受付部、55 カメラ情報取得部、56 コンテンツ選択部、57 送信部、61 画像データベース、62 テーブル管理部、63 コンテンツデータベース、71 蓄積画像更新部、73 コンテンツ更新部、81 タグ解析部、82 GPS情報解析部、83 測距点抽出部、84 露出情報抽出部、91 画像解析部、92 顔認識部、93 色情報解析部、94 焦点状態解析部、100 カメラ、101 表示部、102 十字SW、103 決定ボタン、111 タイトル、112、113 推奨ウィンドウ、114、115 付帯情報、116、117 関連画像、118 スクロールバー 11, 12, 13 Camera, 20 Network, 30 Content server, 50 Image server, 51 Image reception unit, 52 Preference extraction unit, 53 Group classification unit, 54 Content request reception unit, 55 Camera information acquisition unit, 56 Content selection unit, 57 transmission unit, 61 image database, 62 table management unit, 63 content database, 71 stored image update unit, 73 content update unit, 81 tag analysis unit, 82 GPS information analysis unit, 83 ranging point extraction unit, 84 exposure information extraction , 91 Image analysis unit, 92 Face recognition unit, 93 Color information analysis unit, 94 Focus state analysis unit, 100 Camera, 101 Display unit, 102 Cross switch, 103 Decision button, 111 Title, 112, 113 Recommended window, 114, 115 Additional information, 116, 117 Related images , 118 Scroll bar

Claims (10)

ネットワークを介して画像データを端末装置から受け付ける受付部と、
前記受付部が受け付けた前記画像データを解析して、前記端末装置のユーザの嗜好に関する嗜好情報を抽出する嗜好抽出部と、
前記嗜好抽出部により抽出された前記嗜好情報に関連する関連情報をデータベースから選択して、前記ネットワークを介して前記端末装置に送信する送信部と
を備える画像サーバ。
A reception unit for receiving image data from a terminal device via a network;
A preference extraction unit that analyzes the image data received by the reception unit and extracts preference information related to the user preference of the terminal device;
An image server provided with the transmission part which selects the relevant information relevant to the said preference information extracted by the said preference extraction part from a database, and transmits to the said terminal device via the said network.
前記端末装置は撮像装置であり、前記画像データは前記ユーザが前記撮像装置により撮影した撮影画像データである請求項1に記載の画像サーバ。   The image server according to claim 1, wherein the terminal device is an imaging device, and the image data is captured image data captured by the user with the imaging device. 前記嗜好抽出部により抽出された前記嗜好情報に基づいて前記画像データを複数のグループに分類するグループ分類部を備え、
前記送信部は、前記画像データが属するグループに関連付けられた前記関連情報を前記データベースから選択する請求項1または2に記載の画像サーバ。
A group classification unit that classifies the image data into a plurality of groups based on the preference information extracted by the preference extraction unit;
The image server according to claim 1, wherein the transmission unit selects, from the database, the related information associated with a group to which the image data belongs.
前記複数のグループは前記嗜好の相関に基づいて互いに隣接情報を有しており、
前記送信部は、前記画像データが属するグループと互いに前記隣接情報を有するグループに関連付けられた前記関連情報を併せて前記データベースから選択する請求項3に記載の画像サーバ。
The plurality of groups have neighboring information based on the preference correlation;
The image server according to claim 3, wherein the transmission unit selects, from the database, the group to which the image data belongs and the related information associated with the group having the adjacent information.
前記送信部は、前記端末装置が備えるメモリ容量に基づいて、前記相関の度合いが高い前記隣接情報を有するグループに関連付けられた前記関連情報から順に選択する請求項4に記載の画像サーバ。   The image server according to claim 4, wherein the transmission unit sequentially selects the related information associated with the group having the adjacent information having a high degree of correlation based on a memory capacity included in the terminal device. 前記データベースは、前記受付部が受け付けた前記画像データを蓄積し、
前記送信部は、前記関連情報として、前記受付部が他の端末装置から受け付けて前記データベースに蓄積された、前記嗜好抽出部が抽出した前記嗜好情報と同様の嗜好情報を有する画像データを選択する請求項1から5のいずれか1項に記載の画像サーバ。
The database stores the image data received by the receiving unit,
The transmission unit selects, as the related information, image data having the same preference information as the preference information extracted by the preference extraction unit, which is received by the reception unit from another terminal device and accumulated in the database. The image server according to claim 1.
前記送信部は、前記他の端末装置から受け付けた画像データであって、公開対象外のタグが付された前記画像データは選択しない請求項6に記載の画像サーバ。   The image server according to claim 6, wherein the transmission unit does not select the image data received from the other terminal device and having a tag that is not to be disclosed. 前記嗜好抽出部は、解析対象外のタグが付された前記画像データに対しては前記嗜好情報を抽出しない請求項1から7のいずれか1項に記載の画像サーバ。   The image server according to any one of claims 1 to 7, wherein the preference extraction unit does not extract the preference information for the image data to which a tag not to be analyzed is attached. 請求項1から8のいずれか1項に記載の画像サーバと通信する撮像装置。   The imaging device which communicates with the image server of any one of Claim 1 to 8. ネットワークを介して画像データを端末装置から受け付ける受付ステップと、
前記受付ステップで受け付けた前記画像データを解析して、前記端末装置のユーザの嗜好に関する嗜好情報を抽出する嗜好抽出ステップと、
前記嗜好抽出ステップにより抽出された前記嗜好情報に関連する関連情報をデータベースから選択して、前記ネットワークを介して前記端末装置に送信する送信ステップと
をコンピュータに実行させる制御プログラム。
An accepting step for accepting image data from a terminal device via a network;
Analyzing the image data received in the receiving step and extracting preference information relating to the user's preference of the terminal device; and
The control program which makes a computer perform the transmission step which selects the relevant information relevant to the said preference information extracted by the said preference extraction step from a database, and transmits to the said terminal device via the said network.
JP2010130290A 2010-06-07 2010-06-07 Image server, imaging apparatus, and control program Withdrawn JP2011257868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010130290A JP2011257868A (en) 2010-06-07 2010-06-07 Image server, imaging apparatus, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010130290A JP2011257868A (en) 2010-06-07 2010-06-07 Image server, imaging apparatus, and control program

Publications (1)

Publication Number Publication Date
JP2011257868A true JP2011257868A (en) 2011-12-22

Family

ID=45474010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010130290A Withdrawn JP2011257868A (en) 2010-06-07 2010-06-07 Image server, imaging apparatus, and control program

Country Status (1)

Country Link
JP (1) JP2011257868A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078100A (en) * 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> Distribution device and computer program
JP2014225061A (en) * 2013-05-15 2014-12-04 株式会社Nttドコモ Information provision device, information provision system, information provision method, and program
JP2017033083A (en) * 2015-07-29 2017-02-09 富士フイルム株式会社 RECOMMENDATION DEVICE, RECOMMENDATION METHOD, PROGRAM, AND RECORDING MEDIUM
JP2018502408A (en) * 2015-10-23 2018-01-25 小米科技有限責任公司Xiaomi Inc. Method, apparatus, facility and system for pushing information
JP2019003681A (en) * 2018-09-06 2019-01-10 富士フイルム株式会社 Recommendation device, recommendation method, program, and recording medium
JP2020052750A (en) * 2018-09-27 2020-04-02 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
US11068717B2 (en) 2018-09-27 2021-07-20 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078100A (en) * 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> Distribution device and computer program
JP2014225061A (en) * 2013-05-15 2014-12-04 株式会社Nttドコモ Information provision device, information provision system, information provision method, and program
JP2017033083A (en) * 2015-07-29 2017-02-09 富士フイルム株式会社 RECOMMENDATION DEVICE, RECOMMENDATION METHOD, PROGRAM, AND RECORDING MEDIUM
JP2018502408A (en) * 2015-10-23 2018-01-25 小米科技有限責任公司Xiaomi Inc. Method, apparatus, facility and system for pushing information
JP2019003681A (en) * 2018-09-06 2019-01-10 富士フイルム株式会社 Recommendation device, recommendation method, program, and recording medium
JP2020052750A (en) * 2018-09-27 2020-04-02 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
US11068717B2 (en) 2018-09-27 2021-07-20 Fujifilm Corporation Image processing device, image processing method, program, and recording medium
US11210829B2 (en) 2018-09-27 2021-12-28 Fujifilm Corporation Image processing device, image processing method, program, and recording medium
US11594027B2 (en) 2018-09-27 2023-02-28 Fujifilm Corporation Image processing device, image processing method, program, and recording medium

Similar Documents

Publication Publication Date Title
US8166034B2 (en) Saving device for image sharing, image sharing system, and image sharing method
US8792040B2 (en) Photography apparatus, control method, program, and information processing device using image-data templates
JP2011257868A (en) Image server, imaging apparatus, and control program
KR101600115B1 (en) Imaging device, image display device, and electronic camera
JP3944160B2 (en) Imaging apparatus, information processing apparatus, control method thereof, and program
US10459968B2 (en) Image processing system and image processing method
US20100053371A1 (en) Location name registration apparatus and location name registration method
KR20060101245A (en) Time shift image distribution system, time shift image distribution method, time shift image requesting device and image server
US8194156B2 (en) EXIF object coordinates
US8558918B2 (en) Method to control image processing apparatus, image processing apparatus, and image file
US9852343B2 (en) Imaging apparatus, display method, and storage medium
JP2007041964A (en) Image processor
JP2010079788A (en) Content management device, system, method and program
US7760249B2 (en) Image recording and playing system and image recording and playing method
JP2010086194A (en) Share image browsing method and device
KR20050094041A (en) Adding metadata to pictures
KR20120126529A (en) ANALYSIS METHOD AND SYSTEM OF CORRELATION BETWEEN USERS USING Exchangeable Image File Format
JP2014082705A (en) Imaging apparatus
JP2012190244A (en) Information providing method and information providing device
JP2008269411A (en) Image keyword editing system, image keyword provision server and image keyword editing device
JP4750158B2 (en) Shooting support device
JP2011155584A (en) Imaging system, imaging method, and imaging program
KR100934499B1 (en) Guidance information provision method and device
KR102045475B1 (en) Tour album providing system for providing a tour album by predicting a user&#39;s preference according to a tour location and operating method thereof
JP5181935B2 (en) Image processing apparatus, program, and subject detection method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903