JP2017151632A - Server device, search method and program - Google Patents
Server device, search method and program Download PDFInfo
- Publication number
- JP2017151632A JP2017151632A JP2016032274A JP2016032274A JP2017151632A JP 2017151632 A JP2017151632 A JP 2017151632A JP 2016032274 A JP2016032274 A JP 2016032274A JP 2016032274 A JP2016032274 A JP 2016032274A JP 2017151632 A JP2017151632 A JP 2017151632A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- content
- unit
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 105
- 230000005540 biological transmission Effects 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims description 89
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000000386 athletic effect Effects 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画像等のコンテンツを検索して送信するサーバ装置等に関するものである。 The present invention relates to a server device that searches and transmits contents such as images.
従来のサーバ装置では、画像(写真や動画)に人物名、地名などが記述された識別情報が対応付けされており、例えば人物名が入力されると、その人物名を含む識別情報を検索して、該当する識別情報に対応づけされた画像の一覧画面が送信される(非特許文献1参照)。 In a conventional server device, identification information in which a person name, a place name, etc. are described is associated with an image (photo or video). For example, when a person name is input, the identification information including the person name is searched. Thus, an image list screen associated with the corresponding identification information is transmitted (see Non-Patent Document 1).
ところで、例えば運動会のような多数の人物が参加するイベントで撮影された写真の展示において、沢山並んでいる写真の中から、所望の人物、例えば我が子が写っている写真を入手するのは容易でない。 By the way, in the exhibition of photographs taken at an event where a large number of people participate, such as athletic meet, to obtain a photograph of a desired person, for example, my child, from among a lot of photographs Not easy.
他方、この種のイベントでは、多くの人物が自分のカメラやスマートフォンで撮影を行っており、他の人物が撮影した画像の中に、所望の人物が偶然写っている画像が含まれている可能性が少なくない。 On the other hand, in this type of event, many people are taking pictures with their own cameras and smartphones, and images taken by other people may contain images that show the desired person by chance. There is not much nature.
そこで、各人物は、自分が撮影した画像をパソコンやスマートフォンなどの端末装置からサーバ装置にアップロードする一方、所望の人物が写っている画像をサーバ装置から端末装置にダウンロードできるようにすることが考えられる。 Therefore, each person may upload an image taken by himself / herself from a terminal device such as a personal computer or a smartphone to the server device, while allowing an image of a desired person to be downloaded from the server device to the terminal device. It is done.
しかし、従来のサーバ装置を用いてこれを実現しようとしても、各人物が撮影した写真や動画には、通常、人物名が記述された識別情報は対応付けられておらず、また、アップロードする全ての写真や動画について、このような識別情報を作成することは、各人物の負担が重くなるので、現実的ではない。 However, even when trying to achieve this using a conventional server device, the photos and videos taken by each person are usually not associated with identification information describing the person name, and all uploaded It is not realistic to create such identification information for the photos and videos because the burden on each person becomes heavy.
そこで、本発明は、所望の人物が写っているコンテンツを容易に入手できるサーバ装置等を提供することを目的としている。 Therefore, an object of the present invention is to provide a server device or the like that can easily obtain content in which a desired person is shown.
本発明にかかるサーバ装置は、複数の端末装置から送信された画像(写真または動画)である1以上のコンテンツが格納される第一格納部と、人物の指定に関する情報である人物指定情報を含む検索指示を、前記複数の端末装置のうち1つの端末装置から受信する第一受信部と、前記1以上のコンテンツのうち、前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索部と、前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信部と、を具備するサーバ装置である。 A server device according to the present invention includes a first storage unit that stores one or more contents that are images (photos or moving images) transmitted from a plurality of terminal devices, and person designation information that is information relating to person designation. Corresponds to a first receiving unit that receives a search instruction from one terminal device among the plurality of terminal devices, and person designation information included in the search instruction received by the first receiving unit among the one or more contents A search unit that searches for one or more contents including a face image that is an image of a person's face, a transmission unit that transmits the one or more contents searched by the search unit to the one terminal device, Is a server device.
かかる構成により、前記1つの端末装置で所望の人物を指定すると、前記サーバ装置において、その人物が写っている1以上のコンテンツ(ここでいうコンテンツ)が検索され、検索された1以上のコンテンツが当該1つの端末装置に送信されるので、多数のコンテンツの中からその人物が写っているコンテンツを容易に入手することができる。 With this configuration, when a desired person is designated on the one terminal device, one or more contents (contents here) in which the person is reflected are searched in the server device, and one or more searched contents are found. Since it is transmitted to the one terminal device, it is possible to easily obtain content in which the person is reflected from among a large number of content.
また、上記構成において、前記人物指定情報は、前記1つの端末装置において出力された画像内の人物に対する指定操作により構成されてもよい。 In the above configuration, the person designation information may be constituted by a designation operation for a person in an image output from the one terminal device.
かかる構成により、画像内の人物を指定するだけで、その人物が写ったコンテンツが検索されるので、利便性が高まる。 With such a configuration, simply by specifying a person in the image, the content in which the person is shown is searched, which increases convenience.
また、上記構成において、前記指定操作は、前記1つの端末装置において出力された画像内の複数の人物のうち1人の人物を指定する操作であってもよい。 In the above configuration, the designation operation may be an operation of designating one person among a plurality of persons in an image output from the one terminal device.
かかる構成により、画像内の複数の人物のうち1人の人物を指定するだけで、当該1人の人物が写ったコンテンツが検索されるので、利便性が高まる。 With such a configuration, the user can search for content in which only one person is specified from among a plurality of persons in the image, so that convenience is improved.
また、上記構成において、人物の顔画像と当該人物を識別する人物識別子とを有する1以上の人物情報が格納される第二格納部をさらに具備し、前記人物指定情報は、人物識別子を有し、前記検索部は、前記人物指定情報に含まれる前記人物識別子と対になる人物の顔画像を前記第二格納部から取得し、顔画像と予め決められた関係を有する画像を一部に含む1以上のコンテンツを検索してもよい。 In the above-described configuration, the information processing apparatus further includes a second storage unit that stores one or more pieces of person information including a face image of a person and a person identifier for identifying the person, and the person designation information includes a person identifier. The search unit acquires a face image of a person who is paired with the person identifier included in the person designation information from the second storage unit, and includes a part of an image having a predetermined relationship with the face image. One or more contents may be searched.
かかる構成により、所望の人物の人物識別子を指定するだけで、その人物の顔画像が取得され、当該顔画像を含むコンテンツが検索されるので、利便性が高まる。 With such a configuration, simply specifying the person identifier of the desired person, the face image of the person is acquired, and the content including the face image is searched, so that convenience is improved.
また、上記構成において、前記第一格納部の1以上のコンテンツは、時刻に関する時刻情報が対応付いており、前記検索指示は、時刻情報を含み、前記検索部は、前記検索指示に含まれる時刻情報に対応する1以上のコンテンツを決定し、前記送信部は、前記検索部が検索した1以上のコンテンツと、前記検索部が決定した1以上のコンテンツとの和集合を有する画面であり、コンテンツの選択または人物の指定を行う画面の情報である画面情報を送信してもよい。なお、検索指示に含まれる時刻情報は、コンテンツに対応付いている時刻情報とは異なる態様の情報(例えば時間帯を示す時間帯情報など)でも良い。 In the above configuration, one or more contents in the first storage unit are associated with time information related to time, the search instruction includes time information, and the search unit includes a time included in the search instruction. One or more contents corresponding to information are determined, and the transmission unit is a screen having a union of one or more contents searched by the search unit and one or more contents determined by the search unit, Screen information that is information on a screen for selecting or specifying a person may be transmitted. Note that the time information included in the search instruction may be information in a mode different from the time information associated with the content (for example, time zone information indicating a time zone).
かかる構成により、人物検索で決定されたコンテンツだけでなく、時刻情報による絞り込みで決定されたコンテンツも含む画面が端末装置から出力され、この画面上でコンテンツを選択したり人物を指定したりできる。つまり、顔画像による人物検索と、時間情報に基づく絞り込みとの併用が可能になるので、所望の人物が写っているコンテンツを入手できる可能性が高まる。 With this configuration, a screen including not only content determined by person search but also content determined by narrowing down by time information is output from the terminal device, and content can be selected or a person can be designated on this screen. That is, since it is possible to use both a person search based on a face image and a refinement based on time information, the possibility that a content showing a desired person can be obtained increases.
また、上記構成において、前記第一格納部の1以上のコンテンツは、位置に関する位置情報が対応付いており、前記検索指示は、位置情報を含み、前記検索部は、前記検索指示に含まれる時刻情報と位置情報とに対応する1以上のコンテンツを決定してもよい。なお、検索指示に含まれる位置情報は、コンテンツに対応付いている時刻情報とは異なる態様の情報(例えば領域を示す領域情報など)でも良い。 Further, in the above configuration, the one or more contents in the first storage unit are associated with position information regarding a position, the search instruction includes position information, and the search unit includes a time included in the search instruction. One or more contents corresponding to the information and the position information may be determined. Note that the position information included in the search instruction may be information in a mode different from the time information associated with the content (for example, area information indicating an area).
かかる構成により、画面上には、位置情報による絞り込みで決定されたコンテンツも含まれるので、さらに時間情報に基づく絞り込みの併用も可能になり、所望の人物が写っているコンテンツを入手できる可能性がより高まる。 With this configuration, content determined by narrowing down based on position information is also included on the screen, so that narrowing based on time information can be used together, and there is a possibility that content containing a desired person can be obtained. Increase more.
また、上記構成において、前記第一格納部の1以上のコンテンツに対応付いた時刻情報は、当該コンテンツがカメラで撮影された時刻を示し、前記第一格納部の1以上のコンテンツに対応付いた位置情報は、当該コンテンツを撮影した前記カメラの位置を示し、前記第一格納部の1以上のコンテンツには、当該コンテンツを撮影した前記カメラの画角および焦点距離の少なくとも一方に関する光学情報がさらに対応付いており、前記第一格納部の1以上のコンテンツに対応付いた位置情報および光学情報を用いて、当該コンテンツに写っている各人物の位置を計算する計算部、をさらに具備し、前記検索部は、前記検索指示に含まれる時刻情報と位置情報とに対応する1以上のコンテンツを決定する際に、前記計算部によって計算された人物位置を前記検索指示に含まれる位置情報の示す位置と比較してもよい。 In the above configuration, the time information associated with the one or more contents in the first storage unit indicates the time when the content was captured by the camera, and is associated with the one or more contents in the first storage unit. The position information indicates the position of the camera that captured the content, and the one or more contents in the first storage unit further include optical information related to at least one of an angle of view and a focal length of the camera that captured the content. And a calculation unit that calculates the position of each person in the content using position information and optical information associated with the one or more contents in the first storage unit, The search unit calculates the person calculated by the calculation unit when determining one or more contents corresponding to the time information and the position information included in the search instruction. The location may be compared with the position indicated by the positional information included in the search instruction.
かかる構成により、コンテンツに対応付いているカメラの位置情報および光学情報から、カメラ自体の位置情報ではなく、当該コンテンツに写っている人物の位置情報を計算し、位置情報による絞り込みでは、こうして計算した人物の位置情報を用いるので、カメラの位置に限らず、人物の位置による絞り込みも可能になる。 With this configuration, the position information of the person shown in the content is calculated, not the position information of the camera itself, from the position information and optical information of the camera corresponding to the content. Since the position information of the person is used, not only the position of the camera but also the narrowing down by the position of the person is possible.
また、上記構成において、前記検索部は、前記人物指定情報に対応する顔画像と、前記第一格納部に格納されている1以上のコンテンツに含まれている各顔画像との間の類似度を閾値と比較することで、各コンテンツが前記人物指定情報に対応する顔画像を含んでいるか否かを判断し、かつ検索に時刻情報および位置情報の少なくとも一方を使用する場合と、検索に時刻情報も位置情報も使用しない場合とで、当該閾値を変更してもよい。 Further, in the above configuration, the search unit includes a similarity between a face image corresponding to the person designation information and each face image included in one or more contents stored in the first storage unit. Is compared with a threshold value to determine whether each content includes a face image corresponding to the person designation information, and when at least one of time information and position information is used for the search, The threshold may be changed when neither information nor position information is used.
かかる構成により、顔画像の認識率が低くても、有意な検索結果が得られ易くなる。 With this configuration, a significant search result can be easily obtained even if the recognition rate of the face image is low.
また、上記構成において、少なくとも期間を示す期間情報と期間に行われるイベントを示すイベント情報とが対応付けて格納される第三格納部、をさらに具備し、前記第一格納部の1以上のコンテンツは、時刻に関する時刻情報が対応付いており、前記送信部は、前記検索部によって検索された1以上のコンテンツを送信する際に、当該コンテンツに対応付いている時刻情報と、前記第三格納部に格納されている各期間情報とを比較して、当該コンテンツが撮影された時刻を含む期間に行われていたイベントを示すイベント情報を特定し、特定したイベント情報をコンテンツに対応付けて送信してもよい。 Further, in the above configuration, the apparatus further includes a third storage unit that stores at least period information indicating a period and event information indicating an event performed in the period, and the one or more contents of the first storage unit Is associated with time information related to time, and when the transmission unit transmits one or more contents searched by the search unit, the time information associated with the content and the third storage unit Is compared with each period information stored in the event information to identify event information indicating an event that occurred during the period including the time when the content was shot, and the identified event information is transmitted in association with the content. May be.
かかる構成により、コンテンツに対応付いている時刻情報と、第三格納部に格納されている期間情報およびイベント情報とを用いてイベントを特定するので、検索されたコンテンツが何のイベントで撮影されたものかわかる。その結果、例えば、所望のイベントで撮影されたコンテンツの入手、あるいは入手したコンテンツのイベントによる分類等が容易に行えるようになる。 With this configuration, the event is identified using the time information associated with the content and the period information and event information stored in the third storage unit, so what event the retrieved content was captured at I know what it is. As a result, for example, it is possible to easily acquire content shot at a desired event or classify the acquired content according to the event.
また、上記構成において、前記送信部は、前記検索部によって検索または決定された1以上のコンテンツにそれぞれ対応付けられた1以上の代表画像を前記画面情報に含めて送信し、かつ、前記1つの端末装置において、前記画面情報に基づいて出力された画面上で代表画像が選択されたとき、当該選択された代表画像に対応付けられたコンテンツを当該1つの端末装置に送信してもよい。 In the above configuration, the transmission unit includes one or more representative images respectively associated with one or more contents searched or determined by the search unit for transmission in the screen information, and In the terminal device, when a representative image is selected on the screen output based on the screen information, content associated with the selected representative image may be transmitted to the one terminal device.
かかる構成により、端末装置において、画面上で代表画像を選択するだけで、その代表画像に対応するコンテンツをサーバ装置から受信できるので、利便性が高まる。 With this configuration, the terminal device can receive the content corresponding to the representative image from the server device simply by selecting the representative image on the screen, so that convenience is improved.
また、上記構成において、人物識別子とパスワードとを対にして格納される第四格納部と、前記第四格納部に格納されている人物識別子と、当該人物識別子に対応する人物と所定の関係にある1以上の人物の人物識別子と、が対にして格納される第五格納部と、前記端末装置を介して、人物識別子とパスワードとを指定したログイン要求を受信する第三受信部と、をさらに具備し、前記送信部は、前記ログイン要求で指定された人物識別子とパスワードとの対が前記第四格納部に格納されている場合に前記画面上でコンテンツの選択を受け付け、そして当該コンテンツに、前記ログイン要求で指定された人物識別子に対応する人物、または前記第五格納部に当該ログイン要求で指定された人物識別子と対応付けて格納されている人物識別子に対応する人物、の顔画像が含まれている場合に当該コンテンツを送信してもよい。 In the above configuration, a fourth storage unit that stores a pair of a person identifier and a password, a person identifier stored in the fourth storage unit, and a person corresponding to the person identifier have a predetermined relationship. A fifth storage unit that stores a pair of person identifiers of one or more persons, and a third reception unit that receives a login request specifying a person identifier and a password via the terminal device, The transmission unit accepts a selection of content on the screen when a pair of a person identifier and a password specified in the login request is stored in the fourth storage unit, and A person corresponding to the person identifier specified in the login request, or a person identifier stored in the fifth storage unit in association with the person identifier specified in the login request. The content may be transmitted when a person who respond, the face image is included.
かかる構成により、ダウンロードできるのは、ログインした人物またはその人物と所定の関係にある人物(家族等)が写っているコンテンツに限られるので、プライバシーの保護とコンテンツ入手の容易化との両立が図られる。 With such a configuration, download is possible only for content in which a logged-in person or a person (family member, etc.) who has a predetermined relationship with the logged-in person is shown, so that both privacy protection and easy content acquisition can be achieved. It is done.
また、上記構成において、コンテンツの価格に関する価格情報が格納される第六格納部と、前記価格情報を参照して、前記送信部が前記端末装置の格納部にダウンロードしたコンテンツに対応する金額を当該端末装置のユーザに対して課金する課金部と、をさらに具備していてもよい。 In the above configuration, the sixth storage unit that stores price information regarding the price of the content, and the price corresponding to the content downloaded by the transmission unit to the storage unit of the terminal device with reference to the price information And a charging unit that charges the user of the terminal device.
かかる構成により、画面上で選択したコンテンツを購入できる。 With this configuration, the content selected on the screen can be purchased.
また、上記構成において、前記画面上で選択された1以上のコンテンツを各頁に配置することによりアルバムを作成する作成部、をさらに具備していてもよい。 The above configuration may further include a creating unit that creates an album by arranging one or more contents selected on the screen on each page.
かかる構成により、画面上でコンテンツを選択するだけでアルバムが自動的に作成される。 With such a configuration, an album is automatically created simply by selecting content on the screen.
また、上記構成において、前記複数の端末装置それぞれから送信されたコンテンツを受信する第二受信部と、前記第二受信部によって受信されたコンテンツを前記第一格納部に蓄積する蓄積部と、前記第二受信部によって受信されたコンテンツから1以上の顔画像を抽出して、当該1以上の顔画像を前記第二格納部に格納されている1以上の顔画像と比較することにより、当該1以上の顔画像と対になる1以上の人物識別情報を取得し、取得した1以上の人物識別情報を当該コンテンツと対にして保持する処理部と、をさらに具備していてもよい。 In the above configuration, a second receiving unit that receives content transmitted from each of the plurality of terminal devices, a storage unit that stores the content received by the second receiving unit in the first storage unit, By extracting one or more face images from the content received by the second receiving unit and comparing the one or more face images with one or more face images stored in the second storage unit, The image processing apparatus may further include a processing unit that acquires at least one person identification information paired with the face image and holds the acquired one or more person identification information as a pair with the content.
かかる構成により、各端末装置の格納部に格納されているコンテンツをサーバ装置にアップロードする一方、サーバ装置1から各端末装置に所望のコンテンツをダウンロードするので、コンテンツを共有できる。また、コンテンツがアップロードされる度に、当該コンテンツに含まれている1以上の顔画像と対になる1以上の人物識別情報を取得して、当該コンテンツと対にして保持しておくことで、人物検索を行う際の処理負荷が軽減される。
With this configuration, the content stored in the storage unit of each terminal device is uploaded to the server device, while the desired content is downloaded from the
本発明にかかる検索方法は、第一格納部、第一受信部、検索部および送信部によって行われる検索方法であって、前記第一格納部に、複数の端末装置から送信された画像である1以上のコンテンツが格納される第一格納ステップと、前記第一受信部が、人物の指定に関する情報である人物指定情報を含む検索指示を、前記複数の端末装置のうち1つの端末装置から受信する受信ステップと、前記検索部が、前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索ステップと、前記送信部が、前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信ステップと、を含む検索方法である。 The search method according to the present invention is a search method performed by a first storage unit, a first reception unit, a search unit, and a transmission unit, and is an image transmitted to the first storage unit from a plurality of terminal devices. A first storage step in which one or more contents are stored, and the first reception unit receives a search instruction including person designation information, which is information relating to person designation, from one terminal device among the plurality of terminal devices. A receiving step, and the search unit searches for one or more contents including a face image that is a face image of a person corresponding to the person specifying information included in the search instruction received by the first receiving unit. A search method comprising: a search step; and a transmission step in which the transmission unit transmits one or more contents searched by the search unit to the one terminal device.
かかる構成により、多数のコンテンツの中からその人物が写っているコンテンツを容易に入手することができる。 With such a configuration, it is possible to easily obtain content in which the person is reflected from among a large number of content.
本発明にかかるプログラムは、コンピュータを、複数の端末装置から送信された画像である1以上のコンテンツが格納される第一格納部と、人物の指定に関する情報である人物指定情報を含む検索指示を、前記複数の端末装置のうち1つの端末装置から受信する第一受信部と、前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索部と、前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信部として機能させるためのプログラムである。 A program according to the present invention provides a computer with a search instruction including a first storage unit that stores one or more contents that are images transmitted from a plurality of terminal devices, and person designation information that is information relating to person designation. A face image that is an image of a person's face corresponding to the person designation information included in the search instruction received by the first receiving unit and the search instruction received by the first receiving unit. A program for causing a search unit to search for one or more contents included therein and a transmission unit to transmit the one or more contents searched by the search unit to the one terminal device.
かかる構成により、多数のコンテンツの中からその人物が写っているコンテンツを容易に入手することができる。 With such a configuration, it is possible to easily obtain content in which the person is reflected from among a large number of content.
本発明によれば、所望の人物が写っているコンテンツを容易に入手できるようになる。 According to the present invention, content in which a desired person is shown can be easily obtained.
以下、サーバ装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of a server device and the like will be described with reference to the drawings. In addition, since the component which attached | subjected the same code | symbol in embodiment performs the same operation | movement, description may be abbreviate | omitted again.
(実施の形態)
最初、本実施の形態の概要を説明する。本実施の形態において、サーバ装置1は、端末装置2を介して人物の指定を受け、当該人物が写っているコンテンツを検索して、検索結果を当該端末装置2に送信する。指定は、端末装置2で出力された写真内の人物を指定して、または人物識別子を指定して行われる。コンテンツとは、当該人物の顔の画像である顔画像が含まれているコンテンツをいい、端末装置2からサーバ装置1にアップロード可能である。
(Embodiment)
First, an outline of the present embodiment will be described. In the present embodiment, the
特に、サーバ装置1は、例えば、時刻情報で絞り込みを行い、絞り込んだ1以上のコンテンツを有する画面を端末装置2に送信する。コンテンツ選択操作や人物指定操作は、端末装置2の画面上で行われる。絞り込みは、位置情報で行われてもよいし、時刻情報と位置情報とで行われてもよい。
In particular, for example, the
また、サーバ装置1は、コンテンツを撮影したカメラの位置、撮影方向、画角、焦点距離、コンテンツに写っている人物の身長等から、コンテンツに写っている人物の位置を計算する。位置情報による絞り込みは、人物位置を示す位置情報を用いて行われる。なお、画角や焦点距離といったカメラの光学性能に関する情報を「光学情報」と呼ぶ場合がある。
Further, the
また、サーバ装置1は、コンテンツが撮影されたとき行われていたイベントを特定し、イベント情報をコンテンツに対応付けて端末装置2に送信する。
In addition, the
また、サーバ装置1は、端末装置2の画面上で選択されたコンテンツを当該端末装置2に送信する。ただし、例えば、ログインした本人または当該本人と所定の関係(例えば親子関係、家族関係、友人関係等)にある人物が写っているコンテンツしか、サーバ装置1から端末装置2にダウンロードできない。そして、サーバ装置1は、送信したコンテンツに応じた金額を当該本人に課金する。
In addition, the
また、サーバ装置1は、選択されたコンテンツでアルバムを作成することができる。
The
次に、本実施の形態の詳細を説明する。図1は、本実施の形態におけるコンテンツ共有システムの概念図である。コンテンツ共有システムは、サーバ装置1と、複数の端末装置2とを備える。
Next, details of the present embodiment will be described. FIG. 1 is a conceptual diagram of a content sharing system according to the present embodiment. The content sharing system includes a
サーバ装置1と端末装置2は、コンピュータシステムによって実現され、MPUと、メモリと、ハードディスクドライブと、メモリカードスロットと、通信モジュールと、キーボード等の入力デバイスと、ディスプレイやスピーカー等の出力デバイスとを有する。なお、ここで挙げたハードウェアは例示に過ぎない。
The
サーバ装置1は、各端末装置2とインターネットを介して通信可能に接続され、各端末装置2を利用するユーザの間でコンテンツの共有を実現する。ここでいうコンテンツは、ユーザが撮影した画像(写真や動画等)である。これによって、各ユーザは、自分が保有しているコンテンツを端末装置2からサーバ装置1にアップロードする一方、所望の人物が写っているコンテンツをサーバ装置1から端末装置2にダウンロードできるようになる。
The
サーバ装置1について説明する。図2は、本実施の形態におけるサーバ装置1のブロック図である。サーバ装置1は、格納部11、受信部12、処理部13、送信部14を備える。
The
格納部11は、第一格納部111、第二格納部112、第三格納部113、第四格納部114、第五格納部115、第六格納部116を含む。受信部12は、第一受信部121、第二受信部122、第三受信部123を含む。処理部13は、検索部131、計算部132、課金部133、作成部134、蓄積部135を含む。
The
格納部11には、コンテンツ、各種の情報や管理表(後述)などが格納される。コンテンツは、各端末装置2からアップロードされた画像である。また、コンテンツは、本コンテンツ共有システムの外部から取得されたものであってもよい。各種の情報や管理表は、コンテンツの共有を実現するために利用される。
The
なお、格納部11は、不揮発性の記録媒体または揮発性の記録媒体で実現可能である。また、格納部11にコンテンツ等が記憶される過程は問わない。例えば、コンテンツ等が、着脱可能な記録媒体を介して記憶されてもよく、端末装置2から通信回線等を介してサーバ装置1に記憶されてもよく、あるいは、入力デバイスを介して記憶されてもよい。
The
第一格納部111は、複数の端末装置2から送信された画像である1以上のコンテンツが格納される。コンテンツは、当該画像が撮影された時刻を示す時刻情報と、当該画像が撮影された位置(言い換えると、当該画像を撮影したカメラの位置)を示す位置情報とのいずれか一方が対応付いている。
The first storage unit 111 stores one or more contents that are images transmitted from the plurality of
第二格納部112は、人物の顔画像と、人物を識別する人物識別子とを有する1以上の人物情報が格納される。顔画像は、例えば、顔を含む画像であり、人物を撮影した画像から、二値化、輪郭線抽出等の処理を経て、顔と判断される部分の画像を抜き出したものである。人物識別子は、アカウントやメールアドレスなど、人物を識別可能なデータであれば、その種類は問わない。
The
第三格納部113は、少なくとも、期間を示す期間情報と、当該期間に行われるイベントを示すイベント情報とが対応付けて格納される。この情報を、スケジュール情報と呼ぶ。スケジュール情報には、期間情報およびイベント情報に加えて、当該イベントが行われる場所を示す場所情報や、当該イベントを行う主体を示す主体情報などがさらに含まれてもよい。
The
第四格納部114は、人物識別子とパスワードとが対にして格納される。具体的には、本コンテンツ共有システムを初めて利用する人物は、自分に関する人物識別子(例えばアカウント)と、任意に決めたパスワードとを端末装置2を介して入力する。こうして入力された人物識別子およびパスワードの対が、当該人物が本コンテンツ共有システムにログインするためのログイン情報として、第四格納部114に格納される。
The
第五格納部115は、第四格納部114に格納されている人物識別子と、他の1以上の人物の人物識別子とが対にして格納される。他の1以上の人物とは、第四格納部114に格納されている人物識別子に対応する人物(本人)と所定の関係にある1以上の人物である。所定の関係とは、例えば家族の関係、友人の関係等である。第五格納部115は、ログインしている本人の人物識別子と、その家族や友人に関する人物識別子とを対にして格納される。
The
第六格納部116は、コンテンツの価格に関する価格情報が格納される。価格情報には、個々のコンテンツの価格、またはコンテンツに共通の単価が記述される。コンテンツのサイズによって異なる単価や、コンテンツの数に応じた割引率などが記述されてもよい。
The
受信部12は、端末装置2から送信された命令、データ、要求(例えば検索指示、コンテンツ、ログイン要求)などを受信する。なお、受信部12は、通信モジュールで実現されるが、放送を受信するモジュールであってもよい。すなわち、端末装置2から送信される命令等は、サーバ装置1に向けたユニキャストであるが、送信先を特定しないブロードキャストでもよく、受信部12は、いずれの態様で送信された命令等でも受信可能である。
The receiving
特に、第一受信部121は、人物の指定に関する情報である人物指定情報を含む検索指示を受信する。人物指定情報は、端末装置2において構成(作成)され、人物ID、顔画像ないしはその特徴情報などの人物を指定する情報である。この人物指定情報において、画像が複数の人物(例えば複数の顔画像)を有する場合は、当該複数の人物のうち1人の人物に対する指定操作により構成(作成)される。または、人物指定情報は、端末装置2において人物IDを指定する指定操作により構成(作成)されてもよい。なお、特徴情報とは、顔の特徴、例えば、目や鼻や顎といった各部位の相対位置、大きさ、形状、色などに関する情報をいう。
In particular, the
また、第二受信部122は、各端末装置2から送信されたコンテンツを受信する。
In addition, the
また、第三受信部123は、端末装置2から送信されたログイン要求を受信する。ログイン要求では、人物識別子とパスワードとが指定される。人物識別子およびパスワードの指定は、端末装置2の入力手段を介して行われる。第三受信部123は、キーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
In addition, the
処理部13は、コンテンツの共有を実現するための各種の処理、例えば検索処理、人物位置計算処理、課金処理、アルバム作成処理、コンテンツ蓄積処理などを実行する。なお、処理部13は、MPUやメモリ等から実現され、その処理手順は、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。 The processing unit 13 executes various processes for realizing content sharing, such as search processing, person position calculation processing, billing processing, album creation processing, content storage processing, and the like. The processing unit 13 is realized by an MPU, a memory, and the like, and the processing procedure is realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
特に、検索部131は、第一受信部121が受信した検索指示に含まれる人物指定情報に対応する人物が写っている1以上のコンテンツを検索する。ここでは、顔認識によって、当該人物の顔画像を含んでいると判断される。検索に当たっては、事前に顔認識を行って、各コンテンツに写っている人物を特定してもよく、リアルタイムに顔認識を行って、各コンテンツに写っている人物を順次特定してもよい。
In particular, the
また、人物指定情報が人物識別子を有する場合、検索部131は、人物指定情報に含まれる人物識別子と対になる人物の顔画像を第二格納部112から取得し、顔画像と予め決められた関係を有する画像を一部に含むコンテンツを検索する。
When the person designation information has a person identifier, the
また、コンテンツに時刻に関する時刻情報や位置に関する位置情報が対応付き、検索指示が時刻情報や位置情報を含む場合、検索部131は、検索指示に含まれる時刻情報や位置情報に対応するコンテンツを決定する。
Further, when the time information related to the time and the position information related to the position are associated with the content, and the search instruction includes the time information and the position information, the
また、検索部131は、人物指定情報に対応する顔画像と、第一格納部111に格納されている1以上のコンテンツに含まれている各顔画像との間の類似度を閾値とを比較することで、各コンテンツが人物指定情報に対応する顔画像を含んでいるか否かを判断し、かつ、検索に時刻情報または位置情報(あるいはその両方)を使用する場合と、検索に時刻情報も位置情報も使用しない場合とで、当該閾値を変更する。
In addition, the
例えば、検索に時刻情報または位置情報(あるいはその両方)を使用する場合は閾値を相対的に大きくする一方、検索に時刻情報も位置情報も使用しない場合は閾値を相対的に小さくしてよい。閾値を大きくすると、各コンテンツが人物指定情報に対応する顔画像を含んでいるか否かの判断が厳しくなって、人物検索の精度が上がる半面、人物指定情報に対応する顔画像を含んでいると判断されるコンテンツの数が少なくなるが、時刻情報または位置情報による絞り込み検索を併用する(人物検索の結果と絞り込み検索の結果との和集合を検索部131の検索結果とする)ことで、人物検索の漏れを補うことができるからである。 For example, when time information and / or position information (or both) are used for the search, the threshold value may be relatively increased, while when neither time information nor position information is used for the search, the threshold value may be relatively small. If the threshold value is increased, it becomes difficult to determine whether each content includes a face image corresponding to the person designation information, and the accuracy of the person search is improved, but the face image corresponding to the person designation information is included. Although the number of contents to be determined is reduced, by using a refinement search based on time information or location information (a sum set of a person search result and a refinement search result is used as a search result of the search unit 131), This is because a search leak can be compensated.
閾値を小さくすると、各コンテンツが人物指定情報に対応する顔画像を含んでいるか否かの判断が甘くなって、人物指定情報に対応する顔画像を含んでいると判断されるコンテンツの数が増えるので、時刻情報または位置情報による絞り込み検索を併用する必要性は低い。ただし、閾値をより小さくして、人物指定情報に対応する顔画像を含んでいると判断されるコンテンツの数が増え過ぎた場合は、人物検索の結果と絞り込み検索の結果との積集合を検索部131の検索結果とすることで、人物検索の誤りが取り除かれるようにしてもよい。
If the threshold value is decreased, it is not easy to determine whether each content includes a face image corresponding to the person designation information, and the number of contents determined to include a face image corresponding to the person designation information increases. Therefore, it is not necessary to use a refinement search based on time information or position information. However, if the number of contents judged to include a face image corresponding to the person designation information is increased too much by making the threshold smaller, the product set of the person search result and the refined search result is searched. The search result of the
計算部132は、第一格納部111に格納されている1以上のコンテンツについて、当該コンテンツに写っている各人物の位置を計算する。すなわち、各コンテンツに対応付いた時刻情報は、当該コンテンツがカメラで撮影された時刻を示し、同じく位置情報は、当該コンテンツを撮影したカメラの位置を示している。そして、各コンテンツには、当該コンテンツを撮影したカメラの画角および焦点距離の少なくとも一方に関する光学情報がさらに対応付いており、当該コンテンツに写っている各人物の位置は、各コンテンツに対応付いた位置情報および光学情報を用いて計算される。この場合、検索部131は、検索指示に含まれる時刻情報と位置情報とに対応する1以上のコンテンツを決定する際に、計算部132によって計算された人物位置を検索指示に含まれる位置情報の示す位置と比較する。
For the one or more contents stored in the first storage unit 111, the
課金部133は、第六格納部116に格納されている価格情報を参照して、送信部14が端末装置2にダウンロードしたコンテンツに対応する金額を、当該端末装置2のユーザに対して課金する。
The charging
作成部134は、画面上で選択された1以上のコンテンツを用いてアルバムを作成する。アルバムは、例えば、1つ以上の頁を含み、1以上のコンテンツは、各頁に配置される。コンテンツを頁内に配置する際には、左上、右上、左下、右下のように単純に並べていっても、所定のレイアウト情報に従ってサイズや向きを調整しながら配置してもよい。
The
また、作成部134は、例えば、各コンテンツに対応する時刻情報を用いて1以上のコンテンツをソートし、ソートした順序でコンテンツをアルバム中に配置してもよい。また、各コンテンツに対応する時刻情報をスケジュール情報に含まれる時刻情報と比較することで、1以上のコンテンツをイベント毎に配置することも可能である。さらには、アルバムの頁に地図の画像を貼り、各コンテンツに対応する位置情報を用いて、1以上のコンテンツを地図上に配置する方法もある。
For example, the
蓄積部135は、第二受信部122によって受信されたコンテンツを第一格納部111に蓄積する。これにより、第一格納部111には、各端末装置2からアップロードされたコンテンツが格納される結果となる。
The
送信部14は、端末装置2に各種のデータ、例えばコンテンツや画面情報を送信する。画面情報は、コンテンツの選択や人物の指定を行うための画面に関する情報である。なお、送信部14は、通信手段で実現されるが、放送手段で実現されても良い。
The
特に、送信部14は、検索部131によって検索された1以上のコンテンツを送信する。コンテンツが、カメラで撮影された画像の画像データに加えて、撮影情報やサムネイルなどを含む場合は、送信部14は、画像データだけを送信してもよい。
In particular, the
また、検索部131が、検索指示に含まれる時刻情報(または時刻情報と位置情報と)に対応する1以上のコンテンツを決定した場合、送信部14は、検索部131が決定した1以上のコンテンツを有する画面であって、コンテンツの選択または人物の指定を行う画面の情報である画面情報を送信する。
When the
また、各コンテンツに時刻に関する時刻情報が対応付いている場合、送信部14は、検索部131によって検索された1以上のコンテンツを送信する際に、当該コンテンツに対応付いている時刻情報と、第三格納部113に格納されている各期間情報とを比較して、当該コンテンツが撮影された時刻を含む期間情報に対応するイベント情報を特定し、当該特定したイベント情報を当該コンテンツに対応付けて送信する。
Further, when time information related to time is associated with each content, when the
また、送信部14は、端末装置2において、画面情報に基づいて出力された画面上でコンテンツが選択されたとき、当該選択されたコンテンツを当該端末装置2の端末格納部21にダウンロードする。
In addition, when content is selected on the screen output based on the screen information in the
但し、送信部14は、ログイン要求で指定された人物識別子とパスワードとの対が第四格納部114に格納されている場合に画面上でコンテンツの選択を受け付け、そして当該コンテンツに、ログイン要求で指定された人物識別子に対応する人物、または第五格納部115に当該ログイン要求で指定された人物識別子と対応付けて格納されている人物識別子に対応する人物、が写っている(当該人物の顔画像が含まれている)場合に当該コンテンツをダウンロードする。
However, the
次に、端末装置2について説明する。図3は、本実施の形態における端末装置2のブロック図である。端末装置2は、端末格納部21、端末受信部22、端末処理部23、端末送信部24を備える。
Next, the
端末格納部21には、例えば、サーバ装置1に送信(アップロード)するコンテンツ、サーバ装置1から受信(ダウンロード)したコンテンツ、サーバ装置1から受信した画面情報などが格納される。端末受信部22は、サーバ装置1から送信されたコンテンツ、画面情報などを受信する。
The
端末処理部23は、画面情報に基づく画面を出力したり、画面上で行われるコンテンツ選択操作や人物指定操作を受け付けたり、受け付けた人物指定操作を基に人物指定情報を構成(作成)したりする。なお、画面出力は、ディスプレイへの出力や、外部ディスプレイ等への送信である。また、受け付けとは、キーボードや、タッチパネルなどの入力手段から入力された情報の受け付け、通信回線を介して送信された情報の受信、記録媒体から読み出された情報の受け付けなどを含む概念である。端末処理部23は、例えばMPU等によって実現される。
The
端末送信部24は、端末格納部21に格納されているコンテンツ、人物指定情報を含んだ検索指示、本コンテンツ共有システムへのログイン要求などをサーバ装置1に送信する。
The
以下、本実施の形態におけるコンテンツ共有システムの動作について、具体例を交えながら説明する。なお、ここで挙げる具体例は、小学校の運動会で生徒の父兄が撮影した画像の共有であるが、例示に過ぎない。サーバ装置1は、コンテンツ共有システムの運営主体(例えば小学校(または委託を受けた事業者等))に設置され、その職員によって操作される。端末装置2は、スマートフォンなどであり、生徒の父兄によって操作される。
Hereinafter, the operation of the content sharing system in the present embodiment will be described with specific examples. In addition, although the specific example given here is sharing of the image | photographed by the parents of the student at the athletic meet of an elementary school, it is only an illustration. The
まず、サーバ装置1の動作について図4〜図7のフローチャートを用いて説明する。
First, operation | movement of the
運動会の終了後、職員は、運動会のスケジュールを示すスケジュール情報と、コンテンツの価格に関する価格情報とをサーバ装置1に入力する。スケジュール情報は、期間を示す期間情報と、当該期間に行われるイベントを示すイベント情報とで構成される。
After the athletic meet, the staff inputs to the
(ステップS401)最初、受付部12が、入力デバイスを介してスケジュール情報の入力を受け付ける。入力されたスケジュール情報は、図11に示すように、処理部13によって、スケジュールIDを割り当てられ、期間情報とイベント情報とを対にした形式で第三格納部113に書き込まれる。スケジュールIDは、例えば、記録媒体におけるレコードであり、第三格納部113から必要な情報を読み出すとき参照される。
(Step S401) First, the receiving
(ステップS402)引き続き、受付部12は、価格情報の入力を受け付ける。価格情報には、例えば、コンテンツに共通の単価、コンテンツのサイズによって異なる単価、ダウンロードするコンテンツの数量に応じた値引き率、といった情報が含まれる。入力された価格情報は、処理部13によって第六格納部116に書き込まれる。スケジュール情報および価格情報の入力が完了すると、サーバ装置1は、端末装置2からアクセス可能な状態になる。コンテンツ共有システムを初めて利用する父兄は、端末装置2からインターネットを介してサーバ装置1にアクセスして、ログイン情報の登録を行う。具体的には、父兄が、自分の人物IDとパスワードとを入力すると、端末装置2からサーバ装置1にログイン情報登録要求が送信される。
(Step S402) Subsequently, the
(ステップS403)処理部13は、端末装置2から送信されたログイン情報登録要求を受信部12が受信したか否かを判別する。ログイン情報登録要求には、送信元である端末装置2の端末識別情報と、当該端末装置2の入力手段を介して入力された人物IDおよびパスワードの対と、当該人物IDおよびパスワードの対をログイン情報として登録するよう要求するコマンドとが含まれている。ログイン情報登録要求が受信された場合はステップS404に進み、受信されない場合はステップS405に進む。
(Step S403) The processing unit 13 determines whether or not the receiving
(ステップS404)処理部13は、ログイン情報登録要求に応じて、これに含まれている人物IDおよびパスワードの対を第四格納部114に書き込む。かかる書き込みが1回以上行われることで、第四格納部114には、人物IDおよびパスワードの対が1組以上格納される結果となる。その後、ステップS403に戻る。父兄は、登録したログイン情報を端末装置2に入力することで、コンテンツ共有システムにログインする。入力されたログイン情報は、端末装置2からサーバ装置1に送信される。
(Step S <b> 404) In response to the login information registration request, the processing unit 13 writes the person ID and password pair included in the
(ステップS405)処理部13は、端末装置2から送信されたログイン要求を第三受信部123が受信したか否かを判別する。ログイン要求は、送信元である端末装置2に関する端末識別情報と、端末装置2の入力手段を介して入力された人物IDおよびパスワードの対と、当該人物IDに対応する人物のログインを要求するコマンドとを含んでいる。ログイン要求が受信された場合はステップS406に進み、受信されない場合はステップS408に進む。
(Step S405) The processing unit 13 determines whether or not the
(ステップS406)処理部13は、ログイン要求に応じて、これに含まれる人物IDおよびパスワードの対に対応するログイン情報が第四格納部114に格納されているか否かを判別する。対応するログイン情報が格納されている場合は、当該人物IDに対応する人物(つまりログイン操作を行った人物)のログインを許可すると判断し、ステップ407に進む。対応するログイン情報が格納されていない場合はログインを許容しないと判断し、ステップS403に戻る。なお、ステップS403に戻る際に、例えば、人物IDまたはパスワードが正しくない旨のエラー通知を、送信部14から端末装置2に送信してもよい。
(Step S <b> 406) In response to the login request, the processing unit 13 determines whether login information corresponding to the pair of person ID and password included therein is stored in the
(ステップS407)処理部13は、ログイン操作を行った人物のログインを許容したことに伴い、ログイン管理表を更新する。ログイン管理表は、本コンテンツ共有システムにログインしている人物と、人物が操作している端末装置2とを管理するための表であり、これら人物の人物IDと端末装置2の端末識別情報とを対にして記述される。処理部13が行う更新とは、ログイン要求に含まれる人物IDおよびパスワードの対を、ログイン管理表に書き込む処理である。
(Step S <b> 407) The processing unit 13 updates the login management table in response to allowing the login of the person who performed the login operation. The login management table is a table for managing the person who is logged in to the content sharing system and the
これによって、父兄の人物IDと、端末装置2のIPアドレスとの対が、ログインしている人物の人物IDおよび端末識別情報としてログイン管理表に書き込まれる。
As a result, the pair of the parent's person ID and the IP address of the
父兄は、次に、端末装置2の入力手段を介して、自分に関する人物情報の登録を行う。具体的には、父兄が、端末格納部21に格納されているコンテンツの中から自分の顔画像を指定すると、端末装置2からサーバ装置1に人物情報登録要求が送信される。
Next, the parents register personal information about themselves via the input means of the
(ステップS408)処理部13は、端末装置2から送信された人物情報登録要求を受信部12が受信したか否かを判別する。人物情報登録要求は、送信元である端末装置2に関する端末識別情報と、当該端末装置2の入力手段を介して入力された人物IDおよび当該人物が写っている写真から取り込まれた顔画像(または顔画像の特徴情報)の対と、当該人物IDおよび顔画像の対を人物情報として登録するよう要求するコマンドとが含まれている。人物情報登録要求が受信された場合はステップS409に進み、受信されない場合はステップS410に進む。
(Step S <b> 408) The processing unit 13 determines whether or not the receiving
(ステップS409)処理部13は、人物情報登録要求に応じて、これに含まれている人物IDおよび顔画像の対を第二格納部112に書き込む。これによって、父兄の人物IDと父兄の顔画像(または特徴情報)との対が第二格納部112に格納される。かかる書き込みが1回以上行われることで、第二格納部112には、図12(A)に示すように、人物IDおよび顔画像の対が1組以上格納される結果となる。その後、ステップS403に戻る。
(Step S409) In response to the person information registration request, the processing unit 13 writes the pair of the person ID and the face image included therein in the
父兄は、次に、自分と所定の関係にある人物(小学校の生徒である我が子)に関する人物情報(関係人物情報)の登録を行う。具体的には、父兄が、端末格納部21に格納されているコンテンツの中から我が子の顔画像を指定して、我が子の人物ID(関係人物ID)を入力すると、端末装置2からサーバ装置1に関係人物情報登録要求が送信される。
Next, the parents register personal information (related person information) related to a person (my child who is a student at an elementary school) who has a predetermined relationship with him. Specifically, when the parents specify the face image of the child from the contents stored in the
(ステップS410)処理部13は、端末装置2から送信された関係人物情報登録要求を受信部12が受信したか否かを判別する。関係人物情報登録要求には、送信元である端末装置2に関する端末識別情報と、当該端末装置2を操作している本人の人物IDと、本人と所定の関係にある1以上の人物に関して入力された人物ID(関係人物ID)および顔画像の対と、当該関係人物IDおよび顔画像の対を、本人の人物IDに対応する関係人物情報として登録するよう要求するコマンドとが含まれている。関係人物情報登録要求が受信された場合はステップS409に進み、受信されない場合はステップS410に進む。
(Step S410) The processing unit 13 determines whether or not the receiving
(ステップS411)処理部13は、関係人物情報登録要求に応じて、まず、本人の人物情報が登録されているか否かを判別する。関係人物情報登録要求に含まれている本人の人物IDおよび顔画像の対が第二格納部112に格納されている場合、本人の人物情報は登録されていると判別して、ステップS412に進む。本人の人物IDおよび顔画像の対が第二格納部112に格納されていない場合、本人の人物情報は登録されていないと判別して、ステップS403に戻る。なお、ステップS403に戻る際に、例えば、まず自分の人物情報を登録するように促す通知を、送信部14から端末装置2に送信してもよい。
(Step S411) In response to the related person information registration request, the processing unit 13 first determines whether or not the personal information of the person is registered. If the person ID and face image pair included in the related person information registration request is stored in the
(ステップS412)処理部13は、次に、関係人物情報登録要求に含まれている1以上の関係人物IDおよび顔画像の対を、本人の人物IDに対応する関係人物情報として第五格納部115に書き込む。例えば、父兄の人物IDに関して、関係人物IDと、これに対応する顔画像との対が第五格納部115に書き込まれる。かかる書き込みが1回以上行われることで、第五格納部115には、図12(B)に示すように、第二格納部112に格納されている人物IDに対応して、関係人物IDおよび顔画像の対が格納される結果となる。その後、ステップS403に戻る。
(Step S412) Next, the processing unit 13 uses the pair of one or more related person IDs and face images included in the related person information registration request as the related person information corresponding to the person ID of the fifth storage unit. 115 is written. For example, a pair of a related person ID and a face image corresponding to the related person ID is written in the
なお、第五格納部115には、第二格納部112に格納されている各人物IDに関して、関係人物IDと顔画像との対に代えて、関係人物IDと、顔画像の特徴情報との対が格納されてもよい。または、第二格納部112に、人物IDと顔画像(またはその特徴情報)との対に加えて、関係人物IDと顔画像(またはその特徴情報)との対がさらに格納され、第五格納部115には、人物IDと、関係人物IDとの対が格納されてもよい。
In the
また、第五格納部115には、父兄の子供(小学校に通う我が子)に限らず、家族(配偶者・親・兄弟等)、友人などについて、関係人物IDと顔画像との対が格納されてもよい。処理部13は、第五格納部115に関係人物IDおよび顔画像を書きむに当たって、本システムにログインしている人物と、当該人物が登録しようとしている人物とが所定の関係(例えば親子関係、家族関係、友人関係等)であることの確認処理を行ってもよい。確認処理は、例えば、予め登録されている個人情報との照合などにより行える。
The
以上で、コンテンツ共有システムの利用に必要な情報の登録は完了となる。以降、父兄は、端末装置2の端末格納部21に格納されているコンテンツをサーバ装置1にアップロードしたり、サーバ装置1の第一格納部111に格納されているコンテンツの中から我が子が写っているコンテンツを検索して、端末装置2の端末格納部21にダウンロードしたりできるようになる。
This completes registration of information necessary for using the content sharing system. Thereafter, the parents upload the content stored in the
(ステップS413)処理部13は、端末装置2から送信されたコンテンツを第二受信部122が受信したか否かを判断する。コンテンツには、送信元である端末装置2に関する端末識別情報と、当該コンテンツのアップロード操作を行った人物の人物IDとが付加されている。コンテンツが受信された場合はステップS414に進み、受信されない場合はステップS418に進む。
(Step S413) The processing unit 13 determines whether or not the
(ステップS414)蓄積部135が、受信されたコンテンツを、当該コンテンツを識別するコンテンツIDと対応付けて第一格納部111に蓄積する。かかる蓄積が1回以上行われることで、第一格納部111には、図13に示すように、コンテンツIDおよびコンテンツの対が1組以上格納される結果となる。
(Step S414) The
コンテンツは、例えば、カメラで撮影された画像(写真または動画)の画像データと、当該画像を撮影したカメラの撮影条件に関する情報である撮影情報と、当該画像を代表する代表画像(例えばサムネイル)などを含む、画像ファイルであってもよい。ただし、コンテンツは、必ずしも画像ファイルの形式を有している必要はなく、例えば、画像データそのものであってもよい。コンテンツが画像データ自体である場合、コンテンツに撮影情報、サムネイルなどが付加されてもよい。また、サムネイルは、画像データのサイズ、画面のサイズ、画面内のコンテンツの数などによっては、必ずしも縮小画像である必要はない。 The content includes, for example, image data of an image (photo or video) taken by a camera, shooting information that is information on shooting conditions of the camera that shot the image, and a representative image (for example, a thumbnail) that represents the image. May be an image file. However, the content does not necessarily have the image file format, and may be, for example, image data itself. When the content is image data itself, shooting information, thumbnails, and the like may be added to the content. The thumbnail does not necessarily have to be a reduced image depending on the size of the image data, the size of the screen, the number of contents in the screen, and the like.
撮影情報は、写真等をカメラで撮影した時刻を示す時刻情報と、カメラの位置を示す位置情報と、写真等を撮影したときのカメラの画角や焦点距離に関する光学情報などを含む。位置情報は、例えばGPSから取得した情報であり、一例として(緯度,経度)で表現された位置座標と、南東、北北西のように表現された撮影方向とを示す情報が記述されている。ただし、位置情報は、カメラの位置および撮影方向を特定可能な情報であればよく、表現形式は問わない。 The shooting information includes time information indicating the time when a photograph or the like is taken by the camera, position information indicating the position of the camera, optical information regarding the angle of view and focal length of the camera when the photograph or the like is taken. The position information is information acquired from, for example, GPS, and describes information indicating position coordinates expressed as (latitude, longitude) and shooting directions expressed as southeast and north-northwest as an example. However, the position information only needs to be information that can specify the position and shooting direction of the camera, and the expression format is not limited.
(ステップS415)処理部13は、コンテンツに写っている人物を特定する。具体的には、例えば、写真等の画像データに対して二値化および輪郭線検出といった処理を施すことで、当該画像データから顔画像と判断される1以上の部分の画像データを抽出し、抽出した各部分の画像データと、第二格納部112に格納されている各顔画像データのとの間で類似度を求める。
(Step S415) The processing unit 13 specifies a person shown in the content. Specifically, for example, by performing processing such as binarization and contour detection on image data such as a photograph, one or more portions of image data determined as a face image are extracted from the image data, A similarity is obtained between the extracted image data of each part and each face image data stored in the
そして、類似度が閾値よりも高い組み合わせが1つ以上あった場合、当該画像データは第二格納部112に格納されている顔画像データを含んでいるとみなして、第二格納部112から、顔画像データに対応する1以上の人物IDを取得する。こうして、コンテンツに写っている1以上の人物を特定が特定される。
If there is one or more combinations whose similarity is higher than the threshold value, the image data is regarded as including the face image data stored in the
(ステップS416)計算部132は、コンテンツに対応付いた位置情報および光学情報を用いて、特定された人物位置を計算する。具体的には、位置情報には、コンテンツを撮影したカメラの位置および撮影方向が記述され、光学情報には、撮像素子のサイズ、レンズの焦点距離などが記述されている。
(Step S416) The
まず、撮像素子のサイズと、コンテンツのフレームサイズに対する人物画像(と判断される領域)のサイズの割合から、撮像素子上に結像した人物像のサイズを求める。 First, the size of the person image formed on the image sensor is obtained from the size of the image sensor and the ratio of the size of the person image (the area determined to be) to the frame size of the content.
次に、焦点距離と、人物の身長と、撮像素子上に結像した人物像のサイズとから、カメラから当該人物までの距離を求める。人物の身長については、平均身長を用いる。例えば、焦点距離が300mm、人物の平均身長が140cm(=1.4m)の場合、撮像素子上に結像した人物像のサイズが6mmであったとすると、カメラから人物までの距離は、1.4×300/6=70mであり、従って、カメラの位置から撮影方向に向かって70m移動した位置が、人物位置となる。なお、焦点距離に代えて画角が光学情報に記述されている場合は、画角と撮像素子のサイズとを基に公知の計算式で焦点距離を求めた後、上記と同様の計算を行えばよい。 Next, the distance from the camera to the person is obtained from the focal length, the height of the person, and the size of the person image formed on the image sensor. The average height is used for the height of the person. For example, if the focal length is 300 mm and the average height of a person is 140 cm (= 1.4 m), and the size of the person image formed on the image sensor is 6 mm, the distance from the camera to the person is 1. 4 × 300/6 = 70 m. Therefore, the position moved by 70 m from the camera position in the shooting direction is the person position. When the angle of view is described in the optical information instead of the focal length, the focal length is obtained by a known calculation formula based on the angle of view and the size of the image sensor, and then the same calculation as above is performed. Just do it.
(ステップS417)処理部13は、人物位置管理表を更新する。人物位置管理表は、第一格納部111に格納されている1以上のコンテンツについて、当該コンテンツに写っている人物の位置を管理するための表である。人物位置管理表の一例を図14に示す。人物位置管理表には、コンテンツ毎に、写っている人物の人物IDと、当該1以上の人物それぞれの位置とが対にして記述されている。物位置管理表の更新とは、ステップS414で蓄積されたコンテンツのコンテンツIDと、ステップS415で特定された人物IDと、ステップS416で計算された人物の位置とを、かかる人物位置管理表に書き込む処理である。その後、ステップS403に戻る。 (Step S417) The processing unit 13 updates the person position management table. The person position management table is a table for managing the position of a person shown in the content for one or more contents stored in the first storage unit 111. An example of the person position management table is shown in FIG. In the person position management table, for each content, the person ID of the person shown and the position of each of the one or more persons are described as a pair. In the update of the object position management table, the content ID of the content accumulated in step S414, the person ID specified in step S415, and the position of the person calculated in step S416 are written into the person position management table. It is processing. Thereafter, the process returns to step S403.
こうして、父兄が端末装置2からコンテンツをアップロードする度に、アップロードされたコンテンツに関し、特定された人物の人物IDと、計算された人物の位置との対が、人物位置管理表に追記されていく。
In this way, each time the parents upload content from the
他の父兄も同様に、コンテンツのアップロードを自分の端末装置2から行うことで、サーバ装置1の第一格納部111には、運動会で撮影された多数のコンテンツが格納され、人物位置管理表には、各コンテンツに写った1以上の人物の人物IDと当該1以上の人物の位置との対が記述される結果となる。
Similarly, the other parents upload the content from their
そして、本コンテンツ共有システムでは、他の父兄がアップロードしたコンテンツに、偶然、我が子が写っている可能性がある。父兄は、端末装置2の入力手段を介して、我が子の人物IDを指定した検索指示操作を行うことで、サーバ装置1の第一格納部111に格納されているコンテンツの中から、我が子が写っているコンテンツを検索することができる。例えば、父兄が、我が子の人物IDを指定した検索指示操作を行うと、端末装置2からサーバ装置1に、人物IDを指定した検索指示が送信される。
In this content sharing system, there is a possibility that my child appears in the content uploaded by other parents. The parents perform a search instruction operation that specifies the person ID of my child via the input means of the
(ステップS418)処理部13は、人物IDを指定した検索指示を第一受信部121が受信したか否かを判別する。人物IDを指定した検索指示については、端末装置2のフローチャートで説明する。人物IDを指定した検索指示が受信された場合はステップS419に進み、受信されていない場合はステップS426に進む。
(Step S418) The processing unit 13 determines whether or not the
(ステップS419)処理部13は、指定された人物IDに対応する顔画像を第二格納部112または第五格納部115から取得する。関係人物が指定された場合、処理部13は、関係人物IDに対応する顔画像を第五格納部115から取得する。なお、例えば父兄自身の人物IDを指定した場合には、第二格納部112から人物IDに対応する顔画像が取得される。なお、図示はしていないが、指定された人物IDが第二格納部112にも第五格納部115にも格納されていない場合には、その旨のメッセージを送信部14から検索指示の送信元に送信した後、ステップS401に戻ればよい。
(Step S419) The processing unit 13 acquires a face image corresponding to the designated person ID from the
(ステップS420)検索部131は、取得された顔画像と予め決められた関係を有する画像を一部に含む1コンテンツを検索する。具体的には、まず、人物位置管理表(図14参照)を検索して、指定された人物IDを「写っている人物の人物ID」の中に含むような1以上のコンテンツが存在していれば、検索要求に対する検索結果を当該1以上のコンテンツに決定する。例えば、父兄の子供の人物ID(関係人物ID)を指定した検索要求に対しては、関係人物IDを「写っている人物の人物ID」の中に含むような2つのコンテンツ“1”および“2”が存在しているので、当該2つのコンテンツ“1”および“2”が検索結果に決定される。
(Step S420) The
次に、第一格納部111に格納されているコンテンツの画像データに対して、ステップS415で実行したものと同様の処理を順次行う。ステップS415は、新たなコンテンツが受信されたとき当該コンテンツに対して行われる処理なので、後から人物情報を登録した人物の人物IDは、人物位置管理表に記載されていない場合があるからである。 Next, the same processing as that executed in step S415 is sequentially performed on the image data of the content stored in the first storage unit 111. This is because step S415 is a process that is performed on the content when new content is received, and the person ID of the person who registered the person information later may not be described in the person position management table. .
すなわち、コンテンツ“1”の画像データに対し、二値化および輪郭線検出といった処理を施すことで、当該画像データから顔画像と判断される1以上の部分の画像データを抽出し、抽出した各部分の画像データと、取得された顔画像の画像データのとの間で類似度を求める。コンテンツ“2”以降についても同様に類似度を求め、そして、類似度が閾値よりも高い部分を含む1以上のコンテンツが存在する場合、検索部131は、検索要求に対する検索結果を当該1以上のコンテンツに決定する。なお、ここで決定された1以上のコンテンツについても、ステップS416と同様の人物位置計算が実行され、人物位置管理表に反映される。
That is, by performing processing such as binarization and contour detection on the image data of the content “1”, image data of one or more portions determined as face images is extracted from the image data, and each extracted A similarity is obtained between the image data of the part and the acquired image data of the face image. Similarly, for the content “2” and after, the similarity is obtained, and when there is one or more contents including a portion whose similarity is higher than the threshold, the
ところで、上記のような顔画像による人物検索では、例えば、顔画像の認識率が低い場合、有益な検索結果が得られない可能性がある。そこで、本コンテンツ共有システムでは、時刻および/または位置による絞り込みを併用している。すなわち、父兄は、上記のような検索指示を行う際に、時刻および/または位置を指定することができる。なお、時刻を指定する場合、“9:30”といった値がタッチパネル等の入力手段を介して入力されるのを受け付ける。位置を指定する場合には、例えば、端末装置2のディスプレイに運動場の地図画面を出力し、地図画面上で所望の点ないし範囲を指定する操作をタッチパネルで受け付ければよい。時刻が指定された場合、端末装置2は、当該指定時刻に関する時刻情報を上記の検索指示に含めて送信する。また、位置が指定された場合、端末装置2は、当該指定位置に関する時刻位置を上記の検索指示に含めて送信する。
By the way, in the person search using the face image as described above, for example, when the recognition rate of the face image is low, there is a possibility that a useful search result cannot be obtained. Therefore, in this content sharing system, narrowing down by time and / or position is used together. That is, the parents can specify the time and / or position when performing the search instruction as described above. When specifying the time, it is accepted that a value such as “9:30” is input via an input means such as a touch panel. When designating the position, for example, a map screen of an athletic field may be output on the display of the
(ステップS421)処理部13は、検索指示が時刻情報を含んでいるか否かを判別する。検索指示が時刻情報を含んでいる場合はステップS422に進み、含んでいない場合はステップS423に進む。 (Step S421) The processing unit 13 determines whether or not the search instruction includes time information. If the search instruction includes time information, the process proceeds to step S422; otherwise, the process proceeds to step S423.
(ステップS422)検索部131は、検索指示に含まれる時刻情報で絞り込みを行う。この絞り込みは、第一格納部111に格納されているコンテンツの中から、検索指示に含まれる時刻情報に対応する1以上のコンテンツを決定する処理である。検索指示に含まれる時刻情報に対応するコンテンツとは、当該コンテンツに含まれる時刻情報の示す時刻が、検索指示に含まれる時刻情報の示す時刻と一致するまたは近接する(両時刻の差分が閾値に満たない)コンテンツである。その後、ステップS423に進む。
(Step S422) The
(ステップS423)処理部13は、検索指示が位置情報を含んでいるか否かを判別する。検索指示が位置情報を含んでいる場合はステップS424に進み、含んでいない場合はステップS425に進む。 (Step S423) The processing unit 13 determines whether or not the search instruction includes position information. If the search instruction includes position information, the process proceeds to step S424, and if not, the process proceeds to step S425.
(ステップS424)検索部131は、検索指示に含まれる位置情報で絞り込みを行う。この位置情報に対応するとは、位置情報の示す位置が、検索指示に含まれる位置情報の示す位置と一致または近接する(両位置の差分が閾値に満たない)ことをいう。また、この絞り込みは、ステップS422がスキップされた場合には第一格納部111に格納されているコンテンツの中から、ステップS422が実行された場合には時刻情報で絞り込まれたコンテンツの中から、検索指示に含まれる位置情報に対応するコンテンツを決定する処理(第一格納部111に格納されているコンテンツの中から、検索指示に含まれる時刻情報と位置情報とに対応するコンテンツを決定する処理)である。例えば、位置“北緯,東経”が指定された場合、各コンテンツに含まれる位置情報を参照して、当該指定位置“北緯,東経”を中心とする任意のサイズや形状内で撮影されたコンテンツが検索結果に決定される。
(Step S424) The
なお、上で指定された位置は、コンテンツを撮影したカメラに関する位置であるが、カメラで撮影された人物に関する位置を指定することもできる。この場合、検索部131は、人物位置管理表の「写っている人物の位置」を参照して、指定された位置またはその近傍にいる人物が写っている1以上コンテンツを決定する。その後、ステップS425に進む。
The position specified above is a position related to the camera that captured the content, but a position related to the person captured by the camera can also be specified. In this case, the
(ステップS425)送信部14は、検索部131が決定したコンテンツを有する画面であり、コンテンツの選択または人物の指定を行う画面の情報である画面情報を、検索指示の送信元である端末装置2に送信する。ここでいうコンテンツとは、ステップS420で決定されたコンテンツと、ステップS422で決定されたコンテンツと、ステップS424で決定されたコンテンツとの和集合である。
(Step S425) The
和集合を採用しているのは、顔画像の認識率が低い場合にも有益な検索結果を得るためである。ただし、積集合を採用してもよく、例えば「徒競走でゴールを駆け抜ける我が子」が写っている写真を検索するといったことが可能となる。また、検索の度に、和集合と積集合とのいずれかを選択して採用するようにしてもよい。 The union is used to obtain useful search results even when the recognition rate of the face image is low. However, a product set may be adopted, and for example, it is possible to search for a photograph in which “my child who runs through the goal in a race” is shown. Further, each time a search is performed, either a union set or a product set may be selected and adopted.
なお、検索指示に時刻情報と位置情報との少なくとも1つが含まれている場合には、検索指示に時刻情報及び位置情報が含まれていない場合に比べて、顔画像による人物検索を行う際の閾値を上げてもよい。例えば、本比較を行い当該閾値を上げることで、顔画像の認識率が低くなっても、時刻情報または位置情報を用いて有意な検索結果が得られる可能性があるからである。 When at least one of time information and position information is included in the search instruction, compared to a case where the time information and position information are not included in the search instruction, a person search using a face image is performed. You may raise a threshold value. For example, by performing this comparison and raising the threshold value, a significant search result may be obtained using time information or position information even if the recognition rate of the face image is low.
一般には、検索部131は、検索に時刻情報と位置情報との少なくとも1つを用いる場合と、そうでない場合とで、当該閾値を変更する。これにより、顔画像の認識率が低くても、有意な検索結果が得られ易くなる。
In general, the
送信部14から送信される画面情報は、マークアップ言語で記述され、決定されたコンテンツに対応するサムネイルの画像データが埋め込まれている。ここでいうコンテンツは、サムネイルの画像データを含んでおり、サムネイルの画像データは、第一格納部111から取得される。
The screen information transmitted from the
好ましくは、送信部14は、決定されたコンテンツに対応するイベント情報を第三格納部113から取得し、そして、取得したイベント情報が、画面内でコンテンツと対応付けて表示されるように制御する制御情報を、画面情報に含めて送信する。コンテンツに対応するイベント情報とは、例えば、コンテンツが撮影された時刻を含む期間に行われていたイベントの情報である。イベント情報は、コンテンツに含まれる時刻情報を第三格納部113に格納されている各期間情報と比較することにより特定可能である。画面情報の送信後、ステップS403に戻る。
Preferably, the
端末装置2では、サーバ装置1から受信した画面情報を基に、図15に示すような画面がディスプレイに表示される。この画面には、検索部131が決定したコンテンツ(サムネイル)と、コンテンツとそれぞれ対応付けて表示されたスケジュール情報(期間情報(9:30〜10:00)やイベント情報(開会式))と、人物IDの入力欄と、時刻の入力欄と、位置の入力欄と、検索実行を指示するための検索ボタンと、アルバム作成を指示するためのアルバム作成ボタンと、ダウンロードを指示するためのダウンロードボタンとを含んでいる。コンテンツの中には、指定された人物IDまたは指定された顔画像に対応するコンテンツ、指定された時刻に対応するコンテンツ、指定された位置に対応するコンテンツなどが含まれる。また、コンテンツに対応付けてスケジュール情報が表示されているので、コンテンツが何時のイベント中に撮影されたものか分かる。
In the
父兄は、図15に示す画面からコンテンツを選択して、端末装置2の端末格納部21にダウンロードしたり、アルバムを作成したりすることができる。また、選択したコンテンツから顔画像を指定して、再度検索を行うこともできる。別の人物IDを入力して、検索を行うこともできる。検索を行う際に、絞り込みの条件として、時刻や位置を指定することもできる。なお、コンテンツを選択した際、端末装置2自身に関する端末識別情報と、コンテンツのコンテンツIDとが記述された選択結通知が作成される。
The parents can select content from the screen shown in FIG. 15 and download it to the
選択したコンテンツをダウンロードしたい場合、父兄は、コンテンツ選択に引き続き、ダウンロード指示操作を行う。これを受けて、端末装置2から、ダウンロード指示を含む選択結果通知がサーバ装置1に送信される。また、選択したコンテンツでアルバムを作成したい場合、父兄は、コンテンツ選択に引き続き、アルバム作成指示を行う。これを受けて、端末装置2から、アルバム作成指示を含む選択結果通知がサーバ装置1に送信される。
When the selected content is to be downloaded, the parents perform a download instruction operation following the content selection. In response, the
また、選択したコンテンツに写っている1以上の人物の中から任意の人物を検索したい場合、父兄は、コンテンツ選択に引き続き、その人物の顔画像を指定した検索操作を行う。これを受けて、端末装置2から、顔画像を指定した検索指示を含む選択結果通知がサーバ装置1に送信される。
When it is desired to search for an arbitrary person among one or more persons shown in the selected content, the parents perform a search operation specifying the face image of the person following the content selection. In response to this, a selection result notification including a search instruction specifying a face image is transmitted from the
(ステップS426)処理部13は、端末装置2から送信されたコンテンツ選択通知を受信部12が受信したか否かを判別する。コンテンツ選択通知には、送信元である端末装置2に関する端末識別情報と、画面上で選択されたコンテンツを示すコンテンツIDと、コンテンツの取り扱いに関する指示である指示情報とが含まれている。コンテンツ選択通知に含まれ得る指示情報は、ダウンロード指示、アルバム作成指示、または顔画像を指定した検索指示、のいずれかを示す指示情報である。コンテンツ選択通知が受信された場合はステップS427に進み、受信されない場合はステップS403に戻る。
(Step S426) The processing unit 13 determines whether or not the receiving
(ステップS427)処理部13は、受信されたコンテンツ選択通知がダウンロード指示を含んでいるか否かを判別する。コンテンツ選択通知がダウンロード指示を含んでいる場合はステップS428に進み、ダウンロード指示を含んでいない場合はステップS432に進む。 (Step S427) The processing unit 13 determines whether or not the received content selection notification includes a download instruction. If the content selection notification includes a download instruction, the process proceeds to step S428. If the content selection notification does not include a download instruction, the process proceeds to step S432.
(ステップS428)処理部13は、選択されたコンテンツ、つまりダウンロード指示の対象となっているコンテンツが、コンテンツを選択した本人またはその関係人物の写っているコンテンツであるか否かを判別する。 (Step S428) The processing unit 13 determines whether or not the selected content, that is, the content that is the target of the download instruction, is the content that shows the person who selected the content or the person concerned.
具体的には、まず、コンテンツ選択通知に含まれている端末識別情報でログイン管理表を検索して、ログインしている人物つまりコンテンツ選択を行った本人の人物IDを取得する。次に、第五格納部115を検索して、当該本人と所定の関係にある関係人物に対応する関係人物IDを取得する。さらに、コンテンツ選択通知に含まれるコンテンツIDで人物位置管理表を検索して、コンテンツIDに対応する「写っている人物の人物ID」の中に、取得した本人の人物IDまたは関係人物IDの少なくとも1つが含まれているか否かを判別する。そして、「写っている人物の人物ID」の中に、本人の人物IDまたは関係人物IDの少なくとも一つが含まれているコンテンツは、本人または関係人物が写っているコンテンツとみなされ、本人の人物IDまたは関係人物IDのいずれも含まれていないコンテンツは、本人または関係人物が写っていないコンテンツとみなされる。
Specifically, first, the login management table is searched with the terminal identification information included in the content selection notification, and the person ID of the logged-in person, that is, the person who selected the content is acquired. Next, the
選択されたコンテンツの全部が本人またはその関係人物の写っているコンテンツである場合はステップS429に進み、選択されたコンテンツの少なくとも1つが本人はたはその関係人物の写っていないコンテンツである場合は、ステップS431に進む。 If all of the selected content is content in which the person or related person is shown, the process proceeds to step S429, and if at least one of the selected contents is content in which the person or the related person is not shown, Then, the process proceeds to step S431.
(ステップS429)送信部14は、選択されたコンテンツを、端末装置2の端末格納部21にダウンロードする。例えば、父兄が選択したコンテンツに、父兄本人およびその子供の少なくとも一人が写っていれば、そのコンテンツは、サーバ装置1から端末格納部21にダウンロードされるが、本人も子供も写っていなければ、そのコンテンツのダウンロードは実行されない。これによって、プライバシーに配慮したコンテンツ共有が可能になる。
(Step S429) The
(ステップS430)課金部133は、ダウンロードされたコンテンツの代金を第六格納部116に格納されている価格情報に基づいて算出し、コンテンツ選択を行った本人に当該代金を課金する。なお、ダウンロードは、決済と同時に、または決済の後に実行されてもよい。その後、ステップS403に戻る。
(Step S430) The
(ステップS431)送信部14は、本人または関係人物が写っていないコンテンツが指定された旨を示すエラー通知を、コンテンツ選択通知の送信元である端末装置2に送信する。その後、ステップS403に戻る。
(Step S431) The
(ステップS432)処理部13は、受信されたコンテンツ選択通知がアルバム作成指示を含んでいるか否かを判別する。コンテンツ選択通知がアルバム作成指示を含んでいる場合はステップS433に進み、ダウンロード指示を含んでいない場合はステップS435に進む。 (Step S432) The processing unit 13 determines whether or not the received content selection notification includes an album creation instruction. If the content selection notification includes an album creation instruction, the process proceeds to step S433. If the content selection notification does not include a download instruction, the process proceeds to step S435.
(ステップS433)作成部134は、選択されたコンテンツを各頁に配置していくことによりアルバムを作成する。格納部11には、各頁内においてコンテンツが配置可能な領域を定義したレイアウト情報が格納されており、作成部134は、コンテンツをレイアウト情報に従って(サイズや向きを調整しながら)頁内に配置していく。これにより、見栄えの良いアルバムを作成できる。なお、レイアウト情報は用いずに、コンテンツを単純に並べて行ってもよい。これにより、簡易にアルバムを作成できる。または、端末装置2を介して複数のレイアウトを提示し、ユーザが選択したレイアウトを用いてアルバムを作成してもよい。これにより、ユーザの好みに合ったレイアウトのアルバムを作成できる。
(Step S433) The
(ステップS434)送信部14は、作成部134が作成したアルバムに関する情報であるアルバム情報をコンテンツ選択通知の送信元である端末装置2に送信する。アルバム情報は、例えば、選択されたコンテンツの画像データと、各頁の背景の画像データと、各頁のどの領域にどのコンテンツが配置されたかが記述されたレイアウト情報とを含む。端末装置2では、このようなアルバム情報に基づいてアルバムが構成され、アルバムの画面が出力される。なお、アルバム情報は、作成部134が作成したアルバムのビットマップ画像であってもよく、この場合、端末装置2では、アルバム情報に基づくアルバムの画面が出力される。アルバム情報の送信後、ステップS403に戻る。なお、アルバム作成を有料で行う場合には、アルバム情報の送信後、ステップS403の課金処理を経て、ステップS403に戻ってもよい。この場合の課金処理において、アルバムの代金は、例えば、使用したコンテンツの枚数に基づいて計算されてもよいし、アルバムの頁数に応じて計算されてもよく、代金の計算方法は問わない。
(Step S434) The
(ステップS435)処理部13は、顔画像を指定した検索指示を第一受信部121が受信したか否かを判別する。顔画像の指定は、ステップS425で送信された画面情報を受信した端末装置2において行われる。端末装置2では、画面情報に基づく画面が出力され、画面内のコンテンツから任意の人物の顔画像が指定されると、当該顔画像を指定した検索指示がサーバ装置1に送信される。なお、顔画像を指定した検索指示については、端末装置2のフローチャートで説明する。顔画像を指定した検索指示が受信された場合はステップS420に進み、受信されていない場合はステップS403に戻る。ステップS420では、当該顔画像を含むコンテンツの検索が行われ、さらにステップS421〜S424で絞り込みが行われた後、決定された1以上のコンテンツを含む画面の画面情報が送信されることになる。
(Step S435) The processing unit 13 determines whether or not the
なお、図4〜図7のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In the flowcharts of FIGS. 4 to 7, the process is terminated by power-off or a process termination interrupt.
次に、端末装置2の動作について図8〜図10のフローチャートを用いて説明する。なお、サーバ装置1の動作説明に付随して説明した事項は省略する。
Next, operation | movement of the
(ステップS801)端末処理部23は、ログイン情報登録操作が行われたか否かを判別する。ログイン情報登録操作とは、本コンテンツ共有システムのログイン情報の設定を行いたい人物が、入力デバイスを介して、自分自身に関する人物IDおよび自分で決めたパスワードの対を入力し、人物IDおよびパスワードの対をログイン情報としての登録するよう指示する操作である。ログイン情報登録操作が行われると、ステップS802に進み、行われなければステップS803に進む。
(Step S801) The
(ステップS802)端末送信部24は、ログイン情報登録要求をサーバ装置1に送信する。ログイン情報登録要求には、端末装置2自身の端末識別情報と、入力デバイスを介して入力された人物IDおよびパスワードの対と、当該人物IDおよびパスワードの対をログイン情報として登録するよう要求するコマンドとが含まれる。その後、ステップS801に戻る。
(Step S <b> 802) The
(ステップS803)端末処理部23は、ログイン操作が行われたか否かを判別する。ログイン操作とは、本コンテンツ共有システムにログインしたい人物が、事前に登録してある人物IDおよびパスワードの対を入力して、ログインを要求する操作である。ログイン要求操作が行われると、ステップS804に進み、行われなければステップS805に進む。
(Step S803) The
(ステップS804)端末送信部24は、ログイン要求をサーバ装置1に送信する。ログイン要求には、端末装置2自身の端末識別情報と、入力された人物IDおよびパスワードの対と、当該人物IDに対応する人物のログインを要求するコマンドとが含まれる。その後、ステップS801に戻る。
(Step S804) The
(ステップS805)端末処理部23は、人物情報の登録操作が行われたか否かを判別する。人物情報の登録操作とは、初めてログインした人物が、例えば、端末格納部21に格納されているコンテンツから自分の顔画像をタッチパネル等の入力デバイスで指定して、自分の人物IDおよび指定した顔画像の対を人物情報として登録するよう要求する操作である。人物情報の登録操作が行われると、ステップS806に進み、行われなければステップS807に進む。
(Step S805) The
(ステップS806)端末送信部24は、人物情報登録要求をサーバ装置1に送信する。人物情報登録要求には、端末装置2自身の端末識別情報と、ログイン時に入力された人物IDおよび上記のように指定された顔画像の対と、当該人物IDおよび顔画像の対を人物情報として登録するよう要求するコマンドとが含まれている。その後、ステップS801に戻る。
(Step S806) The
(ステップS807)端末処理部23は、関係人物情報の登録操作が行われたか否かを判別する。関係人物情報の登録操作とは、ログインしている本人が、例えば、端末格納部21に格納されているコンテンツから、自分と所定の関係にある人物(家族、親しい友人など)の顔画像を順次指定しつつ、人物の人物ID(関係人物ID)を入力し、人物に関する関係人物IDおよび顔画像の対を自分の関係人物情報として登録するよう要求する操作である。関係人物情報の登録操作が行われると、ステップS808に進み、行われなければステップS809に進む。
(Step S807) The
(ステップS808)端末送信部24は、関係人物情報登録要求をサーバ装置1に送信する。関係人物情報登録要求には、端末装置2自身の端末識別情報と、ログインしている本人の人物IDと、本人と所定の関係にある1以上の人物に関して入力された関係人物IDおよび顔画像の対と、当該関係人物IDおよび顔画像の対を、本人の人物IDに対応する関係人物情報として登録するよう要求するコマンドとが含まれている。その後、ステップS801に戻る。
(Step S808) The
(ステップS809)端末処理部23は、コンテンツのアップロード操作が行われたか否かを判別する。コンテンツのアップロード操作とは、端末格納部21に格納されているコンテンツをサーバ装置1の第一格納部111にアップロードする操作である。コンテンツのアップロード操作が行われると、ステップS810に進み、行われなければステップS811に進む。
(Step S809) The
(ステップS810)端末送信部24は、コンテンツをサーバ装置1に送信する。コンテンツには、端末装置2自身の端末識別情報と、ログインしている本人の人物IDとが付加されている。その後、ステップS801に戻る。
(Step S810) The
(ステップS811)端末処理部23は、人物IDを指定した検索指示操作が行われたか否かを判別する。人物IDを指定した検索指示操作とは、検索したい人物の人物IDを入力デバイスで入力して、検索の実行を指示する操作である。人物IDを指定した検索指示操作が行われるとステップS812に進み、行われなければステップS818に進む。
(Step S811) The
(ステップS812)端末処理部23は、検索指示を作成する。この検索指示には、端末装置2自身に関する端末識別情報と、入力された人物IDを含む人物指定情報と、検索の実行指示とが含まれる。その後、ステップS813に進む。
(Step S812) The
(ステップS813)端末処理部23は、時刻指定操作が行われたか否かを判別する。時刻指定操作とは、コンテンツを絞り込む際の条件として時刻を指定する操作である。時刻指定操作が行われるとステップS814に進み、行われなければステップS815に進む。
(Step S813) The
(ステップS814)端末送信部24は、作成した検索指示に、指定された時刻を示す時刻情報を付加する。その後、ステップS815に進む。
(Step S814) The
(ステップS815)端末処理部23は、位置指定操作が行われたか否かを判別する。位置指定操作とは、コンテンツを絞り込む際の条件として位置を指定する操作である。位置指定操作が行われるとステップS816に進み、行われなければステップS817に進む。
(Step S815) The
(ステップS816)端末送信部24は、作成した検索指示に、指定された位置を示す位置情報を付加する。その後、ステップS817に進む。
(Step S816) The
(ステップS817)端末送信部24は、作成した検索指示を送信する。人物IDを指定した検索指示は、時刻情報が付加されたものと、位置情報が付加されたものと、時刻情報および位置情報が付加されたものと、時刻情報も位置情報も付加されていないものとの4種類がある。顔画像を指定した検索指示もまた、同様の4種類が存在する。その後、ステップS801に戻る。
(Step S817) The
(ステップS818)端末処理部23は、サーバ装置1から送信された画面情報を端末受信部22が受信したか否かを判別する。画面情報が受信されるとステップS819に進み、受信されなければステップS801に戻る。
(Step S818) The
(ステップS819)端末処理部23は、受信された画面情報に基づく画面をディスプレイ等の出力デバイスに出力する。この画面には、ステップS817で送信した検索指示に応じてサーバ装置1の検索部131が決定したコンテンツが配置されている。また、画面には、コンテンツにそれぞれ対応付けて、「開会式」等のイベント情報が表示されている。コンテンツの中には、指定された人物IDまたは指定された顔画像に対応するコンテンツ、指定された時刻に対応するコンテンツ、指定された位置に対応するコンテンツなどが含まれる。コンテンツに対応付けてイベント情報を表示することで、コンテンツが何のイベント中に撮影されたものかわかる。
(Step S819) The
(ステップS820)端末処理部23は、コンテンツ選択操作が行われたか否かを判別する。コンテンツ選択操作とは、画面内の1以上のコンテンツの中から任意のコンテンツをタッチパネル等の入力デバイスを介して選択する操作である。コンテンツ選択操作が行われるとステップS821に進み、行われなければステップS801に戻る。
(Step S820) The
(ステップS821)端末処理部23は、ダウンロード指示操作が行われたか否かを判別する。ダウンロード指示操作とは、選択したコンテンツをサーバ装置1から端末格納部21にダウンロードするよう指示する操作である。ダウンロード指示操作が行われるとステップS822に進み、行われなければステップS823に進む。
(Step S821) The
(ステップS822)端末送信部24は、ダウンロード指示を含む選択結果通知をサーバ装置1に送信する。ダウンロード指示を含む選択結果通知には、端末装置2自身に関する端末識別情報と、選択されたコンテンツのコンテンツIDとが記述される。その後、ステップS801に戻る。
(Step S822) The
(ステップS823)端末処理部23は、顔画像を指定した検索指示操作が行われたか否かを判別する。顔画像を指定した検索指示操作とは、コンテンツ選択操作によって選択したコンテンツから、検索したい人物の顔画像を入力デバイスで指定して、検索の実行を指示する操作である。具体的には、ステップS818で受信した画面情報に基づく画面がディスプレイ等に出力され、画面内のコンテンツから所望の人物の顔画像を指定する操作が入力デバイスで受け付けられる。コンテンツ内に複数の顔画像が存在する場合は、その中の顔画像を指定する操作が受け付けられる。顔画像を指定した検索指示操作が行われるとステップS824に進み、行われなければステップS825に進む。
(Step S823) The
(ステップS824)端末処理部23は、検索指示を作成する。ここでの検索指示には、指定された顔画像(またはその特徴情報)を含む人物指定情報と、検索の実行指示とが含まれる。具体的には、端末処理部23は、指定された人物の顔画像をコンテンツから抽出し、抽出した顔画像と、検索の実行指示とを含む検索指示を作成する。なお、抽出した顔画像から、当該顔画像の特徴を示す特徴情報を作成し、作成した特徴情報と、検索の実行指示とを含む検索指示を作成してもよい。その後、ステップS813に進む。こうして作成された、顔画像を指定した検索指示は、ステップS813とこれに続くS814〜S816で、必要に応じて時刻情報または位置情報が付加された後、ステップS817でサーバ装置2に送信される。
(Step S824) The
(ステップS825)端末処理部23は、アルバム作成指示操作が行われたか否かを判別する。アルバム作成指示操作とは、コンテンツ選択操作によって選択したコンテンツを用いてアルバムを作成するよう指示する操作である。アルバム作成指示操作が行われるとステップS826に進み、行われなければステップS827に進む。
(Step S825) The
(ステップS826)端末送信部24は、アルバム作成指示を含む選択結果通知をサーバ装置1に送信する。アルバム作成指示を含む選択結果通知には、端末装置2自身に関する端末識別情報と、選択されたコンテンツのコンテンツIDとが記述される。その後、ステップS801に戻る。
(Step S826) The
(ステップS827)端末処理部23は、サーバ装置1から送信されたアルバム情報を端末受信部22が受信したか否かを判別する。アルバム情報が受信されるとステップS828に進み、受信されなければステップS801に戻る。
(Step S827) The
(ステップS828)端末処理部23は、受信されたアルバム情報に基づくアルバムの画面をディスプレイ等の出力デバイスに出力する。具体的には、アルバム情報には、選択されたコンテンツの画像データと、各頁の背景の画像データと、各頁のどの領域にどのコンテンツが配置されたかが記述されたレイアウト情報とが含まれており、端末処理部23は、このようなアルバム情報に基づいてアルバムの画像を構成して、出力デバイスに出力する。
(Step S828) The
なお、図8〜図10のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In the flowcharts of FIGS. 8 to 10, the process is terminated by powering off or interruption for aborting the process.
以上、本実施の形態によれば、所望の人物を指定すると、サーバ装置1において、その人物の顔の画像である顔画像が含まれているコンテンツが検索され、検索された1以上のコンテンツが送信されるので、多数のコンテンツの中からその人物が写っているコンテンツを容易に入手できるようになる。
As described above, according to the present embodiment, when a desired person is designated, the
また、本実施形態では、端末装置2を介して所望の人物の人物IDを指定するだけで、サーバ装置1において、その人物の顔画像が取得され、当該顔画像を含むコンテンツが検索される。また、人物指定情報は、端末装置2において出力された画像内の人物に対する指定操作により構成されてもよく、したがって、写真内の所望の人物を指定するだけでも、その人物が写ったコンテンツが検索される。指定操作は、画像内の複数の人物から1人の人物を指定する操作であってもよい。このため、利便性が向上する。
Further, in the present embodiment, simply by specifying a person ID of a desired person via the
また、本実施形態では、顔画像による検索で決定されたコンテンツ、時刻情報による絞り込みで決定されたコンテンツ、時刻情報による絞り込みで決定されたコンテンツ、などを含む画面が端末装置2から出力され、この画面上でコンテンツを選択したり人物を指定したりできるため、所望のコンテンツを入手できる可能性が高まる。
In the present embodiment, a screen including the content determined by the search by the face image, the content determined by the narrowing by the time information, the content determined by the narrowing by the time information, and the like is output from the
また、本実施形態では、コンテンツに対応付いているカメラの位置情報、光学情報などから、当該コンテンツに写っている人物の位置情報を計算し、位置情報による絞り込みでは、こうして計算した人物の位置情報を用いるので、カメラの位置に限らず、人物の位置による絞り込みも可能になる。 Further, in the present embodiment, the position information of the person shown in the content is calculated from the position information of the camera corresponding to the content, the optical information, and the like. Therefore, it is possible to narrow down by the position of the person as well as the position of the camera.
また、本実施形態によれば、コンテンツに対応付いている時刻情報と、スケジュール格納部に格納されている期間情報およびイベント情報とを用いてイベントを特定するので、検索されたコンテンツが何のイベントで撮影されたものかわかる。その結果、例えば、所望のイベントで撮影されたコンテンツの入手、あるいは入手したコンテンツのイベントによる分類等が容易に行えるようになる。 In addition, according to the present embodiment, an event is specified by using time information associated with the content, period information and event information stored in the schedule storage unit, so what event the searched content is You can see if it was taken with. As a result, for example, it is possible to easily acquire content shot at a desired event or classify the acquired content according to the event.
また、本実施形態では、端末装置2において、画面上で所望のコンテンツを選択することにより、そのコンテンツをサーバ装置1からダウンロードして購入したり、アルバムを自動的に作成したりできるため、利便性が高まる。そして、ダウンロードできるのは、ログインした人物またはその家族等が写っているコンテンツに限られるので、プライバシーが保たれ、セキュリティが向上する。
In the present embodiment, the
また、本実施形態では、各端末装置2に格納されているコンテンツをサーバ装置1にアップロードする一方、サーバ装置1から各端末装置2に所望のコンテンツをダウンロードするので、コンテンツを共有できる。また、コンテンツがアップロードされる度に、当該コンテンツに含まれている顔画像と対になる人物IDを取得して、当該コンテンツと対にして保持しておくことで、人物検索を行う際の処理負荷が軽減される。
Moreover, in this embodiment, while the content stored in each
なお、この実施形態では、検索指示の際に、端末装置2において写真内の所望の人物を指定する操作は、サーバ装置1から受信した画面情報に基づく画面(図15参照)から選択されたコンテンツに関して行われた(ステップS823,S824参照)が、これに限らず、例えば、端末格納部21から選択されたコンテンツに関して行われてもよい。
In this embodiment, the operation of designating a desired person in the photograph at the
具体的には、端末装置2において、例えば、端末格納部21から写真が選択されると、端末処理部23は、その写真をディスプレイに出力する。次に、図16に示すように、ディスプレイに表示されている写真から人物が入力デバイスを介して指定されると、端末処理部23は、写真の画像から、指定された人物の顔画像を抽出する。
Specifically, in the
そして、当該写真の画像から抽出した顔画像を、第二格納部112または関係人物格納部115に格納されている顔画像と比較することによって、指定された人物に対応する人物IDを取得する。こうして取得した人物IDで人物位置管理表(図14参照)を検索すれば、人物IDに対応する人物が写っているコンテンツのIDが得られる。
Then, the face image extracted from the image of the photograph is compared with the face image stored in the
または、第一格納部111に格納されている各コンテンツから顔と判断される部分の画像を順次抽出して、当該写真の画像から抽出した顔画像と逐一比較していくことによっても、人物IDに対応する人物が写っているコンテンツのコンテンツIDを得ることはできる。 Alternatively, it is also possible to sequentially extract images of portions determined to be faces from each content stored in the first storage unit 111, and compare each face image extracted from the image of the photograph one by one. It is possible to obtain the content ID of the content in which the person corresponding to is shown.
また、端末装置2からコンテンツがアップロードされる度に、コンテンツに含まれている顔画像と対になる人物IDを第二格納部112から取得して、コンテンツと対にして人物位置格納表に保持しておくことで、人物検索を行う際の処理負荷が軽減される。
Also, each time content is uploaded from the
また、本実施の形態におけるサーバ装置1での処理と、複数の端末装置2での処理と、サーバ装置1と複数の端末装置2とのインターネットを介した通信処理とは、ソフトウェアで実現しても良い。そして、このソフトウェアをダウンロード等により配布したり、記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。
本実施の形態におけるサーバ装置1での処理と、複数の端末装置2での処理と、サーバ装置1と複数の端末装置2とのインターネットを介した通信処理とを実現するソフトウェアは、以下のようなプログラムで構築されている。
In addition, the processing in the
The software that realizes the processing in the
本実施の形態にかかるソフトウェアは、図1,2に示すように、インターネットを介したサーバ装置1と複数の端末装置2との通信を実行させるプログラムであり、サーバ装置1を、格納部11と受信部12と処理部13と送信部14として機能させるプログラムであり、端末装置2を、端末格納部21と端末受信部22と端末処理部23と端末送信部24として機能させるプログラムである。
As shown in FIGS. 1 and 2, the software according to the present embodiment is a program for executing communication between the
なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどの通信モジュールで行われる処理(ハードウェアでしか行われない処理)は含まれない。また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 In the above program, in a transmission step for transmitting information, a reception step for receiving information, etc., processing performed by hardware, for example, processing performed by a communication module such as a modem or an interface card (hardware in the transmission step) Processing that can only be done in) is not included. Further, the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
また、上記各実施の形態において、1つの装置に存在する複数の通信手段(例えば端末送信部24、端末受信部22など)は、物理的に1つの媒体で実現されても良いことは言うまでもない。
Further, in each of the above embodiments, it goes without saying that a plurality of communication means (for example, the
また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 In each of the above embodiments, each process (each function) may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.
以上のように、本発明にかかるサーバ装置は、所望の人物が写っているコンテンツを容易に入手できるという効果を有し、サーバ装置として有用である。 As described above, the server device according to the present invention has an effect of easily obtaining content in which a desired person is shown, and is useful as a server device.
1 サーバ装置
2 端末装置
11 格納部
12 受信部
13 処理部
14 送信部
111 第一格納部
112 第二格納部
113 第三格納部
114 第四格納部
115 第五格納部
116 第六格納部
121 第一受信部
122 第二受信部
123 第三受信部
131 検索部
132 計算部
133 課金部
134 作成部
135 蓄積部
141 送信部
DESCRIPTION OF
Claims (16)
人物の指定に関する情報である人物指定情報を含む検索指示を、前記複数の端末装置のうち1つの端末装置から受信する第一受信部と、
前記1以上のコンテンツのうち、前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索部と、
前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信部と、を具備するサーバ装置。 A first storage unit that stores one or more contents that are images transmitted from a plurality of terminal devices;
A first reception unit that receives a search instruction including person designation information, which is information relating to person designation, from one terminal device among the plurality of terminal devices;
A search unit for searching for one or more contents including a face image that is an image of a person's face corresponding to the person specifying information included in the search instruction received by the first receiving unit from among the one or more contents. When,
A server device comprising: a transmission unit that transmits one or more contents searched by the search unit to the one terminal device.
前記人物指定情報は、人物識別子を有し、
前記検索部は、
前記人物指定情報に含まれる人物識別子と対になる人物の顔画像を前記第二格納部から取得し、当該顔画像と予め決められた関係を有する画像を一部に含む1以上のコンテンツを検索する、請求項1記載のサーバ装置。 A second storage unit that stores one or more pieces of person information including a person face image and a person identifier for identifying the person;
The person designation information has a person identifier,
The search unit
A face image of a person who is paired with a person identifier included in the person designation information is acquired from the second storage unit, and one or more contents partially including an image having a predetermined relationship with the face image are searched. The server device according to claim 1.
前記検索指示は、時刻情報を含み、
前記検索部は、前記検索指示に含まれる時刻情報に対応する1以上のコンテンツを決定し、
前記送信部は、
前記検索部が検索した1以上のコンテンツと、前記検索部が決定した1以上のコンテンツとの和集合を有する画面であり、コンテンツの選択または人物の指定を行う画面の情報である画面情報を送信する、請求項1から請求項4のいずれか一項に記載のサーバ装置。 One or more contents stored in the first storage unit are associated with time information related to time,
The search instruction includes time information,
The search unit determines one or more contents corresponding to time information included in the search instruction,
The transmitter is
A screen having a union of one or more contents searched by the search unit and one or more contents determined by the search unit, and transmitting screen information that is information on a screen for selecting content or specifying a person The server device according to any one of claims 1 to 4.
前記検索指示は、位置情報を含み、
前記検索部は、
前記検索指示に含まれる時刻情報と位置情報とに対応する1以上のコンテンツを決定する、請求項5記載のサーバ装置。 The one or more contents stored in the first storage unit are associated with position information regarding the position,
The search instruction includes position information,
The search unit
The server device according to claim 5, wherein one or more contents corresponding to time information and position information included in the search instruction are determined.
前記第一格納部の1以上のコンテンツに対応付いた位置情報は、当該コンテンツを撮影した前記カメラの位置を示し、
前記第一格納部の1以上のコンテンツには、当該コンテンツを撮影した前記カメラの画角および焦点距離の少なくとも一方に関する光学情報がさらに対応付いており、
前記第一格納部の1以上のコンテンツに対応付いた位置情報および光学情報を用いて、当該コンテンツに写っている各人物の位置を計算する計算部、をさらに具備し、
前記検索部は、前記検索指示に含まれる時刻情報と位置情報とに対応する1以上のコンテンツを決定する際に、前記計算部によって計算された人物位置を前記検索指示に含まれる位置情報の示す位置と比較する、請求項6記載のサーバ装置。 The time information associated with one or more contents in the first storage unit indicates the time when the contents were taken by the camera,
The position information associated with one or more contents in the first storage unit indicates the position of the camera that captured the contents,
The one or more contents in the first storage unit are further associated with optical information related to at least one of an angle of view and a focal length of the camera that captured the content,
Using a positional information and optical information associated with one or more contents of the first storage unit, and further calculating a position of each person shown in the content,
When the search unit determines one or more contents corresponding to the time information and the position information included in the search instruction, the search unit indicates the person position calculated by the calculation unit in the position information included in the search instruction The server device according to claim 6, wherein the server device is compared with a position.
前記人物指定情報に対応する顔画像と、前記第一格納部に格納されている1以上のコンテンツに含まれている各顔画像との間の類似度を閾値と比較することで、各コンテンツが前記人物指定情報に対応する顔画像を含んでいるか否かを判断し、かつ
検索に時刻情報または位置情報を使用する場合と、検索に時刻情報も位置情報も使用しない場合とで、当該閾値を変更する、請求項5から請求項7のいずれか一項に記載のサーバ装置。 The search unit
By comparing the similarity between the face image corresponding to the person designation information and each face image included in the one or more contents stored in the first storage unit with a threshold value, It is determined whether or not a face image corresponding to the person designation information is included, and when the time information or the position information is used for the search, and when the time information or the position information is not used for the search, the threshold value is set. The server device according to any one of claims 5 to 7, which is changed.
前記第一格納部の1以上のコンテンツは、時刻に関する時刻情報が対応付いており、
前記送信部は、
前記検索部によって検索された1以上のコンテンツを送信する際に、当該コンテンツに対応付いている時刻情報と、前記第三格納部に格納されている各期間情報とを比較して、当該コンテンツが撮影された時刻を含む期間に行われていたイベントを示すイベント情報を特定し、当該特定したイベント情報を当該コンテンツに対応付けて送信する、請求項1から請求項8のいずれか一項に記載のサーバ装置。 A third storage unit that stores at least period information indicating a period and event information indicating an event performed in the period in association with each other;
One or more contents of the first storage unit are associated with time information related to time,
The transmitter is
When transmitting one or more contents searched by the search unit, the time information associated with the content is compared with each period information stored in the third storage unit, and the content is The event information indicating an event that has been performed during a period including the time when the image was taken is specified, and the specified event information is transmitted in association with the content. Server device.
前記検索部によって検索または決定された1以上のコンテンツにそれぞれ対応付けられた1以上の代表画像を前記画面情報に含めて送信し、かつ
前記1つの端末装置において、前記画面情報に基づいて出力された画面上で代表画像が選択されたとき、当該選択された代表画像に対応付けられたコンテンツを当該1つの端末装置に送信する、請求項5から請求項9のいずれか一項に記載のサーバ装置。 The transmitter is
One or more representative images respectively associated with one or more contents searched or determined by the search unit are included in the screen information and transmitted, and are output based on the screen information in the one terminal device. The server according to any one of claims 5 to 9, wherein when a representative image is selected on the selected screen, content associated with the selected representative image is transmitted to the one terminal device. apparatus.
前記第四格納部に格納されている人物識別子と、当該人物識別子に対応する人物と所定の関係にある1以上の人物の人物識別子と、が対にして格納される第五格納部と、
前記端末装置を介して、人物識別子とパスワードとを指定したログイン要求を受信する第三受信部と、をさらに具備し、
前記送信部は、
前記ログイン要求で指定された人物識別子とパスワードとの対が前記第四格納部に格納されている場合に前記画面上でコンテンツの選択を受け付け、そして
当該コンテンツに、前記ログイン要求で指定された人物識別子に対応する人物、または前記第五格納部に当該ログイン要求で指定された人物識別子と対応付けて格納されている人物識別子に対応する人物、の顔画像が含まれている場合に当該コンテンツを送信する、請求項10記載のサーバ装置。 A fourth storage unit in which a person identifier and a password are stored in pairs;
A fifth storage unit that stores a pair of a person identifier stored in the fourth storage unit and one or more person identifiers having a predetermined relationship with the person corresponding to the person identifier;
A third receiving unit for receiving a login request designating a person identifier and a password via the terminal device;
The transmitter is
When the pair of the person identifier and password specified in the login request is stored in the fourth storage unit, the selection of content is accepted on the screen, and the person specified in the login request is received in the content If the face image of the person corresponding to the identifier or the person corresponding to the person identifier stored in association with the person identifier specified in the login request in the fifth storage unit is included, the content is The server device according to claim 10 which transmits.
前記価格情報を参照して、前記送信部が前記端末装置の格納部にダウンロードしたコンテンツに対応する金額を当該端末装置のユーザに対して課金する課金部と、をさらに具備する、請求項10または請求項11記載のサーバ装置。 A sixth storage for storing price information related to the price of the content;
The charging device further comprises a billing unit that refers to the price information and charges the user of the terminal device for an amount corresponding to the content downloaded by the transmitting unit to the storage unit of the terminal device. The server device according to claim 11.
前記第二受信部によって受信されたコンテンツを前記第一格納部に蓄積する蓄積部と、
前記第二受信部によって受信されたコンテンツから1以上の顔画像を抽出して、当該1以上の顔画像を前記第二格納部に格納されている1以上の顔画像と比較することにより、当該1以上の顔画像と対になる1以上の人物識別情報を取得し、取得した1以上の人物識別情報を当該コンテンツと対にして保持する処理部と、をさらに具備する請求項4から請求項13のいずれか一項に記載のサーバ装置。 A second receiving unit for receiving content transmitted from each of the plurality of terminal devices;
An accumulation unit that accumulates the content received by the second reception unit in the first storage unit;
By extracting one or more face images from the content received by the second receiving unit and comparing the one or more face images with one or more face images stored in the second storage unit, 5. The processing apparatus according to claim 4, further comprising: a processing unit that acquires one or more person identification information that is paired with one or more face images, and holds the acquired one or more person identification information as a pair with the content. The server device according to any one of 13.
前記第一格納部に、複数の端末装置から送信された画像である1以上のコンテンツが格納される第一格納ステップと、
前記第一受信部が、人物の指定に関する情報である人物指定情報を含む検索指示を前記複数の端末装置のうち1つの端末装置から受信する受信ステップと、
前記検索部が、前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索ステップと、
前記送信部が、前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信ステップと、を含む検索方法。 A search method performed by a first storage unit, a first reception unit, a search unit, and a transmission unit,
A first storage step in which one or more contents that are images transmitted from a plurality of terminal devices are stored in the first storage unit;
The first receiving unit receives a search instruction including person designation information, which is information relating to person designation, from one terminal device among the plurality of terminal devices; and
A search step in which the search unit searches for one or more contents including a face image that is an image of a person's face corresponding to the person designation information included in the search instruction received by the first receiving unit;
A transmission step in which the transmission unit transmits one or more contents searched by the search unit to the one terminal device.
複数の端末装置から送信された画像である1以上のコンテンツが格納される第一格納部と、
人物の指定に関する情報である人物指定情報を含む検索指示を前記複数の端末装置のうち1つの端末装置から受信する第一受信部と、
前記第一受信部が受信した検索指示に含まれる人物指定情報に対応する人物の顔の画像である顔画像が含まれている1以上のコンテンツを検索する検索部と、
前記検索部によって検索された1以上のコンテンツを前記1つの端末装置に送信する送信部として機能させるためのプログラム。 Computer
A first storage unit that stores one or more contents that are images transmitted from a plurality of terminal devices;
A first receiving unit that receives a search instruction including person designation information, which is information relating to person designation, from one terminal device among the plurality of terminal devices;
A search unit for searching for one or more contents including a face image that is an image of a person's face corresponding to the person specifying information included in the search instruction received by the first receiving unit;
The program for functioning as a transmission part which transmits the one or more content searched by the said search part to said one terminal device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016032274A JP6677527B2 (en) | 2016-02-23 | 2016-02-23 | Server device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016032274A JP6677527B2 (en) | 2016-02-23 | 2016-02-23 | Server device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017151632A true JP2017151632A (en) | 2017-08-31 |
JP6677527B2 JP6677527B2 (en) | 2020-04-08 |
Family
ID=59739741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016032274A Active JP6677527B2 (en) | 2016-02-23 | 2016-02-23 | Server device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6677527B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019027059A1 (en) | 2017-08-04 | 2019-02-07 | 国立大学法人大阪大学 | Production method for radiolabeled aryl compound |
WO2021074915A1 (en) * | 2019-10-17 | 2021-04-22 | 株式会社Jvis | Content management server, content management program, and content management system |
KR20240142883A (en) * | 2023-03-22 | 2024-10-02 | 재단법인대구경북과학기술원 | Method for providing the notice and apparatus thereof |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002183734A (en) * | 2000-12-15 | 2002-06-28 | Toshiba Corp | Face authentication device and face authentication method |
JP2002351906A (en) * | 2001-05-24 | 2002-12-06 | Canon Inc | Method of retrieval |
JP2003204541A (en) * | 2001-12-28 | 2003-07-18 | Nippon Signal Co Ltd:The | Video processing method and video processing apparatus |
JP2004199666A (en) * | 2002-12-03 | 2004-07-15 | Fuji Photo Film Co Ltd | Photographic image service system |
JP2006306191A (en) * | 2005-04-27 | 2006-11-09 | Denso Corp | Personal authentication system for vehicle |
JP2008210209A (en) * | 2007-02-27 | 2008-09-11 | Fujifilm Corp | Content registration / search system and content registration / search method |
JP2010237751A (en) * | 2009-03-30 | 2010-10-21 | Nec Personal Products Co Ltd | Content sharing system and content shared method |
JP2013109748A (en) * | 2011-11-22 | 2013-06-06 | Shijin Kogyo Sakushinkai | Input method of retrieval using area selection system, and system thereof |
JP2013171373A (en) * | 2012-02-20 | 2013-09-02 | Sony Corp | Information processor, system and information processing method |
JP2014026596A (en) * | 2012-07-30 | 2014-02-06 | Canon Inc | Image processor, control method thereof, and control program |
JP2014182650A (en) * | 2013-03-19 | 2014-09-29 | Canon Inc | Image sharing device, method for controlling image sharing device and program |
JP2014191701A (en) * | 2013-03-28 | 2014-10-06 | Fujifilm Corp | Image retrieval device, operation control method thereof, and image retrieval server |
-
2016
- 2016-02-23 JP JP2016032274A patent/JP6677527B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002183734A (en) * | 2000-12-15 | 2002-06-28 | Toshiba Corp | Face authentication device and face authentication method |
JP2002351906A (en) * | 2001-05-24 | 2002-12-06 | Canon Inc | Method of retrieval |
JP2003204541A (en) * | 2001-12-28 | 2003-07-18 | Nippon Signal Co Ltd:The | Video processing method and video processing apparatus |
JP2004199666A (en) * | 2002-12-03 | 2004-07-15 | Fuji Photo Film Co Ltd | Photographic image service system |
JP2006306191A (en) * | 2005-04-27 | 2006-11-09 | Denso Corp | Personal authentication system for vehicle |
JP2008210209A (en) * | 2007-02-27 | 2008-09-11 | Fujifilm Corp | Content registration / search system and content registration / search method |
JP2010237751A (en) * | 2009-03-30 | 2010-10-21 | Nec Personal Products Co Ltd | Content sharing system and content shared method |
JP2013109748A (en) * | 2011-11-22 | 2013-06-06 | Shijin Kogyo Sakushinkai | Input method of retrieval using area selection system, and system thereof |
JP2013171373A (en) * | 2012-02-20 | 2013-09-02 | Sony Corp | Information processor, system and information processing method |
JP2014026596A (en) * | 2012-07-30 | 2014-02-06 | Canon Inc | Image processor, control method thereof, and control program |
JP2014182650A (en) * | 2013-03-19 | 2014-09-29 | Canon Inc | Image sharing device, method for controlling image sharing device and program |
JP2014191701A (en) * | 2013-03-28 | 2014-10-06 | Fujifilm Corp | Image retrieval device, operation control method thereof, and image retrieval server |
Non-Patent Citations (1)
Title |
---|
高田 学也: "マイピクチャの達人", 日経パソコン, JPN6019035777, 8 December 2008 (2008-12-08), pages 35 - 37, ISSN: 0004219222 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019027059A1 (en) | 2017-08-04 | 2019-02-07 | 国立大学法人大阪大学 | Production method for radiolabeled aryl compound |
EP4438608A2 (en) | 2017-08-04 | 2024-10-02 | Osaka University | Production method for radiolabeled aryl compound |
WO2021074915A1 (en) * | 2019-10-17 | 2021-04-22 | 株式会社Jvis | Content management server, content management program, and content management system |
JP2021067972A (en) * | 2019-10-17 | 2021-04-30 | 株式会社Jvis | Content management server, content management program and content management system |
JP7433699B2 (en) | 2019-10-17 | 2024-02-20 | 株式会社モノリシックデザイン | Content management server, content management program and content management system |
KR20240142883A (en) * | 2023-03-22 | 2024-10-02 | 재단법인대구경북과학기술원 | Method for providing the notice and apparatus thereof |
KR102792649B1 (en) * | 2023-03-22 | 2025-04-08 | 재단법인 대구경북과학기술원 | Method for providing the notice and apparatus thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6677527B2 (en) | 2020-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10057485B2 (en) | Imaging apparatus and methods for generating a guide display using imaging height posture information | |
JP5477017B2 (en) | Electronic device, content transmission method and program | |
CN103797493B (en) | For sharing the smart camera of picture automatically | |
US10147399B1 (en) | Adaptive fiducials for image match recognition and tracking | |
US9990585B2 (en) | Information processing apparatus, information processing method and computer-readable storage medium for generating course information | |
US9418482B1 (en) | Discovering visited travel destinations from a set of digital images | |
JP6446766B2 (en) | Program, display control device, recording medium, and display control system | |
JP2013162487A (en) | Image display apparatus and imaging apparatus | |
JP6120467B1 (en) | Server device, terminal device, information processing method, and program | |
CN104112129A (en) | Image identification method and apparatus | |
JP6375039B1 (en) | Program, photographing method and terminal | |
TW201814552A (en) | Method and system for sorting a search result with space objects, and a computer-readable storage device | |
JP6617547B2 (en) | Image management system, image management method, and program | |
JP5950686B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6677527B2 (en) | Server device and program | |
TW201823929A (en) | Method and system for remote management of virtual message for a moving object | |
JP6323548B2 (en) | Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method | |
US11847297B2 (en) | Method of providing real-time VR service through avatar | |
JP2017228278A (en) | Server device, terminal device, information processing method, and program | |
JP7077075B2 (en) | Online service system, online service provision method, content management device and computer program | |
JP2014120878A (en) | Predetermined-zone management system, predetermined-zone management method, and program | |
JP6958795B1 (en) | Information processing methods, computer programs and information processing equipment | |
US10997410B2 (en) | Information processing device and information processing system | |
JP5905865B2 (en) | Computer processing method, program, and information processing apparatus | |
US20240007610A1 (en) | Display terminal, communication system, display method, and communication method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6677527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |