[go: up one dir, main page]

JP2008027336A - Location information delivery apparatus, camera, location information delivery method and program - Google Patents

Location information delivery apparatus, camera, location information delivery method and program Download PDF

Info

Publication number
JP2008027336A
JP2008027336A JP2006201762A JP2006201762A JP2008027336A JP 2008027336 A JP2008027336 A JP 2008027336A JP 2006201762 A JP2006201762 A JP 2006201762A JP 2006201762 A JP2006201762 A JP 2006201762A JP 2008027336 A JP2008027336 A JP 2008027336A
Authority
JP
Japan
Prior art keywords
data
unit
image
captured image
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006201762A
Other languages
Japanese (ja)
Inventor
Isao Takahashi
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006201762A priority Critical patent/JP2008027336A/en
Publication of JP2008027336A publication Critical patent/JP2008027336A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide means for efficiently sharing and distributing shooting location data while ensuring the secrecy of shooting locations. <P>SOLUTION: A location information delivery apparatus comprises a communication part for data transmission and reception, a recording part, an image processing part, a view control part, an authentication part and a delivery part. The recording part records and associates captured image data and location data. The image processing part executes masking to protect captured images partly from disclosure. The view control part makes the captured image data after masking viewable to terminal devices connected via the communication part, and makes the location data after masking secret. The authentication part authenticates terminal devices in accordance with authentication information acquired from the terminal devices. The delivery part sends to terminal devices authenticated by the authentication part the location data corresponding to captured images designated by the terminal devices. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影画像の撮影位置の共有や流通に適した位置情報配信装置、カメラ、位置情報配信方法およびプログラムに関する。   The present invention relates to a position information distribution device, a camera, a position information distribution method, and a program suitable for sharing and distribution of shooting positions of captured images.

近年、撮像素子により被写体像を電子的に記録する電子カメラが急速に普及しつつある。かかる電子カメラでは、GPS(Global Positioning System:全地球測位システム)によって取得した撮影位置データを撮影画像データとともに記録することも可能である。例えば、特許文献1には、Exif(Exchangeable image file format for digital still cameras)規格のタグを利用して撮影画像データと撮影位置データとを対応付けて管理するデータ検索装置などが開示されている。
特開2001−282813号公報
In recent years, electronic cameras that electronically record subject images using an image sensor have been rapidly spreading. In such an electronic camera, shooting position data acquired by a GPS (Global Positioning System) can be recorded together with the shot image data. For example, Patent Literature 1 discloses a data search apparatus that manages captured image data and shooting position data in association with each other using tags of the Exif (Exchangeable image file format for digital still cameras) standard.
JP 2001-282814 A

ところで、貴重性、換金性の高い自然物(自生している松茸など)のように、撮影される被写体によっては撮影位置データが高い交換価値をもつこともある。上記のような被写体について撮影位置の情報を流通させるビジネスを考えた場合、インターネット等で撮影画像データを公開しつつも撮影位置データの秘密性を確保する必要がある。
しかし、上記特許文献1のようにExif規格のタグを利用して撮影位置データを管理する場合、ダウンロードによる撮影画像データの取得で撮影位置を容易に知ることができるので撮影位置の秘密性を確保できない。
By the way, depending on the subject to be photographed, such as a natural object with high preciousness and cashability (such as a natural matsutake mushroom), the photographing position data may have a high exchange value. When considering the business of distributing the shooting position information for the subject as described above, it is necessary to ensure the secrecy of the shooting position data while releasing the shot image data on the Internet or the like.
However, when the shooting position data is managed using the Exif standard tag as in the above-mentioned Patent Document 1, the shooting position can be easily known by acquiring the shooting image data by downloading, so the confidentiality of the shooting position is ensured. Can not.

本発明は上記従来技術の課題を解決するためのものであって、その目的は、撮影位置の秘密性を確保しつつ、撮影位置データの共有や流通を効率的に行うことのできる手段を提供することである。   The present invention is for solving the above-described problems of the prior art, and its purpose is to provide means capable of efficiently sharing and distributing shooting position data while ensuring the confidentiality of the shooting position. It is to be.

第1の発明の位置情報配信装置は、データ送受信を行う通信部と、第1記録部と、画像処理部と、閲覧制御部と、認証部と、配信部とを備える。第1記録部は、撮影画像のデータと、撮影画像の撮影位置に関する位置データとを対応付けして記録する。画像処理部は、撮影画像のデータに対して、撮影画像の開示を部分的に妨げるマスク処理を実行する。閲覧制御部は、通信部を介して接続された端末装置に対して、マスク処理後の撮影画像のデータを閲覧可能な状態とし、マスク処理後の位置データを秘匿状態とする。認証部は、端末装置から取得した認証情報に基づき端末装置を認証する。配信部は、認証部が認証した端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。   According to a first aspect of the present invention, there is provided a position information distribution device including a communication unit that transmits and receives data, a first recording unit, an image processing unit, a browsing control unit, an authentication unit, and a distribution unit. The first recording unit records the captured image data and the position data related to the captured position of the captured image in association with each other. The image processing unit performs a mask process that partially prevents disclosure of the captured image on the captured image data. The browsing control unit makes the captured image data after the mask processing in a state where it can be browsed with respect to the terminal device connected via the communication unit, and sets the position data after the mask processing in a concealed state. The authentication unit authenticates the terminal device based on the authentication information acquired from the terminal device. The distribution unit transmits position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit.

第2の発明の位置情報配信装置は、データ送受信を行う通信部と、記録部と、グループ化処理部と、閲覧制御部と、認証部と、配信部とを備える。記録部は、撮影画像のデータと、撮影画像の撮影位置に関する位置データとを対応付けして記録する。グループ化処理部は、関連性を有する複数の撮影画像のデータおよび位置データをグループ化する。閲覧制御部は、通信部を介して接続された端末装置に対して、撮影画像のデータを閲覧可能な状態とし、位置データを秘匿状態とする。認証部は、端末装置から取得した認証情報に基づき端末装置を認証する。配信部は、認証部が認証した端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。また、配信部は、端末装置に対して、グループ化された撮影画像のデータおよび位置データを送信する。   A position information distribution apparatus according to a second aspect includes a communication unit that performs data transmission / reception, a recording unit, a grouping processing unit, a browsing control unit, an authentication unit, and a distribution unit. The recording unit records the photographed image data and the position data related to the photographing position of the photographed image in association with each other. The grouping processing unit groups data and position data of a plurality of captured images having relevance. A browsing control part makes the state which can browse the data of a picked-up image with respect to the terminal device connected via the communication part, and makes a positional data secret state. The authentication unit authenticates the terminal device based on the authentication information acquired from the terminal device. The distribution unit transmits position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit. Further, the distribution unit transmits the grouped captured image data and position data to the terminal device.

第3の発明の位置情報配信装置は、データ送受信を行う通信部と、記録部と、キーワード付加部と、閲覧制御部と、認証部と、配信部とを備える。記録部は、撮影画像のデータと、撮影画像の撮影位置に関する位置データとを対応付けして記録する。キーワード付加部は、位置データに基づいて、撮影画像のデータにキーワードを関連付けして記録する。閲覧制御部は、通信部を介して接続された端末装置に対して、撮影画像のデータを閲覧可能な状態とし、位置データを秘匿状態とする。認証部は、端末装置から取得した認証情報に基づき端末装置を認証する。配信部は、認証部が認証した端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。そして、閲覧制御部は、キーワードに基づいて記録部に記録された撮影画像のデータを検索し、検索結果を端末装置に対して提示する。   A location information distribution device according to a third aspect of the present invention includes a communication unit that transmits and receives data, a recording unit, a keyword adding unit, a browsing control unit, an authentication unit, and a distribution unit. The recording unit records the photographed image data and the position data related to the photographing position of the photographed image in association with each other. The keyword adding unit records the keyword in association with the captured image data based on the position data. A browsing control part makes the state which can browse the data of a picked-up image with respect to the terminal device connected via the communication part, and makes a positional data secret state. The authentication unit authenticates the terminal device based on the authentication information acquired from the terminal device. The distribution unit transmits position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit. And a browsing control part searches the data of the picked-up image recorded on the recording part based on the keyword, and shows a search result with respect to a terminal device.

第4の発明の位置情報配信装置は、データ送受信を行う通信部と、記録部と、閲覧制御部と、認証部と、配信部と、変更部と、価格変更部とを備える。記録部は、撮影画像のデータと、撮影画像の撮影位置を示す地図画像を含むとともに課金処理に用いる価格が設定された位置データとを対応付けして記録する。閲覧制御部は、通信部を介して接続された端末装置に対して、撮影画像のデータを閲覧可能な状態とし、位置データを秘匿状態とする。認証部は、端末装置から取得した認証情報に基づき端末装置を認証する。配信部は、認証部が認証した端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。変更部は、端末装置からの操作に応じて、端末装置に送信する地図画像の縮尺または解像度を変更する。価格変更部は、縮尺の大きさまたは解像度の高さに比例して価格が高くなるように、変更時に価格を再設定する。   According to a fourth aspect of the present invention, there is provided a position information distribution apparatus including a communication unit that performs data transmission / reception, a recording unit, a browsing control unit, an authentication unit, a distribution unit, a change unit, and a price change unit. The recording unit records the captured image data in association with the position data including the map image indicating the captured position of the captured image and the price used for the charging process. A browsing control part makes the state which can browse the data of a picked-up image with respect to the terminal device connected via the communication part, and makes a positional data secret state. The authentication unit authenticates the terminal device based on the authentication information acquired from the terminal device. The distribution unit transmits position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit. The changing unit changes the scale or resolution of the map image transmitted to the terminal device in response to an operation from the terminal device. The price changing unit resets the price at the time of the change so that the price increases in proportion to the scale size or the height of the resolution.

第5の発明のカメラは、撮像部と、位置データ生成部と、画像処理部とを備える。撮像部は、被写体を撮影して撮影画像のデータを生成する。位置データ生成部は、撮影画像の撮影位置に関する位置データを生成するとともに、位置データを撮影画像のデータに対応付けする。画像処理部は、撮影画像のデータに対して、撮影画像の開示を部分的に妨げるマスク処理を実行する。   A camera of a fifth invention includes an imaging unit, a position data generation unit, and an image processing unit. The imaging unit captures a subject and generates captured image data. The position data generation unit generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image. The image processing unit performs a mask process that partially prevents disclosure of the captured image on the captured image data.

第6の発明のカメラは、撮像部と、位置データ生成部と、グループ化処理部とを備える。撮像部は、被写体を撮影して撮影画像のデータを生成する。位置データ生成部は、撮影画像の撮影位置に関する位置データを生成するとともに、位置データを撮影画像のデータに対応付けする。グループ化処理部は、撮影位置を基準として関連性を有する複数の撮影画像のデータおよび位置データをグループ化する。   A camera according to a sixth aspect includes an imaging unit, a position data generation unit, and a grouping processing unit. The imaging unit captures a subject and generates captured image data. The position data generation unit generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image. The grouping processing unit groups data and position data of a plurality of photographed images having relevance with reference to the photographing position.

第7の発明のカメラは、撮像部と、位置データ生成部と、キーワード付加部とを備える。撮像部は、被写体を撮影して撮影画像のデータを生成する。位置データ生成部は、撮影画像の撮影位置に関する位置データを生成するとともに、位置データを撮影画像のデータに対応付けする。キーワード付加部は、位置データに基づいて、撮影画像のデータにキーワードを関連付けして記録する。   A camera according to a seventh aspect includes an imaging unit, a position data generation unit, and a keyword addition unit. The imaging unit captures a subject and generates captured image data. The position data generation unit generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image. The keyword adding unit records the keyword in association with the captured image data based on the position data.

第8の発明は、データ送受信を行う通信部と、記録部および制御部とを備えたコンピュータを用いた位置情報配信方法である。この位置情報配信方法は、以下の第1から第4ステップを有する。第1ステップでは、制御部が、撮影画像のデータと撮影画像の撮影位置を示す位置データとを記録部に対応付けして記録する。第2ステップでは、制御部が、通信部を介して接続された端末装置に対して撮影画像のデータを閲覧可能な状態とし、位置データを秘匿状態とする。第3ステップでは、制御部が、認証情報に基づき端末装置を認証する。第4ステップでは、制御部が、認証された端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。   An eighth invention is a position information distribution method using a computer including a communication unit that performs data transmission / reception, a recording unit, and a control unit. This position information distribution method has the following first to fourth steps. In the first step, the control unit records the captured image data and the position data indicating the captured position of the captured image in association with the recording unit. In the second step, the control unit makes the captured image data viewable with respect to the terminal device connected via the communication unit, and sets the position data in a secret state. In the third step, the control unit authenticates the terminal device based on the authentication information. In the fourth step, the control unit transmits position data corresponding to the captured image designated from the terminal device to the authenticated terminal device.

第9の発明は、データ送受信を行う通信部と、記録部および制御部とを備えた位置情報配信装置のプログラムである。このプログラムは、以下の第1から第4ステップを制御部に実行させる。第1ステップでは、制御部が、撮影画像のデータと撮影画像の撮影位置を示す位置データとを記録部に対応付けして記録する。第2ステップでは、制御部が、通信部を介して接続された端末装置に対して撮影画像のデータを閲覧可能な状態とする一方で、位置データを秘匿状態とする。第3ステップでは、制御部が、認証情報に基づき端末装置を認証する。第4ステップでは、制御部が、認証された端末装置に対して、端末装置から指定された撮影画像に対応する位置データを送信する。   A ninth aspect of the invention is a program for a location information distribution device including a communication unit that performs data transmission / reception, a recording unit, and a control unit. This program causes the control unit to execute the following first to fourth steps. In the first step, the control unit records the captured image data and the position data indicating the captured position of the captured image in association with the recording unit. In the second step, the control unit sets the position data in a concealed state while making the captured image data viewable with respect to the terminal device connected via the communication unit. In the third step, the control unit authenticates the terminal device based on the authentication information. In the fourth step, the control unit transmits position data corresponding to the captured image designated from the terminal device to the authenticated terminal device.

なお、上記の位置情報配信装置に関する構成を、位置情報配信方法、プログラム、記録媒体などに変換して表現したものも本発明の具体的態様として有効である。   In addition, what expressed the structure regarding said positional information delivery apparatus converted into a positional information delivery method, a program, a recording medium, etc. is also effective as a specific aspect of the present invention.

本発明によれば、撮影位置の秘密性を確保しつつ、撮影位置データの共有や流通を効率的に行うことができる。   According to the present invention, it is possible to efficiently share and distribute shooting position data while ensuring the confidentiality of the shooting position.

(第1実施形態の説明)
図1は第1実施形態の位置情報配信システムの概要図である。第1実施形態の位置情報配信システムは、電子カメラ11と、サーバー12と、複数の端末装置13(パーソナルコンピュータなど)とで構成される。電子カメラ11、サーバー12および各端末装置13は、公知の通信回線で接続されてネットワークを構成している。ここで、ネットワークは有線、無線のいずれを含むものであってもよい。
(Description of the first embodiment)
FIG. 1 is a schematic diagram of a position information distribution system according to the first embodiment. The position information distribution system according to the first embodiment includes an electronic camera 11, a server 12, and a plurality of terminal devices 13 (such as personal computers). The electronic camera 11, the server 12, and each terminal device 13 are connected by a known communication line to form a network. Here, the network may include either wired or wireless.

(電子カメラの構成)
図2は第1実施形態の電子カメラの構成を示すブロック図である。第1実施形態において、電子カメラ11は撮影画像データおよび撮影位置データを販売する売り主(情報登録者)によって使用される。
電子カメラ11は、撮影レンズ20と、レンズ駆動部21と、撮像素子22と、A/D変換部23と、バッファメモリ24と、画像処理部25と、カードI/F26と、GPSユニット27と、方位センサ28と、通信部29と、操作部材30と、液晶モニタ31と、CPU32およびバス33とを有している。なお、バッファメモリ24、画像処理部25、カードI/F26、通信部29、液晶モニタ31およびCPU32は、バス33を介して接続されている。
(Configuration of electronic camera)
FIG. 2 is a block diagram showing the configuration of the electronic camera of the first embodiment. In the first embodiment, the electronic camera 11 is used by a seller (information registrant) who sells photographed image data and photographing position data.
The electronic camera 11 includes a photographing lens 20, a lens driving unit 21, an image sensor 22, an A / D conversion unit 23, a buffer memory 24, an image processing unit 25, a card I / F 26, and a GPS unit 27. , Direction sensor 28, communication unit 29, operation member 30, liquid crystal monitor 31, CPU 32 and bus 33. The buffer memory 24, the image processing unit 25, the card I / F 26, the communication unit 29, the liquid crystal monitor 31 and the CPU 32 are connected via a bus 33.

撮影レンズ20は、ズームレンズと合焦位置調節用のフォーカシングレンズとを含む複数のレンズ群で構成されている。撮影レンズ20の位置はレンズ駆動部21によって光軸方向に駆動調整される。
撮像素子22は、撮影レンズ20を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。A/D変換部23は撮像素子22のアナログ画像信号をデジタル画像信号に変換する。バッファメモリ24は、画像処理部25での画像処理の前工程および後工程でデータを一時的に保存する。
The taking lens 20 is composed of a plurality of lens groups including a zoom lens and a focusing lens for adjusting a focus position. The position of the photographing lens 20 is driven and adjusted in the optical axis direction by the lens driving unit 21.
The image sensor 22 photoelectrically converts the light beam that has passed through the photographing lens 20 to generate an analog image signal of the subject image. The A / D converter 23 converts the analog image signal of the image sensor 22 into a digital image signal. The buffer memory 24 temporarily stores data in the pre-process and post-process of image processing in the image processing unit 25.

画像処理部25は、デジタル画像信号に画像処理(欠陥画素補正、ガンマ補正、補間、色変換、エッジ強調など)を施して撮影画像データを生成する。また、画像処理部25は、撮影画像データに対して公知の圧縮伸長処理を実行する。
カードI/F26には、記録媒体34を接続するためのコネクタが形成されている。記録媒体34は公知の半導体メモリなどで構成される。そして、カードI/F26は、記録媒体34に対する撮影画像データの書き込み/読み込みを制御する。
The image processing unit 25 performs image processing (defective pixel correction, gamma correction, interpolation, color conversion, edge enhancement, etc.) on the digital image signal to generate photographed image data. In addition, the image processing unit 25 performs a known compression / decompression process on the captured image data.
The card I / F 26 is formed with a connector for connecting the recording medium 34. The recording medium 34 is composed of a known semiconductor memory or the like. The card I / F 26 controls writing / reading of photographed image data with respect to the recording medium 34.

GPSユニット27は、撮影時における電子カメラ11の緯度、経度および高度(撮影位置)の情報を取得してCPU32に出力する。
方位センサ28は、互いに直交する方向の地磁気成分を検出する2軸の磁気センサを内蔵する。この方位センサ28は、各磁気センサによる両方向の磁界検出値から地磁気の方位を求め、撮影時に撮影レンズ20の向いている方角(撮影方位)をCPU32に出力する。
The GPS unit 27 acquires information on the latitude, longitude, and altitude (shooting position) of the electronic camera 11 at the time of shooting and outputs the information to the CPU 32.
The direction sensor 28 incorporates a biaxial magnetic sensor that detects geomagnetic components in directions orthogonal to each other. This azimuth sensor 28 obtains the azimuth of terrestrial magnetism from the magnetic field detection values in both directions by each magnetic sensor, and outputs the direction (photographing azimuth) that the photographing lens 20 faces at the time of photographing to the CPU 32.

通信部29は通信回線を介して接続されたサーバー12とのデータ送受信を制御する。操作部材30は入力釦やレリーズ釦などを備えている。操作部材30の入力釦は、例えば、電子カメラ11の撮影モードの切り換え入力などを受け付ける。
液晶モニタ31は主として電子カメラ11の背面部分に配置される。液晶モニタ31には、撮影画像データの再生画面や電子カメラ11の各種設定を変更するための設定画面などが表示される。
The communication unit 29 controls data transmission / reception with the server 12 connected via a communication line. The operation member 30 includes an input button, a release button, and the like. The input button of the operation member 30 receives, for example, an input for switching the shooting mode of the electronic camera 11.
The liquid crystal monitor 31 is mainly disposed on the back portion of the electronic camera 11. The liquid crystal monitor 31 displays a captured image data reproduction screen, a setting screen for changing various settings of the electronic camera 11, and the like.

CPU32は、不図示のROMに格納されたシーケンスプログラムに従って電子カメラ11の各部動作を制御する。例えば、CPU32は公知のAF演算およびAE演算などを実行する。特に第1実施形態では、CPU32は以下の処理を実行する。
(1)CPU32は、上記の撮影位置、撮影方位の情報から撮影位置データを生成する。この撮影位置データは、撮影位置の座標(緯度、経度、高度)および撮影方位を示す座標系データ、地図画像のデータ、地名などのテキストデータの少なくとも1以上を含む。なお、第1実施形態での電子カメラ11は、ユーザーの設定に応じて、座標系データのみを含む撮影位置データを生成する場合と、上記の3つのデータをすべて含む撮影位置データを生成する場合とを切り替えることができる。
The CPU 32 controls the operation of each part of the electronic camera 11 according to a sequence program stored in a ROM (not shown). For example, the CPU 32 executes a known AF calculation and AE calculation. Particularly in the first embodiment, the CPU 32 executes the following processing.
(1) The CPU 32 generates shooting position data from the above-described shooting position and shooting direction information. The photographing position data includes at least one or more of coordinate system data indicating the coordinates (latitude, longitude, altitude) and photographing direction of the photographing position, map image data, and text data such as a place name. Note that the electronic camera 11 in the first embodiment generates shooting position data including only coordinate system data and generates shooting position data including all the above three data according to user settings. And can be switched.

ここで、上記の地図画像では、撮影位置の座標に対応する周辺地図に撮影位置を示すマークが重畳表示される。この地図画像のデータは、周辺地図の縮尺が異なる複数の地図画像を含むものであってもよい。また、周辺地図は、航空写真や衛星写真などによる地図も含まれる。一方、テキストデータには、撮影位置に対応する国名、都道府県名、市町村名、郵便番号や、最寄りの施設から撮影位置までの距離や所要時間などの情報が含まれる。   Here, in the above map image, a mark indicating the shooting position is superimposed and displayed on the surrounding map corresponding to the coordinates of the shooting position. The map image data may include a plurality of map images having different scales of the surrounding maps. The surrounding map also includes a map based on aerial photographs and satellite photographs. On the other hand, the text data includes information such as the country name corresponding to the shooting position, the prefecture name, the municipality name, the zip code, the distance from the nearest facility to the shooting position, and the required time.

また、CPU32が地図画像のデータやテキストデータを生成する場合、周辺地図を記録した地図DB(データベース)や、テキストデータと座標系データとの対応関係を記録したテキストDBが必要となる。例えば、第1実施形態では、外部装置にある地図DBやテキストDBを通信部29を介して利用することで、CPU32は地図画像のデータやテキストデータを生成できる。あるいは、記録媒体34などに地図DBやテキストDBのデータを予め格納しておき、CPU32が電子カメラ11内のデータから地図画像のデータやテキストデータを生成できるようにしてもよい(地図DBおよびテキストDBの図示は省略する)。   In addition, when the CPU 32 generates map image data or text data, a map DB (database) that records the surrounding map and a text DB that records the correspondence between the text data and the coordinate system data are required. For example, in the first embodiment, the CPU 32 can generate map image data and text data by using the map DB and text DB in the external device via the communication unit 29. Alternatively, map DB or text DB data may be stored in advance in the recording medium 34 or the like so that the CPU 32 can generate map image data or text data from the data in the electronic camera 11 (map DB and text). DB is not shown).

(2)CPU32は撮影画像データと撮影位置データとを含むデータファイルを生成する。ここで、CPU32は、撮影画像データをExif規格に準拠して生成する。また、上記のデータファイルは、撮影画像データから独立して撮影位置データを編集できるデータ構造を有している。例えば、CPU32は、それぞれ独立した撮影画像データと撮影位置データとを1つのフォルダにまとめて格納してデータファイルを構成してもよい。あるいは、CPU32は、Exif規格のMakerNoteタグ(カメラメーカーが独自に内容を定義できるタグ)を利用して、撮影画像データのファイル内に撮影位置データを記録してもよい。   (2) The CPU 32 generates a data file including photographed image data and photographing position data. Here, the CPU 32 generates captured image data in conformity with the Exif standard. Further, the data file has a data structure that allows the shooting position data to be edited independently from the shot image data. For example, the CPU 32 may configure the data file by storing the captured image data and the shooting position data, which are independent of each other, in one folder. Alternatively, the CPU 32 may record shooting position data in a file of shot image data by using an Exif standard MakerNote tag (a tag by which a camera maker can uniquely define the content).

(サーバーおよび端末装置の構成)
図3(a)は第1実施形態のサーバー12の構成を示すブロック図である。
サーバー12は、通信部40と、ユーザー情報DB(データベース)41と、撮影画像DB42と、撮影位置DB43と、制御部44と、を有している。
通信部40は、電子カメラ11または端末装置13とのデータ送受信を制御する。
(Server and terminal configuration)
FIG. 3A is a block diagram illustrating a configuration of the server 12 according to the first embodiment.
The server 12 includes a communication unit 40, a user information DB (database) 41, a captured image DB 42, a shooting position DB 43, and a control unit 44.
The communication unit 40 controls data transmission / reception with the electronic camera 11 or the terminal device 13.

ユーザー情報DB41には、ユーザーID、パスワード、決済手段情報(例えば、ユーザーの銀行口座情報、クレジットカードの情報など)を含むユーザー情報が記録されている。このユーザー情報には、情報登録者(主として撮影者)および情報購入者の両方のユーザーの情報が含まれる。また、情報登録者のユーザー情報には、登録画像IDが記録されている。この登録画像IDは、対応関係を持つユーザーIDで登録された撮影画像データおよび撮影位置データを特定するために使用される。   In the user information DB 41, user information including a user ID, a password, and payment means information (for example, user bank account information, credit card information, etc.) is recorded. This user information includes information of both information registrants (mainly photographers) and information purchasers. The registered image ID is recorded in the user information of the information registrant. This registered image ID is used to specify the photographed image data and the photographing position data registered with a user ID having a corresponding relationship.

撮影画像DB42には、撮影画像データと登録画像IDとが対応付けされた状態で記録されている。
撮影位置DB43には、撮影位置データと登録画像IDとが対応付けされた状態で記録されている。なお、撮影位置DB43の撮影位置データには、座標系データ、地図画像のデータ、テキストデータが含まれる。
In the photographed image DB 42, photographed image data and a registered image ID are recorded in association with each other.
In the shooting position DB 43, shooting position data and a registered image ID are recorded in association with each other. Note that the shooting position data of the shooting position DB 43 includes coordinate system data, map image data, and text data.

制御部44はサーバーの各部の動作を制御する。具体的には、制御部44は、(1)ユーザーの認証、(2)撮影画像データおよび撮影位置データの登録、(3)端末装置からの撮影画像の閲覧に関する制御、(4)情報購入者への課金および情報登録者への代金支払、などに必要な演算処理を実行する。
さらに、制御部44は、撮影位置データの座標系データに基づいて、地図画像データおよびテキストデータを生成することもできる。制御部44が地図画像のデータやテキストデータを生成する場合、上記の地図DBやテキストDBが必要となる。例えば、第1実施形態では、外部装置にある地図DBやテキストDBを通信部40を介して利用することで、制御部44は地図画像のデータやテキストデータを生成できる。あるいは、サーバー12内に地図DBやテキストDBを予め格納しておいてもよい(地図DBやテキストDBの図示は省略する)。
The control unit 44 controls the operation of each unit of the server. Specifically, the control unit 44 includes (1) user authentication, (2) registration of photographed image data and photographing position data, (3) control regarding browsing of photographed images from the terminal device, and (4) information purchaser. Calculation processing necessary for billing and payment for information registrants is executed.
Furthermore, the control unit 44 can generate map image data and text data based on the coordinate system data of the shooting position data. When the control unit 44 generates map image data or text data, the map DB or text DB described above is required. For example, in the first embodiment, the control unit 44 can generate map image data and text data by using the map DB and text DB in the external device via the communication unit 40. Alternatively, a map DB or a text DB may be stored in the server 12 in advance (the illustration of the map DB or the text DB is omitted).

図3(b)は第1実施形態の端末装置13の構成を示すブロック図である。第1実施形態の端末装置13はパーソナルコンピュータ等であって、主に情報購入者によって利用される。
端末装置13は、サーバー12とのデータ送受信を制御する通信部50と、キーボードやポインティングデバイス等の入力部51と、各種情報を表示するモニタ52と、端末装置各部の演算制御を実行するCPU53とを有している。
FIG. 3B is a block diagram illustrating a configuration of the terminal device 13 according to the first embodiment. The terminal device 13 of the first embodiment is a personal computer or the like, and is mainly used by information purchasers.
The terminal device 13 includes a communication unit 50 that controls data transmission and reception with the server 12, an input unit 51 such as a keyboard and a pointing device, a monitor 52 that displays various types of information, and a CPU 53 that executes arithmetic control of each unit of the terminal device. have.

(位置情報配信システムの動作)
次に第1実施形態の位置情報配信システムの動作を、「情報登録者によるデータ登録」と「情報購入者による撮影位置データの購入」とに分けて説明する。なお、位置情報配信システムの利用に先立って、ユーザーはサーバー12のユーザー情報DB41にユーザー情報を予め登録しておく必要がある。
(Operation of location information distribution system)
Next, the operation of the position information distribution system of the first embodiment will be described separately for “data registration by an information registrant” and “purchase of shooting position data by an information purchaser”. Prior to the use of the location information distribution system, the user needs to register user information in the user information DB 41 of the server 12 in advance.

図4は「情報登録者によるデータ登録」での動作を示す流れ図である。この場合には電子カメラ11とサーバー12との間でデータの送受信が行われる。
ステップS101:まず、撮影者(情報登録者)は電子カメラ11で被写体を撮影する。電子カメラ11のCPU32は、撮影者のレリーズに応じて被写体を撮影し、撮影画像データを生成する。
FIG. 4 is a flowchart showing an operation in “data registration by an information registrant”. In this case, data transmission / reception is performed between the electronic camera 11 and the server 12.
Step S101: First, the photographer (information registrant) photographs the subject with the electronic camera 11. The CPU 32 of the electronic camera 11 captures a subject according to the release of the photographer and generates captured image data.

ステップS102:電子カメラ11のCPU32は、GPSユニット27および方位センサ28の撮影時の出力に基づいて撮影位置データを生成する。このS102では、説明の便宜上、CPU32は座標系データのみの撮影位置データを生成するものとする。勿論、電子カメラ11のCPU32が、座標系データと、地図画像のデータと、テキストデータとを含む撮影位置データを生成してもよい。   Step S102: The CPU 32 of the electronic camera 11 generates shooting position data based on outputs at the time of shooting by the GPS unit 27 and the direction sensor 28. In this S102, for convenience of explanation, it is assumed that the CPU 32 generates shooting position data of only coordinate system data. Of course, the CPU 32 of the electronic camera 11 may generate shooting position data including coordinate system data, map image data, and text data.

そして、CPU32は撮影画像データ(S101)に上記の撮影位置データを対応付けてデータファイルを生成する。この撮影位置データおよびデータファイルの編集(生成)はバッファメモリ24のワークエリアを利用して行われる。なお、S102で生成されたデータファイルは記録媒体34に記録される。
ステップS103:電子カメラ11のCPU32は、撮影者の指示により通信部29を介してサーバー12とのデータ通信を開始する。サーバー12との接続に際して撮影者は電子カメラ11にユーザーIDとパスワードを入力し、電子カメラ11のCPU32はユーザーIDおよびパスワードをサーバー12に送信する。
Then, the CPU 32 generates a data file by associating the shooting position data with the shooting image data (S101). Editing (generation) of the shooting position data and data file is performed using the work area of the buffer memory 24. The data file generated in S102 is recorded on the recording medium 34.
Step S103: The CPU 32 of the electronic camera 11 starts data communication with the server 12 via the communication unit 29 in accordance with an instruction from the photographer. When connecting to the server 12, the photographer inputs the user ID and password to the electronic camera 11, and the CPU 32 of the electronic camera 11 transmits the user ID and password to the server 12.

ステップS104:サーバー12の制御部44は、電子カメラ11から送信されたユーザーIDおよびパスワード(S103)により電子カメラ11を認証する。そして、制御部44は通信部40を介して電子カメラ11に認証成功を示すコードを送信する。なお、ユーザーIDおよびパスワードが対応しない場合には認証は行われず、この場合には以下のステップを行うことなく処理が終了することとなる。   Step S104: The control unit 44 of the server 12 authenticates the electronic camera 11 with the user ID and password (S103) transmitted from the electronic camera 11. Then, the control unit 44 transmits a code indicating successful authentication to the electronic camera 11 via the communication unit 40. If the user ID and password do not correspond, authentication is not performed. In this case, the process ends without performing the following steps.

ステップS105:電子カメラ11のCPU32は、サーバー12による認証後にユーザーが選択したデータファイルをサーバー12に送信する。
ステップS106:サーバー12の制御部44は、データファイルの受信により登録画像IDを生成する。また、制御部44は、ユーザー情報DB41に撮影者のユーザー情報と対応付けて登録画像IDを記録する。
Step S105: The CPU 32 of the electronic camera 11 transmits the data file selected by the user after authentication by the server 12 to the server 12.
Step S106: The control unit 44 of the server 12 generates a registered image ID by receiving the data file. Further, the control unit 44 records the registered image ID in the user information DB 41 in association with the user information of the photographer.

ステップS107:サーバー12の制御部44は、撮影画像データおよび撮影位置データをそれぞれ別々に記録する。具体的には、制御部44はデータファイルの撮影画像データを登録画像ID(S106)に対応付けして撮影画像DB42に記録する。また、制御部44はデータファイルの撮影位置データを登録画像ID(S106)に対応付けして撮影位置DB43に記録する。なお、Exif規格のMakerNoteタグを利用して撮影位置データを記録している場合、制御部44は撮影位置DB43に撮影位置データを記録した後に撮影画像データのタグ領域から撮影位置データを削除する。   Step S107: The control unit 44 of the server 12 records the captured image data and the captured position data separately. Specifically, the control unit 44 records the captured image data of the data file in the captured image DB 42 in association with the registered image ID (S106). Further, the control unit 44 records the shooting position data of the data file in the shooting position DB 43 in association with the registered image ID (S106). Note that when shooting position data is recorded using an Exif-standard MakerNote tag, the control unit 44 records the shooting position data in the shooting position DB 43 and then deletes the shooting position data from the tag area of the shot image data.

また、制御部44は、座標系データに基づいて、地図画像のデータおよびテキストデータを生成する。まず、地図画像のデータの生成について簡単に説明する。第1に、制御部44は、座標系データに基づいて撮影位置に対応する周辺地図を地図DBから取得する。第2に、制御部44は、周辺地図に撮影位置を示すマークを重畳して地図画像のデータを生成する。   Further, the control unit 44 generates map image data and text data based on the coordinate system data. First, generation of map image data will be briefly described. First, the control unit 44 acquires a surrounding map corresponding to the shooting position from the map DB based on the coordinate system data. Secondly, the control unit 44 generates map image data by superimposing a mark indicating the shooting position on the surrounding map.

次に、テキストデータの生成について簡単に説明する。制御部44は、座標系データに基づいて、撮影位置に対応するテキストをテキストDBから取得する。そして、制御部44は、上記のテキストのうち、撮影位置に対応する国名、都道府県名、市町村名、郵便番号のデータはそのままテキストデータとする。また、制御部44は、撮影位置から最寄りの施設(例えば、鉄道の駅や交差点、インターチェンジの位置など)の位置情報をテキストDBから取得する。そして、制御部44は撮影位置と上記の施設の位置関係から、最寄りの施設から撮影位置までの距離や所要時間を演算する。そして、制御部44は、上記の演算結果から、最寄りの施設から撮影位置までの距離や所要時間のテキストデータを生成する。   Next, the generation of text data will be briefly described. The control unit 44 acquires text corresponding to the shooting position from the text DB based on the coordinate system data. And the control part 44 uses the data of the country name corresponding to the imaging | photography position, a prefecture name, a municipality name, and a postal code as text data among said text as it is. In addition, the control unit 44 acquires position information of the nearest facility (for example, a railway station, an intersection, an interchange position, etc.) from the text position from the text DB. Then, the control unit 44 calculates the distance and required time from the nearest facility to the photographing position from the positional relationship between the photographing position and the above-described facility. And the control part 44 produces | generates the text data of the distance from the nearest facility to an imaging | photography position, and required time from said calculation result.

なお、上記の地図画像のデータおよびテキストデータは、制御部44によって撮影位置DB43に撮影位置データとして記録される。
ステップS108:サーバー12の制御部44は、撮影画像DB42に登録された撮影画像データを外部から閲覧可能な状態に設定する。なお、撮影位置DB43の撮影位置データは外部からのアクセスが制限された秘匿状態に置かれる。
The map image data and the text data are recorded as shooting position data in the shooting position DB 43 by the control unit 44.
Step S108: The control unit 44 of the server 12 sets the photographed image data registered in the photographed image DB 42 so that it can be viewed from the outside. Note that the shooting position data in the shooting position DB 43 is placed in a concealed state in which access from the outside is restricted.

ステップS109:サーバー12の制御部44は、今回の撮影画像データおよび撮影位置データが既登録の撮影位置から所定範囲内で撮影されたものであるか否かを判定する。所定範囲内で撮影された場合(YES側)にはS110に移行する。一方、所定範囲内で撮影されたものでない場合(NO側)にはそのままデータ登録処理を終了する。
ステップS110:サーバー12の制御部44は、今回の撮影画像データおよび撮影位置データのユーザーIDと、S109の既登録の撮影位置データのユーザーIDとが異なるか否かを判定する。ユーザーIDが異なる場合(YES側)にはS111に移行する。一方、ユーザーIDが同一の場合(NO側)にはそのままデータ登録処理を終了する。
Step S109: The control unit 44 of the server 12 determines whether or not the current captured image data and the captured position data are captured within a predetermined range from the registered captured position. When the image is taken within the predetermined range (YES side), the process proceeds to S110. On the other hand, if the image is not photographed within the predetermined range (NO side), the data registration process is terminated as it is.
Step S110: The control unit 44 of the server 12 determines whether or not the user ID of the current captured image data and the captured position data is different from the user ID of the registered captured position data in S109. If the user ID is different (YES side), the process proceeds to S111. On the other hand, if the user ID is the same (NO side), the data registration process is terminated as it is.

ステップS111:この場合は、既登録の撮影位置から所定範囲内で撮影された撮影画像データを、既登録者以外の者が登録するケースに該当する。かかる場合には、後の登録者のデータは既登録者の撮影位置データに基づいて撮影された可能性が高く、後述の「情報購入者による撮影位置データの購入」で発生した利益を既登録者に分配することが好ましい場合もある。   Step S111: This case corresponds to a case where a person other than the registered person registers photographed image data photographed within a predetermined range from the registered photographing position. In such a case, it is highly likely that the later registrant's data was shot based on the photographic position data of the registered person, and the profit generated by “Purchasing of photographic position data by the information purchaser” described later is already registered In some cases, it may be preferable to distribute to a person.

そのため、第1実施形態の制御部44は、今回登録された撮影位置データについて、課金によって発生した利益を既登録の登録者に分配するように、ユーザ情報DB41のユーザー情報の設定を変更する。また、同一の撮影範囲内において複数人の既登録者が存在する場合、制御部44は、最も登録日時が早い登録者に対してのみ課金によって発生した利益を供与するように設定してもよい。以上で、データ登録処理を終了する。   Therefore, the control unit 44 of the first embodiment changes the setting of the user information in the user information DB 41 so as to distribute the profit generated by the charging to the registered registrants for the currently registered shooting position data. In addition, when there are a plurality of registered persons in the same shooting range, the control unit 44 may be set so as to provide the profit generated by the charging only to the registered person with the earliest registration date and time. . This completes the data registration process.

一方、図5は「情報購入者による撮影位置データの購入」での動作を示す流れ図である。この場合には端末装置13とサーバー12との間でデータの送受信が行われる。
ステップS201:端末装置13のCPU53は、情報購入者の指示によりサーバー12とのデータ通信を開始する。端末装置13のCPU53は、外部から閲覧可能な状態にある撮影画像データの画像をモニタ52に一覧表示する。そして、端末装置13のCPU53は、情報購入者の選択した画像についての撮影位置取得要求をサーバーに送信する。
On the other hand, FIG. 5 is a flowchart showing an operation in “purchasing of photographing position data by an information purchaser”. In this case, data transmission / reception is performed between the terminal device 13 and the server 12.
Step S201: The CPU 53 of the terminal device 13 starts data communication with the server 12 according to an instruction from the information purchaser. The CPU 53 of the terminal device 13 displays a list of images of the captured image data that can be browsed from the outside on the monitor 52. Then, the CPU 53 of the terminal device 13 transmits a shooting position acquisition request for the image selected by the information purchaser to the server.

ステップS202:サーバー12の制御部44は、撮影位置取得要求を受信するとユーザーIDおよびパスワードの認証入力要求を端末装置13に返信する。
ステップS203:端末装置13のCPU53は、ユーザーIDおよびパスワードの認証入力を情報購入者から受け付ける。そして、CPU53は情報購入者の入力したユーザーIDおよびパスワードをサーバー12に送信する。
Step S202: When receiving the photographing position acquisition request, the control unit 44 of the server 12 returns a user ID and password authentication input request to the terminal device 13.
Step S203: The CPU 53 of the terminal device 13 accepts a user ID and password authentication input from the information purchaser. Then, the CPU 53 transmits the user ID and password input by the information purchaser to the server 12.

ステップS204:サーバー12の制御部44は、端末装置13から送信されたユーザーIDおよびパスワード(S203)により端末装置13を認証する。なお、ユーザーIDおよびパスワードが対応しない場合には認証は行われず、この場合には以下のステップを行うことなく処理が終了することとなる。
ステップS205:サーバー12の制御部44は、撮影位置取得要求のあった撮影画像データの登録画像IDに基づいて撮影位置DB43を検索する。そして、制御部44は、撮影画像データに対応する撮影位置データを抽出する。その後に、制御部44は抽出された撮影位置データを端末装置13に送信する。これにより、情報購入者が撮影画像データに対応する緯度、経度、高度および撮影方位などの位置情報を知ることができる。なお、この段階でサーバー12と端末装置13との通信が終了してもよい。
Step S204: The control unit 44 of the server 12 authenticates the terminal device 13 with the user ID and password (S203) transmitted from the terminal device 13. If the user ID and password do not correspond, authentication is not performed. In this case, the process ends without performing the following steps.
Step S205: The control unit 44 of the server 12 searches the shooting position DB 43 based on the registered image ID of the shooting image data for which a shooting position acquisition request has been made. Then, the control unit 44 extracts shooting position data corresponding to the shot image data. Thereafter, the control unit 44 transmits the extracted shooting position data to the terminal device 13. Thereby, the information purchaser can know position information such as latitude, longitude, altitude and shooting direction corresponding to the shot image data. Note that the communication between the server 12 and the terminal device 13 may be terminated at this stage.

ステップS206:サーバー12の制御部44は、情報購入者のユーザーIDに課金処理を実行するとともに、情報登録者のユーザーIDに代金支払処理を実行する。例えば、金融機関の口座による決済の場合、制御部44はユーザー情報DB41の決済手段情報に基づいて金融機関に情報購入者の口座からの代金引落依頼を送信する。同様に、制御部44は金融機関に情報登録者の口座への代金振込依頼を送信する。そして、金融機関がサーバー12からの代金引落依頼および代金振込依頼を受信すると、金融機関は情報購入者の口座から撮影位置データの代金を引き落とすとともに、情報登録者の口座に撮影位置データの代金を入金する。   Step S206: The control unit 44 of the server 12 executes a charging process for the user ID of the information purchaser and also executes a payment process for the user ID of the information registrant. For example, in the case of settlement using a financial institution account, the control unit 44 transmits a price withdrawal request from the information purchaser's account to the financial institution based on the settlement means information in the user information DB 41. Similarly, the control unit 44 transmits a payment request to the account of the information registrant to the financial institution. Then, when the financial institution receives the price withdrawal request and the price transfer request from the server 12, the financial institution withdraws the price of the shooting position data from the account of the information purchaser and pays the price of the shooting position data to the account of the information registrant. Deposit money.

ここで、撮影位置データの課金額(代金)は基本的に情報登録者によって設定されるが、例えば、以下のようにその情報の性質に応じて、サーバー12の制御部44が所定条件により課金額を変更することもできる。
(1)撮影位置データの価値が時間に応じて変化する場合、制御部44は登録時からの経過時間に応じて課金額を変化させる。例えば、情報の価値が時間とともに大きく低減する場合、制御部44は時間経過に応じて課金額を段階的に低減させる処理を実行してもよい。また、例えば花見の穴場のようにある特定の期間だけ情報の価値が高まる場合には、特定の期間(上記例であれば桜の開花時期)がピークとなるように制御部44は課金額を段階的に変更する処理を実行してもよい。
Here, the charging amount (cost) of the shooting position data is basically set by the information registrant. For example, the control unit 44 of the server 12 imposes a predetermined condition according to the nature of the information as follows. You can also change the amount.
(1) When the value of the shooting position data changes with time, the control unit 44 changes the charge amount according to the elapsed time from the time of registration. For example, when the value of the information greatly decreases with time, the control unit 44 may execute a process of gradually reducing the billing amount as time passes. In addition, when the value of information is increased only for a specific period, such as a cherry blossom viewing spot, the control unit 44 sets the billing amount so that the specific period (the cherry blossom blooming time in the above example) peaks. May be executed.

(2)撮影位置データの価値が情報を知っている人間の数に応じて変化する場合、制御部44は撮影位置取得要求の累積数に応じて課金額を段階的に低減させる処理を実行してもよい。
以下、第1実施形態の位置情報配信システムの効果を説明する。
第1実施形態の位置情報配信システムでは、撮影位置データを秘匿したままの状態で撮影画像データを第三者に閲覧させることができ、撮影画像データを情報購入の判断材料として提供できる。そして、情報購入者のみが端末装置で撮影位置データを閲覧できる。また、撮影位置データを販売しようとする情報登録者は、データファイルを送信するだけで足りるので、撮影画像データおよび撮影位置データの管理負担が著しく軽減される。以上から、第1実施形態の位置情報配信システムによれば、撮影位置データを流通させるビジネスを効率的に展開することができる。
(2) When the value of the shooting position data changes according to the number of people who know the information, the control unit 44 executes a process of gradually reducing the charge amount according to the cumulative number of shooting position acquisition requests. May be.
Hereinafter, the effect of the position information distribution system of the first embodiment will be described.
In the position information distribution system according to the first embodiment, the photographed image data can be viewed by a third party in a state where the photographed position data is kept secret, and the photographed image data can be provided as information purchase determination material. Only the information purchaser can view the shooting position data on the terminal device. Further, since the information registrant who intends to sell the shooting position data only needs to transmit the data file, the management burden of the shooting image data and the shooting position data is remarkably reduced. From the above, according to the position information distribution system of the first embodiment, it is possible to efficiently develop a business for distributing shooting position data.

(第2実施形態の説明)
次に、第1実施形態の変形例である第2実施形態の位置情報配信システムを説明する。ここで、以下の実施形態の位置情報配信システムは、第1実施形態と基本構成が共通し、一部の構成要素の機能が第1実施形態と相違する。そのため、以下の実施形態では、第1実施形態の構成に対応する構成要素については同一符号を付して重複説明を省略する。
(Description of Second Embodiment)
Next, a location information distribution system according to a second embodiment, which is a modification of the first embodiment, will be described. Here, the positional information distribution system of the following embodiment has the same basic configuration as that of the first embodiment, and the functions of some components are different from those of the first embodiment. Therefore, in the following embodiment, the same reference numerals are given to the components corresponding to the configuration of the first embodiment, and the duplicate description is omitted.

撮影画像を公開し、撮影位置を秘匿する位置情報配信システムでは、撮影画像に撮影位置を示す被写体が撮影されていると、撮影画像の開示により撮影位置の秘密性が失われることとなる。そのため、上記の場合にも、撮影画像を開示しつつも撮影位置の秘密性を確保できる手段が要請されていた。
第2実施形態の位置情報配信システムは、電子カメラおよびサーバーの一方が、撮影画像のデータに対して撮影画像の開示を部分的に妨げるマスク処理を実行する。
In a position information distribution system that discloses a photographed image and conceals the photographing position, when the subject indicating the photographing position is photographed in the photographed image, the confidentiality of the photographing position is lost due to the disclosure of the photographed image. Therefore, also in the above case, there has been a demand for means that can ensure the secrecy of the shooting position while disclosing the shot image.
In the position information distribution system according to the second embodiment, one of the electronic camera and the server executes a mask process that partially prevents disclosure of a captured image with respect to captured image data.

まず、第2実施形態において、電子カメラがマスク処理を実行する場合を説明する。図6は第2実施形態の電子カメラの構成を示すブロック図である。
第2実施形態の電子カメラ11は、図2に示す第1実施形態の電子カメラの構成に加えて、外部音声を記録するためのマイク35と、音声解析部36と、マスク処理用DB37とをさらに有している。また、第2実施形態の電子カメラ11は静止画撮影機能と動画撮影機能とを有している。したがって、第2実施形態の電子カメラ11では、CPU32の指示により静止画の撮影画像データと、動画の撮影画像データとを生成できる。なお、第2実施形態では、CPU32は静止画または動画の撮影画像データに、マイク35で録音した録音データを付随的に含めることもできる。
First, in the second embodiment, a case where the electronic camera performs mask processing will be described. FIG. 6 is a block diagram showing the configuration of the electronic camera of the second embodiment.
In addition to the configuration of the electronic camera of the first embodiment shown in FIG. 2, the electronic camera 11 of the second embodiment includes a microphone 35 for recording external audio, an audio analysis unit 36, and a mask processing DB 37. In addition. The electronic camera 11 of the second embodiment has a still image shooting function and a moving image shooting function. Therefore, the electronic camera 11 of the second embodiment can generate still image captured image data and moving image captured image data according to an instruction from the CPU 32. In the second embodiment, the CPU 32 can additionally include recorded data recorded by the microphone 35 in the captured image data of a still image or a moving image.

また、第2実施形態での画像処理部25は、CPU32の指示により撮影画像に対するマスク処理を実行する。ここで、撮影画像に対するマスク処理は、撮影画像の開示を部分的に妨げる画像処理を意味する。例えば、上記のマスク処理には、(a)撮影画像の秘匿部分を塗りつぶす処理、(b)撮影画像の秘匿部分を切り出すトリミング処理、(c)撮影画像の秘匿部分を低解像度化するモザイク処理、(d)撮影画像の秘匿部分にマークを重畳させて覆い隠す処理、などが含まれる。   In addition, the image processing unit 25 in the second embodiment performs a mask process on a captured image according to an instruction from the CPU 32. Here, the mask processing for the captured image means image processing that partially prevents disclosure of the captured image. For example, the mask process includes (a) a process for painting a secret part of a photographed image, (b) a trimming process for cutting out a secret part of the photographed image, (c) a mosaic process for reducing the resolution of the secret part of the photographed image, (D) A process of superimposing a mark on a concealed portion of a captured image to cover it is included.

音声解析部36は、CPU32とマイク35とに接続されている。音声解析部36はマイク35の出力に基づいて録音データを生成する。また、音声解析部36は、録音データに対する音声解析およびマスク処理を実行する。ここで、録音データに対するマスク処理は、録音データに含まれる秘匿したい音声(特定語句)の再生を妨げる処理を意味する。例えば、上記のマスク処理には、(a)特定語句の箇所に他の音声をかぶせる処理や、(b)録音データの一部または全部の再生を禁止する処理、などが含まれる。   The voice analysis unit 36 is connected to the CPU 32 and the microphone 35. The voice analysis unit 36 generates recording data based on the output of the microphone 35. In addition, the voice analysis unit 36 performs voice analysis and mask processing on the recorded data. Here, the masking process for the recorded data means a process for preventing the reproduction of the confidential voice (specific phrase) included in the recorded data. For example, the masking process includes (a) a process of covering other words with a specific word and phrase (b) a process of prohibiting reproduction of a part or all of the recorded data.

マスク処理用DB37はバス33に接続されている。このマスク処理用DB37は、第1の特徴情報と、第2の特徴情報とが記録されている。第1の特徴情報は、撮影画像から抽出する特定被写体の特徴を示すものであって、画像処理部25がマスク処理のための被写体認識で使用する。第2の特徴情報は、音声データから抽出する特定語句の特徴を示すものであって、音声解析部36が音声解析処理で使用する。例えば、第2の特徴情報は、不特定話者による多量の音声データから求めた特定語句の音響モデルデータで構成される。   The mask processing DB 37 is connected to the bus 33. In the mask processing DB 37, first feature information and second feature information are recorded. The first feature information indicates the feature of the specific subject extracted from the captured image, and is used by the image processing unit 25 for subject recognition for mask processing. The second feature information indicates the feature of the specific phrase extracted from the speech data, and is used by the speech analysis unit 36 in the speech analysis processing. For example, the second feature information is constituted by acoustic model data of a specific phrase obtained from a large amount of speech data by an unspecified speaker.

以下、図7を参照しつつ、第2実施形態の電子カメラ11でのマスク処理の動作を具体的に説明する。ここでは、記録媒体34に記録されたデータファイルに対して、電子カメラ11がマスク処理を実行する例を説明する。
ステップ301:CPU32は、記録媒体34のデータファイル(撮影画像のデータ)のうちから、マスク処理の対象をユーザーの入力に基づいて選択する。例えば、CPU32は、再生時にユーザーが指定した撮影画像をマスク処理の対象に選択する。
Hereinafter, the mask processing operation in the electronic camera 11 of the second embodiment will be described in detail with reference to FIG. Here, an example will be described in which the electronic camera 11 performs a mask process on a data file recorded on the recording medium 34.
Step 301: The CPU 32 selects a mask processing target from a data file (photographed image data) of the recording medium 34 based on a user input. For example, the CPU 32 selects a captured image designated by the user at the time of reproduction as a mask processing target.

ステップ302:CPU32は、マスク処理の詳細設定の項目をユーザーの操作によって変更する。なお、予めマスク処理の詳細設定がCPU32に入力されている場合や、CPU32が詳細設定を省略する入力を受け付けた場合には、CPU32はS302の工程を省略できる。なお、マスク処理の詳細設定では、それぞれ種類の異なる複数のマスク処理の各々のオン/オフと、マスク処理における相互の優先関係とを、ユーザーがCPU32に対して設定できる。   Step 302: The CPU 32 changes a detailed setting item of the mask process by a user operation. Note that when the detailed setting of the mask process is input to the CPU 32 in advance, or when the CPU 32 receives an input for omitting the detailed setting, the CPU 32 can omit the process of S302. In the detailed setting of the mask process, the user can set on / off of each of a plurality of different mask processes and the mutual priority relationship in the mask process to the CPU 32.

ステップ303:CPU32は、マスク処理の詳細設定(S302)に基づいて、画像処理部25および音声解析部36に対して、マスク処理の実行を指示する。そして、画像処理部25および音声解析部36は、以下の(1)から(6)に示すマスク処理のいずれかを実行する。そして、画像処理部25および音声解析部36は、マスク処理を施した撮影画像のデータおよび録音データ(サンプル用データ)を、マスク処理前の撮影画像のデータおよび録音データとは別に生成する。   Step 303: The CPU 32 instructs the image processing unit 25 and the sound analysis unit 36 to execute the mask process based on the detailed setting of the mask process (S302). Then, the image processing unit 25 and the sound analysis unit 36 execute any one of the mask processes shown in the following (1) to (6). Then, the image processing unit 25 and the sound analysis unit 36 generate the captured image data and the recording data (sample data) subjected to the masking process separately from the captured image data and the recording data before the mask processing.

(1)焦点検出エリアを基準とするマスク処理
画像処理部25は、撮影時の焦点検出エリアの位置に基づいて、撮影画像の一部に対してマスク処理を実行する。具体的には、CPUは、Exif規格に準拠した撮影画像データから、撮影時の焦点検出エリアを示す焦点検出エリア情報を取得する。そして、画像処理部25は、撮影時の焦点検出エリアを基準として撮影画像に対してマスク処理を実行する。
(1) Mask processing with reference to focus detection area The image processing unit 25 performs mask processing on a part of the captured image based on the position of the focus detection area at the time of shooting. Specifically, the CPU acquires focus detection area information indicating the focus detection area at the time of shooting from the shot image data compliant with the Exif standard. Then, the image processing unit 25 performs mask processing on the captured image with reference to the focus detection area at the time of shooting.

例えば、画像処理部25は、焦点検出エリアを中心とする一定範囲を秘匿部分としてマスク処理を実行する。この場合のサンプル用データの撮影画像では、主要被写体と考えられる被写体を秘匿できる。それに対して、画像処理部25は、焦点検出エリアを中心とする一定範囲の外側を秘匿部分としてマスク処理を実行することもできる。この場合のサンプル用データの撮影画像では、主要被写体が含まれる可能性の低い背景部分を秘匿できる。   For example, the image processing unit 25 performs the masking process using a certain range centered on the focus detection area as a hidden part. In the captured image of the sample data in this case, the subject considered as the main subject can be concealed. On the other hand, the image processing unit 25 can also perform the masking process with the outside of a certain range centered on the focus detection area as a hidden part. In the captured image of the sample data in this case, the background portion that is unlikely to contain the main subject can be concealed.

(2)文字認識処理を伴うマスク処理
画像処理部25は、撮影画像に対して公知の文字認識処理を実行する。そして、画像処理部25は、文字認識処理の結果に基づいて、撮影画像に含まれる文字の部分にマスク処理を実行する。例えば、撮影位置を示す文字(電柱や看板の住所表示など)が撮影画像に含まれる場合にも、サンプル用データの撮影画像ではこれらの情報を秘匿できる。
(2) Mask process with character recognition process The image processing unit 25 performs a known character recognition process on the captured image. Then, the image processing unit 25 performs a mask process on the character portion included in the photographed image based on the result of the character recognition process. For example, even when characters indicating a shooting position (such as a telephone pole or billboard address display) are included in the shot image, such information can be concealed in the shot image of the sample data.

(3)2次元バーコードに対するマスク処理
画像処理部25は、撮影画像に対して2次元バーコード(QRコード(登録商標)など)の認識処理を実行する。そして、画像処理部25は、上記の認識処理の結果に基づいて、撮影画像に含まれる2次元バーコードの部分にマスク処理を実行する。具体的には、2次元バーコードからのデータ読み出しと同様の手段によって、画像処理部25は上記の認識処理を実現できる。例えば、住所などを示す2次元バーコードが撮影画像に含まれる場合にも、サンプル用データの撮影画像ではこれらの情報を秘匿できる。
(3) Mask processing for two-dimensional barcode The image processing unit 25 executes recognition processing of a two-dimensional barcode (such as a QR code (registered trademark)) on a captured image. Then, the image processing unit 25 performs a mask process on the portion of the two-dimensional barcode included in the captured image based on the result of the recognition process. Specifically, the image processing unit 25 can realize the above recognition process by means similar to that for reading data from a two-dimensional barcode. For example, even when a captured image includes a two-dimensional barcode indicating an address or the like, such information can be concealed in the captured image of the sample data.

(4)被写体認識を伴うマスク処理
画像処理部25は、撮影画像から特定被写体を認識する被写体認識処理を実行する。具体的には、画像処理部25は、マスク処理用DB37の第1の特徴情報に基づいて、パターンマッチングなどの公知の手段で第1の特徴情報に対応する特定被写体を撮影画像から認識する。そして、画像処理部25は、被写体認識処理の結果に基づいて、上記の特定被写体に対してマスク処理を実行する。例えば、撮影画像に含まれる著名な建造物や地形(東京タワーや富士山など)によって撮影位置が容易に推測できる場合にも、第1の特徴情報に予め著名な建造物や地形などの情報を登録しておけば、サンプル用データにおいて撮影位置をより確実に秘匿できる。
(4) Mask processing with subject recognition The image processing unit 25 executes subject recognition processing for recognizing a specific subject from a captured image. Specifically, the image processing unit 25 recognizes a specific subject corresponding to the first feature information from the captured image by a known means such as pattern matching based on the first feature information of the mask processing DB 37. Then, the image processing unit 25 performs the mask process on the specific subject based on the result of the subject recognition process. For example, even when the shooting position can be easily estimated based on famous buildings and terrain (Tokyo Tower, Mt. Fuji, etc.) included in the captured image, information such as famous buildings and terrain is registered in the first feature information in advance. By doing so, it is possible to more reliably conceal the shooting position in the sample data.

ここで、画像処理部25は撮影画像から人物の顔認識処理を実行してもよい。そして、画像処理部25は、認識した人物の顔の位置にマスク処理を施すようにしてもよい。例えば、撮影画像に含まれる人物(撮影位置の近隣の住人)から撮影位置を推定できる可能性もあるからである。また、サンプル用データの公開時において、撮影画像に含まれる人物の肖像権を保護する必要もあるからである。なお、画像処理部25の顔認識処理は公知の手段で行われる。例えば、画像処理部25は、特徴点抽出処理によって顔領域を抽出する。あるいは、画像処理部25は、被写体の色情報に基いて肌色領域の輪郭を抽出し、さらに予め用意された顔部品のテンプレートとのマッチングを行って顔領域を検出してもよい。   Here, the image processing unit 25 may execute a human face recognition process from the captured image. The image processing unit 25 may perform mask processing on the position of the recognized person's face. For example, there is a possibility that the shooting position can be estimated from a person (resident in the vicinity of the shooting position) included in the shot image. Further, it is necessary to protect the portrait right of the person included in the photographed image when the sample data is disclosed. The face recognition process of the image processing unit 25 is performed by a known means. For example, the image processing unit 25 extracts a face area by a feature point extraction process. Alternatively, the image processing unit 25 may detect the face area by extracting the outline of the skin color area based on the color information of the subject and further matching with a template of a face component prepared in advance.

(5)動画像の変調光源に対するマスク処理
撮影画像が動画像の場合において、画像処理部25は動画像のフレーム間で点滅を繰り返す変調光源の部分を検出する。そして、画像処理部25は、上記の変調光源を検出した場合には、撮影画像における変調光源の部分にマスク処理を施す。例えば、画像処理部25は各フレームにおいて変調光源の部分を直接マスクしてもよく、あるいは、動画像で変調光源が撮影されている期間を再生できないようにしてもよい。
(5) Mask processing for modulated light source of moving image When the captured image is a moving image, the image processing unit 25 detects a portion of the modulated light source that repeatedly blinks between frames of the moving image. Then, when the image processing unit 25 detects the modulated light source, the image processing unit 25 performs a mask process on the portion of the modulated light source in the captured image. For example, the image processing unit 25 may directly mask the portion of the modulated light source in each frame, or may not be able to reproduce the period during which the modulated light source is captured in the moving image.

近年では、変調光源(一例として信号機や照明器具など)の点滅によって位置データを周囲に配信できる可視光通信が実用化されつつある。そのため、動画像のフレームレートの値が可視光通信のサンプリングレートの値よりも大きい場合には、動画像から可視光通信の信号を読み出して撮影位置を割り出せる可能性もある。そのため、動画像における変調光源を予めマスクしておけば、サンプル用データにおいて撮影位置をより確実に秘匿できる。   In recent years, visible light communication capable of distributing position data to surroundings by blinking of a modulated light source (for example, a traffic light or a lighting fixture) is being put into practical use. Therefore, when the value of the frame rate of the moving image is larger than the value of the sampling rate of visible light communication, there is a possibility that the shooting position can be determined by reading out the signal of visible light communication from the moving image. Therefore, if the modulated light source in the moving image is masked in advance, the shooting position can be more securely concealed in the sample data.

なお、画像処理部25は、上記の(1)から(5)のマスク処理のオン/オフおよび優先順位の設定(S302)に応じて、撮影画像の任意の位置を秘匿することもできる。一例として、画像処理部25は、焦点検出エリアを中心とする一定範囲内を秘匿部分としてマスク処理を実行するとともに、背景部分にある文字や2次元バーコードに対してもマスク処理を行うことができる。   Note that the image processing unit 25 can also conceal an arbitrary position of the captured image in accordance with the on / off of the mask processing (1) to (5) and the setting of the priority order (S302). As an example, the image processing unit 25 performs mask processing with a certain range centered on the focus detection area as a concealed portion, and also performs mask processing on characters and two-dimensional barcodes in the background portion. it can.

(6)録音データに対するマスク処理
撮影画像データに録音データが含まれる場合において、音声解析部36は録音データの音声から特定語句を抽出する音声解析処理処理を実行する。具体的には、音声解析部36は、マスク処理用DB37の第2の特徴情報に基づいて、隠れマルコフモデルによる公知の音声認識処理で特定語句の有無を判定する。そして、音声解析部36は、録音データの音声に特定語句が含まれていると判定した場合に、録音データに対して特定語句の再生を妨げるマスク処理を実行する。
(6) Masking process for recorded data When the recorded image data includes recorded data, the voice analysis unit 36 performs a voice analysis process for extracting a specific phrase from the voice of the recorded data. Specifically, the speech analysis unit 36 determines the presence / absence of a specific word / phrase by a known speech recognition process using a hidden Markov model based on the second feature information of the mask processing DB 37. If the voice analysis unit 36 determines that the specific phrase is included in the voice of the recording data, the voice analysis unit 36 performs a mask process for preventing the specific phrase from being reproduced on the recording data.

例えば、録音データに撮影位置を示す音声が含まれる場合にも、第2の特徴情報に予め地名の語句などを登録しておけば、サンプル用データにおいて撮影位置をより確実に秘匿できる。
ステップ304:CPU32は、マスク処理の対象となった撮影画像のデータまたは録音データを含むデータファイルに、上記のサンプル用データ(S303)を関連付けて記録する。以上で、電子カメラ11でのマスク処理の動作の説明を終了する。なお、上記のデータファイルは、その後に第1実施形態と同様に電子カメラ11からサーバー12に送信される。そして、サーバー12では、サンプル用データが閲覧可能な状態に置かれるとともに、撮影画像のデータおよび撮影位置データは秘匿状態におかれることとなる。
For example, even when the sound indicating the shooting position is included in the recording data, if the place name word / phrase is registered in advance in the second feature information, the shooting position can be more reliably concealed in the sample data.
Step 304: The CPU 32 records the sample data (S303) in association with the data file including the data of the captured image or the sound recording data to be masked. This is the end of the description of the mask processing operation in the electronic camera 11. The data file is then transmitted from the electronic camera 11 to the server 12 as in the first embodiment. In the server 12, the sample data is placed in a viewable state, and the captured image data and the captured position data are kept secret.

次に、第2実施形態でサーバーにおいてマスク処理が行われる場合を説明する。図8は第2実施形態のサーバーの構成を示すブロック図である。
第2実施形態のサーバー12は、図3(a)に示す第1実施形態のサーバーの構成に加えて、画像処理部45と、音声解析部46と、マスク処理用DB47とをさらに有している。画像処理部45、音声解析部46およびマスク処理用DB7は、いずれも制御部44に接続されている。
Next, a case where mask processing is performed in the server in the second embodiment will be described. FIG. 8 is a block diagram showing the configuration of the server according to the second embodiment.
The server 12 of the second embodiment further includes an image processing unit 45, a voice analysis unit 46, and a mask processing DB 47 in addition to the configuration of the server of the first embodiment shown in FIG. Yes. The image processing unit 45, the sound analysis unit 46, and the mask processing DB 7 are all connected to the control unit 44.

画像処理部45は、制御部44の指示により撮影画像に対するマスク処理を実行する。音声解析部46は、制御部44の指示により録音データに対する音声解析およびマスク処理を実行する。マスク処理用DB47は、第1の特徴情報および第2の特徴情報が記録されている。なお、上記の画像処理部45、音声解析部46およびマスク処理用DB47は、電子カメラのものと機能がほぼ共通するので重複説明は省略する。   The image processing unit 45 performs a mask process on the captured image according to an instruction from the control unit 44. The voice analysis unit 46 performs voice analysis and mask processing on the recorded data according to instructions from the control unit 44. In the mask processing DB 47, first feature information and second feature information are recorded. Note that the image processing unit 45, the sound analysis unit 46, and the mask processing DB 47 described above have substantially the same functions as those of the electronic camera, and thus a duplicate description is omitted.

以下、図9を参照しつつ、第2実施形態のサーバーでのマスク処理およびデータ登録の動作を具体的に説明する。この図9の流れ図は、図4のサーバー12側における認証後の動作(S106〜S111)の変形例を示している。なお、図9のS407からS409は、図4のS109からS111に対応するので重複説明を省略する。
ステップ401:サーバー12の制御部44は、データファイルの受信により登録画像IDを生成する。また、制御部44は、ユーザー情報DB41に撮影者のユーザー情報と対応付けて登録画像IDを記録する。なお、このS401は図4のS106に対応する。
Hereinafter, the mask processing and data registration operations in the server according to the second embodiment will be described in detail with reference to FIG. The flowchart of FIG. 9 shows a modification of the post-authentication operation (S106 to S111) on the server 12 side of FIG. Note that S407 to S409 in FIG. 9 correspond to S109 to S111 in FIG.
Step 401: The control unit 44 of the server 12 generates a registered image ID by receiving a data file. Further, the control unit 44 records the registered image ID in the user information DB 41 in association with the user information of the photographer. This S401 corresponds to S106 in FIG.

ステップ402:制御部44は、データファイルにサンプル用データが含まれているか否かを判定する。サンプル用データが含まれている場合(YES側)には、電子カメラ11でマスク処理が既に実行されているのでS405に移行する。一方、サンプル用データが含まれていない場合(NO側)にはS403に移行する。
ステップ403:制御部44は、マスク処理の詳細設定を電子カメラ11からのユーザーの操作によって変更する。なお、マスク処理の詳細設定では、それぞれ種類の異なる複数のマスク処理の各々のオン/オフと、マスク処理における相互の優先関係とを、ユーザーが制御部44に対して設定できる。
Step 402: The control unit 44 determines whether sample data is included in the data file. If sample data is included (YES side), the mask process has already been executed by the electronic camera 11, and the process proceeds to S405. On the other hand, if sample data is not included (NO side), the process proceeds to S403.
Step 403: The control unit 44 changes the detailed setting of the mask process by a user operation from the electronic camera 11. In the detailed setting of the mask process, the user can set on / off of each of a plurality of different mask processes and the mutual priority relationship in the mask process to the control unit 44.

ステップ404:制御部44は、マスク処理の詳細設定(S403)に基づいて、画像処理部45および音声解析部46に対してマスク処理の実行を指示する。そして、画像処理部45および音声解析部46はマスク処理を実行して、マスク処理前の撮影画像のデータおよび録音データとは別にサンプル用データを生成する。なお、S404でのサーバー12によるマスク処理は、電子カメラ11によるマスク処理(図7のS303に対応する)とほぼ同様であるので重複説明を省略する。   Step 404: The control unit 44 instructs the image processing unit 45 and the sound analysis unit 46 to execute the mask processing based on the detailed setting of mask processing (S403). Then, the image processing unit 45 and the sound analysis unit 46 perform mask processing to generate sample data separately from the captured image data and the recording data before the mask processing. Note that the masking process by the server 12 in S404 is substantially the same as the masking process by the electronic camera 11 (corresponding to S303 in FIG. 7), and thus a duplicate description is omitted.

ステップ405:制御部44は、撮影画像データおよびサンプル用データを登録画像ID(S401)に対応付けして撮影画像DB42に記録する。また、制御部44はデータファイルの撮影位置データを登録画像ID(S401)に対応付けして撮影位置DB43に記録する。なお、Exif規格のMakerNoteタグを利用して撮影位置データを記録している場合、制御部44は撮影位置DB43に撮影位置データを記録した後に、撮影画像データのタグ領域から撮影位置データを削除する。   Step 405: The control unit 44 records the captured image data and the sample data in the captured image DB 42 in association with the registered image ID (S401). Further, the control unit 44 records the shooting position data of the data file in the shooting position DB 43 in association with the registered image ID (S401). Note that when shooting position data is recorded using the Exif-standard MakerNote tag, the control unit 44 records the shooting position data in the shooting position DB 43 and then deletes the shooting position data from the tag area of the shot image data. .

なお、撮影位置データに地図画像のデータとテキストデータがない場合には、制御部44は座標系データに基づいて地図画像のデータおよびテキストデータを生成する。第2実施形態での地図画像のデータおよびテキストデータの生成方法は、第1実施形態と共通するため重複説明を省略する。
ステップ406:制御部44は、撮影画像DB42に登録されたデータのうち、サンプル用データを外部から閲覧可能な状態に設定する。また、制御部44は、撮影画像DB42に登録された撮影画像のデータと、撮影位置DB43の撮影位置データとを外部からのアクセスが制限された秘匿状態におく。
When there is no map image data and text data in the shooting position data, the control unit 44 generates map image data and text data based on the coordinate system data. The map image data and text data generation method in the second embodiment is the same as that in the first embodiment, and a duplicate description is omitted.
Step 406: The control unit 44 sets the sample data out of the data registered in the photographed image DB 42 so that it can be browsed from the outside. Further, the control unit 44 keeps the captured image data registered in the captured image DB 42 and the captured position data in the captured position DB 43 in a concealed state in which access from the outside is restricted.

すなわち、第2実施形態では、課金処理前の状態において端末装置13からはマスク処理後の画像または音声しか閲覧できないため、撮影位置をより確実に秘匿することができる。なお、第2実施形態でのサーバー12は、課金処理された端末装置13に対して、撮影位置のデータとともに、撮影画像のデータおよび録音データを送信する。
以下、第2実施形態の位置情報配信システムの効果を説明する。
That is, in the second embodiment, only the image or sound after the mask process can be viewed from the terminal device 13 in the state before the billing process, so that the shooting position can be more securely concealed. Note that the server 12 in the second embodiment transmits the captured image data and the recording data together with the shooting position data to the terminal device 13 that has been charged.
Hereinafter, the effect of the position information distribution system of the second embodiment will be described.

第2実施形態では、電子カメラ11またはサーバー12が、撮影画像のデータおよび録音データに対してマスク処理を実行する。そのため、第2実施形態では、上記第1実施形態と同様の効果に加えて、サーバー12上で開示されている撮影画像や録音データによって撮影位置の秘密性が失われる事態を回避できる。
(第3実施形態の説明)
次に、第1実施形態の変形例である第3実施形態の位置情報配信システムを説明する。
In the second embodiment, the electronic camera 11 or the server 12 performs a mask process on captured image data and recorded data. Therefore, in the second embodiment, in addition to the same effects as those in the first embodiment, it is possible to avoid a situation in which the confidentiality of the shooting position is lost due to the shot image and recorded data disclosed on the server 12.
(Description of the third embodiment)
Next, a position information distribution system according to a third embodiment, which is a modification of the first embodiment, will be described.

例えば、ある目的物を複数方向から撮影した撮影画像群のように、位置情報配信システム上で取り扱われる一連の撮影画像および撮影位置のデータが密接な関係性を持つことがある。かかる場合に一連の撮影画像のデータおよび撮影位置データを一括して売買できると位置情報配信システムが要請されている。
第3実施形態の位置情報配信システムは、電子カメラおよびサーバーの一方が、撮影位置を基準として関連性を有する複数の撮影画像のデータおよび位置データをグループ化してグループファイルを生成する。
For example, there may be a close relationship between a series of photographed images and photographing position data handled on the position information distribution system like a group of photographed images obtained by photographing a certain object from a plurality of directions. In such a case, if a series of captured image data and captured position data can be traded together, a position information distribution system is required.
In the position information distribution system according to the third embodiment, one of the electronic camera and the server generates a group file by grouping data and position data of a plurality of photographed images having relevance with reference to the photographing position.

まず、図10の流れ図を参照しつつ、第3実施形態で電子カメラがグループ化処理を行なう場合の動作を説明する。ここでは、記録媒体34に記録された複数のデータファイルに基づいて、CPU32がグループファイルを生成する。なお、第3実施形態の電子カメラ11は、CPU32がグループ化処理を実行する点を除いて第1実施形態とほぼ共通するので、電子カメラ11の構成の説明は省略する。   First, the operation when the electronic camera performs grouping processing in the third embodiment will be described with reference to the flowchart of FIG. Here, the CPU 32 generates a group file based on a plurality of data files recorded on the recording medium 34. Note that the electronic camera 11 of the third embodiment is substantially the same as that of the first embodiment except that the CPU 32 executes grouping processing, and thus the description of the configuration of the electronic camera 11 is omitted.

ステップ501:CPU32は、ユーザーの操作に応じてグループ化処理の動作モードを立ち上げる。そして、CPU32は液晶モニタ31にメニュー画面を表示する。このメニュー画面では、(1)マニュアルによるグループ化、(2)代表画像の指定によるグループ化、(3)位置の指定によるグループ化、のいずれかの項目をCPU32に対してユーザーが選択入力できる(なお、S501でのメニュー画面の図示は省略する)。   Step 501: The CPU 32 starts up an operation mode of grouping processing in accordance with a user operation. Then, the CPU 32 displays a menu screen on the liquid crystal monitor 31. On this menu screen, the user can select and input one of the following items to the CPU 32: (1) manual grouping, (2) grouping by designating representative images, and (3) grouping by designating positions ( Note that illustration of the menu screen in S501 is omitted).

ステップ502:CPU32は、上記のメニュー画面(S501)でマニュアルによるグループ化の項目が選択されたか否かを判定する。上記要件を満たす場合(YES側)にはS503に移行する。一方、上記要件を満たさない場合(NO側)にはS504に移行する。
ステップ503:この場合、CPU32はマニュアルによるグループ化処理を実行する。具体的には、CPU32は、記録媒体34にあるデータファイルのうちで、ユーザーが手動で指定したすべてのデータファイルをグループ化し、指定されたデータファイルをまとめたグループファイルを生成する。そして、CPU32は、グループファイルに含まれる撮影画像のうちでユーザーが指定した撮影画像を代表画像に設定し、グループ化処理を終了する。
Step 502: The CPU 32 determines whether or not a manual grouping item has been selected on the menu screen (S501). If the above requirement is satisfied (YES side), the process proceeds to S503. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S504.
Step 503: In this case, the CPU 32 executes manual grouping processing. Specifically, the CPU 32 groups all data files manually designated by the user among the data files in the recording medium 34, and generates a group file in which the designated data files are collected. Then, the CPU 32 sets a captured image designated by the user among the captured images included in the group file as a representative image, and ends the grouping process.

ステップ504:CPU32は、上記のメニュー画面(S501)で代表画像の指定によるグループ化の項目が選択されたか否かを判定する。上記要件を満たす場合(YES側)にはS505に移行する。一方、上記要件を満たさない場合(NO側)にはS506に移行する。
ステップ505:この場合、CPU32は代表画像の指定によるグループ化処理を実行する。このS505では、CPU32はユーザーが指定した代表画像の撮影位置から一定範囲内で撮影された撮影画像をグループ化する。
Step 504: The CPU 32 determines whether or not a grouping item by designating a representative image has been selected on the menu screen (S501). If the above requirement is satisfied (YES side), the process proceeds to S505. On the other hand, when the above requirement is not satisfied (NO side), the process proceeds to S506.
Step 505: In this case, the CPU 32 executes a grouping process by designating a representative image. In S505, the CPU 32 groups the captured images captured within a certain range from the capturing position of the representative image designated by the user.

具体的には、第1にCPU32は、代表画像の指定入力と、グループ化の範囲を規定する半径の入力とをユーザーから受け付ける。第2にCPU32は、代表画像の撮影位置の座標を中心として、入力された半径で描かれる円の内側をグループ化の範囲とする。第3にCPUは、記録媒体34にあるデータファイルの撮影位置データを検索して、撮影位置の座標が上記の円の範囲内に含まれるデータファイルを抽出する。第4にCPU32は、抽出したデータファイルをまとめてグループファイルを生成し、グループ化処理を終了する。なお、S505の場合には、ユーザーが最初に指定した撮影画像がCPU32によって代表画像に設定される。   Specifically, first, the CPU 32 receives a representative image designation input and a radius input that defines the grouping range from the user. Secondly, the CPU 32 sets the inside of a circle drawn with the input radius as the grouping range with the coordinates of the shooting position of the representative image as the center. Thirdly, the CPU searches the shooting position data of the data file in the recording medium 34, and extracts the data file in which the coordinates of the shooting position are included in the circle range. Fourth, the CPU 32 generates a group file by collecting the extracted data files, and ends the grouping process. In the case of S505, the captured image first designated by the user is set as a representative image by the CPU 32.

ステップ506:この場合、CPU32は位置の指定によるグループ化処理を実行する。このS506では、CPU32はユーザーの指定した範囲内で撮影された撮影画像をグループ化する。
具体的には、第1にCPU32は、グループ化する撮影位置の領域指定の入力をユーザーから受け付ける。例えば、CPU32は液晶モニタ31に地図を表示して、ユーザーにグループ化する領域を指定入力させる。なお、領域の指定入力では、地図上の基準点および半径の入力による円形の領域指定でもよく、地図上の対角点の入力による矩形の領域指定のいずれでもよい。第2にCPU32は、記録媒体34にあるデータファイルの撮影位置データを検索して、上記の指定された領域内に撮影位置の座標が含まれるデータファイルを抽出する。第3にCPU32は、抽出したデータファイルをまとめてグループファイルを生成する。第4にCPU32は、グループファイルに含まれる撮影画像のうちから代表画像を設定し、グループ化処理を終了する。なお、S506での代表画像はユーザーの指定に基づくものであってもよく、CPU32が地図上の基準点などに基づいて自動的に指定したものでもよい。
Step 506: In this case, the CPU 32 executes a grouping process by specifying a position. In S506, the CPU 32 groups the captured images captured within the range designated by the user.
Specifically, first, the CPU 32 receives from the user an input for specifying a region for photographing positions to be grouped. For example, the CPU 32 displays a map on the liquid crystal monitor 31 and allows the user to specify and input an area to be grouped. The area designation input may be a circular area designation by inputting a reference point and a radius on the map, or a rectangular area designation by inputting a diagonal point on the map. Second, the CPU 32 searches the shooting position data of the data file in the recording medium 34, and extracts the data file in which the coordinates of the shooting position are included in the specified area. Thirdly, the CPU 32 collects the extracted data files and generates a group file. Fourthly, the CPU 32 sets a representative image from the captured images included in the group file, and ends the grouping process. Note that the representative image in S506 may be based on the user's designation, or may be automatically designated by the CPU 32 based on a reference point on the map.

ここで、上記のグループファイルは、その後に第1実施形態と同様に電子カメラ11からサーバー12に送信される。そして、サーバー12は、グループファイル内の撮影画像データ群と撮影位置データ群とを一単位として処理する。
次に、図11の流れ図を参照しつつ、第3実施形態でサーバーがグループ化処理を行なう場合の動作を説明する。この図11では、情報登録者(売り主)がサーバー12に予め2以上のデータファイルを登録していることを前提として説明を行う。なお、第3実施形態のサーバー12は、制御部44がグループ化処理を実行する点を除いて第1実施形態とほぼ共通するので、サーバー12の構成の説明は省略する。
Here, the group file is then transmitted from the electronic camera 11 to the server 12 as in the first embodiment. Then, the server 12 processes the captured image data group and the captured position data group in the group file as a unit.
Next, the operation when the server performs grouping processing in the third embodiment will be described with reference to the flowchart of FIG. This FIG. 11 will be described on the assumption that the information registrant (seller) has registered two or more data files in the server 12 in advance. The server 12 of the third embodiment is almost the same as that of the first embodiment except that the control unit 44 executes the grouping process, and thus the description of the configuration of the server 12 is omitted.

ステップ601:サーバー12の制御部44は、データファイルを登録した売り主が電子カメラ11または端末装置13でサーバー12にアクセスした場合、接続先の端末にメニュー画面を表示させる。
このメニュー画面では、サーバー12内のデータファイルのグループ化処理を、接続先の端末がサーバー12に対して指示できるようになっている。メニュー画面では、(1)マニュアルによるグループ化、(2)代表画像の指定によるグループ化、(3)位置の指定によるグループ化、のいずれかの項目をユーザーが選択入力できる(なお、S601でのメニュー画面の図示は省略する)。なお、グループ化の対象となる撮影画像および撮影位置データは、売り主のユーザーIDに対応するものに限定される。
Step 601: When the seller who registered the data file accesses the server 12 with the electronic camera 11 or the terminal device 13, the control unit 44 of the server 12 displays a menu screen on the connection destination terminal.
On this menu screen, the connection destination terminal can instruct the server 12 to perform grouping of data files in the server 12. On the menu screen, the user can select and input one of the following items: (1) Manual grouping, (2) Grouping by designation of representative image, and (3) Grouping by designation of position (in S601) (The menu screen is not shown.) Note that the captured images and shooting position data to be grouped are limited to those corresponding to the seller's user ID.

ステップ602:制御部44は、接続先の端末がマニュアルによるグループ化を指示したか否かを判定する。上記要件を満たす場合(YES側)にはS603に移行する。一方、上記要件を満たさない場合(NO側)にはS604に移行する。
ステップ603:この場合、制御部44はマニュアルによるグループ化処理を実行する。具体的には、第1に制御部44は、グループ化する撮影画像の指定を接続先の端末(売り主)から受け付ける。第2に制御部44は、指定された撮影画像に対応する登録画像IDに基づいて、撮影画像DBの撮影画像のデータと、撮影位置DBの撮影位置データとをそれぞれリンクしてグループ化する。第3に制御部44は、グループ化された撮影画像のうちでユーザーが指定した撮影画像を代表画像に設定し、グループ化処理を終了する。
Step 602: The control unit 44 determines whether or not the connection destination terminal has instructed manual grouping. If the above requirement is satisfied (YES side), the process proceeds to S603. On the other hand, when the above requirement is not satisfied (NO side), the process proceeds to S604.
Step 603: In this case, the control unit 44 executes manual grouping processing. Specifically, firstly, the control unit 44 accepts designation of captured images to be grouped from a connection destination terminal (seller). Secondly, the control unit 44 links and groups the captured image data of the captured image DB and the captured position data of the captured position DB based on the registered image ID corresponding to the designated captured image. Thirdly, the control unit 44 sets a photographed image designated by the user among the grouped photographed images as a representative image, and ends the grouping process.

ステップ604:制御部44は、接続先の端末が代表画像の指定によるグループ化を指示したか否かを判定する。上記要件を満たす場合(YES側)にはS605に移行する。一方、上記要件を満たさない場合(NO側)にはS606に移行する。
ステップ605:この場合、制御部44は代表画像の指定によるグループ化処理を実行する。このS605では、制御部44は売り主が指定した代表画像の撮影位置から一定範囲内で撮影された撮影画像をグループ化する。
Step 604: The control unit 44 determines whether or not the connection destination terminal has instructed grouping by designating a representative image. If the above requirement is satisfied (YES side), the process proceeds to S605. On the other hand, when the above requirement is not satisfied (NO side), the process proceeds to S606.
Step 605: In this case, the control unit 44 executes a grouping process by designating a representative image. In step S605, the control unit 44 groups the captured images captured within a certain range from the representative image capturing position designated by the seller.

具体的には、第1に制御部44は、代表画像の指定入力と、グループ化の範囲を規定する半径の入力とを接続先の端末(売り主)から受け付ける。第2に制御部44は、代表画像の撮影位置の座標を中心として、入力された半径で描かれる円の内側をグループ化の範囲とする。第3に制御部44は、撮影位置DB43で売り主のユーザーIDに対応する撮影位置データを検索し、撮影位置の座標が上記の円の範囲内に含まれる登録画像IDを抽出する。第4に制御部44は、抽出された登録画像IDに基づいて、撮影画像DB42の撮影画像のデータと、撮影位置DB43の撮影位置データとをそれぞれリンクしてグループ化し、グループ化処理を終了する。   Specifically, firstly, the control unit 44 receives a designation input of a representative image and an input of a radius defining a grouping range from a connection destination terminal (seller). Secondly, the control unit 44 sets the inside of a circle drawn with the input radius as the grouping range with the coordinates of the shooting position of the representative image as the center. Thirdly, the control unit 44 searches the shooting position DB 43 for shooting position data corresponding to the user ID of the seller, and extracts a registered image ID in which the coordinates of the shooting position are included in the range of the circle. Fourth, based on the extracted registered image ID, the control unit 44 links the photographed image data in the photographed image DB 42 and the photographing position data in the photographing position DB 43 to group them, and ends the grouping process. .

ステップ606:この場合、制御部44は位置の指定によるグループ化処理を実行する。このS606では、制御部44は売り主の指定した範囲内で撮影された撮影画像をグループ化する。
具体的には、第1に制御部44は、グループ化する撮影位置の領域指定の入力を接続先の端末(売り主)から受け付ける。撮影位置の領域指定については、上記のS506の場合と同様であるので説明を省略する。第2に制御部44は、撮影位置DB43で売り主のユーザーIDに対応する撮影位置データを検索し、上記の指定された領域内に撮影位置の座標が含まれる登録画像IDを抽出する。第3に制御部44は、抽出された登録画像IDに基づいて、撮影画像DB42の撮影画像のデータと、撮影位置DB43の撮影位置データとをそれぞれリンクしてグループ化し、グループ化処理を終了する。
Step 606: In this case, the control unit 44 executes a grouping process by specifying a position. In S606, the control unit 44 groups the captured images captured within the range designated by the seller.
Specifically, first, the control unit 44 accepts an input for specifying a region for photographing positions to be grouped from a connection destination terminal (seller). The area designation of the shooting position is the same as in the case of S506 described above, and thus the description thereof is omitted. Secondly, the control unit 44 searches the shooting position DB 43 for shooting position data corresponding to the seller's user ID, and extracts a registered image ID in which the coordinates of the shooting position are included in the specified area. Third, based on the extracted registered image ID, the control unit 44 links the photographed image data in the photographed image DB 42 and the photographing position data in the photographing position DB 43 to group them, and ends the grouping process. .

その後、第3実施形態のサーバー12は、グループ化された撮影画像のデータおよび撮影位置のデータを一単位として管理する。なお、代表画像は、グループ化された撮影画像のインデックスとして使用される。また、売り主がグループ化された撮影画像の閲覧を制限しようとする場合には、制御部44は代表画像のみを閲覧可能な状態として、グループに含まれる他の撮影画像を秘匿状態におくこともできる。   Thereafter, the server 12 of the third embodiment manages the grouped captured image data and the captured position data as a unit. The representative image is used as an index for grouped captured images. In addition, when the seller intends to restrict browsing of the grouped captured images, the control unit 44 may set the other captured images included in the group in a concealed state so that only the representative images can be viewed. it can.

また、情報購入者がグループ化された撮影画像を指定して撮影位置の購入をサーバー12に指示した場合、制御部44は、情報購入者の端末装置13に対して、グループ化された撮影画像のデータと撮影位置のデータとを送信する。
以下、第3実施形態の位置情報配信システムの効果を説明する。
第3実施形態では、電子カメラ11またはサーバー12が、撮影画像のデータおよび撮影位置データをグループ化する。そのため、第3実施形態では、上記第1実施形態と同様の効果に加えて、密接な関係性を持つ撮影画像のデータおよび撮影位置データを一括して管理できるので、位置情報配信システムの利便性が大きく向上する。
Further, when the information purchaser designates the grouped captured images and instructs the server 12 to purchase the capturing position, the control unit 44 instructs the information purchaser's terminal device 13 to group the captured images. And the shooting position data are transmitted.
Hereinafter, the effect of the position information distribution system of the third embodiment will be described.
In the third embodiment, the electronic camera 11 or the server 12 groups the captured image data and the captured position data. Therefore, in the third embodiment, in addition to the same effects as those of the first embodiment, it is possible to collectively manage captured image data and shooting position data having a close relationship, so that the convenience of the position information distribution system is achieved. Is greatly improved.

(第4実施形態の説明)
次に、第1実施形態の変形例である第4実施形態の位置情報配信システムを説明する。
位置情報配信システムの運用時には、数多くの撮影画像データおよび撮影位置データがサーバー上に蓄積され、情報購入者は必要な情報にアクセスするために多大な手間を要求される。そのため、情報購入者が必要な情報へのアクセスを容易にする手段が要請される。
(Explanation of Fourth Embodiment)
Next, a location information distribution system according to a fourth embodiment, which is a modification of the first embodiment, will be described.
When the position information distribution system is operated, a large number of photographed image data and photographed position data are accumulated on the server, and an information purchaser is required to take a great deal of time to access necessary information. Therefore, a means for facilitating access to necessary information by information purchasers is required.

第4実施形態の位置情報配信システムは、電子カメラおよびサーバーの一方が撮影画像のデータにキーワードを関連付けして記録するとともに、サーバーがキーワードに基づく撮影画像の検索を実行する。
まず、第4実施形態の位置情報配信システムのサーバー12について説明する。第4実施形態のサーバー12は図3(a)に示す第1実施形態のサーバーと共通の構成であるが、撮影画像DB42および制御部44の機能に以下の相違がある。
In the positional information distribution system according to the fourth embodiment, one of the electronic camera and the server records a photographed image data in association with a keyword, and the server performs a photographed image search based on the keyword.
First, the server 12 of the position information distribution system of the fourth embodiment will be described. The server 12 of the fourth embodiment has the same configuration as the server of the first embodiment shown in FIG. 3A, but there are the following differences in the functions of the photographed image DB 42 and the control unit 44.

撮影画像DB42には、各々の撮影画像に関連付けされた状態で検索用のキーワードが記録されている。
制御部44は、撮影画像に対して上記のキーワードを付加するキーワード付加処理を実行する。なお、キーワード付加処理の内容については後述する。また、制御部44は、端末装置13からの検索用語の入力に基づいて、撮影画像DB42のキーワードを検索する検索機能を有する。そして、制御部44は、検索用語の条件に対応するキーワードを有する撮影画像を端末装置13に提示する。これにより、端末装置13において、情報購入者は所望の撮影画像を容易に絞り込むことができる。
In the photographed image DB 42, search keywords are recorded in a state associated with each photographed image.
The control unit 44 executes a keyword addition process for adding the keyword to the captured image. The details of the keyword addition process will be described later. Further, the control unit 44 has a search function for searching for keywords in the captured image DB 42 based on input of search terms from the terminal device 13. Then, the control unit 44 presents the captured image having the keyword corresponding to the search term condition to the terminal device 13. Thereby, in the terminal device 13, the information purchaser can narrow down a desired picked-up image easily.

なお、制御部44がキーワード付加処理を実行するためには、撮影日時または撮影位置とキーワードとの対応関係を記録したキーワードDBが必要となる。第4実施形態では、不図示の外部装置にあるキーワードDBを通信部40を介して利用することで、制御部44がキーワード付加処理を実行する。なお、サーバー12内にキーワードDBを設けてもよい(キーワードDBの図示はいずれの場合も省略する)。   In order for the control unit 44 to execute the keyword addition process, a keyword DB that records the correspondence between the shooting date / time or shooting position and the keyword is required. In the fourth embodiment, the control unit 44 executes keyword addition processing by using a keyword DB in an external device (not shown) via the communication unit 40. A keyword DB may be provided in the server 12 (the keyword DB is not shown in any case).

図12は、第4実施形態でサーバーがキーワード付加処理を行なう場合の動作を説明する流れ図である。
ステップ701:制御部44は、撮影画像DB42に記録された撮影画像のうちから、キーワード付加処理の対象となる撮影画像を選択し、その登録画像IDを取得する。例えば、制御部44は、撮影画像DB42に新規に登録された撮影画像をキーワード付加処理の対象とする。あるいは、制御部44は、撮影画像DB42の複数の撮影画像のデータをキーワード付加処理の対象として一括指定してもよい。
FIG. 12 is a flowchart for explaining the operation when the server performs keyword addition processing in the fourth embodiment.
Step 701: The control unit 44 selects a photographic image to be subjected to keyword addition processing from the photographic images recorded in the photographic image DB 42, and acquires the registered image ID. For example, the control unit 44 sets a photographed image newly registered in the photographed image DB 42 as a target for keyword addition processing. Alternatively, the control unit 44 may collectively specify data of a plurality of photographed images in the photographed image DB 42 as keywords addition processing targets.

ステップ702:制御部44は、S701で取得した登録画像IDについて、その撮影画像の撮影日時および撮影位置のデータを取得する。具体的には、制御部44は、Exif規格に準拠した撮影画像のデータのヘッダから撮影日時のデータを取得する。また、制御部44は、登録画像IDに基づいて撮影位置DB42を検索して、撮影位置データを取得する。   Step 702: For the registered image ID acquired in S701, the control unit 44 acquires shooting date / time and shooting position data of the shot image. Specifically, the control unit 44 acquires the shooting date / time data from the header of the shot image data compliant with the Exif standard. Further, the control unit 44 searches the shooting position DB 42 based on the registered image ID, and acquires shooting position data.

ステップ703:制御部44は、S702で取得した撮影日時および撮影位置に基づいてキーワードDBを検索する。そして、CPUは、例えば以下の(1)から(3)の情報を取得する。
(1)キーワードDBが天気情報を有する場合、制御部44は、撮影位置および撮影日時のデータから撮影位置における撮影時の天気情報(天候、気温、湿度、雨量、積雪量などのデータ)のキーワードを取得する。
Step 703: The control unit 44 searches the keyword DB based on the shooting date and time and the shooting position acquired in S702. Then, for example, the CPU acquires the following information (1) to (3).
(1) When the keyword DB has weather information, the control unit 44 uses the shooting position and shooting date / time data to determine the weather information (data such as weather, temperature, humidity, rainfall, and snow cover) at the shooting position. To get.

(2)キーワードDBがイベント情報を有する場合、制御部44は、撮影位置および撮影日時のデータから撮影位置で撮影時に開催されたイベント情報(コンサート、祭り、公演などのデータ)のキーワードを取得する。
(3)キーワードDBが報道情報を有する場合、制御部44は、撮影位置のデータから撮影位置に関係する報道情報(例えば、事件、事故、災害などのデータ)のキーワードを取得する。なお、制御部44は、撮影日時のデータも用いて報道情報の条件をさらに絞り込んでもよい。
(2) When the keyword DB has event information, the control unit 44 acquires keywords of event information (data of concerts, festivals, performances, etc.) held at the shooting position from the shooting position and shooting date / time data. .
(3) When the keyword DB has news information, the control unit 44 acquires keywords of news information (for example, data on incidents, accidents, disasters, etc.) related to the photographing position from the photographing position data. Note that the control unit 44 may further narrow down the conditions of the news information using the shooting date / time data.

もっとも、報道情報に関しては、例えば事故の発生前後の撮影画像をユーザーが要望する場合もあるので、制御部44は報道情報を撮影日時で絞り込まなくともよい。なお、撮影日時を問わずに報道情報のキーワードを付加する場合、制御部44はサーバー12に登録された撮影画像データに対して報道情報のキーワード付加処理を定期的に実行することが好ましい。これにより、登録後に起こった事故に関する報道情報のキーワードを、サーバー12が逐次追加できる。   Of course, regarding the news information, for example, the user may request photographed images before and after the occurrence of the accident, so the control unit 44 does not have to narrow down the news information by the photographing date and time. In addition, when adding a keyword for news information regardless of the shooting date and time, it is preferable that the control unit 44 periodically executes a keyword addition process for news information on the captured image data registered in the server 12. Thereby, the server 12 can sequentially add keywords of news report information regarding accidents that occurred after registration.

ステップ704:制御部44は、S703で取得したキーワードを、処理対象の撮影画像のデータに対応付けて撮影画像DB42に記録する。以上で、図12の流れ図の説明を終了する。
ところで、上記のキーワード付加処理において、撮影位置を特定するためには不十分なものであれば、制御部44は撮影位置のデータから直接キーワードを生成してもよい。例えば、制御部44は、撮影位置の特定が困難な程度の大きさをもつ行政区域や地域名の名称をキーワードとしてもよい。一例として、市町村レベルの住所を秘匿する設定がされている場合において、制御部44は撮影位置のデータに基づいて、都道府県の名称や地域名(東京都、関東地方など)をキーワードとして付加してもよい。
Step 704: The control unit 44 records the keyword acquired in S703 in the captured image DB 42 in association with the captured image data to be processed. Above, description of the flowchart of FIG. 12 is complete | finished.
By the way, in the above keyword adding process, if it is insufficient for specifying the shooting position, the control unit 44 may generate the keyword directly from the shooting position data. For example, the control unit 44 may use the name of an administrative district or area name having a size that makes it difficult to specify the shooting position as a keyword. As an example, when the address of the municipality level is set to be concealed, the control unit 44 adds the name of the prefecture or the name of the region (Tokyo, Kanto region, etc.) as a keyword based on the data of the shooting position. May be.

また、上記のキーワード付加処理は電子カメラ11のCPU32が実行してもよい。例えば、第1実施形態と同様の構成の電子カメラにおいて、CPU32が撮影日時または撮影位置に基づいて、記録媒体34に記録されたデータファイルにキーワードを付加してもよい。もっとも、この場合にはCPU32は通信部29を介して外部装置のキーワードDBからキーワードを取得する必要がある。なお、電子カメラ11によるキーワード付加処理は、上記のサーバー12の場合とほぼ同様であるので流れ図の図示と詳細な説明は省略する。   The keyword addition process may be executed by the CPU 32 of the electronic camera 11. For example, in the electronic camera having the same configuration as that of the first embodiment, the CPU 32 may add a keyword to the data file recorded on the recording medium 34 based on the shooting date / time or the shooting position. In this case, however, the CPU 32 needs to acquire a keyword from the keyword DB of the external device via the communication unit 29. Note that the keyword addition processing by the electronic camera 11 is almost the same as that in the case of the server 12 described above, and therefore the illustration of the flowchart and detailed description thereof are omitted.

以下、第4実施形態の位置情報配信システムの効果を説明する。
第4実施形態では、上記第1実施形態と同様の効果に加えて、電子カメラ11またはサーバー12の付加したキーワードによって、情報購入者は所望の撮影画像を検索が容易に絞り込むことができるので、位置情報配信システムの利便性が大きく向上する。
(第5実施形態の説明)
次に、第1実施形態の変形例である第5実施形態の位置情報配信システムを説明する。
Hereinafter, the effect of the position information distribution system of the fourth embodiment will be described.
In the fourth embodiment, in addition to the same effects as in the first embodiment, the information purchaser can easily narrow down the desired photographed image by the keyword added by the electronic camera 11 or the server 12, The convenience of the location information distribution system is greatly improved.
(Description of Fifth Embodiment)
Next, a location information distribution system according to a fifth embodiment, which is a modification of the first embodiment, will be described.

例えば、位置情報配信システム上で撮影位置を示す地図の縮尺や撮影画像の解像度を変更できる場合には、これらの状態に応じて情報の価値が変動することもある。そのため、位置情報配信システムでは、上記の情報の価値の変動にも対応しうる手段が要請されている。
第5実施形態の位置情報配信システムは、地図の縮尺や撮影画像の解像度の変更に応じて、サーバーが情報購入者に課金する情報の価格を変更する。
For example, when the scale of the map indicating the shooting position and the resolution of the shot image can be changed on the position information distribution system, the value of the information may vary depending on these states. Therefore, in the position information distribution system, a means that can cope with the change in the value of the information is required.
The position information distribution system of the fifth embodiment changes the price of information that the server charges to the information purchaser in accordance with the change in the scale of the map and the resolution of the captured image.

図13は、第5実施形態での情報購入者による撮影位置データの購入での動作を示す流れ図である。この場合には端末装置13とサーバー12との間でデータの送受信が行われる。なお、第5実施形態ではサーバー12の制御部44は、地図画像の縮尺の変更と撮影画像の解像度の変更とに関する処理を実行する。
ステップ801:端末装置13のCPU53は、情報購入者の指示によりサーバー12とのデータ通信を開始する。端末装置13のCPU53は、外部から閲覧可能な状態にある撮影画像データの画像を、撮影位置を示す地図画像とともにモニタ52に表示する。
FIG. 13 is a flowchart showing an operation in purchase of shooting position data by an information purchaser in the fifth embodiment. In this case, data transmission / reception is performed between the terminal device 13 and the server 12. Note that in the fifth embodiment, the control unit 44 of the server 12 executes processing related to changing the scale of the map image and changing the resolution of the captured image.
Step 801: The CPU 53 of the terminal device 13 starts data communication with the server 12 according to an instruction from the information purchaser. The CPU 53 of the terminal device 13 displays the image of the captured image data in a state that can be browsed from the outside on the monitor 52 together with the map image indicating the capturing position.

ここで、S801での端末装置13のモニタ52には、いずれも無料に設定された見本用撮影画像および見本用地図画像が1セットで表示される。一例として、見本用撮影画像は、Exif規格のサムネイル画像程度の低い解像度に設定されている。また、見本用地図画像は、縮尺が非常に小さな粗い地図となっている。そのため、S801の段階では、情報購入者は、購入を検討する情報の概要を判断することはできるが、地図画像から撮影位置を正確に把握することはできない。   Here, on the monitor 52 of the terminal device 13 in step S801, a sample photographed image and a sample map image that are set free of charge are displayed as one set. As an example, the sample photographed image is set to a resolution as low as the Exif standard thumbnail image. The sample map image is a rough map with a very small scale. Therefore, at the stage of S801, the information purchaser can determine the outline of information to be considered for purchase, but cannot accurately grasp the shooting position from the map image.

ステップ802:見本用撮影画像よりも精細な撮影画像や、見本用地図画像よりも縮尺が大きく詳細な地図画像を取得する場合には、情報購入者は端末装置13からサーバー12に対して画像取得要求を行う。この画像取得要求では、情報購入者は撮影画像の解像度の大きさと、地図画像の縮尺の大きさをそれぞれ指定できる。
そして、端末装置13のCPU53は、情報購入者の入力に基づいて、画像取得要求をサーバー12に送信する。
Step 802: When acquiring a captured image that is finer than the captured image for the sample or a detailed map image that is larger in scale than the sample map image, the information purchaser acquires an image from the terminal device 13 to the server 12 Make a request. In this image acquisition request, the information purchaser can specify the resolution size of the captured image and the scale size of the map image.
Then, the CPU 53 of the terminal device 13 transmits an image acquisition request to the server 12 based on the input of the information purchaser.

ステップ803:サーバー12の制御部44は、画像取得要求(S802)を受信するとユーザーIDおよびパスワードの認証入力要求を端末装置13に返信する。
ステップ804:端末装置13のCPU53は、ユーザーIDおよびパスワードの認証入力を情報購入者から受け付ける。そして、CPU53は、情報購入者の入力したユーザーIDおよびパスワードをサーバー12に送信する。
Step 803: Upon receiving the image acquisition request (S802), the control unit 44 of the server 12 returns a user ID and password authentication input request to the terminal device 13.
Step 804: The CPU 53 of the terminal device 13 accepts a user ID and password authentication input from the information purchaser. Then, the CPU 53 transmits the user ID and password input by the information purchaser to the server 12.

ステップ805:サーバー12の制御部44は、端末装置13から送信されたユーザーIDおよびパスワード(S804)により端末装置13を認証する。なお、ユーザーIDおよびパスワードが対応しない場合には認証は行われず、この場合には以下のステップを行うことなく処理が終了することとなる。
ステップ806:サーバー12の制御部44は、画像取得要求のあった登録画像IDに基づいて撮影画像DB42と撮影位置DB43とを検索する。そして、制御部44は、画像取得要求で指定された解像度の撮影画像と、画像取得要求で指定された縮尺の地図画像とを端末装置13に対して送信する。
Step 805: The control unit 44 of the server 12 authenticates the terminal device 13 with the user ID and password (S804) transmitted from the terminal device 13. If the user ID and password do not correspond, authentication is not performed. In this case, the process ends without performing the following steps.
Step 806: The control unit 44 of the server 12 searches the photographed image DB 42 and the photographed position DB 43 based on the registered image ID for which an image acquisition request has been made. Then, the control unit 44 transmits the captured image having the resolution specified in the image acquisition request and the scaled map image specified in the image acquisition request to the terminal device 13.

ステップ807:端末装置13のCPU53は、サーバー12から送信された撮影画像および地図画像をモニタ52に表示する。そのため、情報購入者は、高解像度の撮影画像および縮尺の大きな詳細地図によって、S801の状態と比較して被写体の状態と撮影位置とをより正確に把握できる。
ステップ808:一方、サーバー12の制御部44は、画像取得要求での解像度の指定および縮尺の指定に基づいて課金処理の価格を変更する。具体的には、地図画像の縮尺を変更した場合には、制御部44は縮尺の大きさに比例して価格が高くなるように調整する。すなわち、情報購入者が比較的に縮尺の小さい地図画像を取得する場合には、制御部44は課金処理の価格を減額して割り引く処理を実行する。また、撮影画像の解像度を変更した場合には、制御部44は解像度の高さに比例して価格が高くなるように調整する。すなわち、情報購入者が比較的に解像度の低い撮影画像を取得する場合には、制御部44は課金処理の価格を減額して割り引く処理を実行する。
Step 807: The CPU 53 of the terminal device 13 displays the captured image and the map image transmitted from the server 12 on the monitor 52. Therefore, the information purchaser can grasp the state of the subject and the shooting position more accurately than the state of S801 by using the high-resolution shot image and the large-scale detailed map.
Step 808: On the other hand, the control unit 44 of the server 12 changes the price of the charging process based on the designation of the resolution and the designation of the scale in the image acquisition request. Specifically, when the scale of the map image is changed, the control unit 44 adjusts so that the price increases in proportion to the size of the scale. That is, when the information purchaser acquires a map image with a relatively small scale, the control unit 44 executes a discount process by reducing the price of the billing process. When the resolution of the captured image is changed, the control unit 44 adjusts the price so as to increase in proportion to the resolution height. That is, when the information purchaser acquires a captured image with a relatively low resolution, the control unit 44 executes a discount process by reducing the price of the billing process.

ステップ809:制御部44は、情報購入者のユーザーIDに課金処理を実行するとともに、情報登録者のユーザーIDに代金支払処理を実行する。例えば、金融機関の口座による決済の場合、制御部44はユーザー情報DB41の決済手段情報に基づいて金融機関に情報購入者の口座からの代金引落依頼を送信する。同様に、制御部44は金融機関に情報登録者の口座への代金振込依頼を送信する。そして、金融機関がサーバー12からの代金引落依頼および代金振込依頼を受信すると、金融機関は情報購入者の口座から撮影位置データの代金を引き落とすとともに、情報登録者の口座に撮影位置データの代金を入金する。以上で、図13の説明を終了する。なお、情報購入者がより解像度の高い撮影画像や縮尺の大きな地図画像を取得しようとする場合には、S802に戻ってサーバー12に対して再度画像取得要求を実行すればよい。   Step 809: The control unit 44 executes a charging process for the user ID of the information purchaser and also executes a payment process for the user ID of the information registrant. For example, in the case of settlement using a financial institution account, the control unit 44 transmits a price withdrawal request from the information purchaser's account to the financial institution based on the settlement means information in the user information DB 41. Similarly, the control unit 44 transmits a payment request to the account of the information registrant to the financial institution. Then, when the financial institution receives the price withdrawal request and the price transfer request from the server 12, the financial institution withdraws the price of the shooting position data from the account of the information purchaser and pays the price of the shooting position data to the account of the information registrant. Deposit money. Above, description of FIG. 13 is complete | finished. Note that when the information purchaser intends to acquire a captured image with a higher resolution or a map image with a larger scale, the process returns to S802 and an image acquisition request may be executed again with respect to the server 12.

以下、第5実施形態の位置情報配信システムの効果を説明する。
第5実施形態では、地図の縮尺や撮影画像の解像度の変更に応じて、サーバー12が情報購入者に課金する情報の価格を変更する。そのため、上記第1実施形態と同様の効果に加えて、情報購入者のニーズに応じて課金額を柔軟に調整できるので、位置情報配信システムの利便性が大きく向上する。
Hereinafter, the effect of the position information distribution system of the fifth embodiment will be described.
In the fifth embodiment, the price of information charged by the server 12 to the information purchaser is changed according to a change in the scale of the map or the resolution of the captured image. Therefore, in addition to the same effects as those of the first embodiment, the billing amount can be flexibly adjusted according to the needs of the information purchaser, so that the convenience of the location information distribution system is greatly improved.

(第6実施形態の説明)
図14は、第6実施形態のサーバー12の構成を示すブロック図である。第6実施形態は、例えば、カメラ付の携帯パーソナルコンピュータなどでサーバー12を構成した例である。このサーバーは、被写体を撮影して撮影画像データを生成するための撮像部48と、撮影位置データを生成するためのGPSユニット49および方位センサ49aとを有している。
(Description of the sixth embodiment)
FIG. 14 is a block diagram illustrating a configuration of the server 12 according to the sixth embodiment. The sixth embodiment is an example in which the server 12 is configured by, for example, a portable personal computer with a camera. The server includes an imaging unit 48 for capturing a subject and generating captured image data, and a GPS unit 49 and an orientation sensor 49a for generating capturing position data.

上記の第6実施形態によれば、サーバー12単体で撮影画像データおよび撮影位置データを生成することが可能となる。
(実施形態の補足事項)
(1)第1実施形態において、情報登録者は電子カメラ11からデータファイルを取り出して、端末装置13からサーバー12にデータファイルを登録するようにしてもよい。
According to the sixth embodiment described above, it is possible to generate photographic image data and photographic position data by the server 12 alone.
(Supplementary items of the embodiment)
(1) In the first embodiment, the information registrant may take out a data file from the electronic camera 11 and register the data file in the server 12 from the terminal device 13.

(2)電子カメラ11の撮影位置データ生成手段はGPSユニット27に限定されることなく、例えば、セルラ方式の移動通信網(PHS等)や、携帯電話などの複数の基地局から発信される情報を利用した測位装置などで構成してもよい。この場合には、撮影位置データ生成手段と通信部とを兼用することができる。
(3)第1実施形態の端末装置は、データ通信機能を有する携帯電話装置であってもよい。
(2) The photographing position data generation means of the electronic camera 11 is not limited to the GPS unit 27, but is information transmitted from a plurality of base stations such as a cellular mobile communication network (PHS or the like) or a mobile phone, for example. You may comprise with the positioning apparatus etc. which utilized. In this case, the photographing position data generation unit and the communication unit can be used together.
(3) The terminal device of the first embodiment may be a mobile phone device having a data communication function.

(4)上記の実施形態では、データの改竄を防止する観点から、電子カメラが秘密鍵で撮影画像データと撮影位置データとを暗号化し、サーバーが公開鍵でデータを復号化する暗号化処理を行うようにしてもよい。なお、データの改竄をより確実に防止するためには、電子カメラが撮影後のデータをハード内で暗号化処理し、電子カメラにおいて売買用のデータの編集を行えない構成とすることがより好ましい。   (4) In the above embodiment, from the viewpoint of preventing data tampering, the electronic camera encrypts the captured image data and the captured position data with the secret key, and the server decrypts the data with the public key. You may make it perform. In order to prevent data tampering more reliably, it is more preferable that the electronic camera encrypts the data after shooting in hardware, and the electronic camera cannot edit trading data. .

(5)第2実施形態のマスク処理では、サンプル用データの画像または音声を再生して、マスク処理の適否をユーザーに確認させるようにしてもよい。
(6)上記実施形態で説明した発明は、コンピュータにその発明を実行させるプログラムをインストールして実施してもかまわない。
(5) In the mask process of the second embodiment, an image or sound of sample data may be reproduced to allow the user to confirm the suitability of the mask process.
(6) The invention described in the above embodiment may be implemented by installing a program for causing the computer to execute the invention.

第1実施形態の位置情報配信システムの概要図Schematic diagram of the location information distribution system of the first embodiment 第1実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of 1st Embodiment. (a)第1実施形態のサーバーの構成を示すブロック図、(b)第1実施形態の端末装置の構成を示すブロック図(A) Block diagram showing the configuration of the server of the first embodiment, (b) Block diagram showing the configuration of the terminal device of the first embodiment. 「情報登録者によるデータ登録」での動作を示す流れ図Flow chart showing operation in "Data registration by information registrant" 「情報購入者による撮影位置データの購入」での動作を示す流れ図Flow chart showing operation in "Purchase of shooting position data by information buyer" 第2実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of 2nd Embodiment. 第2実施形態の電子カメラでのマスク処理の動作を説明する流れ図Flowchart for explaining an operation of mask processing in the electronic camera of the second embodiment 第2実施形態のサーバーの構成を示すブロック図The block diagram which shows the structure of the server of 2nd Embodiment. 第2実施形態のサーバーでのマスク処理およびデータ登録の動作を説明する流れ図Flowchart for explaining operations of mask processing and data registration in the server of the second embodiment 第3実施形態で電子カメラがグループ化処理を行なう場合の動作を説明する流れ図Flowchart for explaining the operation when the electronic camera performs grouping processing in the third embodiment 第3実施形態でサーバーがグループ化処理を行なう場合の動作を説明する流れ図Flow chart for explaining the operation when the server performs grouping processing in the third embodiment 第4実施形態でサーバーがキーワード付加処理を行なう場合の動作を説明する流れ図Flowchart for explaining the operation when the server performs keyword addition processing in the fourth embodiment 第5実施形態における撮影位置データの購入での動作を示す流れ図Flowchart showing operations in purchase of shooting position data in the fifth embodiment 第6実施形態のサーバーの構成を示すブロック図The block diagram which shows the structure of the server of 6th Embodiment

符号の説明Explanation of symbols

11…電子カメラ、12…サーバー、13…端末装置、22…撮像素子、25,45…画像処理部、27,49…GPSユニット、28,49a…方位センサ、35…マイク、36,46…音声解析部、37,47…マスク処理用DB、40…通信部、41…ユーザー情報DB、42…撮影画像DB、43…撮影位置DB、44…制御部、48…撮像部
DESCRIPTION OF SYMBOLS 11 ... Electronic camera, 12 ... Server, 13 ... Terminal device, 22 ... Image sensor, 25, 45 ... Image processing part, 27, 49 ... GPS unit, 28, 49a ... Direction sensor, 35 ... Microphone, 36, 46 ... Audio | voice Analysis unit 37, 47 ... Mask processing DB, 40 ... Communication unit, 41 ... User information DB, 42 ... Shooting image DB, 43 ... Shooting position DB, 44 ... Control unit, 48 ... Imaging unit

Claims (21)

データ送受信を行う通信部と、
撮影画像のデータと、前記撮影画像の撮影位置に関する位置データとを対応付けして記録する第1記録部と、
前記撮影画像のデータに対して、前記撮影画像の開示を部分的に妨げるマスク処理を実行する画像処理部と、
前記通信部を介して接続された端末装置に対して、前記マスク処理後の前記撮影画像のデータを閲覧可能な状態とし、前記マスク処理後の前記位置データを秘匿状態とする閲覧制御部と、
前記端末装置から取得した認証情報に基づき前記端末装置を認証する認証部と、
前記認証部が認証した前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する配信部と、
を備えることを特徴とする位置情報配信装置。
A communication unit for transmitting and receiving data;
A first recording unit that records data of a captured image and position data related to a captured position of the captured image in association with each other;
An image processing unit that executes mask processing that partially prevents disclosure of the photographed image with respect to the data of the photographed image;
For the terminal device connected via the communication unit, the browsing control unit that allows the data of the captured image after the masking process to be browsed, and the position data after the masking process is concealed;
An authentication unit for authenticating the terminal device based on authentication information acquired from the terminal device;
A delivery unit that transmits the position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit;
A position information distribution apparatus comprising:
請求項1に記載の位置情報配信装置において、
前記撮影画像のデータは撮影時の焦点検出エリアの位置を示す焦点検出エリア情報を含み、
前記画像処理部は、前記焦点検出エリア情報に基づいて前記マスク処理を実行することを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
The data of the captured image includes focus detection area information indicating the position of the focus detection area at the time of shooting,
The position information distribution apparatus, wherein the image processing unit executes the mask processing based on the focus detection area information.
請求項1に記載の位置情報配信装置において、
前記画像処理部は、前記撮影画像に対して文字認識処理を実行するとともに、前記撮影画像に含まれる文字の部分に前記マスク処理を実行することを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
The position information distribution apparatus, wherein the image processing unit performs a character recognition process on the photographed image and performs the mask process on a character portion included in the photographed image.
請求項1に記載の位置情報配信装置において、
前記画像処理部は、前記撮影画像から2次元バーコードを抽出するとともに、前記撮影画像に含まれる前記2次元バーコードの部分に前記マスク処理を実行することを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
The position information distribution apparatus, wherein the image processing unit extracts a two-dimensional barcode from the photographed image, and executes the mask process on a portion of the two-dimensional barcode included in the photographed image.
請求項1に記載の位置情報配信装置において、
前記撮影画像から抽出しようとする特定被写体の特徴を示す第1の特徴情報を記録した第2記録部と、
前記第1の特徴情報に基づいて、前記撮影画像に含まれる前記特定被写体を認識する被写体認識部と、をさらに備え、
前記画像処理部は、前記撮影画像に含まれる前記特定被写体の位置を基準として前記マスク処理を実行することを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
A second recording unit that records first characteristic information indicating characteristics of a specific subject to be extracted from the captured image;
A subject recognition unit that recognizes the specific subject included in the captured image based on the first feature information;
The position information distribution apparatus, wherein the image processing unit performs the masking process based on a position of the specific subject included in the captured image.
請求項5に記載の位置情報配信装置において、
前記被写体認識部は、前記撮影画像から人間の顔を認識することを特徴とする位置情報配信装置。
The position information distribution device according to claim 5,
The position information distribution device, wherein the subject recognition unit recognizes a human face from the captured image.
請求項1に記載の位置情報配信装置において、
前記画像処理部は、前記撮影画像が動画像であるときに、前記動画像から変調光源を抽出するとともに、前記変調光源が撮影された部分に前記マスク処理を実行することを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
The image processing unit, when the captured image is a moving image, extracts a modulated light source from the moving image and performs the mask process on a portion where the modulated light source is captured. Distribution device.
請求項1に記載の位置情報配信装置において、
前記撮影画像のデータは音声を録音した録音データをさらに含み、
前記録音データから抽出しようとする特定語句の特徴を示す第2の特徴情報を記録した第3記録部と、
前記第2の特徴情報に基づいて、前記録音データにおける前記特定語句の録音の有無を判定する解析部と、
前記録音データの音声に前記特定語句が含まれる場合に、前記録音データの前記特定語句の再生を妨げる処理を行う音声処理部と、をさらに備えることを特徴とする位置情報配信装置。
The position information distribution device according to claim 1,
The data of the photographed image further includes recording data obtained by recording sound,
A third recording unit that records second characteristic information indicating characteristics of a specific phrase to be extracted from the recording data;
Based on the second feature information, an analysis unit for determining whether or not the specific phrase is recorded in the recording data;
A position information distribution apparatus, further comprising: an audio processing unit that performs a process of preventing reproduction of the specific phrase of the recorded data when the voice of the recorded data includes the specific phrase.
データ送受信を行う通信部と、
撮影画像のデータと、前記撮影画像の撮影位置に関する位置データとを対応付けして記録する記録部と、
関連性を有する複数の前記撮影画像のデータおよび前記位置データをグループ化するグループ化処理部と、
前記通信部を介して接続された端末装置に対して、前記撮影画像のデータを閲覧可能な状態とし、前記位置データを秘匿状態とする閲覧制御部と、
前記端末装置から取得した認証情報に基づき前記端末装置を認証する認証部と、
前記認証部が認証した前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する配信部と、を備え、
前記配信部は、前記端末装置に対して、グループ化された前記撮影画像のデータおよび前記位置データを送信することを特徴とする位置情報配信装置。
A communication unit for transmitting and receiving data;
A recording unit that records the captured image data in association with the position data related to the captured position of the captured image; and
A grouping processing unit that groups the plurality of captured image data and the position data having relevance;
For a terminal device connected via the communication unit, the browsing control unit that makes the data of the photographed image viewable and the position data is in a secret state;
An authentication unit for authenticating the terminal device based on authentication information acquired from the terminal device;
A delivery unit that transmits the position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit;
The distribution unit transmits the grouped captured image data and the position data to the terminal device.
請求項9に記載の位置情報配信装置において、
前記グループ化処理部は、ユーザーから受け付けた前記撮影画像の指定操作に基づいて、前記グループ化の対象となる前記撮影画像を選択することを特徴とする位置情報配信装置。
In the positional information delivery apparatus according to claim 9,
The grouping processing unit selects the photographic images to be grouped based on a designation operation for the photographic images received from a user.
請求項9に記載の位置情報配信装置において、
前記グループ化処理部は、ユーザーから受け付けた代表画像の指定操作に基づいて、前記代表画像の撮影位置から所定範囲内で撮影された前記撮影画像のデータをグループ化することを特徴とする位置情報配信装置。
In the positional information delivery apparatus according to claim 9,
The grouping processing unit groups the data of the photographed images photographed within a predetermined range from the photographing position of the representative image based on a designation operation of the representative image received from the user. Distribution device.
データ送受信を行う通信部と、
撮影画像のデータと、前記撮影画像の撮影位置に関する位置データとを対応付けして記録する記録部と、
前記位置データに基づいて、前記撮影画像のデータにキーワードを関連付けして記録するキーワード付加部と、
前記通信部を介して接続された端末装置に対して、前記撮影画像のデータを閲覧可能な状態とし、前記位置データを秘匿状態とする閲覧制御部と、
前記端末装置から取得した認証情報に基づき前記端末装置を認証する認証部と、
前記認証部が認証した前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する配信部と、を備え、
前記閲覧制御部は、前記キーワードに基づいて前記記録部に記録された前記撮影画像のデータを検索し、検索結果を前記端末装置に対して提示することを特徴とする位置情報配信装置。
A communication unit for transmitting and receiving data;
A recording unit that records the captured image data in association with the position data related to the captured position of the captured image; and
A keyword adding unit for associating and recording a keyword with the captured image data based on the position data;
For a terminal device connected via the communication unit, the browsing control unit that makes the data of the photographed image viewable and the position data is in a secret state;
An authentication unit for authenticating the terminal device based on authentication information acquired from the terminal device;
A delivery unit that transmits the position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit;
The browsing control unit searches for data of the captured image recorded in the recording unit based on the keyword, and presents the search result to the terminal device.
請求項12に記載の位置情報配信装置において、
前記撮影画像のデータは撮影日時情報を含み、
前記キーワード付加部は、前記撮影日時情報に基づいて前記撮影画像のデータに前記キーワードをさらに関連付けすることを特徴とする位置情報配信装置。
The position information distribution device according to claim 12,
The data of the captured image includes shooting date information,
The keyword adding unit further associates the keyword with data of the photographed image based on the photographing date / time information.
データ送受信を行う通信部と、
撮影画像のデータと、前記撮影画像の撮影位置を示す地図画像を含むとともに課金処理に用いる価格が設定された位置データとを対応付けして記録する記録部と、
前記通信部を介して接続された端末装置に対して、前記撮影画像のデータを閲覧可能な状態とし、前記位置データを秘匿状態とする閲覧制御部と、
前記端末装置から取得した認証情報に基づき前記端末装置を認証する認証部と、
前記認証部が認証した前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する配信部と、
前記端末装置からの操作に応じて、前記端末装置に送信する前記地図画像の縮尺または解像度を変更する変更部と、
前記縮尺の大きさまたは前記解像度の高さに比例して前記価格が高くなるように、変更時に前記価格を再設定する価格変更部と、
を備えることを特徴とする位置情報配信装置。
A communication unit for transmitting and receiving data;
A recording unit that records the captured image data in association with the location data that includes the map image that indicates the captured position of the captured image and that is set with the price used for the charging process;
For a terminal device connected via the communication unit, the browsing control unit that makes the data of the photographed image viewable and the position data is in a secret state;
An authentication unit for authenticating the terminal device based on authentication information acquired from the terminal device;
A delivery unit that transmits the position data corresponding to the captured image designated by the terminal device to the terminal device authenticated by the authentication unit;
A change unit that changes the scale or resolution of the map image to be transmitted to the terminal device in response to an operation from the terminal device;
A price changing unit for resetting the price at the time of change so that the price is increased in proportion to the scale size or the height of the resolution;
A position information distribution apparatus comprising:
請求項1から請求項14のいずれか1項に記載の位置情報配信装置において、
被写体を撮影して前記撮影画像のデータを生成する撮像部と、
前記位置データを生成する位置データ生成部と、をさらに備えることを特徴とする位置情報配信装置。
In the positional information delivery apparatus of any one of Claims 1-14,
An imaging unit that shoots a subject and generates data of the captured image;
And a position data generation unit that generates the position data.
被写体を撮影して前記撮影画像のデータを生成する撮像部と、
前記撮影画像の撮影位置に関する位置データを生成するとともに、前記位置データを前記撮影画像のデータに対応付けする位置データ生成部と、
前記撮影画像のデータに対して、前記撮影画像の開示を部分的に妨げるマスク処理を実行する画像処理部と、
を備えることを特徴とするカメラ。
An imaging unit that shoots a subject and generates data of the captured image;
A position data generating unit that generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image;
An image processing unit that executes mask processing that partially prevents disclosure of the photographed image with respect to the data of the photographed image;
A camera comprising:
被写体を撮影して前記撮影画像のデータを生成する撮像部と、
前記撮影画像の撮影位置に関する位置データを生成するとともに、前記位置データを前記撮影画像のデータに対応付けする位置データ生成部と、
前記撮影位置を基準として関連性を有する複数の前記撮影画像のデータおよび前記位置データをグループ化するグループ化処理部と、
を備えることを特徴とするカメラ。
An imaging unit that shoots a subject and generates data of the captured image;
A position data generating unit that generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image;
A grouping processing unit for grouping data of the plurality of photographed images and the position data having relevance on the basis of the photographing position;
A camera comprising:
被写体を撮影して前記撮影画像のデータを生成する撮像部と、
前記撮影画像の撮影位置に関する位置データを生成するとともに、前記位置データを前記撮影画像のデータに対応付けする位置データ生成部と、
前記位置データに基づいて、前記撮影画像のデータにキーワードを関連付けして記録するキーワード付加部と、
を備えることを特徴とするカメラ。
An imaging unit that shoots a subject and generates data of the captured image;
A position data generating unit that generates position data related to the shooting position of the shot image and associates the position data with the data of the shot image;
A keyword adding unit for associating and recording a keyword with the captured image data based on the position data;
A camera comprising:
請求項16から請求項18のいずれか1項に記載のカメラにおいて、
前記画像データおよび前記位置データを送信可能な通信部をさらに備えることを特徴とするカメラ。
The camera according to any one of claims 16 to 18,
The camera further comprising a communication unit capable of transmitting the image data and the position data.
データ送受信を行う通信部と、記録部および制御部とを備えたコンピュータを用いた位置情報配信方法であって、
前記制御部が、撮影画像のデータと前記撮影画像の撮影位置を示す位置データとを前記記録部に対応付けして記録する第1ステップと、
前記制御部が、前記通信部を介して接続された端末装置に対して前記撮影画像のデータを閲覧可能な状態とし、前記位置データを秘匿状態とする第2ステップと、
前記制御部が、認証情報に基づき前記端末装置を認証する第3ステップと、
前記制御部が、認証された前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する第4ステップと、
を有することを特徴とする位置情報配信方法。
A location information delivery method using a computer having a communication unit for performing data transmission and reception, a recording unit and a control unit,
A first step in which the control unit records data of a captured image and position data indicating a shooting position of the captured image in association with the recording unit;
A second step in which the control unit is in a state in which the data of the captured image can be viewed with respect to a terminal device connected via the communication unit, and the position data is in a secret state;
A third step in which the control unit authenticates the terminal device based on authentication information;
A fourth step in which the control unit transmits the position data corresponding to the captured image designated by the terminal device to the authenticated terminal device;
A position information delivery method characterized by comprising:
データ送受信を行う通信部と、記録部および制御部とを備えた位置情報配信装置のプログラムであって、
前記制御部が、撮影画像のデータと前記撮影画像の撮影位置を示す位置データとを前記記録部に対応付けして記録する第1ステップと、
前記制御部が、前記通信部を介して接続された端末装置に対して前記撮影画像のデータを閲覧可能な状態とする一方で、前記位置データを秘匿状態とする第2ステップと、
前記制御部が、認証情報に基づき前記端末装置を認証する第3ステップと、
前記制御部が、認証された前記端末装置に対して、前記端末装置から指定された前記撮影画像に対応する前記位置データを送信する第4ステップと、
を前記制御部に実行させることを特徴とするプログラム。
A program for a location information distribution device including a communication unit that performs data transmission and reception, a recording unit, and a control unit,
A first step in which the control unit records data of a captured image and position data indicating a shooting position of the captured image in association with the recording unit;
A second step in which the control unit sets the position data in a concealed state while allowing the data of the captured image to be browsed with respect to the terminal device connected via the communication unit;
A third step in which the control unit authenticates the terminal device based on authentication information;
A fourth step in which the control unit transmits the position data corresponding to the captured image designated by the terminal device to the authenticated terminal device;
Is executed by the control unit.
JP2006201762A 2006-07-25 2006-07-25 Location information delivery apparatus, camera, location information delivery method and program Withdrawn JP2008027336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006201762A JP2008027336A (en) 2006-07-25 2006-07-25 Location information delivery apparatus, camera, location information delivery method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006201762A JP2008027336A (en) 2006-07-25 2006-07-25 Location information delivery apparatus, camera, location information delivery method and program

Publications (1)

Publication Number Publication Date
JP2008027336A true JP2008027336A (en) 2008-02-07

Family

ID=39117887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006201762A Withdrawn JP2008027336A (en) 2006-07-25 2006-07-25 Location information delivery apparatus, camera, location information delivery method and program

Country Status (1)

Country Link
JP (1) JP2008027336A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268222A (en) * 2009-05-14 2010-11-25 Casio Computer Co Ltd Information recording system, imaging device, light emitting device, and program
JP2011120214A (en) * 2009-11-04 2011-06-16 Canon Inc Image distribution apparatus, and image distribution method
JP2011234156A (en) * 2010-04-28 2011-11-17 Mega Chips Corp Imaging apparatus, image storage method, and program
JP2011238107A (en) * 2010-05-12 2011-11-24 Oki Electric Ind Co Ltd Image processing device and image processing method
JP2012089976A (en) * 2010-10-18 2012-05-10 Olympus Imaging Corp Image data selling system and image data selling method as well as photographing device, server device
JP2012170024A (en) * 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
US20120246180A1 (en) * 2011-03-22 2012-09-27 Shinichi Yoshida Portable device
JP2013239925A (en) * 2012-05-15 2013-11-28 Canon Inc Imaging apparatus, control method therefor, and program
JP2015170954A (en) * 2014-03-06 2015-09-28 学校法人立命館 ENCRYPTION DEVICE, DECRYPTION DEVICE, SECURITY SYSTEM EQUIPPED WITH THE SAME, PROGRAM EXECUTED BY THEM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE SAME
US9167429B2 (en) 2013-03-01 2015-10-20 Panasonic Intellectual Property Management Co., Ltd. Visible light communication system, communication terminal and server
JP2016033792A (en) * 2014-07-31 2016-03-10 Kddi株式会社 Information acquisition instruction device, information acquisition instruction method, and computer program
JPWO2014021449A1 (en) * 2012-08-03 2016-07-21 日本電気株式会社 Imaging aid, imaging apparatus, and imaging method
JP2018511189A (en) * 2014-12-18 2018-04-19 ノキア テクノロジーズ オサケユイチア Method and apparatus for publishing watermarked video protected by local copyright
WO2024171707A1 (en) * 2023-02-14 2024-08-22 キヤノン株式会社 Information processing device, imaging device, and information processing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268222A (en) * 2009-05-14 2010-11-25 Casio Computer Co Ltd Information recording system, imaging device, light emitting device, and program
US9213723B2 (en) 2009-11-04 2015-12-15 Canon Kabushiki Kaisha Image distribution apparatus and image distribution method
JP2011120214A (en) * 2009-11-04 2011-06-16 Canon Inc Image distribution apparatus, and image distribution method
US8503831B2 (en) 2009-11-04 2013-08-06 Canon Kabushiki Kaisha Image distribution apparatus and image distribution method
JP2011234156A (en) * 2010-04-28 2011-11-17 Mega Chips Corp Imaging apparatus, image storage method, and program
JP2011238107A (en) * 2010-05-12 2011-11-24 Oki Electric Ind Co Ltd Image processing device and image processing method
JP2012089976A (en) * 2010-10-18 2012-05-10 Olympus Imaging Corp Image data selling system and image data selling method as well as photographing device, server device
JP2012170024A (en) * 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
US20120246180A1 (en) * 2011-03-22 2012-09-27 Shinichi Yoshida Portable device
JP2013239925A (en) * 2012-05-15 2013-11-28 Canon Inc Imaging apparatus, control method therefor, and program
JPWO2014021449A1 (en) * 2012-08-03 2016-07-21 日本電気株式会社 Imaging aid, imaging apparatus, and imaging method
US9720305B2 (en) 2012-08-03 2017-08-01 Nec Corporation Imaging aid, imaging device, and imaging method
US9167429B2 (en) 2013-03-01 2015-10-20 Panasonic Intellectual Property Management Co., Ltd. Visible light communication system, communication terminal and server
JP2015170954A (en) * 2014-03-06 2015-09-28 学校法人立命館 ENCRYPTION DEVICE, DECRYPTION DEVICE, SECURITY SYSTEM EQUIPPED WITH THE SAME, PROGRAM EXECUTED BY THEM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE SAME
JP2016033792A (en) * 2014-07-31 2016-03-10 Kddi株式会社 Information acquisition instruction device, information acquisition instruction method, and computer program
JP2018511189A (en) * 2014-12-18 2018-04-19 ノキア テクノロジーズ オサケユイチア Method and apparatus for publishing watermarked video protected by local copyright
US10607312B2 (en) 2014-12-18 2020-03-31 Nokia Technologies Oy Method and apparatus for publishing locational copyrighted watermarking video
WO2024171707A1 (en) * 2023-02-14 2024-08-22 キヤノン株式会社 Information processing device, imaging device, and information processing method

Similar Documents

Publication Publication Date Title
JP2008027336A (en) Location information delivery apparatus, camera, location information delivery method and program
US11889194B2 (en) Service system, information processing apparatus, and service providing method
US10791267B2 (en) Service system, information processing apparatus, and service providing method
US20150124106A1 (en) Terminal apparatus, additional information managing apparatus, additional information managing method, and program
CN106027841A (en) Portable information device, imaging apparatus and information acquisition system
US12306912B2 (en) Image processing apparatus and method with metadata selection relating to authenticity verification
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
EP1656627A1 (en) Electronic device capturing and displaying image data and corresponding positional information, and displaying current position, the image data, and the route to said corresponding position retrieved from a map database
JPH08315106A (en) Digital camera and image data distribution system
WO2019008948A1 (en) Data system, server, and program
JP2024020650A (en) Imaging data provision system
JP2005108027A (en) Method and program for providing object information
KR20090132485A (en) Geographic information verification system control method and mobile terminal
JP2009134333A (en) Digital photograph sharing system device
JP4940804B2 (en) POSITION INFORMATION DISTRIBUTION METHOD, POSITION INFORMATION DISTRIBUTION DEVICE, AND POSITION INFORMATION DISTRIBUTION PROGRAM
JP2010068247A (en) Device, method, program and system for outputting content
JP2002189412A (en) Mapping system and mapping method
KR100596381B1 (en) Information providing system using the location information and location image information obtained from the user&#39;s mobile terminal and its providing method
JP7547676B1 (en) VIDEO PROVIDING SYSTEM, VIDEO PROVIDING METHOD, AND VIDEO PROVIDING PROGRAM
JP2006178804A (en) Subject object information providing method and subject object information providing server
JP2008191893A (en) Landscape delivery device, landscape delivery system, landscape image registration method, landscape delivery method, guide map preparation system and data structure
KR20190003076A (en) Web server implementation technology that can view the image data actually taken from the location on the electronic map
KR20120049497A (en) A method for providing service for informing about fishing place using gps
JP2007020054A (en) Image management method and apparatus
CN100468397C (en) An electronic device that collects and displays image data and corresponding location information, and displays the current location, image data, and route to the corresponding location retrieved from a map database

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091006