JP2013134225A - Navigation device, system, method, and computer program - Google Patents
Navigation device, system, method, and computer program Download PDFInfo
- Publication number
- JP2013134225A JP2013134225A JP2011286589A JP2011286589A JP2013134225A JP 2013134225 A JP2013134225 A JP 2013134225A JP 2011286589 A JP2011286589 A JP 2011286589A JP 2011286589 A JP2011286589 A JP 2011286589A JP 2013134225 A JP2013134225 A JP 2013134225A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- image data
- point
- shooting
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 11
- 238000004088 simulation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
【課題】現在地点に適合する動画を再生可能なナビゲーション装置を提供する。
【解決手段】ナビゲーション装置において、出発地及び目的地を指定して、出発地から目的地までのルート候補を取得するルート候補取得手段と、動画データ及びその動画データの撮影開始地点を含む撮影情報を取得する動画取得手段と、ルート候補上における現実の又は仮想的な現在地点が、撮影開始地点を通過したとき、撮影情報に係る動画データを再生するナビゲーション手段とを備える。
【選択図】図1
The present invention provides a navigation device capable of reproducing a moving image suitable for a current location.
In a navigation device, route candidate acquisition means for acquiring a route candidate from a departure point to a destination by specifying a departure point and a destination, and shooting information including moving image data and a shooting start point of the moving image data And a navigation means for reproducing moving image data related to shooting information when a real or virtual current point on the route candidate passes the shooting start point.
[Selection] Figure 1
Description
本発明は、ナビゲーション装置、システム、方法及びコンピュータプログラムの技術に関する。 The present invention relates to a navigation device, system, method, and computer program technology.
近年の携帯電話及びスマートフォン等は、例えば、GPS(Global Positioning System)信号受信デバイスを備える。そして、ユーザが所望の「出発地」と「目的地」を入力すると、ユーザを出発地から目的地まで案内するルートを生成する。このとき、例えば、「到着時刻を優先」又は「走行しやすい道路を優先」等のルート検索条件を指定することができる。 Recent mobile phones, smart phones, and the like include, for example, a GPS (Global Positioning System) signal receiving device. When the user inputs a desired “departure place” and “destination”, a route for guiding the user from the departure place to the destination is generated. At this time, for example, a route search condition such as “priority on arrival time” or “priority on easy-to-run road” can be designated.
また、近年の携帯電話及びスマートフォン等は、GPS信号受信デバイスに加えて、カメラデバイスを備えており、撮影した写真にその写真を撮影した地点を示す情報(以下「地点情報」という)を付与することができる。そして、その撮影した写真及び地点情報を、他のユーザと共有することができる(例えば、特許文献1)。 Moreover, recent mobile phones, smartphones, and the like are equipped with a camera device in addition to a GPS signal receiving device, and give information (hereinafter referred to as “point information”) indicating a point where the photograph was taken to the photograph taken. be able to. And the taken photograph and point information can be shared with other users (for example, patent documents 1).
写真の場合はシャッターボタンが押された時の地点情報を付与することで、写真とその写真の撮影地点とを対応付けることができる。しかし、動画の場合は撮影開始ボタンが押された時の地点情報を付与したとしても、動画の映像と撮影地点とを適切に対応付けることができない。なぜなら、撮影者が移動しながら(例えば、走行する自動車、電車又は自転車から)動画を撮影する可能性があるためである。 In the case of a photograph, by adding point information when the shutter button is pressed, the photograph and the photographing point of the photograph can be associated with each other. However, in the case of a moving image, even if the location information at the time when the shooting start button is pressed is given, the video image and the shooting location cannot be properly associated with each other. This is because there is a possibility that the photographer may shoot a moving image (for example, from a traveling car, train, or bicycle) while moving.
本発明の目的は、動画等の映像と撮影地点とをより適切に対応付けるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。 An object of the present invention is to provide a navigation device, a system, a method, and a computer program that more appropriately associate a video such as a moving image with a shooting location.
本発明の別の目的は、現在地点に対応する動画等の映像をより適切に再生できるナビゲーション装置、システム、方法及びコンピュータプログラムを提供することにある。 Another object of the present invention is to provide a navigation device, system, method, and computer program capable of more appropriately reproducing a video such as a moving image corresponding to the current location.
本発明の一実施形態に係るナビゲーション装置は、出発地及び目的地が指定されると、出発地から目的地までのルート候補を取得するルート候補取得手段と、動画データ及びその動画データの撮影開始地点を含む撮影情報を取得する動画取得手段と、ルート候補上における現実の又は仮想的な現在地点が、撮影開始地点を通過したとき、その撮影情報に係る動画データを再生するナビゲーション手段とを備える。 A navigation device according to an embodiment of the present invention includes a route candidate acquisition unit that acquires a route candidate from a departure point to a destination when a departure point and a destination are specified, moving image data, and start of shooting of the moving image data Moving image acquisition means for acquiring shooting information including a point, and navigation means for reproducing moving image data related to the shooting information when a real or virtual current point on the route candidate passes the shooting start point .
本発明に係るナビゲーションシステムは、ユーザの友達等が公開している情報に基づいて出発地から目的地までのルートを生成する。また、本発明に係るナビゲーションシステムは、ユーザの属性又は嗜好等に基づいて出発地から目的地までのルートを生成しても良い。また、本発明に係るナビゲーションシステムは、現在地点に関連付けられている動画を再生しても良い。以下、図面を参照しながら、本発明の実施形態について説明する。 The navigation system according to the present invention generates a route from a departure place to a destination based on information published by a user's friends and the like. Further, the navigation system according to the present invention may generate a route from the departure place to the destination based on the user's attributes or preferences. In addition, the navigation system according to the present invention may reproduce a moving image associated with the current location. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の第1の実施形態に係るナビゲーションシステムの構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a navigation system according to the first embodiment of the present invention.
ナビゲーションシステム1は、撮影装置2と、センタサーバ3と、ナビゲーション装置4とを含み、これら装置2〜4は、通信網5で接続されている。本実施形態では、撮影装置2とナビゲーション装置4とを別装置として説明するが、これらは1つの装置であっても良い。
The
通信網5は、各装置2〜4の間において双方向のデータ通信を可能とする。通信網5は、有線であっても無線であっても良い。通信網5は、例えば、インターネット網若しくは携帯通信網、又はこれらの組み合わせ等より構成される。
The
撮影装置2は、被写体を撮影して写真データ又は動画データを生成できる。以下では動画データを例に説明するが、写真データであっても本発明は適用可能である。撮影装置2は、現在地点を測位して地点情報を生成できる。撮影装置2は、生成した動画データ及び地点情報等を、通信網5を介して、センタサーバ3にアップロードできる。撮影装置2は、例えば、携帯電話、スマートフォン、PC(Personal Computer)、自動車、バイク又は自転車等に搭載され得る。撮影装置2の詳細については後述する。
The photographing
センタサーバ3は、撮影装置2からアップロードされた動画データ及び地点情報等を管理する。センタサーバ3は、ルート検索の要求を受けると、出発地から目的地までの案内ルートを生成する。センタサーバ3は、生成した案内ルートをナビゲーション装置4に送信する。センタサーバ3の詳細については後述する。
The
ナビゲーション装置4は、出発地と目的地を含むルート検索の要求をセンタサーバ3に送信し、センタサーバ3から出発地から目的地までの案内ルートを受信する。ナビゲーション装置4は、案内ルートに基づき、ユーザを目的地まで案内する。ナビゲーション装置4の詳細については後述する。
The navigation device 4 transmits a route search request including the departure point and the destination to the
図2は、撮影装置2のハードウェア構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the
撮影装置2は、CPU(Central Processing Unit)21と、メモリ22と、撮影デバイス23と、入力デバイス24と、表示デバイス25と、測位デバイス26と、記憶デバイス27と、通信デバイス28とを備える。各要素21〜28は、双方向にデータ通信可能なバス29で接続されている。
The photographing
CPU21は、例えば、記憶デバイス27からコンピュータプログラム(以下「プログラム」という)を読み出して実行し、各デバイス23〜27を制御する。これにより、CPU21は、後述する撮影装置2が有する各機能51〜56(図5参照)等を実現する。
For example, the
メモリ22は、CPU21がプログラムを実行する際に一時的に必要とするデータを保持する。メモリは、例えば、DRAM(Dynamic Random Access Memory)等で構成される。
The
撮影デバイス23は、被写体を撮影して静止画データ(例えば、写真)又は動画データ等を生成する。動画データは、例えば記憶デバイス27に保持される。撮影デバイス23は、例えば、カメラレンズ及びCCD(Charge Coupled Device)等で構成される。
The photographing
入力デバイス24は、ユーザからの入力を受け付けるインタフェース(以下「I/F」という)である。ユーザは、入力デバイス24を介して、例えば、動画撮影の開始及び終了の指示を撮影装置2に伝えることができる。例えば、ユーザは、入力デバイス24を介して、所定の動画データをセンタサーバ3にアップロードする指示を撮影装置2に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等で構成される。
The
表示デバイス25は、ユーザに対して画像等を表示するI/Fである。例えば、表示デバイス25は、撮影中の被写体の映像を表示する。表示デバイス25は、例えば、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス24と表示デバイス25とが一体型のデバイスであっても良い。
The
測位デバイス26は、衛星測位システム(例えばGPS)を利用して、撮影装置2の現在地点を測位する。測位デバイス26は、例えば、測位衛星から送出されている測位信号を受信可能な受信機等で構成される。若しくは、測位デバイス26は、通信網5に係る無線基地局から送信されている通信信号を利用して現在地点を測位するデバイスであっても良い。
The
記憶デバイス27は、プログラム及び各種データ等を保持する。記憶デバイス27は、例えば、HDD(Hard Disk Drive)又はフラッシュメモリ等で構成される。
The
通信デバイス28は、撮影装置2から通信網5に送信されるデータ及び通信網5から撮影装置2が受信するデータを制御する。通信デバイス28は、例えば、無線送受信機等で構成される。
The
図3は、センタサーバ3のハードウェア構成の一例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the
センタサーバ3は、CPU31と、メモリ32と、記憶デバイス33と、通信デバイス34とを備える。各要素31〜34は、双方向にデータ通信可能なバス39で接続されている。これらCPU31、メモリ32、記憶デバイス33及び通信デバイス34の説明は、図2に示したCPU21、メモリ22、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。
The
図4は、ナビゲーション装置4のハードウェア構成の一例を示すブロック図である。 FIG. 4 is a block diagram illustrating an example of a hardware configuration of the navigation device 4.
ナビゲーション装置4は、CPU41と、メモリ42と、入力デバイス43と、表示デバイス44と、測位デバイス45と、記憶デバイス46と、通信デバイス47とを備える。各要素41〜37は、双方向にデータ通信可能なバス49で接続されている。これらCPU41、メモリ42、測位デバイス45、記憶デバイス46及び通信デバイス47の説明は、図2に示したCPU21、メモリ22、測位デバイス26、記憶デバイス27及び通信デバイス28の説明と重複するので省略する。
The navigation device 4 includes a
入力デバイス43は、ユーザからの入力を受け付けるI/Fである。ユーザは、入力デバイス43を介して、例えば、出発地及び目的地等の検索条件をナビゲーション装置4に伝えることができる。入力デバイス24は、例えば、物理的なボタン又はタッチセンサ等によって構成される。
The
表示デバイス44は、ユーザに対して画像等を表示するI/Fである。表示デバイス44は、例えば、地図、案内ルート及び動画データの再生映像等を表示する。表示デバイス44は、例えば、有機ELディスプレイ又は液晶ディスプレイ等で構成される。なお、入力デバイス43と表示デバイス44とが一体型のデバイスであっても良い。
The
図5は、撮影装置2が有する機能構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of a functional configuration of the photographing
撮影装置2は、地点特定部51と、撮影部52と、区間情報生成部53と、動画記憶部54と、区間情報記憶部55と、送信部56とを有する。
The
地点特定部51は、測位デバイス26が受信した測位信号に基づき、撮影装置2の現在地点を特定する。そして、地点特定部51は、その特定した現在地点を示す地点情報を生成する。地点特定部51は、地図情報を用いて、現在地点を道路上に補正するマップマッチング処理を行っても良い。地点情報は、例えば、測位日時104、経度105及び緯度106等の値(図6参照)を有する。
The
撮影部52は、撮影デバイス23を制御して被写体を撮影し、動画データを生成する。撮影部52は、その生成した動画データを動画記憶部54に登録する。その際、撮影部52は、その動画データを一意に識別可能な動画ID(Identification)102の値(図6参照)を付与する。撮影部52は、撮影開始時と撮影終了時に、その旨を区間情報生成部53に通知する。動画が撮影された区間に対応する区間情報100(図6参照)を生成するためである。そして、撮影部52は、その通知に動画ID102の値を含める。動画データと区間情報100とを対応付けるためである。
The photographing
区間情報生成部53は、撮影部52から撮影開始の通知を受けると、地点特定部87から現在地点を示す経度105及び緯度106の情報を取得する。すなわち、撮影開始地点の経度105及び緯度106の情報を取得する。区間情報生成部53は、撮影部52から撮影終了の通知を受けるまでの間、地点特定部87から、所定の周期で経度105及び緯度106の情報を取得して保持する。このとき、区間情報生成部53は、経度105及び緯度106を測位した測位日時104も合わせて保持する。区間情報生成部53は、撮影部52から撮影終了の通知を受けると、通知に含まれる動画ID102の値と、これまで保持した1以上の測位日時104、経度105及び緯度106とを対応付けて区間情報100(図6参照)を生成し、区間情報記憶部55に登録する。この区間情報100を撮影情報と呼んでも良い。以下、区間情報100について詳細に説明する。
When the section
図6は、区間情報100のデータの一例を示すデータ構成図である。
FIG. 6 is a data configuration diagram illustrating an example of the data of the
区間情報100は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106を有する。すなわち、区間情報100とは、これらデータ項目101〜106の値を有するデータブロックである。
The
区間ID101の値は、区間情報100を一意に識別可能な値である。動画ID102の値は、上記の通り動画を一意に識別可能な値である。区間情報100は、区間ID101の値と動画ID102の値とは1対1の対応関係にある。
The value of the
動画フレーム103の値は、動画ID102の値に対応する動画データにおいて、各フレームが再生される時間である。
The value of the moving
測位日時104の値は、各動画フレームが撮影された日時である。従って、最初の動画フレームに対応する測位日時の値104aが撮影開始時刻に対応し、最後の動画フレームに対応する測位日時の値104dが撮影終了時刻に対応する。
The value of the
経度105及び緯度106の値は、各動画フレームが撮影された日時において測位された地点を示す値である。すなわち、各動画フレームの撮影地点を示す値である。ここで、或る第1の動画フレーム(例えば、行108a)が撮影された地点を第1の撮影地点とし、その後の第2の動画フレーム(例えば、行108b)が撮影された地点を第2の撮影地点とし、第1の撮影地点から第2の撮影地点までの区間をサブ区間とする。そして、第1の動画フレームから、第2の動画フレームの直前の動画フレームまでの1以上の動画フレームを、サブ区間に対応する動画フレーム群と言う。すなわち、サブ区間に対応する動画フレーム群は、サブ区間において撮影された動画フレーム群である。サブ区間の長さは任意に設定可能であって良い。
The values of the
例えば、区間情報100に係る行108bのデータブロックは、動画ID「MOV100」の動画フレーム「00:00:04」は、経度「N35.306263」及び緯度「E139.549499」の地点において撮影されたものであることを示す。以下、図5の説明に戻る。
For example, in the data block in the
送信部56は、ユーザの指示により又は自動的に、動画記憶部54に保持されている動画データと、区間情報記憶部55に保持されている区間情報100と、をセンタサーバ3に送信する。
The
図7は、センタサーバ3の機能構成の一例を示すブロック図である。
FIG. 7 is a block diagram illustrating an example of a functional configuration of the
センタサーバ3は、受信部61と、動画DB(DataBase)63と、区間情報DB64と、SNS(Social Networking Service)情報DB62と、特徴情報生成部65と、特徴情報DB67と、ルート候補生成部69と、送信部70とを有する。
The
受信部61は、撮影装置2から送信された動画データ及び区間情報100を受信すると、それぞれ、動画DB63及び区間情報DB64に登録する。受信部61は、ナビゲーション装置4から送信されたルート検索要求を受信すると、それをルート候補生成部69に伝える。
When receiving the moving image data and the
動画DB63は、1以上の動画データを保持及び管理する。動画DB63からは、例えば、動画ID102の値を検索キーに、所望の動画データを抽出できる。
The moving
区間情報DB64は、1以上の区間情報100を保持及び管理する。区間情報DB64からは、例えば、区間ID101の値、又は経度105及び緯度106の値を検索キーにして、所望の区間情報100を抽出できる。
The
SNS情報DB62は、1以上のSNS情報110を保持及び管理する。SNS情報110は、ユーザ同士の関係性を示す情報を有する。例えば、SNS情報110は、或るユーザの友達のユーザは誰か、又は友達の中でもより親しい友達は誰か、等の情報を有する。SNS情報110は、或るユーザの属性(性別、年齢、住所、出身校等)、嗜好及び興味等の情報を有する。SNS情報110は、或るユーザがどのコミュニティ、所属組織及び団体等に属しているか等の情報を有する。SNS情報110は、或るユーザが登録した動画データ及び位置情報、並びにコメント等に関する情報等を有する。SNS情報110は、その動画データ等をどの友達に公開するか(又は公開しないか)等の情報を有する。以下、SNS情報110について一例を用いて詳細に説明する。
The
図8は、SNS情報110のデータの一例を示すデータ構成図である。
FIG. 8 is a data configuration diagram illustrating an example of the data of the
SNS情報110は、例えばデータ項目として、ユーザID111と、ユーザ名112と、公開情報113と、公開範囲114とを有する。
The
ユーザID111の値は、各ユーザを一意に識別可能なID値である。ユーザ名112の値は、そのユーザID111の値に対応するユーザの名前に関する情報である。公開情報113の値は、そのユーザID111の値に対応するユーザが友達等に公開している動画データ等を示す情報である。公開範囲114の値は、その公開情報113の値が示す動画データ等の公開範囲(すなわち、どの友達等に公開するか)を示す情報である。
The value of the
例えば、図8に示すSNS情報110は、ユーザID111の値「U100」に対応するユーザ名112の値は「SUZUKI」であることを示す。更に、SNS情報110は、ユーザID111の値「U100」のユーザが公開している情報は、動画ID「MOV100」の動画データ、写真ID「PIC100」の写真データ、コメントID「TXT100」のコメントデータ及び区間ID「C100」の区間情報であることを示す。更に、SNS情報110は、ユーザIDの値が「U100」のユーザは、ユーザID111の値が「U200」と「U300」のユーザに、動画ID「MOV100」の動画データを公開していることを示す。以下、図7の説明に戻る。
For example, the
特徴情報生成部65は、区間情報DB64に保持される区間毎に特徴情報120を生成する。特徴情報120を生成する方法の一例を次に示す。例えば、特徴情報生成部65は、区間情報DB64から或る区間を抽出する。特徴情報生成部65は、その区間に対応する動画データを動画DB63から抽出する。特徴情報生成部65は、その動画データ等に関連するコメント等の情報をSNS情報DB62から抽出する。特徴情報生成部65は、これら抽出した各種情報を解析して、特徴情報120を生成する。以下、特徴情報120について詳細に説明する。
The feature
図9は、特徴情報120が有するデータの一例を示すデータ構成図である。
FIG. 9 is a data configuration diagram illustrating an example of data included in the
特徴情報120は、例えばデータ項目として、区間ID101と、公開情報113と、特徴キーワード123とを有する。区間ID101と公開情報113については、上記で説明した通りである。
The
特徴キーワード123の値は、公開情報113の値が示す動画データ等に関する特徴を表すキーワードである。この特徴キーワード123の値は、特徴情報生成部65が、公開情報113の値が示す動画データ等を解析することによって生成される。例えば、特徴情報生成部65は、動画ID「MOV100」の動画データに山の紅葉の風景が撮影されていることを解析して、「風景」「山」「自然」「紅葉」「秋」等の特徴キーワード123aを抽出する。例えば、特徴情報生成部65は、この区間の動画を撮影したユーザID111の値「U100」が示すユーザの属性、嗜好及び興味等の情報を解析して、「男性」「30才代」「ドライブ好き」「写真好き」等の特徴キーワード123bを抽出する。なお、これらの特徴キーワード123の値は、ユーザに直接入力されても良い。
The value of the
すなわち、特徴情報120には、或る区間の特徴を示すキーワードが含まれ得る。この特徴情報120は、後述するルート候補を生成する際に用いられる。以下、図7の説明に戻る。
That is, the
ルート候補生成部69は、受信部61から受け取ったルート検索条件に含まれる出発地及び目的地に基づいて、出発地から目的地まで到着し得る1以上のルート候補を生成する。ルート候補生成部69は、経由地が指定された場合、出発地から経由地を経由して目的地まで到着し得る1以上のルート候補を生成する。ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)は、経由地に動画データまたは動画区間内の任意の地点を指定することができる。動画データまたは動画区間内の任意の地点が経由地に指定された場合、ルート候補生成部69は、その動画区間の一部または全部を経由するルート候補を生成する。
The route candidate generating unit 69 generates one or more route candidates that can arrive from the starting point to the destination based on the starting point and the destination included in the route search condition received from the receiving
経由地には、或る地点の住所又はPOI(Point Of Interesting)等が指定されても良い。また、経由地は複数指定されても良い。 An address of a certain point or POI (Point Of Interesting) or the like may be designated as the transit point. A plurality of waypoints may be designated.
ルート候補生成部69は、例えば、ルート検索条件によって「友達のおすすめ区間を優先」が指定された場合、ルート検索を要求してきたユーザ(以下「ルート検索ユーザ」という)の友達のおすすめ区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、SNS情報DB62を参照して、ルート検索ユーザの友達を特定し、その友達が動画データを撮影した区間を通るルート候補を生成する。ルート検索条件によって特定の友達が指定された場合(例えば「Aさんのおすすめ区間を優先」)、ルート候補生成部69は、その指定された友達のおすすめ区間を通るルート候補を生成する。
For example, when “prefer friend's recommended section” is designated by the route search condition, the route candidate generation unit 69 passes through a friend's recommended section of the user who has requested the route search (hereinafter referred to as “route search user”). Generate route candidates. Specifically, the route candidate generation unit 69 refers to the
ルート候補生成部69は、例えば、ルート検索条件によって「あなたの嗜好に適合するおすすめ区間を優先」が指定された場合、ルート検索ユーザの嗜好(及び属性)に適合する区間を通るルート候補を生成する。具体的には、ルート候補生成部69は、特徴情報DB67から、ルート検索ユーザの嗜好(及び属性)等に適合する特徴キーワード123を有する特徴情報120を抽出し、その特徴を有する動画データが撮影された区間を通るルート候補を生成する。
The route candidate generation unit 69 generates a route candidate that passes through a section that matches the preference (and attribute) of the route search user, for example, when “preferred recommended section that suits your preference” is specified by the route search condition. To do. Specifically, the route candidate generation unit 69 extracts feature
送信部70は、ルート検索を要求してきたユーザのナビゲーション装置4に、ルート候補生成部69で生成したルート候補を返信する。送信部70は、ルート候補と共に、そのルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせてナビゲーション装置4に返信しても良い。
The
図10は、ナビゲーション装置4の機能構成の一例を示すブロック図である。 FIG. 10 is a block diagram illustrating an example of a functional configuration of the navigation device 4.
ナビゲーション装置4は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部86と、動画再生部85と、地点特定部87とを有する。
The navigation device 4 includes a transmission /
送受信部81は、通信デバイス47を制御して、センタサーバ3にルート検索要求を送信したり、センタサーバ3からルート候補等の情報を受信したりする。
The transmission /
ルート検索部82は、ユーザから出発地及び目的地が指定されると、出発地から目的地まで到達し得るルートを検索する。また、ルート検索部82は、経由地が指定されると、出発地から経由地を通って目的地まで到達し得るルートを検索する。本実施例では、実際にルートを検索するのはセンタサーバ3である。よって、ルート検索部82は、出発地及び目的地(指定された場合は経由地も)を含むルート検索条件を生成してセンタサーバ3に送信し、センタサーバ3において生成されたルート候補を受信する。このとき、ルート検索部82は、ルート候補上及びそのルート候補の周辺で撮影された動画データ等と、区間情報100と、特徴情報120とを合わせて受信しても良い。
When a departure place and a destination are designated by the user, the
ルート検索部82は、センタサーバ3から受信したルート候補、区間情報100及び特徴情報120等を、ルート情報記憶部84に登録する。ルート検索部82は、センタサーバ3から受信した動画データ等を動画記憶部54に登録する。以下、ルート検索画面の表示例を用いて、ルート検索部82について詳細に説明する。
The
図11は、ナビゲーション装置4に係るルート検索画面の表示例である。 FIG. 11 is a display example of a route search screen according to the navigation device 4.
ルート検索画面200は、例えば、出発地と目的地入力領域205と、検索条件選択領域207と、ルート検索結果表示領域210とを有する。
The
まず、ユーザが所定の検索条件で出発地206aから目的地206cまでのルートを検索する場合について説明する。
First, a case where the user searches for a route from the
ユーザは、出発地206aに「現在地」、目的地206cに「新潟駅」を入力したとする。この段階では、経由地206bはまだ入力されていないとする。そして、ユーザは、検索条件から「友達のおすすめ区間を優先」208bを選択してルート検索を実行する。
It is assumed that the user inputs “current location” as the
そうすると、ルート検索結果表示領域210に、例えば、ルート候補213aが表示される。このルート候補213aは、ユーザの友達が動画を撮影した区間で動画区間214aと214bを通るように生成されている。そして、動画区間214aで撮影された動画データ212aと、動画区間214bで撮影された動画212bが、ルート検索結果表示領域210に表示される。ここで、ルート候補213a上及びそのルート候補213aの周辺において撮影された動画データ212c、212dとその動画区間214c、214dも合わせてルート検索結果表示領域210に表示される。ユーザは、これら動画データ212c、212dを経由地に指定することができる。
Then, a
次に、ユーザが、動画データを経由地に設定する場合について説明する。ユーザは、経由地206に動画データ「B」(212d)を選択して入力したとする。そうすると、ルート候補213aは、動画データ212dが撮影された動画区間214dを経由地とするルート候補に変更されて、ルート検索結果表示領域210に表示される。
Next, a case where the user sets moving image data as a waypoint will be described. It is assumed that the user selects and inputs the moving image data “B” (212d) at the waypoint 206. Then, the
なお、上述では、「友達のおすすめ区間を優先」208bを検索条件としてルート候補を生成した後に経由地を指定する場合について説明したが、「到着時刻を優先」201a又は「嗜好に適合するおすすめ区間を優先」208cを検索条件としても、同様のことを行うことができる。 In the above description, the route is specified after the route candidate is generated using “friend's recommended section is preferred” 208b as a search condition. However, “priority of arrival time” 201a or “recommended section that suits the preference” The same can be done using "priority" 208c as a search condition.
また、経由地を指定した後で、検索条件を指定してルート候補を生成させることもできる。この場合、地図上に予め表示されている動画データを経由地に指定すると、出発地から動画データが撮影された動画区間を経由地として目的地に到着し得るルート候補が生成される。 In addition, after designating a waypoint, a route candidate can be generated by designating a search condition. In this case, when the moving image data displayed in advance on the map is designated as the transit point, route candidates that can arrive at the destination are generated using the moving image section in which the moving image data is captured from the departure point.
次に、ユーザが、ルート候補213aに基づく走行シミュレーションを開始した場合について説明する。ユーザが、「走行シミュレーション開始」ボタン231を押下すると、ルート候補213aを走行した場合の走行シミュレーション画面(例えば、図13参照)が表示される。このとき、仮想的な現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。
Next, a case where the user starts a travel simulation based on the
次に、ユーザが、ルート候補213aに基づくルート案内を開始した場合について説明する。ユーザが、「ルート案内開始」ボタン232を押下すると、ナビゲーション装置4は、ルート候補213aを案内ルートとして、出発地から目的地までのルート案内を開始する。そして、現実の現在地点が、例えば、動画区間214a内に移動すると、その動画区間214aに対応する動画データ212aが再生される。以下、図10の説明に戻る。
Next, a case where the user starts route guidance based on the
動画再生部85は、ナビゲーション処理部86からの指示に従って、動画記憶部54から動画データを抽出して再生する。また、動画再生部85は、ナビゲーション処理部86からの指示に従って、動画の再生開始、一時停止、スキップ等の処理を行う。
The moving
地点特定部87は、測位デバイス45が受信する測位信号に基づいて、ナビゲーション装置4の現在地点を特定する。
The
ナビゲーション処理部86は、ユーザからルート案内開始の指示を受けると、出発地から目的地までのルート案内を開始する。ナビゲーション処理部86は、ルート情報記憶部84から案内ルートを抽出し、地図情報と重畳して表示する。ナビゲーション処理部86は、所定の周期で地点特定部87から地点情報を取得し、現在地点を地図情報に重畳して表示する。
When the
ナビゲーション処理部86は、現在地点が、案内ルート上の区間情報100が示す区間を通過する際、その区間情報100に対応する動画データを動画再生部85に再生させる。このとき、ナビゲーション処理部86は動画再生部85を制御して、動画データの再生中に表示されている画像の撮影地点と、現在地点とが同期するように動画データを再生する。以下、動画再生に関する処理を詳細に説明する。
When the current point passes through the section indicated by the
図12は、動画再生処理の概要を説明する模式図である。ナビゲーション処理部86は動画再生部85を制御して、区間に対応する動画データを再生する際、現在地点と、その現在地点で撮影された動画のフレーム映像とがほぼ同期されるように再生する。以下、これについて、図12を用いて詳細に説明する。
FIG. 12 is a schematic diagram for explaining the outline of the moving image reproduction process. When the
図12(a)の図は、撮影装置2を搭載した自動車(以下「撮影自動車」という)301が、地点P1から地点P3までの動画を撮影した場合の模式図である。ここで、撮影自動車301が、地点P1から速度VでΔT時間走行したときの地点DはV×ΔTである。
The diagram of FIG. 12A is a schematic diagram when a vehicle (hereinafter referred to as “photographed vehicle”) 301 equipped with the photographing
図12(b)の図は、ナビゲーション装置4を搭載した自動車(以下「ナビ自動車」という)302が、地点P1から地点P3までが撮影された動画を再生した場合の模式図である。 The diagram of FIG. 12B is a schematic diagram in the case where an automobile (hereinafter referred to as “navigation automobile”) 302 on which the navigation device 4 is mounted reproduces a moving image taken from the point P1 to the point P3.
ナビ自動車302が、地点P1から速度V1(<V)でΔT時間走行したときの地点D1はV1×ΔTである。この場合、普通に動画を再生すると、地点D1において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD1であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。
The point D1 when the
一方、ナビ自動車302が、地点P1から速度V2(>V)でΔT時間走行したときの地点D2はV2×ΔTである。この場合も同じく、普通に動画を再生すると、地点D2において再生時間ΔTの動画フレームが再生される。すなわち、ナビ自動車302の現在地点がD2であるにもかかわらず、撮影自動車301が地点Dで撮影した動画フレームが再生されてしまう。
On the other hand, the point D2 when the
上述の通り、普通に動画を再生しただけでは、ナビ自動車302の現在地点に対応する動画フレームを再生できない。
As described above, the moving image frame corresponding to the current location of the
そこで、ナビゲーション処理部86は、ナビ自動車302が地点Dを通過した後における動画の再生時間がΔT未満の場合、再生時間ΔTの動画フレームにスキップして再生を開始するように動画再生部85に指示する。ナビゲーション処理部86は、ナビ自動車302が地点Dを通過する前に動画の再生時間がΔTに到達した場合、ナビ自動車302が地点Dを通過するまで再生を一時停止するように動画再生部85に指示する。これにより、所定の区間においてナビ自動車302の現在地点と動画フレームの映像とをほぼ同期させて表示させることができる。
Therefore, when the playback time of the moving image after the
図13は、ナビゲーション装置4に係るナビゲーション画面の表示例である。ナビゲーション画面400は、地図領域401と、動画領域402と、操作領域403とを有する。
FIG. 13 is a display example of a navigation screen according to the navigation device 4. The
地図領域401には、地図、案内ルート及び現在地点等が表示される。動画領域402には、現在地点に対応する動画フレームの再生映像が表示される。操作領域403には、ナビゲーション及び動画再生に関する指示を行うためのボタンが表示される。
In the
図13に示す動画領域402には、動画区間P1〜P2に対応する動画データが再生されている。現在地点がP2を通過した時点に、動画区間P1〜P2に対応する動画データの再生が完了していない場合は、次の動画区間P2〜P3に対応する動画データの再生を開始する。現在地点がP2を通過する前に、動画区間P1〜P2に対応する動画データの再生が終了してしまった場合は、現在地点がP2を通過するまで、動画区間P1〜P2に対応する動画データの再生を一時停止する。
In the moving
これにより、動画領域402に、現在地点と、その現在地点において撮影された動画フレームとを同期させて表示することができる。
Thereby, it is possible to display the current position and the moving image frame photographed at the current position in synchronization in the moving
図14は、ルート候補の生成処理を示すフローチャートの例である。以下、図14を参照しながら、ルート候補の生成方法について説明する。 FIG. 14 is an example of a flowchart illustrating a route candidate generation process. Hereinafter, a route candidate generation method will be described with reference to FIG.
ルート候補生成部69は、ナビゲーション装置4から出発地及び目的地並びにルート検索条件を含むルート検索要求を受信すると(S101)、検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示があるか否かを判断する(S102)。 When the route candidate generation unit 69 receives a route search request including the departure point, the destination, and the route search condition from the navigation device 4 (S101), the route candidate generation unit 69 generates a route candidate by giving priority to a recommended section based on friends or preferences in the search condition. It is determined whether there is an instruction to do so (S102).
検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がない場合(S102:NO)、ルート候補生成部69は、出発地から目的地までの通常(例えば、目的地まで最短時刻で到着し得る)のルート候補を生成し(S104)、ステップS105の処理に進む。 If there is no instruction to generate a route candidate in preference to a recommended section based on friends or preferences in the search condition (S102: NO), the route candidate generation unit 69 performs normal (for example, destination) from the departure point to the destination A route candidate that can arrive at the ground at the shortest time is generated (S104), and the process proceeds to step S105.
検索条件に友達又は嗜好に基づくおすすめ区間を優先してルート候補を生成する旨の指示がある場合(S102:YES)、ルート候補生成部69は、おすすめ区間を通るルート候補を生成し(S103)、ステップS105の処理に進む。このステップS103の処理の詳細については後述する。 When the search condition includes an instruction to generate a route candidate with priority on a recommended section based on friends or preferences (S102: YES), the route candidate generation unit 69 generates a route candidate that passes through the recommended section (S103). The process proceeds to step S105. Details of the processing in step S103 will be described later.
ルート候補生成部69は、その生成したルート候補上及びそのルート候補の周辺において撮影された動画データを抽出する(S105)。 The route candidate generation unit 69 extracts moving image data photographed on the generated route candidate and in the vicinity of the route candidate (S105).
ルート候補生成部69は、その生成したルート候補と、その抽出した動画データと、をナビゲーション装置4に提示する(S106)。 The route candidate generation unit 69 presents the generated route candidate and the extracted moving image data to the navigation device 4 (S106).
ルート候補生成部69は、ナビゲーション装置4から或る動画データを経由地に指定された場合は(S107:YES)、その動画データの撮影地点を経由地とするルート候補を生成し(S108)、ステップS109の処理に進む。一方、ルート候補生成部69は、ナビゲーション装置4から新たに動画データを経由地に指定されない場合は(S107:NO)、そのままステップS109の処理に進む。 When a certain moving image data is designated as a route point from the navigation device 4 (S107: YES), the route candidate generating unit 69 generates a route candidate having the shooting point of the moving image data as a route point (S108). The process proceeds to step S109. On the other hand, if no new moving image data is designated as a transit point from the navigation device 4 (S107: NO), the route candidate generation unit 69 proceeds to the process of step S109 as it is.
ルート候補生成部69は、ユーザからルート案内開始の指示がなされた場合(S1098:YES)、当該ルート生成処理を終了し、ルート案内処理を開始する。一方、ユーザからルート案内開始の指示がなされない場合(S109:NO)、ルート候補生成部69は、ステップS107の処理に戻る。 The route candidate generation unit 69 ends the route generation process and starts the route guidance process when the user gives an instruction to start route guidance (S1098: YES). On the other hand, when the user does not give an instruction to start route guidance (S109: NO), the route candidate generating unit 69 returns to the process of step S107.
図15は、おすすめ区間を通るルート候補の生成処理を示すフローチャートの例である。以下、図15を参照しながら、おすすめ区間を通るルート候補の生成方法について説明する。 FIG. 15 is an example of a flowchart illustrating a process for generating a route candidate passing through the recommended section. Hereinafter, a method for generating route candidates passing through the recommended section will be described with reference to FIG.
ルート候補生成部69は、ルート検索要求を送信したユーザのユーザID111の値(以下「ルート検索ユーザ」という)に対応するSNS情報110を、SNS情報DB62から抽出する(S201)。
The route candidate generation unit 69 extracts the
ルート候補生成部69は、その抽出したSNS情報110から、ルート検索ユーザの友達等の情報と、ルート検索ユーザの属性及び嗜好等の情報と、を抽出する(S202)。 The route candidate generation unit 69 extracts information such as friends of the route search user and information such as attributes and preferences of the route search user from the extracted SNS information 110 (S202).
ルート候補生成部69は、その抽出した友達等が動画を撮影した区間と、その抽出した属性及び嗜好等に適合する動画が撮影された区間と、をおすすめ区間として抽出する(S203)。 The route candidate generation unit 69 extracts, as recommended sections, sections in which the extracted friends and the like have photographed moving images and sections in which moving images that match the extracted attributes and preferences are photographed (S203).
ルート候補生成部69は、その抽出したおすすめ区間と通るルート候補を生成する(S204)。 The route candidate generating unit 69 generates a route candidate that passes through the extracted recommended section (S204).
以上の処理により、ナビゲーション装置4は、ユーザが選択した動画が撮影された地点を経由地とするルート候補を提示できる。また、ナビゲーション装置4は、ユーザの友達が動画を撮影した地点を通過するルート候補を提示できる。また、ナビゲーション装置4は、ユーザの嗜好等に適合する動画が撮影された地点を通過するルート候補を提示できる。 Through the above processing, the navigation device 4 can present route candidates that use the point where the moving image selected by the user is taken as a transit point. Moreover, the navigation apparatus 4 can present the route candidate which passes the point which the user's friend imaged the moving image. Moreover, the navigation apparatus 4 can present a route candidate that passes through a point where a moving image that matches the user's preference or the like is taken.
図16は、走行シミュレーション処理又はルート案内処理を示すフローチャートの例である。以下、図15を参照しながら、走行シミュレーション又はルート案内の方法について説明する。 FIG. 16 is an example of a flowchart showing a travel simulation process or a route guidance process. Hereinafter, a method of running simulation or route guidance will be described with reference to FIG.
ナビゲーション処理部86は、ユーザから走行シミュレーションの実行開始又はルート案内開始が指示されると、ルート候補の1つを案内ルートとしてセットする(S301)。ナビゲーション処理部86は、そのセットした案内ルートに含まれる区間情報100を、ルート情報DBから抽出する(S302)。
The
ナビゲーション処理部86は、その区間情報100に含まれる動画データの再生開始地点と再生終了地点とを、案内ルート上にセットする(S303)。
The
ナビゲーション処理部86は、ルート案内を開始する(S304)。ナビゲーション処理部86は、地点特定部87から定期的に現在地点を取得する(S305)。ナビゲーション処理部86は、現在地点が動画再生区間内であるか否かを判定する(S306)。
The
現在地点が動画再生区間外である場合(S306:NO)、ナビゲーション処理部86は、現在地点が動画データの再生開始地点を通過したか否かを判定する(S310)。ここで、現在地点が動画データの再生開始地点を通過した場合(S310:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を開始し(S311)、ステップS312の処理に進む。現在地点が動画データの再生開始地点を通過していない場合(S310:NO)、ナビゲーション処理部86は、特に何もせずにステップS312の処理に進む。
When the current location is outside the video playback section (S306: NO), the
ステップS306において、現在地点が動画データの再生区間内である場合(S306:YES)、ナビゲーション処理部86は、現在地点が動画データの再生終了地点を通過したか否かを判定する(S307)。ここで、現在地点が動画データの再生終了地点を通過した場合(S307:YES)、ナビゲーション処理部86は、その区間に対応する動画データの再生を終了し(S308)、ステップS312の処理に進む。一方、現在地点が動画データの再生終了地点を通過していない場合(S307:NO)、ナビゲーション処理部86は、引き続き動画再生を継続し(S309)、ステップS312の処理に進む。
In step S306, when the current location is within the playback section of the video data (S306: YES), the
ナビゲーション処理部86は、現在地点が目的地付近に到着したか否かを判定する(S312)。現在地点が目的地付近に到着していない場合(S312:NO)、ナビゲーション処理部86は、ステップS305の処理に戻る。現在地点が目的地付近に到着している場合(S312:YES)、ナビゲーション処理部86は、当該処理を終了する。
The
図17は、現在地点に適合するように動画を再生する処理を示すフローチャートの例である。以下、図16を用いて、図15のステップS309に係る動画再生の処理を詳細に説明する。 FIG. 17 is an example of a flowchart showing a process of playing back a moving image so as to match the current location. Hereinafter, the moving image reproduction processing according to step S309 in FIG. 15 will be described in detail with reference to FIG.
ナビゲーション処理部86は、現在地点が新しいサブ区間に移行したか否かを判定する(S401)。
The
現在地点が新しいサブ区間に移行した場合(S401:NO)、ナビゲーション処理部86は、動画再生部85を制御して、その新しいサブ区間に対応する動画時間までスキップして再生する(S402)。すなわち、前回のサブ区間に対応する動画の再生が途中であっても、現在地点が新しいサブ区間に移行した場合は、その新しいサブ区間に対応する動画の再生を開始する。
When the current location is shifted to a new sub-section (S401: NO), the
現在地点が新しいサブ区間に移行していない(同じサブ区間の)場合(S401:YES)、ナビゲーション処理部86は、そのサブ区間に対応する動画の再生を完了したか否かを判定する(S403)。
If the current location has not shifted to a new subsection (same subsection) (S401: YES), the
そのサブ区間に対応する動画の再生が完了した場合(S403:YES)、ナビゲーション処理部86は動画再生部85を制御して、その時点で動画の再生を一時停止する(S404)。すなわち、現在地点が新しいサブ区間に移行して新しいサブ区間に対応する動画の再生が開始されるまで動画の再生一時停止する。
When the reproduction of the moving image corresponding to the sub-section is completed (S403: YES), the
サブ区間に対応する動画の再生が完了していない場合(S403:NO)、ナビゲーション処理部86は動画再生部85を制御して、引き続き動画を再生する(S403)。
When the reproduction of the moving image corresponding to the sub-section has not been completed (S403: NO), the
以上の処理により、ナビゲーション装置4は、現在地点と、その現在地点で撮影された動画をほぼ同期させて再生することができる。すなわち、ナビゲーション装置4は、現在地点で撮影された動画フレームを表示することができる。 Through the above processing, the navigation device 4 can reproduce the current location and the moving image taken at the current location almost in synchronization. That is, the navigation device 4 can display a moving image frame shot at the current location.
第2の実施形態では、ナビゲーション装置4において、現在地点と、その現在地点で撮影された動画の映像フレームをほぼ同期させて再生する場合の変形例を示す。 In the second embodiment, in the navigation device 4, a modification is shown in the case where the current location and the video frame of the moving image captured at the current location are played back almost synchronously.
図18は、第2の実施形態に係る撮影装置94の機能構成の一例を示すブロック図である。撮影装置は、地点特定部51と、撮影部52と、区間情報生成部96と、動画記憶部54と、区間情報記憶部55と、送信部56と、速度検出部95と、動画圧縮部96とを有する。以下、図5に示した撮影装置2と相違する機能ブロックについてのみ説明し、同じ機能ブロックについては同じ符号を付して説明を省略する。
FIG. 18 is a block diagram illustrating an example of a functional configuration of the
速度検出部95は、撮影装置94の現在の速度を検出又は算出する。速度検出部95は、撮影装置94が備える速度検出デバイス(不図示)の検出値に基づいて、現在の移動速度を検出する。又は、速度検出部95は、地点特定部51によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。
The
区間情報生成部96は、図5に示した区間情報生成部53が有する機能に加えて、動画データとその動画データが撮影されたときの移動速度とを対応付ける区間情報800(図19参照)を生成する。すなわち、区間情報生成部96は、速度検出部95から速度情報を取得し、その速度情報を撮影中の動画の所定区間(又は所定フレーム)に対応付ける。以下、区間情報800のデータの一例を参照しながら、区間情報生成部96の機能について更に説明する。
In addition to the functions of the section
図19は、第2の実施形態に係る区間情報800のデータの一例を示すデータ構成図である。
FIG. 19 is a data configuration diagram showing an example of the data of the
区間情報800は、例えば、データ項目として、区間ID101と、動画ID102と、動画フレーム103と、測位日時104と、経度105及び緯度106と、移動速度107を有する。データ項目101〜106については、図6を用いて説明済みなので、ここでの説明を省略する。
The
移動速度107の値は、撮影装置94の該当するサブ区間における移動速度である。区間情報生成部96は、撮影装置94のサブ区間における移動速度の平均値を移動速度107の値としても良い。又は、区間情報生成部96は、撮影装置94のサブ区間の或る瞬間における移動速度を移動速度107の値としても良い。図18の説明に戻る。
The value of the moving
動画圧縮部97は、動画データがセンタサーバ3にアップロードされる前に、区間情報800に基づいて動画データを圧縮する。つまり、動画圧縮部97は、移動速度107の値が所定速度以下のサブ区間に対応する動画フレームを間引く(又は圧縮する)。例えば、動画圧縮部97は、図19に示した区間情報800において、移動速度107の値が1km/h以下であるサブ区間801b及び801cに対応する動画フレームを間引く(又は圧縮する)。なぜなら、移動速度107の値が1km/h以下ということは、撮影装置94が、例えば信号待ち等でほぼ停止している状態であり、そこで撮影されている映像は同じ地点が撮影され続けているだけの可能性が高いからである。これにより、撮影装置94は、動画データをより短時間でセンタサーバ3にアップロードすることができる。また、ナビゲーション装置90は、動画データをより短時間でセンタサーバ3からダウンロードすることができる。
The moving
図20は、第2の実施形態に係るナビゲーション装置90の機能構成の一例を示すブロック図である。
FIG. 20 is a block diagram illustrating an example of a functional configuration of the
ナビゲーション装置90は、送受信部81と、ルート検索部82と、動画記憶部54と、ルート情報記憶部84と、ナビゲーション処理部91と、動画再生部92と、地点特定部87と、速度検出部93とを有する。以下、図10に示したナビゲーション装置4と相違する機能ブロックについてのみ説明し、同様の機能ブロックについては同じ符号を付して説明を省略する。
The
速度検出部93は、ナビゲーション装置90の現在の速度を検出又は算出する。速度検出部93は、ナビゲーション装置90が備える速度検出デバイス(不図示)が検出した速度情報に基づいて現在の速度を検出する。又は、速度検出部93は、地点特定部87によって所定の周期で測位される地点情報の時間的な移動距離に基づいて、現在の速度を算出しても良い。
The
ナビゲーション処理部91は、動画再生区間において、速度検出部93にて検出されたナビゲーション装置90の現在の速度と、現在地点における動画が撮影されたときの速度との比率(以下「再生比率」という)を算出する。そして、ナビゲーション処理部91は動画再生部92を制御して、再生比率に示す再生速度で動画を再生する。この処理の詳細については後述する。他の処理については図10に示すナビゲーション処理部86と同様であるので説明を省略する。動画再生部92は、ナビゲーション処理部91からの指示された再生速度で動画を再生する。
The
図21は、ナビゲーション装置90の移動速度に基づいて動画の再生速度を制御する処理を示すフローチャートの例である。
FIG. 21 is an example of a flowchart illustrating a process for controlling the moving image playback speed based on the moving speed of the
ステップS501〜S504の処理は、図16に示すステップS401〜S404の処理と同様なので説明を省略する。以下、ステップS505以降の処理のみを説明する。 The processing in steps S501 to S504 is the same as the processing in steps S401 to S404 shown in FIG. Hereinafter, only the processing after step S505 will be described.
ナビゲーション処理部91は、現在地点に係るサブ区間を撮影した撮影装置2の移動速度「V1」を取得又は算出する(S505)。
The
ナビゲーション処理部91は、現在地点に係るナビゲーション装置90の移動速度「V2」を算出する(S506)。
The
ナビゲーション処理部91は動画再生部85を制御して、このサブ区間に対応する動画データを「V2/V1」倍の再生速度で再生する(S507)。
The
以上の処理により、ナビゲーション装置90は、現在地点と、その現在地点で撮影された動画データとをより同期させて再生することができる。すなわち、ナビゲーション装置90は、現在地点で撮影された動画フレームの映像を表示することができる。
Through the above processing, the
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.
例えば、本実施形態では、センタサーバ3でルート候補を生成しているが、ナビゲーション装置4でルート候補を生成しても良い。この場合、例えば、次の処理を行う。ナビゲーション装置4は、センタサーバ3にユーザIDとの値を送信し、そのユーザIDの値に対応する友達が動画を撮影した区間及びユーザの嗜好等に適合する動画が撮影された区間の情報とその動画データを取得する。そして、ナビゲーション装置4は、これら取得した動画データをユーザに提示する。ユーザが或る動画データを経由地として指定すると、ナビゲーション装置4は、出発地からその動画データが撮影された区間を通って目的地に到着し得るルート候補を生成する。これにより、センタサーバ3が、ルート候補を生成する機能を有さない場合であっても、本実施形態を実現できる。
For example, in the present embodiment, the route candidate is generated by the
1…ナビゲーションシステム 2,94…撮影装置 3…センタサーバ 4,90…ナビゲーション装置
DESCRIPTION OF
Claims (11)
動画データ及び前記動画データの撮影地点を含む撮影情報を取得する動画取得手段と、
前記ルート候補上における現実の又は仮想的な現在地点が、前記撮影地点を通過したとき、前記撮影情報に係る動画データを再生するナビゲーション手段と
を備えるナビゲーション装置。 Route candidate obtaining means for designating a starting point and a destination and obtaining route candidates from the starting point to the destination;
Moving image acquisition means for acquiring shooting information including moving image data and a shooting point of the moving image data;
A navigation device comprising navigation means for reproducing moving image data relating to the shooting information when a real or virtual current location on the route candidate passes the shooting point.
ことを特徴とする請求項1に記載のナビゲーション装置。 2. The navigation device according to claim 1, wherein the navigation unit reproduces the moving image data so that a shooting point of an image displayed during reproduction of the moving image data is synchronized with the current point. 3. .
前記ナビゲーション手段は、
前記現在地点が、前記第1のフレームの撮影地点を通過したときに、前記第1のフレーム以降の再生を開始する
ことを特徴とする請求項1又は2に記載のナビゲーション装置。 The shooting information associates a first frame that is a video frame included in the moving image data with a shooting point at which the first frame was shot,
The navigation means includes
3. The navigation device according to claim 1, wherein when the current location passes the shooting location of the first frame, reproduction after the first frame is started. 4.
前記ナビゲーション手段は、
前記現在地点が、前記第2のフレームの撮影地点を通過したときに、前記動画データが前記の第2フレームまで再生されていない場合は、前記第2のフレームまでスキップして前期第2のフレーム以降の再生を開始し、
前記現在地点が、前記第2のフレームの撮影地点に到達していないときに、前記動画データが前記第2のフレームまで再生されている場合は、前記第2のフレームにおいて再生を一時停止する
ことを特徴とする請求項3に記載のナビゲーション装置 The shooting information associates a second frame, which is a frame located later in time than the first frame, with a shooting point where the second frame was shot,
The navigation means includes
If the moving image data is not reproduced up to the second frame when the current point passes the shooting point of the second frame, the second frame is skipped to the second frame. Subsequent playback starts,
When the moving picture data is being played up to the second frame when the current point has not reached the shooting point of the second frame, the playback is paused at the second frame. The navigation device according to claim 3, wherein
前記撮影情報は、前記第1のフレームが撮影されたときの移動速度である撮影側移動速度と、その前記第1のフレームとを対応づけており、
前記ナビゲーション手段は、
前記現在地点が、前記第1のフレームの撮影地点を通過したときに、そのときの移動速度である再生側移動速度を前記速度検出手段から取得し、前記再生側移動速度と前記撮影側移動速度との比率に基づいて、前記動画データの再生速度を制御する
ことを特徴とする請求項3に記載のナビゲーション装置。 It further comprises speed detecting means for detecting the moving speed,
The shooting information associates a shooting side moving speed, which is a moving speed when the first frame is shot, with the first frame,
The navigation means includes
When the current point passes the shooting point of the first frame, the playback side moving speed that is the moving speed at that time is acquired from the speed detecting means, and the playback side moving speed and the shooting side moving speed are acquired. The navigation device according to claim 3, wherein a reproduction speed of the moving image data is controlled based on a ratio of the moving image data.
前記ナビゲーション手段において、前記地図データに基づく地図情報及び前記現在地点を表示すると共に、前記動画データの再生映像を表示する表示手段と
を更に備えることを特徴とする請求項1乃至5のいずれか1項に記載のナビゲーション装置。 Storage means for storing map data;
6. The navigation unit according to claim 1, further comprising: a display unit that displays map information based on the map data and the current location, and displays a playback video of the moving image data. The navigation device according to item.
ことを特徴とする請求項1乃至6のいずれか1項に記載のナビゲーション装置。 The navigation according to any one of claims 1 to 6, wherein the moving image acquisition means acquires only the moving image data in which the shooting point is included on the route candidate or in the vicinity of the route candidate. apparatus.
動画データ及び前記動画データの撮影開始地点を含む撮影情報を取得するステップと、
前記ルート候補上における現実の又は仮想的な現在地点が、前記撮影地点を通過したとき、前記撮影情報に係る前記動画データを再生するステップと、
を有するナビゲーション方法。 Obtaining a route candidate from the starting point to the destination when a starting point and a destination are specified; and
Acquiring shooting information including moving image data and a shooting start point of the moving image data;
When the actual or virtual current location on the route candidate passes the shooting location, reproducing the moving image data related to the shooting information;
A navigation method.
出発地及び目的地が指定されると、前記出発地から前記目的地までのルート候補を取得するステップと、
動画データ及び前記動画データの撮影地点を含む撮影情報を取得するステップと、
前記ルート候補上における現実の又は仮想的な現在地点が、前記撮影地点を通過したとき、前記撮影情報に係る前記動画データを再生するステップと、
を実行するコンピュータプログラム。 When executed on a computer,
Obtaining a route candidate from the starting point to the destination when a starting point and a destination are specified; and
Acquiring shooting information including moving image data and a shooting point of the moving image data;
When the actual or virtual current location on the route candidate passes the shooting location, reproducing the moving image data related to the shooting information;
A computer program that executes.
前記撮影装置は、
前記動画データ及び前記動画データの撮影地点を含む撮影情報を生成する撮影手段と、
前記動画データ及び前記撮影情報を前記サーバ装置に送信する送信手段と、を備え、
前記サーバ装置は、
前記動画データ及び前記撮影情報を管理する管理手段と、
前記ナビゲーション装置から指定された出発地から目的地までのルート候補を生成するルート候補生成手段と、
前記管理手段から、前記ルート候補上に対応する前記動画データ及び前記撮影情報を抽出する抽出手段と、を備え、
前記ナビゲーション装置は、
出発地及び目的地を指定して、前記サーバ装置から前記出発地から前記目的地までの前記ルート候補を取得するルート取得手段と、
前記サーバ装置から前記ルート候補上に対応する前記動画データ及び前記撮影情報を取得する動画取得手段と、
前記ルート候補上における現実の又は仮想的な現在地点が、前記撮影地点を通過したとき、前記撮影情報に係る前記動画データを再生するナビゲーション手段と、を備える、
ナビゲーションシステム。 A navigation system comprising: a photographing device that shoots a subject to generate moving image data; a server device that manages the moving image data; and a navigation device that reproduces the moving image data.
The imaging device
Photographing means for generating photographing information including the moving image data and a photographing point of the moving image data;
Transmission means for transmitting the moving image data and the shooting information to the server device,
The server device
Management means for managing the moving image data and the shooting information;
Route candidate generating means for generating a route candidate from a starting point to a destination designated from the navigation device;
Extraction means for extracting the moving image data and the shooting information corresponding to the route candidate from the management means,
The navigation device
Route acquisition means for specifying a starting point and a destination and acquiring the route candidate from the starting point to the destination from the server device;
Moving image acquisition means for acquiring the moving image data and the shooting information corresponding to the route candidate from the server device;
A navigation unit that reproduces the moving image data related to the shooting information when a real or virtual current point on the route candidate passes the shooting point;
Navigation system.
移動速度を検出する速度検出手段と、
前記動画データに含まれる映像フレームを圧縮する動画圧縮手段と、を更に備え、
前記撮影手段において、前記動画データに含まれる映像フレームと、前記映像フレームが撮影された撮影地点と、前記映像フレームが撮影されたときの移動速度である撮影側移動速度と、を対応付けて撮影情報を生成し、
前記動画圧縮手段において、所定の速度以下である前記撮影側移動速度に対応付けられている映像フレームを圧縮して、圧縮動画データを生成し、
前記送信手段において、前記圧縮動画データ及び前記撮影情報を前記サーバ装置に痩身する
ことを特徴とする請求項10に記載のナビゲーションシステム。
The imaging device
Speed detecting means for detecting the moving speed;
Video compression means for compressing video frames included in the video data, and
In the photographing means, the video frame included in the moving image data, the photographing point where the video frame was photographed, and the photographing side moving speed that is the moving speed when the video frame is photographed are associated and photographed. Generate information,
In the moving image compression means, compress a video frame associated with the shooting side moving speed that is equal to or lower than a predetermined speed to generate compressed moving image data,
The navigation system according to claim 10, wherein the transmission means stores the compressed moving image data and the shooting information in the server device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286589A JP2013134225A (en) | 2011-12-27 | 2011-12-27 | Navigation device, system, method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286589A JP2013134225A (en) | 2011-12-27 | 2011-12-27 | Navigation device, system, method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013134225A true JP2013134225A (en) | 2013-07-08 |
Family
ID=48910998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011286589A Pending JP2013134225A (en) | 2011-12-27 | 2011-12-27 | Navigation device, system, method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013134225A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015111178A (en) * | 2013-12-06 | 2015-06-18 | 三菱電機株式会社 | Video processor and program |
JP2016142529A (en) * | 2015-01-29 | 2016-08-08 | 株式会社デンソー | Communication device |
JP2017538948A (en) * | 2015-09-22 | 2017-12-28 | 小米科技有限責任公司Xiaomi Inc. | Navigation, navigation video generation method and apparatus |
WO2024161605A1 (en) * | 2023-02-02 | 2024-08-08 | 株式会社 ミックウェア | Information processing device, user terminal, and information processing method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10332411A (en) * | 1997-06-03 | 1998-12-18 | Nissan Motor Co Ltd | Image replay system |
JP2000081339A (en) * | 1998-06-30 | 2000-03-21 | Equos Research Co Ltd | Path-guiding device, image information supplying device, and image information supplying system |
JP2002258740A (en) * | 2001-03-02 | 2002-09-11 | Mixed Reality Systems Laboratory Inc | Method and device for recording picture and method and device for reproducing picture |
JP2003046969A (en) * | 2001-07-30 | 2003-02-14 | Sony Corp | Information processing device and method therefor, recording medium, and program |
JP2003329462A (en) * | 2002-05-08 | 2003-11-19 | Hitachi Ltd | Video distribution device and video information distribution system |
JP2004325240A (en) * | 2003-04-24 | 2004-11-18 | Alpine Electronics Inc | Navigation system |
JP2006166067A (en) * | 2004-12-08 | 2006-06-22 | Matsushita Electric Ind Co Ltd | Navigation device |
-
2011
- 2011-12-27 JP JP2011286589A patent/JP2013134225A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10332411A (en) * | 1997-06-03 | 1998-12-18 | Nissan Motor Co Ltd | Image replay system |
JP2000081339A (en) * | 1998-06-30 | 2000-03-21 | Equos Research Co Ltd | Path-guiding device, image information supplying device, and image information supplying system |
JP2002258740A (en) * | 2001-03-02 | 2002-09-11 | Mixed Reality Systems Laboratory Inc | Method and device for recording picture and method and device for reproducing picture |
JP2003046969A (en) * | 2001-07-30 | 2003-02-14 | Sony Corp | Information processing device and method therefor, recording medium, and program |
JP2003329462A (en) * | 2002-05-08 | 2003-11-19 | Hitachi Ltd | Video distribution device and video information distribution system |
JP2004325240A (en) * | 2003-04-24 | 2004-11-18 | Alpine Electronics Inc | Navigation system |
JP2006166067A (en) * | 2004-12-08 | 2006-06-22 | Matsushita Electric Ind Co Ltd | Navigation device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015111178A (en) * | 2013-12-06 | 2015-06-18 | 三菱電機株式会社 | Video processor and program |
JP2016142529A (en) * | 2015-01-29 | 2016-08-08 | 株式会社デンソー | Communication device |
JP2017538948A (en) * | 2015-09-22 | 2017-12-28 | 小米科技有限責任公司Xiaomi Inc. | Navigation, navigation video generation method and apparatus |
WO2024161605A1 (en) * | 2023-02-02 | 2024-08-08 | 株式会社 ミックウェア | Information processing device, user terminal, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013134228A (en) | Navigation system, method, and computer program | |
JP6607433B2 (en) | Video distribution method and server | |
KR101680714B1 (en) | Method for providing real-time video and device thereof as well as server, terminal device, program, and recording medium | |
WO2018030206A1 (en) | Camerawork generating method and video processing device | |
JP6083752B2 (en) | Driving support method, center device, driving support system | |
JP2017194950A (en) | Multi-media capture system and method | |
EP2515081A2 (en) | Information Providing Apparatus, Information Providing Method, and Program | |
US9232194B2 (en) | Imaging apparatus, display method, and storage medium for presenting a candidate object information to a photographer | |
US20110234817A1 (en) | Image capturing terminal, external terminal, image capturing system, and image capturing method | |
JP2011053103A (en) | Data server for transmitting map and animation, and linkage display system for animation-map | |
WO2015159487A1 (en) | Image delivery method, image reception method, server, terminal apparatus, and image delivery system | |
JP7028608B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2019121319A (en) | Vehicle photographing support device and program | |
JP2013134225A (en) | Navigation device, system, method, and computer program | |
JP2015018421A (en) | Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system | |
US20140333786A1 (en) | System and method for remotely creating and processing media files | |
JP2012019374A (en) | Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server | |
JP5511001B2 (en) | Imaging apparatus, imaging guide system, and program | |
JP2012253421A (en) | Image display device, imaging apparatus, and image display program | |
JP2013021473A (en) | Information processing device, information acquisition method, and computer program | |
JP6281737B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP2006338553A (en) | Content reproducing device | |
CN104065874A (en) | Shooting device, shooting method | |
JP7327792B2 (en) | Image composition system and image composition method | |
JP7085869B2 (en) | Information processing equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150303 |