[go: up one dir, main page]

JP7694345B2 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP7694345B2
JP7694345B2 JP2021182865A JP2021182865A JP7694345B2 JP 7694345 B2 JP7694345 B2 JP 7694345B2 JP 2021182865 A JP2021182865 A JP 2021182865A JP 2021182865 A JP2021182865 A JP 2021182865A JP 7694345 B2 JP7694345 B2 JP 7694345B2
Authority
JP
Japan
Prior art keywords
evaluation
video
user
information processing
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021182865A
Other languages
Japanese (ja)
Other versions
JP2023070586A (en
Inventor
陽介 森内
遼 山田
文菜 市川
隆 水野
貴美 菅原
茂樹 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021182865A priority Critical patent/JP7694345B2/en
Publication of JP2023070586A publication Critical patent/JP2023070586A/en
Application granted granted Critical
Publication of JP7694345B2 publication Critical patent/JP7694345B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Navigation (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本開示は、動画共有サービスに関する。 This disclosure relates to video sharing services.

ドライブレコーダーによって撮影された車載動画を複数のユーザ間で共有するための技術が提案されている。これに関連して、特許文献1には、第一の車両によって撮影された動画を、第二の車両のユーザと共有するシステムが開示されている。 Technology has been proposed for sharing in-vehicle video captured by a drive recorder among multiple users. In this regard, Patent Document 1 discloses a system for sharing video captured by a first vehicle with a user of a second vehicle.

特開2019-106097号公報JP 2019-106097 A

本開示は、車両のユーザの利便性を高めることを目的とする。 The purpose of this disclosure is to improve convenience for vehicle users.

本開示の第一の態様は、車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得することと、前記評価情報に基づいて、所定の車両の走行経路を生成することと、を実行する制御部を有する、情報処理装置である。 A first aspect of the present disclosure is an information processing device having a control unit that executes the following operations: acquiring evaluation information, which is information regarding evaluation actions taken by a second user on a video that was captured by an in-vehicle camera and uploaded to a video sharing service by a first user; and generating a driving route for a specified vehicle based on the evaluation information.

また、本開示の第二の態様は、車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得することと、前記動画のタイムライン上において前記評価行動が行われたタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行うことと、を実行する制御部を有する、情報処理装置である。 A second aspect of the present disclosure is an information processing device having a control unit that executes the following operations: acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was captured by an in-vehicle camera and uploaded to a video sharing service by a first user; and evaluating at least a portion of a driving route that corresponds to the video, based on the timing at which the evaluation action was taken on the timeline of the video.

また、本開示の第三の態様は、車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得するステップと、前記評価情報に基づいて、所定の車両の走行経路を生成するステップと、を含む、情報処理方法である。 A third aspect of the present disclosure is an information processing method including the steps of acquiring evaluation information, which is information regarding evaluation actions taken by a second user on a video that was captured by an in-vehicle camera and uploaded to a video sharing service by a first user, and generating a driving route for a specified vehicle based on the evaluation information.

また、本開示の第四の態様は、車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得するステップと、前記動画のタイムライン上において前記評価行動が行われたタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行うステップと、を含む、情報処理方法である。 A fourth aspect of the present disclosure is an information processing method including the steps of acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was captured by an in-vehicle camera and uploaded to a video sharing service by a first user, and evaluating at least a portion of a driving route that corresponds to the video based on the timing at which the evaluation action was taken on the timeline of the video.

また、本開示の他の態様は、上記の情報処理方法をコンピュータに実行させるためのプログラム、または、該プログラムを非一時的に記憶したコンピュータ可読記憶媒体である。 Another aspect of the present disclosure is a program for causing a computer to execute the above-mentioned information processing method, or a computer-readable storage medium that non-temporarily stores the program.

本開示によれば、車両のユーザの利便性を高めることができる。 This disclosure can improve convenience for vehicle users.

動画共有システムの概要を説明する図。FIG. 1 is a diagram for explaining an overview of a video sharing system. ドライブレコーダー100の構成要素を示した図。FIG. 2 is a diagram showing components of a drive recorder 100. ドライブレコーダー100に記憶されるデータを説明する図。2 is a diagram for explaining data stored in the drive recorder 100; ユーザ端末200の構成要素を示した図。FIG. 2 shows components of a user terminal 200. ユーザ端末200が提供する動画編集機能を説明する図。2 is a diagram for explaining a video editing function provided by a user terminal 200. ユーザ端末200が生成するドラレコデータを説明する図。4 is a diagram for explaining drive recorder data generated by a user terminal 200. サーバ装置300の構成要素を示した図。FIG. 3 shows components of a server device 300. 動画共有サービスの画面例。An example of a video sharing service screen. 車載動画に対応する経路を説明する図。FIG. 2 is a diagram illustrating a route corresponding to an in-vehicle video. サーバ装置300が記憶する動画データベースの例。3 shows an example of a video database stored in the server device 300. サーバ装置300が記憶する評価データベースの例。3 shows an example of an evaluation database stored in the server device 300. 道路セグメントを説明する図。FIG. 2 is a diagram illustrating a road segment. ドライブレコーダー100が実行する処理のフローチャート。4 is a flowchart of a process executed by the drive recorder 100. ドラレコデータをアップロードする処理を示したシーケンス図。FIG. 11 is a sequence diagram showing the process of uploading dashcam data. 車載動画に対して評価を行う処理を示したシーケンス図。FIG. 11 is a sequence diagram showing a process for evaluating an in-vehicle video. 第一の実施形態において地図データベースを更新する処理のフローチャート。5 is a flowchart of a process for updating a map database in the first embodiment. サーバ装置300が経路を生成する処理を示したシーケンス図。FIG. 11 is a sequence diagram showing a process in which the server device 300 generates a route. 第二の実施形態において地図データベースを更新する処理のフローチャート。10 is a flowchart of a process for updating a map database in the second embodiment. ステップS45で行われる処理の結果を説明する図。FIG. 11 is a diagram for explaining the results of the processing performed in step S45. 第三の実施形態における動画データベースの例。13 shows an example of a video database according to the third embodiment. 第三の実施形態における地図データベースの例。13 shows an example of a map database according to the third embodiment.

従来、ドライブレコーダーから動画を取り出すためには、メモリカード等のメディアを介してファイルをコピーする必要があった。一方、近年では、無線接続が可能なドライブレコーダーが多く販売されている。これにより、より気軽に、撮影した動画を他人と共有する(例えば、動画投稿サイトにアップロードする)ことが可能になってきている。以降の説明において、ドライブレコーダーをはじめとする車載カメラによって撮影された動画を、車載動画と称する。 Conventionally, to extract video from a dashcam, it was necessary to copy the files via media such as a memory card. However, in recent years, many dashcams that allow wireless connections have been sold. This makes it easier to share recorded videos with others (for example, by uploading them to a video sharing site). In the following explanation, videos captured by in-vehicle cameras such as dashcams will be referred to as in-vehicle videos.

複数の車載動画が公開されると、例えば、ドライブルートを事前に下見するといったことが可能になり、自動車を運転するユーザの利便性が向上する。
本開示に係る情報処理装置は、車載動画に対して第三者が付与した評価を利用することで、ユーザの利便性をさらに向上させる。
When multiple in-vehicle videos are made public, it becomes possible, for example, to preview a driving route in advance, thereby improving convenience for users who drive automobiles.
The information processing device according to the present disclosure further improves user convenience by utilizing evaluations given by third parties to in-vehicle videos.

本開示の一態様に係る情報処理装置は、車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得することを特徴とする。 An information processing device according to one aspect of the present disclosure is characterized in that it acquires evaluation information, which is information regarding evaluation actions taken by a second user with respect to a video that was captured by an in-vehicle camera and uploaded to a video sharing service by a first user.

評価情報とは、アップロードされた車載動画に対して第二のユーザが行った評価行動に関する情報である。評価行動とは、車載動画を評価するためのアクションであって、典型的には、評価を行うためのボタン(例えば、いいねボタン)を押下する行動である。評価情報には、対象の車載動画を特定する情報のほか、評価の内容(高評価、低評価、または点数)などが含まれていてもよい。 The rating information is information on the rating action taken by the second user on the uploaded in-vehicle video. The rating action is an action for rating the in-vehicle video, and is typically the action of pressing a button for rating (e.g., a like button). The rating information may include information for identifying the target in-vehicle video, as well as the content of the rating (high rating, low rating, or score).

また、本開示の一態様に係る情報処理装置は、前記動画のタイムライン上において前記評価行動が行われたタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行うことを特徴とする。 An information processing device according to one aspect of the present disclosure is characterized in that it evaluates at least a portion of the driving route corresponding to the video based on the timing at which the evaluation action was performed on the timeline of the video.

評価情報は、動画のタイムライン上において評価行動が行われたタイミングに関する情報(例えば、タイムスタンプ情報)を含んでいてもよい。かかる形態によると、どの地点(または、道路区間)に対して評価が行われたかを特定することができる。これにより、経路に含まれる地点や道路区間に対してピンポイントで評価を行うことが可能になる。また、複数のユーザから寄せられた評価を統合することで、特定の地点や道路区間に対して総合的な評価値を付与することが可能になる。 The evaluation information may include information (e.g., timestamp information) regarding the timing of the evaluation action on the video timeline. In this manner, it is possible to identify which point (or road section) was evaluated. This makes it possible to pinpoint evaluations of points and road sections included in a route. In addition, by integrating evaluations submitted by multiple users, it becomes possible to assign an overall evaluation value to a specific point or road section.

また、本開示の一態様に係る情報処理装置は、前記評価情報に基づいて、所定の車両の走行経路を生成することを特徴とする。
生成された走行経路は、第三のユーザに提示されてもよい。評価値がより高い地点や道路区間を経由するように走行経路を生成することで、より高い満足度が得られる経路を第三のユーザに提示することが可能になる。
Moreover, the information processing device according to one aspect of the present disclosure is characterized in that it generates a driving route for a predetermined vehicle based on the evaluation information.
The generated driving route may be presented to a third user. By generating a driving route that passes through points or road sections with higher evaluation values, it is possible to present a route that provides a higher level of satisfaction to the third user.

以下、本開示の具体的な実施形態について図面に基づいて説明する。各実施形態に記載されているハードウェア構成、モジュール構成、機能構成等は、特に記載がない限りは開示の技術的範囲をそれらのみに限定する趣旨のものではない。 Specific embodiments of the present disclosure are described below with reference to the drawings. Unless otherwise specified, the hardware configuration, module configuration, functional configuration, etc. described in each embodiment are not intended to limit the technical scope of the disclosure to only those.

(第一の実施形態)
第一の実施形態に係る動画共有システムの概要について、図1を参照しながら説明する。
本実施形態に係る動画共有システムは、第一ユーザ、第二ユーザ、第三ユーザによって利用されるシステムである。第一ユーザは、車載動画を撮影し、サーバ装置300にアップロードするユーザである。第一ユーザには、ドライブレコーダー100とユーザ端末200が関連付いており、第一ユーザは、ユーザ端末200を利用して車載動画のアップロードを行う。
第二ユーザは、第一ユーザによってアップロードされた車載動画を視聴するユーザである。第二ユーザは、アップロードされた車載動画に対して、(例えば、高評価ボタンを押下することによって)評価を付与する行動(以下、評価行動)を行うことができる。
第三ユーザは、第二ユーザが行った評価の結果を利用してサーバ装置300が生成した経路を受信するユーザである。第三ユーザには、少なくともユーザ端末200が関連付いている。
First Embodiment
An overview of a video sharing system according to a first embodiment will be described with reference to FIG.
The video sharing system according to the present embodiment is a system used by a first user, a second user, and a third user. The first user is a user who shoots in-vehicle videos and uploads them to the server device 300. The first user is associated with a drive recorder 100 and a user terminal 200, and the first user uploads the in-vehicle videos using the user terminal 200.
The second user is a user who watches the in-vehicle video uploaded by the first user. The second user can perform an action of giving a rating to the uploaded in-vehicle video (for example, by pressing a like button) (hereinafter, a rating action).
The third user is a user who receives a route generated by the server device 300 using the result of the evaluation made by the second user. At least a user terminal 200 is associated with the third user.

ドライブレコーダー100は、車両に備え付けられた、動画を撮影する装置である。ドライブレコーダー100は、車両の走行中において、動画を連続して撮影し、記憶装置に蓄積する。
ユーザ端末200は、車両に関連付いたユーザが利用する携帯端末である。ユーザ端末200は、ドライブレコーダー100に接続して車載動画を取得する機能を備えている。ユーザ端末200は、無線接続によって、ドライブレコーダー100に接続し、車載動画を取得することができる。また、ユーザ端末200は、取得した車載動画をサーバ装置300にアップロードする機能を備えている。
さらに、ユーザ端末200は、サーバ装置300にアクセスすることで、経路探索を行う機能を備えている。第一ユーザは、ユーザ端末200を利用することで車載動画のアップロードを行うことができ、第三ユーザは、ユーザ端末200を利用することで経路探索を行うことができる。
The drive recorder 100 is a device that is installed in a vehicle and captures moving images. The drive recorder 100 continuously captures moving images while the vehicle is traveling and stores the captured images in a storage device.
The user terminal 200 is a mobile terminal used by a user associated with a vehicle. The user terminal 200 has a function of connecting to the drive recorder 100 and acquiring the in-vehicle video. The user terminal 200 can connect to the drive recorder 100 by wireless connection and acquire the in-vehicle video. The user terminal 200 also has a function of uploading the acquired in-vehicle video to the server device 300.
Furthermore, the user terminal 200 has a function of performing route search by accessing the server device 300. A first user can upload an in-vehicle video by using the user terminal 200, and a third user can perform route search by using the user terminal 200.

サーバ装置300は、動画共有サービスと経路探索サービスを提供するサーバ装置である。サーバ装置300は、第一ユーザが所持するユーザ端末200によってアップロードされた車載動画を記憶し、公開することができる。サーバ装置300は、車載動画を共有するためのウェブサービスを実行可能に構成されてもよい。第二ユーザは、当該ウェブサ
ービスにアクセスすることで、複数の第一ユーザによってアップロードされた車載動画を閲覧することができる。
また、サーバ装置300は、第二ユーザによって行われた、車載動画に対する評価を取得可能に構成される。第二ユーザが、所定の車載動画に対して評価行動を行った場合、サーバ装置300は、当該評価の内容を取得し、車載動画と関連付けて記憶する。さらに、サーバ装置300は、第二ユーザによって行われた評価に基づいて、車載動画に対応する経路上の地点(ないし、道路セグメント)に対して評価値を付与する。
The server device 300 is a server device that provides a video sharing service and a route search service. The server device 300 can store and publish in-vehicle videos uploaded by the user terminal 200 owned by the first user. The server device 300 may be configured to be able to execute a web service for sharing in-vehicle videos. A second user can view in-vehicle videos uploaded by multiple first users by accessing the web service.
The server device 300 is also configured to be able to acquire an evaluation of the in-vehicle video made by the second user. When the second user performs an evaluation action on a specific in-vehicle video, the server device 300 acquires the content of the evaluation and stores it in association with the in-vehicle video. Furthermore, the server device 300 assigns an evaluation value to a point (or a road segment) on the route corresponding to the in-vehicle video based on the evaluation made by the second user.

さらに、サーバ装置300は、複数の地点(ないし、道路セグメント)に付与された評価値に基づいて、第三ユーザに提供する経路を算出する。例えば、サーバ装置300は、より人気のある(評価の高い)道路セグメントを経由する経路を生成し、第三ユーザに対して提供する。これにより、よりユーザの満足度を高めることができる走行経路を提供することが可能になる。 Furthermore, the server device 300 calculates a route to be provided to the third user based on the evaluation values assigned to multiple points (or road segments). For example, the server device 300 generates a route that passes through more popular (highly rated) road segments and provides it to the third user. This makes it possible to provide a driving route that can further increase user satisfaction.

ドライブレコーダー100、ユーザ端末200、サーバ装置300のそれぞれについて詳しく説明する。 The drive recorder 100, the user terminal 200, and the server device 300 will each be explained in detail.

ドライブレコーダー100は、車両に備え付けられた、車載動画を撮影する装置である。ドライブレコーダー100は、車両の前方にカメラを向けて固定されており、車両からの電源供給を受けて常時撮影を行い、得られた動画データを記憶装置に記録する。
図2は、ドライブレコーダー100のシステム構成を示した図である。
ドライブレコーダー100は、制御部101、記憶部102、通信部103、入出力部104、カメラ105、位置情報取得部106、および、加速度センサ107を有して構成される。
The drive recorder 100 is a device that is installed in a vehicle and captures in-vehicle video. The drive recorder 100 is fixed to the vehicle with a camera facing the front, receives power from the vehicle, captures video at all times, and records the obtained video data in a storage device.
FIG. 2 is a diagram showing the system configuration of the drive recorder 100. As shown in FIG.
The drive recorder 100 is configured to include a control unit 101 , a storage unit 102 , a communication unit 103 , an input/output unit 104 , a camera 105 , a position information acquisition unit 106 , and an acceleration sensor 107 .

制御部101は、ドライブレコーダー100が行う制御を司る演算装置である。制御部101は、CPU(Central Processing Unit)などの演算処理装置によって実現するこ
とができる。
制御部101は、動作中において、後述するカメラ105を介して動画の撮影を行い、得られたデータを記憶部102に保存する機能を実行する。また、ユーザ端末200からの指示に基づいて、保存されたデータをユーザ端末200に転送する機能を実行する。
The control unit 101 is a calculation device that controls the drive recorder 100. The control unit 101 can be realized by a calculation processing device such as a CPU (Central Processing Unit).
During operation, the control unit 101 executes a function of taking video via the camera 105 (described later) and storing the obtained data in the storage unit 102. In addition, the control unit 101 executes a function of transferring the stored data to the user terminal 200 based on an instruction from the user terminal 200.

記憶部102は、主記憶装置および補助記憶装置を含むメモリ装置である。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納され、そこに格納されたプログラムを主記憶装置にロードして実行することによって、後述するような、所定の目的に合致した各機能を実現することができる。
主記憶装置は、RAM(Random Access Memory)やROM(Read Only Memory)を含んでもよい。また、補助記憶装置は、EPROM(Erasable Programmable ROM)やハード
ディスクドライブ(HDD、Hard Disk Drive)を含んでもよい。さらに、補助記憶装置
は、リムーバブルメディア、すなわち可搬記録媒体を含んでもよい。
The storage unit 102 is a memory device including a main storage device and an auxiliary storage device. The auxiliary storage device stores an operating system (OS), various programs, various tables, etc., and the programs stored therein can be loaded into the main storage device and executed to realize various functions that meet specific purposes, as described below.
The primary storage device may include a random access memory (RAM) or a read only memory (ROM). The secondary storage device may include an erasable programmable ROM (EPROM) or a hard disk drive (HDD). The secondary storage device may also include a removable medium, i.e., a portable recording medium.

記憶部102には、制御部101によって生成されたデータが保存される。
ここで、記憶部102に保存されるデータについて説明する。図3Aは、制御部101によって生成され、記憶部102に保存されるデータの構造を説明する図である。
なお、以降の説明において、トリップという語を、車両のシステム電源が投入されてから、システム電源が遮断されるまでにおける走行の単位を表す語として用いる。
制御部101は、車両のシステム電源が投入されると、新しいトリップに対応する記憶領域(例えば、フォルダ、ディレクトリ等)を生成する。車両のシステム電源が遮断されるまで、生成されたデータは、当該記憶領域に保存される。
The storage unit 102 stores data generated by the control unit 101 .
Here, a description will be given of the data stored in the storage unit 102. Fig. 3A is a diagram illustrating the structure of the data generated by the control unit 101 and stored in the storage unit 102.
In the following description, the term "trip" is used to indicate a unit of travel from when the vehicle's system power is turned on to when the system power is turned off.
When the system power of the vehicle is turned on, the control unit 101 generates a storage area (e.g., a folder, a directory, etc.) corresponding to a new trip. The generated data is stored in the storage area until the system power of the vehicle is turned off.

制御部101は、ドライブレコーダー100の通電中において、カメラ105を介して動画の撮影を行い、得られたデータ(動画データ)を記憶部102に保存する。動画データは、ファイル単位で保存される。一つのファイルに対応する動画の長さには上限(例えば、1分,5分)があり、上限を超えると、新たなファイルが生成される。なお、記憶容量が不足した場合、制御部101は、最も古いファイルを削除して空き容量を確保したうえで撮影を続行する。
さらに、制御部101は、所定の周期で(例えば、1秒おきに)、位置情報取得部106を介して車両の位置情報を取得し、位置情報データとして保存する。
動画データおよび位置情報データは、図3に示したように、トリップごとに保存される。動画データと位置情報データの双方を保存することで、事後的に車両の走行位置を特定することが可能になる。
While the drive recorder 100 is energized, the control unit 101 shoots video via the camera 105 and stores the obtained data (video data) in the storage unit 102. The video data is stored in file units. There is an upper limit (e.g., 1 minute or 5 minutes) on the length of the video corresponding to one file, and when the upper limit is exceeded, a new file is generated. Note that if the storage capacity is insufficient, the control unit 101 deletes the oldest file to secure free space and then continues shooting.
Furthermore, the control unit 101 acquires vehicle position information via the position information acquisition unit 106 at a predetermined cycle (for example, once every second) and stores the acquired position information as position information data.
The video data and the location information data are stored for each trip, as shown in Fig. 3. By storing both the video data and the location information data, it becomes possible to identify the traveling location of the vehicle after the fact.

通信部103は、ドライブレコーダー100をネットワークに接続するための無線通信インタフェースである。通信部103は、例えば、無線LAN、Bluetooth(登録商標)などの通信規格によって、ユーザ端末200と通信可能に構成される。 The communication unit 103 is a wireless communication interface for connecting the drive recorder 100 to a network. The communication unit 103 is configured to be able to communicate with the user terminal 200 using a communication standard such as wireless LAN or Bluetooth (registered trademark).

入出力部104は、ユーザが行った入力操作を受け付け、ユーザに対して情報を提示するユニットである。入出力部104は、例えば、液晶ディスプレイ、タッチパネルディスプレイや、ハードウェアスイッチを有して構成される。 The input/output unit 104 is a unit that accepts input operations performed by the user and presents information to the user. The input/output unit 104 is configured to have, for example, a liquid crystal display, a touch panel display, and hardware switches.

カメラ105は、画像を取得するための画像センサを含む光学ユニットである。
位置情報取得部106は、測位衛星(GNSS衛星とも称する)から送信された測位信号に基づいて、位置情報を算出する。位置情報取得部106は、GNSS衛星から送信された電波を受信するアンテナを含んでいてもよい。
加速度センサ107は、装置に加わった加速度を計測するセンサである。計測結果は制御部101に供給され、これにより、制御部101は、車両に衝撃が加わったことを判定することができる。
The camera 105 is an optical unit that includes an image sensor for capturing images.
The position information acquisition unit 106 calculates position information based on a positioning signal transmitted from a positioning satellite (also referred to as a GNSS satellite). The position information acquisition unit 106 may include an antenna that receives radio waves transmitted from the GNSS satellite.
The acceleration sensor 107 is a sensor that measures the acceleration applied to the device. The measurement result is supplied to the control unit 101, and the control unit 101 can thereby determine that an impact has been applied to the vehicle.

次に、ユーザ端末200について説明する。
ユーザ端末200は、車両に関連付いたユーザが利用するコンピュータである。ユーザは、ユーザ端末200を介して、ドライブレコーダー100から動画をダウンロードし、当該動画を、サーバ装置300が提供する動画共有サービスにアップロードすることができる。また、ユーザは、ユーザ端末200を介して、サーバ装置300に経路探索をリクエストすることができる。ユーザ端末200は、例えば、パーソナルコンピュータ、スマートフォン、携帯電話、タブレットコンピュータ、個人情報端末等である。
Next, the user terminal 200 will be described.
The user terminal 200 is a computer used by a user associated with a vehicle. The user can download videos from the drive recorder 100 via the user terminal 200 and upload the videos to a video sharing service provided by the server device 300. The user can also request a route search from the server device 300 via the user terminal 200. The user terminal 200 is, for example, a personal computer, a smartphone, a mobile phone, a tablet computer, a personal information terminal, or the like.

図4は、ユーザ端末200のシステム構成を示した図である。
ユーザ端末200は、制御部201、記憶部202、通信部203、および、入出力部204を含んで構成される。
FIG. 4 is a diagram showing the system configuration of the user terminal 200. As shown in FIG.
The user terminal 200 includes a control unit 201 , a storage unit 202 , a communication unit 203 , and an input/output unit 204 .

制御部201は、ユーザ端末200が行う制御を司る演算装置である。制御部201は、CPU(Central Processing Unit)などの演算処理装置によって実現することができ
る。
制御部201は、サーバ装置300にアクセスして、サーバ装置300とインタラクションを行う機能を実行する。当該機能は、ユーザ端末200で動作するウェブブラウザや、専用のアプリケーションソフトウェアによって実現されてもよい。
本実施形態では、制御部201は、サーバ装置300と対話を行うためのアプリケーションソフトウェアを実行可能に構成される。
The control unit 201 is a calculation device that manages the control performed by the user terminal 200. The control unit 201 can be realized by a calculation processing device such as a CPU (Central Processing Unit).
The control unit 201 executes a function of accessing the server device 300 and interacting with the server device 300. This function may be realized by a web browser running on the user terminal 200 or dedicated application software.
In this embodiment, the control unit 201 is configured to be able to execute application software for interacting with the server device 300 .

制御部201は、アップロード部2011および経路案内部2012の二つの機能モジ
ュールを有して構成される。各機能モジュールは、記憶されたプログラムをCPUによって実行することで実現してもよい。
The control unit 201 is configured to have two functional modules: an upload unit 2011 and a route guidance unit 2012. Each functional module may be realized by causing a CPU to execute a stored program.

アップロード部2011は、ドライブレコーダー100から動画データを取得し、サーバ装置300にアップロードする。
具体的には、(1)ドライブレコーダー100に記憶されたデータに基づいて、動画のカット編集を行う機能と、(2)カット後の動画をサーバ装置300にアップロードする機能と、を提供する。
The upload unit 2011 acquires video data from the drive recorder 100 and uploads it to the server device 300 .
Specifically, it provides (1) a function for cutting and editing a video based on data stored in the drive recorder 100, and (2) a function for uploading the video after cutting to the server device 300.

それぞれの機能について、順に説明する。
アップロード部2011は、ドライブレコーダー100に記憶されたデータに基づいて、走行経路をユーザに提示し、カット編集を行う範囲の指定を受け付ける。図3を示して説明したように、ドライブレコーダー100には、トリップごとに動画データと位置情報データが関連付いて記憶されている。アップロード部2011は、これらのデータに基づいて、走行経路を表すユーザインタフェースを生成し、動画のカット編集を行うことができる。図5は、カット編集を行う際に出力されるユーザインタフェース画面の例である。
Each function will be explained in turn.
The upload unit 2011 presents the driving route to the user based on the data stored in the drive recorder 100, and accepts the designation of the range for cut editing. As described with reference to FIG. 3, the drive recorder 100 stores video data and position information data associated with each trip. The upload unit 2011 can generate a user interface showing the driving route based on these data, and perform cut editing of the video. FIG. 5 shows an example of a user interface screen output when performing cut editing.

ユーザが、トリップおよび動画の範囲を指定すると、対応する範囲が切り取られ、サーバ装置300に送信するデータが生成される。
図6は、アップロード部2011によって生成されるデータを説明する図である。ここでは、サーバ装置300に送信するデータのセットをドラレコデータと称する。ドラレコデータは、カット編集後の動画データと、当該動画データに対応する位置情報データを含む。位置情報データは、カット編集後のタイムスタンプ情報を含む。この二つを関連付けることで、サーバ装置300は、車載動画のタイムライン上における任意の時点(タイムスタンプ)に対応する位置情報を取得することが可能になる。
When the user specifies the range of the trip and video, the corresponding range is cut out and data to be transmitted to the server device 300 is generated.
6 is a diagram for explaining data generated by the upload unit 2011. Here, the set of data to be transmitted to the server device 300 is referred to as dashcam data. The dashcam data includes video data after cut editing and location information data corresponding to the video data. The location information data includes timestamp information after cut editing. By associating these two, the server device 300 can obtain location information corresponding to any time point (timestamp) on the timeline of the in-vehicle video.

経路案内部2012は、サーバ装置300に対して経路探索をリクエストする。経路案内部2012は、ユーザから出発地および目的地の指定を受け付け、当該出発地と目的地を結ぶ経路の生成をサーバ装置300にリクエストする。また、生成された経路をサーバ装置300から受信し、入出力部204を介して出力する。 The route guidance unit 2012 requests the server device 300 to search for a route. The route guidance unit 2012 accepts the starting point and destination specified by the user, and requests the server device 300 to generate a route connecting the starting point and the destination. The route guidance unit 2012 also receives the generated route from the server device 300 and outputs it via the input/output unit 204.

記憶部202は、主記憶装置と補助記憶装置を含んで構成される。主記憶装置は、制御部201によって実行されるプログラムや、当該プログラムが利用するデータが展開されるメモリである。補助記憶装置は、制御部201において実行されるプログラムや、当該プログラムが利用するデータが記憶される装置である。補助記憶装置には、制御部201で実行されるプログラムをアプリケーションとしてパッケージ化したものを記憶してもよい。また、これらのアプリケーションを実行するためのオペレーティングシステムを記憶してもよい。補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、制御部201によって実行されることで、以降に説明する処理が行われる。 The storage unit 202 is composed of a main storage device and an auxiliary storage device. The main storage device is a memory in which the programs executed by the control unit 201 and the data used by the programs are expanded. The auxiliary storage device is a device in which the programs executed by the control unit 201 and the data used by the programs are stored. The auxiliary storage device may store the programs executed by the control unit 201 packaged as applications. It may also store an operating system for executing these applications. The programs stored in the auxiliary storage device are loaded into the main storage device and executed by the control unit 201, thereby performing the processing described below.

主記憶装置は、RAM(Random Access Memory)やROM(Read Only Memory)を含んでもよい。また、補助記憶装置は、EPROM(Erasable Programmable ROM)やハード
ディスクドライブ(HDD、Hard Disk Drive)を含んでもよい。さらに、補助記憶装置
は、リムーバブルメディア、すなわち可搬記録媒体を含んでもよい。
The primary storage device may include a random access memory (RAM) or a read only memory (ROM). The secondary storage device may include an erasable programmable ROM (EPROM) or a hard disk drive (HDD). The secondary storage device may also include a removable medium, i.e., a portable recording medium.

通信部203は、ユーザ端末200をネットワークに接続するための無線通信インタフェースである。通信部203は、例えば、無線LANや3G、LTE、5G等の移動体通信サービスを介して、ドライブレコーダー100およびサーバ装置300と通信可能に構成される。なお、通信部203は、ドライブレコーダー100と通信を行うための通信インタフェースと、サーバ装置300と通信を行うための通信インタフェースの双方を有し
ていてもよい。前者は、近距離無線通信等を利用する通信インタフェースであってもよく、後者は移動体通信等を利用する通信インタフェースであってもよい。
The communication unit 203 is a wireless communication interface for connecting the user terminal 200 to a network. The communication unit 203 is configured to be able to communicate with the drive recorder 100 and the server device 300 via, for example, a wireless LAN or a mobile communication service such as 3G, LTE, or 5G. The communication unit 203 may have both a communication interface for communicating with the drive recorder 100 and a communication interface for communicating with the server device 300. The former may be a communication interface that uses short-range wireless communication or the like, and the latter may be a communication interface that uses mobile communication or the like.

入出力部204は、ユーザが行った入力操作を受け付け、ユーザに対して情報を提示するユニットである。本実施形態では一つのタッチパネルディスプレイからなる。すなわち、液晶ディスプレイとその制御手段、タッチパネルとその制御手段から構成される。 The input/output unit 204 is a unit that accepts input operations performed by the user and presents information to the user. In this embodiment, it is made up of a single touch panel display. In other words, it is made up of a liquid crystal display and its control means, and a touch panel and its control means.

次に、サーバ装置300について説明する。
図7は、本実施形態に係る動画共有システムに含まれる、サーバ装置300の構成要素を詳細に示した図である。
Next, the server device 300 will be described.
FIG. 7 is a diagram showing in detail the components of the server device 300 included in the video sharing system according to this embodiment.

サーバ装置300は、ユーザ端末200からアップロードされた動画を、複数のユーザ間で共有するサービス(動画共有サービス)を提供するサーバ装置である。
また、サーバ装置300は、動画共有サービス上にて、車載動画に対して行われた評価に基づいて、経路探索を行う機能を有する。具体的な処理については後述する。
The server device 300 is a server device that provides a service (video sharing service) in which videos uploaded from the user terminal 200 are shared among a plurality of users.
The server device 300 also has a function of performing route search based on the evaluation of the in-vehicle video on the video sharing service. Specific processing will be described later.

サーバ装置300は、汎用のコンピュータにより構成することができる。すなわち、サーバ装置300は、CPUやGPU等のプロセッサ、RAMやROM等の主記憶装置、EPROM、ハードディスクドライブ、リムーバブルメディア等の補助記憶装置を有するコンピュータとして構成することができる。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納され、そこに格納されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各構成部等が制御されることによって、後述するような、所定の目的に合致した各機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。 The server device 300 can be configured as a general-purpose computer. That is, the server device 300 can be configured as a computer having a processor such as a CPU or GPU, a main memory such as a RAM or ROM, and an auxiliary memory such as an EPROM, a hard disk drive, or a removable media. The auxiliary memory stores an operating system (OS), various programs, various tables, etc., and the programs stored therein are loaded into the working area of the main memory and executed. By controlling each component through the execution of the programs, each function that matches a specific purpose, as described below, can be realized. However, some or all of the functions may be realized by hardware circuits such as ASICs and FPGAs.

本実施形態では、サーバ装置300は、ユーザ端末200とのインタラクションを行うためのソフトウェアサーバを実行可能に構成されてもよい。この場合、例えば、ユーザ端末200が、ブラウザや、専用のアプリケーションソフトウェアを用いてサービスにアクセスすることで、情報の入出力を行うことができる。 In this embodiment, the server device 300 may be configured to be capable of executing a software server for interacting with the user terminal 200. In this case, for example, the user terminal 200 can input and output information by accessing a service using a browser or dedicated application software.

サーバ装置300は、制御部301、記憶部302、および、通信部303を有して構成される。
制御部301は、サーバ装置300が行う制御を司る演算装置である。制御部301は、CPUなどの演算処理装置によって実現することができる。
制御部301は、動画管理部3011および経路生成部3012の二つの機能モジュールを有して構成される。各機能モジュールは、記憶されたプログラムをCPUによって実行することで実現してもよい。
The server device 300 is configured to include a control unit 301 , a storage unit 302 , and a communication unit 303 .
The control unit 301 is a calculation device that manages the control performed by the server device 300. The control unit 301 can be realized by a calculation processing device such as a CPU.
The control unit 301 is configured to have two functional modules: a video management unit 3011 and a path generation unit 3012. Each functional module may be realized by causing a CPU to execute a stored program.

動画管理部3011は、動画共有サービスを提供する。具体的には、動画管理部3011は、第一ユーザが利用するユーザ端末200から車載動画のアップロードを受け付ける処理と、アップロードされた車載動画を公開する処理を実行する。図8は、動画共有サービスにおいて提供される画面の一例である。図示したように、当該画面には、車載動画の検索を行うためのパーツ(符号801)、車載動画に対して評価を行うためのパーツ(符号802)、再生コントローラ、関連動画を出力するエリアなどが配置されている。 The video management unit 3011 provides a video sharing service. Specifically, the video management unit 3011 executes a process of accepting uploads of in-vehicle videos from the user terminal 200 used by the first user, and a process of publishing the uploaded in-vehicle videos. FIG. 8 is an example of a screen provided in the video sharing service. As shown in the figure, the screen is provided with a part (reference symbol 801) for searching for in-vehicle videos, a part (reference symbol 802) for evaluating the in-vehicle videos, a playback controller, an area for outputting related videos, and the like.

動画管理部3011は、ユーザ端末200によって生成されたドラレコデータを取得する。図6を参照して説明したように、ドラレコデータには、カット編集を行った後の動画データと、当該動画データに対応する位置情報データが含まれる。これにより、タイムライン上における経過時間(タイムスタンプ)と、位置情報とを関連付けることができる。
図9は、ある車載動画に関連付いた走行経路の一例を示す図である。図示した例では、Sが車載動画の開始地点を意味し、Gが車載動画の終了地点を意味する。タイムライン上における経過時間と、位置情報とを関連付けることで、サーバ装置300側で、車載動画に対応する走行経路を把握することが可能になる。なお、車載動画の再生画面に、図示したような地図情報を出力してもよい。
The video management unit 3011 acquires the dashcam data generated by the user terminal 200. As described with reference to Fig. 6, the dashcam data includes video data after cut editing and position information data corresponding to the video data. This makes it possible to associate the elapsed time (timestamp) on the timeline with the position information.
FIG. 9 is a diagram showing an example of a driving route associated with a certain in-vehicle video. In the illustrated example, S means the start point of the in-vehicle video, and G means the end point of the in-vehicle video. By associating the elapsed time on the timeline with the position information, it becomes possible for the server device 300 to grasp the driving route corresponding to the in-vehicle video. Note that map information as shown in the figure may be output on the playback screen of the in-vehicle video.

また、動画管理部3011は、車載動画に対して第二ユーザが行った評価を取得し、当該評価に基づいて、経路上にある地点(ないし、道路セグメント)に対して評価を付与する。前述したように、車載動画のタイムラインには、位置情報が関連付いているため、「評価行動がタイムライン上のどこで行われたか」に基づいて、評価行動を行ったタイミングに対応する地点(道路セグメント)を特定することができる。図9の例では、黒丸が、高評価が行われた地点を表す。
このような処理を行うことで、動画管理部3011は、経路上のどの地点(道路セグメント)に対して高い評価が行われたかといった情報を蓄積することができる。
In addition, the video management unit 3011 acquires the evaluation made by the second user for the in-vehicle video, and assigns an evaluation to the points (or road segments) on the route based on the evaluation. As described above, since the timeline of the in-vehicle video is associated with location information, it is possible to identify the points (road segments) corresponding to the timing of the evaluation action based on "where on the timeline the evaluation action was performed." In the example of FIG. 9, the black circles represent the points where high evaluations were performed.
By carrying out such processing, the video management unit 3011 can accumulate information such as which points (road segments) on the route were highly rated.

経路生成部3012は、ユーザ端末200からのリクエストに基づいて、出発地と目的地を結ぶ経路を探索し、生成した経路をユーザ端末200に提供する。経路の探索は既知の手法によって行うことができる。また、経路生成部3012は、動画管理部3011が付与した評価を参照し、より人気のある地点(道路セグメント)を経由するような経路を生成する。 The route generation unit 3012 searches for a route connecting a departure point and a destination based on a request from the user terminal 200, and provides the generated route to the user terminal 200. Route search can be performed using known methods. The route generation unit 3012 also refers to the ratings given by the video management unit 3011 and generates a route that passes through more popular points (road segments).

図7に戻り、説明を続ける。
記憶部302は、主記憶装置と補助記憶装置を含んで構成される。主記憶装置は、制御部301によって実行されるプログラムや、当該制御プログラムが利用するデータが展開されるメモリである。補助記憶装置は、制御部301において実行されるプログラムや、当該制御プログラムが利用するデータが記憶される装置である。
Returning to FIG.
The storage unit 302 includes a main storage device and an auxiliary storage device. The main storage device is a memory in which the programs executed by the control unit 301 and data used by the control programs are expanded. The auxiliary storage device is a device in which the programs executed by the control unit 301 and data used by the control programs are stored.

また、記憶部302は、動画データベース302A、評価データベース302B、および、地図データベース302Cを有して構成される。
動画データベース302Aは、ユーザ端末200からアップロードされた車載動画を記憶するデータベースである。動画データベース302Aには、図6を参照して説明したドラレコデータのほか、車載動画に関する付加的なデータが含まれる。
図10は、動画データベース302Aに記憶されるデータの例である。動画データベース302Aには、車載動画をアップロードしたユーザのID、サーバ装置300が付与した動画のID、車載動画のアップロード日、第一ユーザによって入力された車載動画のタイトルおよび概要テキストなどが記憶される。また、動画データベース302Aにはドラレコデータ、すなわち、動画データと位置情報データが記憶される(点線で図示)。
The storage unit 302 is configured to include a video database 302A, an evaluation database 302B, and a map database 302C.
The video database 302A is a database that stores in-vehicle videos uploaded from the user terminal 200. The video database 302A includes additional data related to the in-vehicle videos in addition to the dashcam data described with reference to Fig. 6 .
10 is an example of data stored in the video database 302A. The video database 302A stores the ID of the user who uploaded the in-vehicle video, the ID of the video assigned by the server device 300, the upload date of the in-vehicle video, the title and summary text of the in-vehicle video input by the first user, etc. The video database 302A also stores dashcam data, i.e., video data and location information data (shown by dotted lines).

評価データベース302Bは、第二ユーザが車載動画に対して行った評価の内容を記憶するデータベースである。図11は、評価データベース302Bの一例である。評価データベース302Bには、車載動画に対して評価を行ったユーザのID、評価が行われた日時に関する情報、対象の車載動画のID、評価内容、タイムスタンプ等を記録するフィールドが含まれる。
評価の内容は、例えば、「高評価」「低評価」などが例示できるが、これに限られない。例えば、点数や星の数によって評価が行える場合、評価内容フィールドには数値が格納されてもよい。タイムスタンプには、第二ユーザが評価を行った(例えば、評価ボタンを押下した)タイミングが記録される。本例では、車載動画のタイムライン上における、再生開始からの秒数が記録される。例えば、車載動画の再生開始から30秒後に第二ユーザが評価ボタンを押下した場合、タイムスタンプには、「0:00:30」が記録される。
The evaluation database 302B is a database that stores the contents of evaluations made by the second user to the in-vehicle video. Fig. 11 is an example of the evaluation database 302B. The evaluation database 302B includes fields for recording the ID of the user who made the evaluation on the in-vehicle video, information on the date and time of the evaluation, the ID of the target in-vehicle video, the evaluation contents, a timestamp, and the like.
Examples of the content of the evaluation include, but are not limited to, "high rating" and "low rating". For example, when the evaluation can be performed by a score or a number of stars, a numerical value may be stored in the evaluation content field. The timestamp records the timing when the second user performed the evaluation (e.g., pressed the evaluation button). In this example, the number of seconds from the start of playback on the timeline of the in-vehicle video is recorded. For example, if the second user presses the evaluation button 30 seconds after the start of playback of the in-vehicle video, "0:00:30" is recorded in the timestamp.

地図データベース302Cは、道路マップを記憶するデータベースである。道路マップは、道路セグメントの定義を含む。道路セグメントとは、道路を所定の長さに区切った単位区間である。図12は、道路セグメントを説明する図である。図中の点線が道路セグメントを表す。
複数の道路セグメントのそれぞれには、サーバ装置によって算出された評価値(後述)が関連付いている。評価データベース302Bが、車載動画のタイムライン上で評価が行われたタイミングを記録するものであるのに対し、地図データベース302Cは、複数のユーザが行った評価を統合して算出された評価値を道路セグメントごとに記録するものである。各道路セグメントに対応する評価値は、評価データベース302Bの内容を反映する形で周期的に更新される。
The map database 302C is a database that stores road maps. The road maps include definitions of road segments. A road segment is a unit section obtained by dividing a road into a predetermined length. FIG. 12 is a diagram for explaining road segments. The dotted lines in the diagram represent road segments.
Each of the road segments is associated with an evaluation value (described later) calculated by the server device. The evaluation database 302B records the timing of evaluations on the timeline of the in-vehicle video, while the map database 302C records, for each road segment, an evaluation value calculated by integrating evaluations made by multiple users. The evaluation value corresponding to each road segment is periodically updated to reflect the contents of the evaluation database 302B.

図7に戻り、説明を続ける。
通信部303は、サーバ装置300をネットワークに接続するための通信インタフェースである。通信部303は、例えば、ネットワークインタフェースボードや、無線通信のための無線通信インタフェースを含んで構成される。
Returning to FIG.
The communication unit 303 is a communication interface for connecting the server device 300 to a network. The communication unit 303 includes, for example, a network interface board and a wireless communication interface for wireless communication.

なお、図2、図4、および図7に示した構成は一例であり、図示した機能の全部または一部は、専用に設計された回路を用いて実行されてもよい。また、図示した以外の、主記憶装置および補助記憶装置の組み合わせによってプログラムの記憶ないし実行を行ってもよい。 The configurations shown in Figures 2, 4, and 7 are merely examples, and all or part of the functions shown may be executed using specially designed circuits. Programs may also be stored or executed using a combination of main storage devices and auxiliary storage devices other than those shown.

次に、動画共有システムに含まれる各装置が実行する処理の詳細を説明する。
図13は、ドライブレコーダー100が実行する処理のフローチャートである。図示した処理は、ドライブレコーダー100に電源が供給されている間において、制御部101によって反復して実行される。
Next, the processes executed by each device included in the video sharing system will be described in detail.
13 is a flowchart of a process executed by the drive recorder 100. The illustrated process is repeatedly executed by the control unit 101 while power is being supplied to the drive recorder 100.

ステップS11では、制御部101が、カメラ105を用いて動画の撮影を行う。本ステップでは、制御部101が、カメラ105から出力された映像信号を動画データとしてファイルに記録する。図3を参照して説明した通り、ファイルは所定の長さごとに分割される。なお、記憶部102の記憶領域が不足した場合、最も古いファイルから順に上書きされる。また、本ステップでは、制御部101が、位置情報取得部106を介して周期的に位置情報を取得し、取得した位置情報を、位置情報データに記録する(図3参照)。 In step S11, the control unit 101 shoots a video using the camera 105. In this step, the control unit 101 records the video signal output from the camera 105 in a file as video data. As described with reference to FIG. 3, the file is divided into files of a predetermined length. If the storage area of the storage unit 102 is insufficient, files are overwritten starting from the oldest file. Also, in this step, the control unit 101 periodically acquires location information via the location information acquisition unit 106, and records the acquired location information in the location information data (see FIG. 3).

ステップS12では、制御部101が、保護トリガが発生したか否かを判定する。例えば、加速度センサ107によって衝撃が検知された場合や、ユーザがドライブレコーダー本体に設けられた保存ボタンを押下した場合、保護トリガが発生する。この場合、処理はステップS13へ遷移し、制御部101が、現在記録中であるファイルを保護領域に移動させる。保護領域とは、ファイルに対する自動的な上書きが行われない領域である。これにより、重要なシーンを記録したファイルを保護することができる。保護トリガが発生していない場合、処理はステップS11へ戻り、撮影を継続する。 In step S12, the control unit 101 determines whether a protection trigger has occurred. For example, a protection trigger occurs when an impact is detected by the acceleration sensor 107, or when the user presses the save button provided on the drive recorder body. In this case, the process transitions to step S13, and the control unit 101 moves the file currently being recorded to a protected area. A protected area is an area where files are not automatically overwritten. This makes it possible to protect files that record important scenes. If a protection trigger has not occurred, the process returns to step S11, and recording continues.

次に、ドライブレコーダー100によって撮影された車載動画をサーバ装置300にアップロードする処理について説明する。図14は、当該処理において、ドライブレコーダー100、ユーザ端末200、サーバ装置300が実行する処理のシーケンス図である。 Next, the process of uploading the in-vehicle video captured by the drive recorder 100 to the server device 300 will be described. FIG. 14 is a sequence diagram of the process executed by the drive recorder 100, the user terminal 200, and the server device 300 in this process.

まず、ユーザ端末200が、ドライブレコーダー100との間で接続を確立する。接続は、例えば、アドホック無線によって行うことができる。
接続が確立すると、ドライブレコーダー100が、記録された動画情報をトリップごとに取得する(ステップS21)。動画情報として、例えば、撮影日時、位置情報の集合などが挙げられる。取得された動画情報は、ユーザ端末200に送信される。
First, the user terminal 200 establishes a connection with the drive recorder 100. The connection can be established, for example, by ad-hoc wireless communication.
When the connection is established, the drive recorder 100 acquires recorded video information for each trip (step S21). Examples of the video information include a collection of shooting date and time, location information, etc. The acquired video information is transmitted to the user terminal 200.

ステップS22では、ユーザ端末200が、動画情報に基づいて、車載動画のカット編集を行うためのユーザインタフェースを出力する。本ステップでは、図5に示したようなユーザインタフェース画面が出力され、ユーザが、当該ユーザインタフェース画面を用いて、車載動画のカット編集を行う。ユーザは、例えば、トリップを指定し、次いで、指定したトリップに対応する経路から始点と終点を指定する。これにより、ユーザが所望する区間の車載動画をカットすることができる。なお、ユーザ端末200上において、ユーザが経路上の地点を指定した場合、ドライブレコーダー100が、当該地点に対応する動画のプレビュー画面を提供してもよい。 In step S22, the user terminal 200 outputs a user interface for cutting and editing the in-vehicle video based on the video information. In this step, a user interface screen such as that shown in FIG. 5 is output, and the user uses the user interface screen to cut and edit the in-vehicle video. The user, for example, specifies a trip, and then specifies the start point and end point of the route corresponding to the specified trip. This allows the user to cut the in-vehicle video of the section desired by the user. Note that when the user specifies a point on the route on the user terminal 200, the drive recorder 100 may provide a preview screen of the video corresponding to that point.

カット編集の指示はドライブレコーダー100へ送信され、ドライブレコーダー100が、指示に従って動画データをカットする(ステップS23)。制御部101は、位置情報データに、カット後の動画データに対応するタイムスタンプを付加し、ドラレコデータを生成する。生成されたドラレコデータは、ユーザ端末200に送信される。
次に、ステップS24で、ユーザ端末200が、付加情報を取得する。付加情報とは、車載動画を説明するための付加的な情報である。付加情報には、例えば、車載動画のタイトル、概要を記した文章、検索用のタグなどが含まれる。これらの情報は、ユーザに入力させてもよい。ドラレコデータと付加情報は、サーバ装置300に送信される。
ステップS25では、サーバ装置300(動画管理部3011)が、アップロードされたドラレコデータおよび付加情報を動画データベース302Aに格納し、動画の公開を行う。これにより、第二ユーザが、当該車載動画を検索および閲覧できるようになる。
The cut editing instruction is transmitted to the drive recorder 100, and the drive recorder 100 cuts the video data in accordance with the instruction (step S23). The control unit 101 adds a time stamp corresponding to the video data after the cut to the position information data, and generates the drive recorder data. The generated drive recorder data is transmitted to the user terminal 200.
Next, in step S24, the user terminal 200 acquires additional information. The additional information is additional information for explaining the in-vehicle video. The additional information includes, for example, the title of the in-vehicle video, a sentence describing the summary, a tag for search, and the like. These pieces of information may be input by the user. The dashcam data and the additional information are transmitted to the server device 300.
In step S25, the server device 300 (video management unit 3011) stores the uploaded dashcam data and additional information in the video database 302A and makes the video public. This allows the second user to search for and view the in-vehicle video.

本実施形態では、第二ユーザが、パーソナルコンピュータ、スマートフォン、タブレット端末などの汎用コンピュータ上で動作するウェブブラウザを用いて、動画共有サービスにアクセスするものとする。 In this embodiment, the second user accesses the video sharing service using a web browser running on a general-purpose computer such as a personal computer, smartphone, or tablet terminal.

次に、第二ユーザが、車載動画に対する評価を行った際の処理を説明する。
図15は、第二ユーザが利用するコンピュータと、サーバ装置300との間で行われる処理のシーケンス図である。
第二ユーザが、コンピュータを用いてサーバ装置300が提供する動画共有サービスにアクセスすると、サーバ装置300は、車載動画の検索を行うためのユーザインタフェース画面を提供する。これにより、第二ユーザは、所望する車載動画を検索することができる。検索は、キーワードによって行ってもよいし、経路や経由地点などを指定することで行ってもよい。第二ユーザが、所望する車載動画を選択すると、サーバ装置300は、動画プレイヤーを含むユーザインタフェース画面を生成し、車載動画の再生を開始する。
Next, a process when a second user evaluates an in-vehicle video will be described.
FIG. 15 is a sequence diagram of a process carried out between the computer used by the second user and the server device 300. As shown in FIG.
When the second user accesses the video sharing service provided by the server device 300 using a computer, the server device 300 provides a user interface screen for searching for in-vehicle videos. This allows the second user to search for a desired in-vehicle video. The search may be performed by a keyword or by specifying a route, waypoints, etc. When the second user selects a desired in-vehicle video, the server device 300 generates a user interface screen including a video player and starts playing the in-vehicle video.

第二ユーザが、車載動画の再生中において、当該車載動画を評価するアクション(評価行動)を行うと(ステップS31)、評価の内容を表すデータがサーバ装置300に送信される。当該アクションとして、例えば、図8の符号802で示したアイコン(高評価アイコン、または、低評価アイコン)を押下するアクションなどが例示できる。当該データには、評価の内容(例えば、「高評価」「低評価」など)と、評価を行ったタイミングに関する情報(例えば、タイムスタンプ情報)が含まれる。
ステップS32では、サーバ装置300(動画管理部3011)が、受信したデータに基づいて、評価データベース302Bを更新する。具体的には、動画管理部3011が、評価データベース302Bに、評価を行った第二ユーザのID、評価が行われた日時、対象の車載動画のID、評価の内容、および、タイムスタンプを記録する。
When the second user performs an action (rating behavior) to rate the in-vehicle video during playback of the in-vehicle video (step S31), data representing the content of the rating is transmitted to the server device 300. An example of the action is pressing an icon (a high rating icon or a low rating icon) indicated by reference numeral 802 in Fig. 8. The data includes the content of the rating (e.g., "high rating", "low rating", etc.) and information regarding the timing of the rating (e.g., timestamp information).
In step S32, the server device 300 (video management unit 3011) updates the evaluation database 302B based on the received data. Specifically, the video management unit 3011 records in the evaluation database 302B the ID of the second user who performed the evaluation, the date and time when the evaluation was performed, the ID of the target in-vehicle video, the content of the evaluation, and a time stamp.

サーバ装置300が有する動画管理部3011は、評価データベース302Bに所定量のデータが蓄積されたタイミングで、当該蓄積されたデータに基づいて、複数の道路セグメントのそれぞれに対応する評価値を算出し、地図データベース302Cを更新する。図
16は、当該処理のフローチャートである。当該処理は、所定の周期で実行される。
The video management unit 3011 of the server device 300 calculates an evaluation value corresponding to each of a plurality of road segments based on the accumulated data at the timing when a predetermined amount of data is accumulated in the evaluation database 302B, and updates the map database 302C. Fig. 16 is a flowchart of this process. This process is executed at a predetermined cycle.

まず、ステップS41で、評価データベース302Bに記録されたレコードのうち、未処理のものを抽出する。ここでは、評価データベース302Bに記録されるレコードのそれぞれを評価データと称する。
ステップS42~S43の処理は、抽出された複数の評価データのそれぞれについて反復して実行される。
ステップS42では、評価対象である道路セグメントを特定する。本ステップでは、まず、評価データに含まれる動画のIDとタイムスタンプをキーとして、動画データベース302Aを検索する。この結果、評価を行ったタイミングに対応する地点の位置情報(例えば、緯度,経度)が取得される。次いで、取得した位置情報に基づいて道路セグメントを特定する。位置情報と道路セグメントとの対応付けは、地図データベース302Cを利用して行ってもよい。
なお、本実施形態では、道路セグメントに対して評価値を付与するものとしたが、評価の対象はメッシュ等であってもよい。
First, in step S41, unprocessed records are extracted from the records recorded in the evaluation database 302B. Here, each record recorded in the evaluation database 302B is referred to as evaluation data.
The processes of steps S42 and S43 are repeatedly executed for each of the extracted evaluation data.
In step S42, the road segment to be evaluated is identified. In this step, first, the video database 302A is searched using the video ID and timestamp included in the evaluation data as keys. As a result, position information (e.g., latitude, longitude) of the point corresponding to the timing of the evaluation is obtained. Next, the road segment is identified based on the obtained position information. The position information may be associated with the road segment by using the map database 302C.
In this embodiment, an evaluation value is assigned to each road segment, but the evaluation may be performed on a mesh or the like.

ステップS43では、評価データに含まれる評価を数値化し、評価値に置き換える。例えば、評価が星の数などで表されている場合、これを値に置き換えてもよい。また、評価が、「高評価(肯定的な評価)」「低評価(否定的な評価)」などで表されている場合、これらを数値化してもよい。
道路セグメント、および、当該道路セグメントに対して算出された評価値の組み合わせは、一時的に記憶される。
処理対象である全ての評価データに対して処理が行われると、処理はステップS44へ遷移する。
In step S43, the evaluation included in the evaluation data is quantified and replaced with an evaluation value. For example, if the evaluation is expressed as a number of stars, this may be replaced with a value. Also, if the evaluation is expressed as a "high evaluation (positive evaluation)" or "low evaluation (negative evaluation)", these may be quantified.
The road segment and the combination of the calculated evaluation value for that road segment are temporarily stored.
When all evaluation data to be processed has been processed, the process proceeds to step S44.

ステップS44では、ステップS43で得られた評価値に基づいて、地図データベース302Cを更新する。具体的には、ステップS43で得られた評価値を用いて、複数の道路セグメントについて既に記録されている評価値を修正する。道路セグメントごとの評価値は、複数のユーザが行った評価に対応する評価値の加重平均などであってもよい。加重平均を取る際の重みは、ユーザのアクティブ度に基づいて決定してもよい。例えば、評価をより多く行っているユーザであるほど、大きい重みを与えてもよい。また、重みは、評価を行った日付に基づいて決定してもよい。例えば、評価を行った日付からの経過日数が小さいほど、大きい重みを与えてもよい。反対に、評価時期が古いほど重みを小さくするようにしてもよい。 In step S44, the map database 302C is updated based on the evaluation value obtained in step S43. Specifically, the evaluation value obtained in step S43 is used to modify the evaluation values already recorded for multiple road segments. The evaluation value for each road segment may be a weighted average of evaluation values corresponding to evaluations made by multiple users. The weights used to calculate the weighted average may be determined based on the activity level of the user. For example, a larger weight may be given to a user who has made more evaluations. The weights may also be determined based on the date on which the evaluation was made. For example, a larger weight may be given to a user who has made fewer days since the date of the evaluation. Conversely, the older the evaluation, the smaller the weight may be.

以上に説明した処理によって、地図データに含まれる複数の道路セグメントについて、評価値が付与される。付与された評価値は、肯定的な評価が多くなるほど値が大きくなるため、各道路セグメントに対する人気度を表す値であると言える。 By the process described above, evaluation values are assigned to the multiple road segments included in the map data. The assigned evaluation value increases as the number of positive evaluations increases, so it can be said to represent the popularity of each road segment.

次に、サーバ装置300が有する経路生成部3012が、地図データベース302Cに記憶された評価値に基づいて経路を生成する処理について説明する。図17は、当該処理のフローチャートである。
まず、ステップS51で、ユーザ端末200(経路案内部2012)が、出発地および目的地の指定をユーザ(第三ユーザ)から受け付ける。本ステップでは、経路案内部2012が、記憶された地図データを用いてユーザインタフェース画面を生成し、ユーザに提供してもよい。指定された出発地および目的地は、サーバ装置300(経路生成部3012)へ送信される。
Next, a process in which the route generating unit 3012 of the server device 300 generates a route based on the evaluation values stored in the map database 302C will be described. FIG 17 is a flowchart of this process.
First, in step S51, the user terminal 200 (route guidance unit 2012) accepts a designation of a departure point and a destination from a user (third user). In this step, the route guidance unit 2012 may generate a user interface screen using stored map data and provide it to the user. The designated departure point and destination are transmitted to the server device 300 (route generation unit 3012).

次に、ステップS52で、経路生成部3012が、出発地と目的地を結ぶ複数の経路の候補(以下、経路候補)を生成する。経路候補は、公知の方法で生成することができる。
次に、ステップS53で、複数の経路候補から、最も評価の高い経路を選択する。経路の選択は、例えば、以下のような手法で行うことができる。
(1)生成された複数の経路候補に含まれる複数の道路セグメントを特定する
(2)複数の道路セグメントに割り当てられた評価値を合計し、平均を取得する
(3)評価値の平均が最も高い経路候補を選択する
なお、上記の手法は一例であり、他の手法を採用することもできる。例えば、複数の道路セグメントに割り当てられた評価値の最大値に基づいて経路候補を選択してもよいし、複数の道路セグメントに割り当てられた評価値の合計値に基づいて経路候補を選択してもよい。この場合、より高い評価値を持つ道路セグメントを経由するような経路を選択すればよい。決定された経路はユーザ端末200へ送信され、ユーザに提示される。
なお、本ステップでは、複数の経路候補をユーザ端末200に送信し、ユーザによって選択可能にしてもよい。この場合、経路候補に関連付いた評価値や、経由する地点についての情報を同時に出力するようにしてもよい。
Next, in step S52, the route generating unit 3012 generates a plurality of route candidates (hereinafter, route candidates) connecting the departure point and the destination. The route candidates can be generated by a known method.
Next, in step S53, the route with the highest evaluation is selected from the multiple route candidates. The route selection can be performed, for example, by the following method.
(1) Identify multiple road segments included in the multiple generated route candidates; (2) Add up the evaluation values assigned to the multiple road segments and obtain the average; (3) Select the route candidate with the highest average evaluation value. Note that the above method is just an example, and other methods can be adopted. For example, a route candidate may be selected based on the maximum evaluation value assigned to multiple road segments, or based on the total evaluation value assigned to multiple road segments. In this case, a route that passes through a road segment with a higher evaluation value may be selected. The determined route is transmitted to the user terminal 200 and presented to the user.
In this step, a plurality of route candidates may be transmitted to the user terminal 200 so that the user can select one of them. In this case, evaluation values associated with the route candidates and information on points to be passed through may be output at the same time.

以上説明したように、第一の実施形態に係るサーバ装置300は、第一ユーザがアップロードした車載動画に対して、第二ユーザが行った評価を取得し、当該評価が行われたタイミングに基づいて、複数の道路セグメントに対して評価値を付与する。これにより、より人気がある道路セグメントを通過する経路を生成し、第三ユーザに提案できるようになる。 As described above, the server device 300 according to the first embodiment acquires an evaluation made by a second user for a vehicle-mounted video uploaded by a first user, and assigns evaluation values to multiple road segments based on the timing of the evaluation. This makes it possible to generate a route that passes through more popular road segments and propose it to a third user.

(第二の実施形態)
第一の実施形態では、第二ユーザが車載動画に対して行った評価行動に基づいて、複数の道路セグメントに評価値を付与した。しかし、かかる構成では、不適切な評価値が付与されてしまう場合がありうる。
例えば、ある車載動画に、交通事故や交通トラブルなどが含まれていた場合、このような事象が発生した地点に対して評価がなされる場合がある。このような評価は、車両の走行環境とは無関係であるため、評価値の算出に利用しないことが好ましい。
Second Embodiment
In the first embodiment, the evaluation values are assigned to the road segments based on the evaluation behavior of the second user on the in-vehicle video. However, in such a configuration, an inappropriate evaluation value may be assigned.
For example, if a vehicle-mounted video contains a traffic accident or traffic trouble, the location where such an event occurred may be evaluated. Since such evaluation is unrelated to the vehicle's driving environment, it is preferable not to use it in calculating the evaluation value.

一般的に、風景が良いといったポジティブな要素を含む車載動画に対しては、高評価が集まる。一方、交通事故といったネガティブな要素を含む車載動画に対しては、高評価だけでなく、低評価が集まる場合がある。そこで、本実施形態では、サーバ装置300が、所定数以上の否定的な評価がなされた動画がある場合に、当該動画について行われた評価の少なくとも一部を除外して、道路セグメントに対する評価値の付与を行う。 In general, vehicle-mounted videos that include positive elements, such as beautiful scenery, tend to receive high ratings. On the other hand, vehicle-mounted videos that include negative elements, such as traffic accidents, may receive not only high ratings but also low ratings. Therefore, in this embodiment, when a video has received a predetermined number or more negative ratings, the server device 300 excludes at least some of the ratings given to the video and assigns an evaluation value to the road segment.

図18は、第二の実施形態において、動画管理部3011が、複数の道路セグメントごとの評価値を算出し、地図データベース302Cを更新する処理のフローチャートである。ステップS41~S43の処理は、第一の実施形態と同様であるため、説明は省略する。 Figure 18 is a flowchart of the process in the second embodiment in which the video management unit 3011 calculates the evaluation value for each of multiple road segments and updates the map database 302C. The process of steps S41 to S43 is the same as in the first embodiment, so a description is omitted.

第二の実施形態では、評価データベースから抽出した複数の評価データに対する処理が終わると、ステップS45で、動画管理部3011が、以下の処理を実行する。
(1)ステップS42~S43で処理された評価データを、車載動画ごとにグループ化する
(2)同一の車載動画においてなされた評価を、道路セグメントごとにグループ化する
(3)各道路セグメントについて、評価の分散を算出する。例えば、高評価を1点、低評価を-1点と置き換え、その分散を算出する。評価が点数によって行われている場合、点数の分散を算出する。図19は、ステップS45において行われる処理の結果を説明する図である。
In the second embodiment, when the processing for the multiple pieces of evaluation data extracted from the evaluation database is completed, in step S45, the video management unit 3011 executes the following processing.
(1) The evaluation data processed in steps S42 to S43 are grouped for each in-vehicle video. (2) The evaluations made for the same in-vehicle video are grouped for each road segment. (3) The variance of the evaluation is calculated for each road segment. For example, a high evaluation is replaced with 1 point and a low evaluation with -1 point, and the variance is calculated. If the evaluation is based on points, the variance of the points is calculated. FIG. 19 is a diagram for explaining the results of the processing performed in step S45.

ここで得られた評価の分散が所定値(例えば、1.0)以上である場合、対応する道路
セグメントについて、動画内において評価が割れていることを意味する。図示した例では、道路セグメントAがこれに該当する。この場合、処理はステップS46へ進み、該当する車載動画の、該当する道路セグメントに対する評価を除外して、地図データベース302Cを更新する。評価の分散が所定値を下回る場合、第一の実施形態と同様の方法によって、地図データベース302Cを更新する(ステップS44)。
If the variance of the evaluations obtained here is equal to or greater than a predetermined value (e.g., 1.0), it means that the evaluations of the corresponding road segment in the video are divided. In the illustrated example, this corresponds to road segment A. In this case, the process proceeds to step S46, and the evaluations of the corresponding in-vehicle video for the corresponding road segment are excluded, and the map database 302C is updated. If the variance of the evaluations is below the predetermined value, the map database 302C is updated (step S44) in the same manner as in the first embodiment.

なお、本実施形態では、道路セグメントごとに評価の分散を算出したが、算出は道路セグメントごとに行わなくてもよい。また、分散以外の指標によって、同一の車載動画内において評価が割れていることを判定してもよい。例えば、ある動画について行われた高評価の数に対する低評価の数の割合が、所定値以上であるか否かを判定してもよい。 In this embodiment, the variance of the ratings is calculated for each road segment, but the calculation does not have to be performed for each road segment. In addition, it may be possible to determine whether the ratings are split within the same vehicle-mounted video using an index other than the variance. For example, it may be determined whether the ratio of the number of low ratings to the number of high ratings for a certain video is equal to or greater than a predetermined value.

かかる構成によると、高評価と低評価の双方がなされている道路セグメントがある場合に、当該道路セグメントに対して行われた評価を除外することができる。すなわち、特定の車載動画において、ネガティブなシーンが含まれる場合であっても、この影響を最小化することができる。 With this configuration, if a road segment has both high and low ratings, the ratings made for that road segment can be excluded. In other words, even if a particular vehicle-mounted video contains negative scenes, the impact of this can be minimized.

(第三の実施形態)
第一および第二の実施形態では、複数の道路セグメントに対して単純に評価値を付与した。しかし、道路セグメントに対する評価は、走行環境(時間帯、季節、天候など)によって変わりうる。例えば、晴天時において評価が高い道路セグメントが、降雪時において評価が高いとは限らない。第三の実施形態では、これに対応するため、予め設定された複数の走行環境ごとに評価値を付与し、走行環境を考慮して経路探索を行う。
Third Embodiment
In the first and second embodiments, evaluation values are simply assigned to a plurality of road segments. However, the evaluation of a road segment may change depending on the driving environment (time of day, season, weather, etc.). For example, a road segment that is highly rated in fine weather is not necessarily highly rated in snowfall. In the third embodiment, to address this, an evaluation value is assigned to each of a plurality of preset driving environments, and route search is performed taking the driving environment into consideration.

走行環境として、例えば、時間帯(朝、昼、夕方、夜、深夜)、季節(春、夏、秋、冬)、天候(晴れ、曇り、雨、雪、霧など)などが例示できる。本実施形態では、ドラレコデータにこれらの走行環境を表すデータ(環境データ)を付加し、サーバ装置300に記憶させる。走行環境は、動画のアップロード時にユーザに指定させてもよいし、外部装置(例えば、気象情報を提供するサーバ装置など)から取得した情報によってサーバ装置300が生成してもよい。
例えば、ドラレコデータに含まれている日時情報と位置情報に基づいて、撮影当日の天候に関するデータを外部装置から取得し、取得した情報を動画データベース302Aに記憶してもよい。図20は、第三の実施形態において動画データベース302Aに記憶されるデータの一例である。
Examples of the driving environment include time periods (morning, afternoon, evening, night, late night), seasons (spring, summer, fall, winter), and weather (sunny, cloudy, rainy, snowy, foggy, etc.). In this embodiment, data (environmental data) representing these driving environments is added to the dashcam data and stored in the server device 300. The driving environment may be specified by the user when uploading the video, or may be generated by the server device 300 based on information acquired from an external device (e.g., a server device that provides weather information).
For example, data on the weather on the day of shooting may be obtained from an external device based on the date and time information and location information included in the dashcam data, and the obtained information may be stored in the video database 302A. Fig. 20 shows an example of data stored in the video database 302A in the third embodiment.

また、第三の実施形態では、図21に示したように、予め定義された走行環境ごとに地図データベースが設けられており、サーバ装置300が、走行環境ごとに評価値の算出を行う。例えば、サーバ装置300は、予め定義された複数の走行環境のそれぞれについて、図16に示した処理を実行し、対応する地図データベースを更新する。
また、経路探索を行う際に、利用する走行環境(換言すると、第三ユーザが車両を走行させる際の環境)を特定し、対応する地図データベースを用いて、図17に示した処理を行う。
これにより、走行環境を考慮して適切な経路を生成することが可能になる。
In the third embodiment, as shown in Fig. 21, a map database is provided for each predefined driving environment, and the server device 300 calculates an evaluation value for each driving environment. For example, the server device 300 executes the process shown in Fig. 16 for each of a plurality of predefined driving environments, and updates the corresponding map database.
In addition, when performing a route search, the driving environment to be used (in other words, the environment when the third user drives the vehicle) is identified, and the processing shown in Figure 17 is performed using a corresponding map database.
This makes it possible to generate an appropriate route taking into account the driving environment.

(変形例)
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
(Modification)
The above-described embodiment is merely an example, and the present disclosure can be modified and implemented as appropriate without departing from the spirit and scope of the present disclosure.
For example, the processes and means described in this disclosure can be freely combined and implemented as long as no technical contradiction occurs.

また、実施形態の説明では、第一ユーザ、第二ユーザ、第三ユーザを別々に記載したが
、各ユーザは必ずしも別人物である必要はない。
In addition, in the description of the embodiment, the first user, the second user, and the third user are described separately, but each user does not necessarily have to be a different person.

また、実施形態の説明では、第二ユーザが評価行動を行ったタイミングに基づいて、評価対象の道路セグメントを決定したが、評価対象は、車載動画に対応する経路全体であってもよい。また、評価対象は、対応する経路が含む全ての道路セグメントであってもよい。この場合、図16のステップS43で、全ての道路セグメントに対応する評価値を一律に決定してもよい。また、この場合、第二ユーザが評価行動を行ったタイミングを特定する必要はない。 In the description of the embodiment, the road segment to be evaluated was determined based on the timing at which the second user performed the evaluation action, but the evaluation target may be the entire route corresponding to the in-vehicle video. Also, the evaluation target may be all road segments included in the corresponding route. In this case, in step S43 of FIG. 16, evaluation values corresponding to all road segments may be determined uniformly. Also, in this case, it is not necessary to specify the timing at which the second user performed the evaluation action.

また、実施形態の説明では、第三ユーザが指定した出発地と目的地を結ぶ経路をサーバ装置300が探索したが、第三ユーザに提供する経路を生成することができれば、必ずしも二点を結ぶ経路を探索する必要はない。例えば、サーバ装置300が、指定されたエリア内で評価が高い地点(または、道路セグメント)を抽出し、抽出した地点等を経由する推奨ドライブルートを第三ユーザに提供するサービスを実行してもよい。 In the description of the embodiment, the server device 300 searches for a route connecting the departure point and destination specified by the third user, but if a route to be provided to the third user can be generated, it is not necessary to search for a route connecting two points. For example, the server device 300 may execute a service to extract highly rated points (or road segments) within a specified area and provide the third user with a recommended driving route that passes through the extracted points, etc.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。 In addition, a process described as being performed by one device may be shared and executed by multiple devices. Or, a process described as being performed by different devices may be executed by one device. In a computer system, the hardware configuration (server configuration) by which each function is realized can be flexibly changed.

本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク・ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be realized by supplying a computer program that implements the functions described in the above embodiments to a computer, and having one or more processors of the computer read and execute the program. Such a computer program may be provided to the computer by a non-transitory computer-readable storage medium that can be connected to the system bus of the computer, or may be provided to the computer via a network. Non-transitory computer-readable storage media include, for example, any type of disk, such as a magnetic disk (floppy disk, hard disk drive (HDD), etc.), an optical disk (CD-ROM, DVD disk, Blu-ray disk, etc.), a read-only memory (ROM), a random access memory (RAM), an EPROM, an EEPROM, a magnetic card, a flash memory, an optical card, or any type of medium suitable for storing electronic instructions.

100・・・ドライブレコーダー
101,201,301・・・制御部
102,202,302・・・記憶部
103,203,303・・・通信部
104,204・・・入出力部
105・・・カメラ
106・・・位置情報取得部
107・・・加速度センサ
200・・・ユーザ端末
300・・・サーバ装置
Reference Signs List 100: Drive recorder 101, 201, 301: Control unit 102, 202, 302: Storage unit 103, 203, 303: Communication unit 104, 204: Input/output unit 105: Camera 106: Position information acquisition unit 107: Acceleration sensor 200: User terminal 300: Server device

Claims (19)

車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得することと、
前記評価情報に基づいて、所定の車両の走行経路を生成することと、
を実行する制御部を有
前記評価情報は、前記動画のタイムライン上において前記第二のユーザが評価行動を行ったタイミングに関する情報を含む、
情報処理装置。
Acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was shot by an in-vehicle camera and uploaded to a video sharing service by a first user;
generating a predetermined vehicle travel route based on the evaluation information;
A control unit that executes
The evaluation information includes information regarding a timing at which the second user performed an evaluation action on a timeline of the video.
Information processing device.
前記制御部は、前記動画を前記第二のユーザに視聴させるためのインタフェース画面をさらに生成する、
請求項1に記載の情報処理装置。
The control unit further generates an interface screen for allowing the second user to view the video.
The information processing device according to claim 1 .
前記動画に、走行経路が関連付いており、
前記制御部は、前記第二のユーザが評価行動を行ったタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行う、
請求項1または2に記載の情報処理装置。
The video is associated with a driving route,
The control unit evaluates at least a portion of the travel route corresponding to the video based on a timing at which the second user performed the evaluation action.
3. The information processing device according to claim 1 or 2 .
前記動画に、タイムスタンプごとの走行地点が関連付いている、
請求項に記載の情報処理装置。
The video is associated with a travel location for each timestamp.
The information processing device according to claim 3 .
前記制御部は、前記第二のユーザが評価行動を行ったタイミングに対応する第一の道路区間に対して評価値を付与する、
請求項またはに記載の情報処理装置。
the control unit assigns an evaluation value to a first road section corresponding to a timing at which the second user performed the evaluation action;
5. The information processing device according to claim 3 .
前記評価行動は、肯定的な評価を行う行動、または、否定的な評価を行う行動のいずれかであり、
前記制御部は、前記評価の内容に基づいて、前記評価値を決定する、
請求項に記載の情報処理装置。
The evaluation behavior is either a behavior of making a positive evaluation or a behavior of making a negative evaluation,
The control unit determines the evaluation value based on the content of the evaluation.
The information processing device according to claim 5 .
前記制御部は、所定数以上の否定的な評価がなされた動画がある場合に、当該動画について行われた評価の少なくとも一部を除外して、前記評価値の付与を行う、
請求項に記載の情報処理装置。
When a video has been negatively evaluated a predetermined number of times or more, the control unit excludes at least a portion of the evaluations given to the video and assigns the evaluation value.
The information processing device according to claim 6 .
前記制御部は、前記付与された評価値に基づいて、第三のユーザに提案する走行経路を生成する、
請求項からのいずれか1項に記載の情報処理装置。
The control unit generates a travel route to be proposed to a third user based on the assigned evaluation value.
The information processing device according to claim 5 .
前記制御部は、前記第三のユーザから出発地および目的地を取得し、
前記出発地および目的地を結ぶ複数の経路のうち、より評価値の高い道路区間を含む経路を生成する、
請求項に記載の情報処理装置。
The control unit acquires a departure point and a destination from the third user,
generating a route including a road section with a higher evaluation value from among a plurality of routes connecting the departure point and the destination;
The information processing device according to claim 8 .
車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得することと、
前記動画のタイムライン上において前記評価行動が行われたタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行うことと、
を実行する制御部を有する、情報処理装置。
Acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was shot by an in-vehicle camera and uploaded to a video sharing service by a first user;
evaluating at least a portion of a travel route corresponding to the video based on a timing at which the evaluation action was performed on a timeline of the video;
An information processing device having a control unit that executes the above.
前記動画を前記第二のユーザに視聴させるためのインタフェース画面を生成するステップをさらに含む、
請求項10に記載の情報処理装置。
generating an interface screen for allowing the second user to view the video;
The information processing device according to claim 10 .
前記動画に、タイムスタンプごとの走行地点が関連付いている、
請求項10または11に記載の情報処理装置。
The video is associated with a travel location for each timestamp.
12. The information processing device according to claim 10 or 11 .
前記制御部は、前記第二のユーザが評価行動を行ったタイミングに対応する第一の道路区間に対して評価値を付与する、
請求項10から12のいずれか1項に記載の情報処理装置。
the control unit assigns an evaluation value to a first road section corresponding to a timing at which the second user performed the evaluation action;
The information processing device according to claim 10 .
前記評価行動は、肯定的な評価を行う行動、または、否定的な評価を行う行動のいずれかであり、
前記制御部は、前記評価の内容に基づいて、前記評価値を決定する、
請求項13に記載の情報処理装置。
The evaluation behavior is either a behavior of making a positive evaluation or a behavior of making a negative evaluation,
The control unit determines the evaluation value based on the content of the evaluation.
The information processing device according to claim 13 .
前記制御部は、所定数以上の否定的な評価がなされた動画がある場合に、当該動画について行われた評価の少なくとも一部を除外して、前記評価値の付与を行う、
請求項14に記載の情報処理装置。
When a video has been negatively evaluated a predetermined number of times or more, the control unit excludes at least a portion of the evaluations given to the video and assigns the evaluation value.
The information processing device according to claim 14 .
前記制御部は、前記付与された評価値に基づいて、第三のユーザに提案する走行経路を生成する、
請求項13から15のいずれか1項に記載の情報処理装置。
The control unit generates a travel route to be proposed to a third user based on the assigned evaluation value.
The information processing device according to claim 13 .
前記制御部は、前記第三のユーザから出発地および目的地を取得し、
前記出発地および目的地を結ぶ複数の経路のうち、より評価値の高い道路区間を含む経路を生成する、
請求項16に記載の情報処理装置。
The control unit acquires a departure point and a destination from the third user,
generating a route including a road section with a higher evaluation value from among a plurality of routes connecting the departure point and the destination;
The information processing device according to claim 16 .
車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロード
された動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得するステップと、
前記評価情報に基づいて、所定の車両の走行経路を生成するステップと、
を含
前記評価情報は、前記動画のタイムライン上において前記第二のユーザが評価行動を行ったタイミングに関する情報を含む、
情報処理方法。
acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was shot by an in-vehicle camera and uploaded to a video hosting service by a first user;
generating a driving route for a predetermined vehicle based on the evaluation information;
Including ,
The evaluation information includes information regarding a timing at which the second user performed an evaluation action on a timeline of the video.
Information processing methods.
車載カメラによって撮影され、第一のユーザによって動画共有サービスにアップロードされた動画に対して、第二のユーザが行った評価行動に関する情報である評価情報を取得するステップと、
前記動画のタイムライン上において前記評価行動が行われたタイミングに基づいて、前記動画に対応する走行経路の少なくとも一部分に対して評価を行うステップと、
を含む、情報処理方法。
acquiring evaluation information, which is information regarding an evaluation action taken by a second user on a video that was shot by an in-vehicle camera and uploaded to a video hosting service by a first user;
evaluating at least a portion of a travel route corresponding to the video based on a timing of the evaluation action on a timeline of the video;
An information processing method comprising:
JP2021182865A 2021-11-09 2021-11-09 Information processing device and information processing method Active JP7694345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021182865A JP7694345B2 (en) 2021-11-09 2021-11-09 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021182865A JP7694345B2 (en) 2021-11-09 2021-11-09 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JP2023070586A JP2023070586A (en) 2023-05-19
JP7694345B2 true JP7694345B2 (en) 2025-06-18

Family

ID=86331572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021182865A Active JP7694345B2 (en) 2021-11-09 2021-11-09 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP7694345B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2026023363A1 (en) * 2024-07-24 2026-01-29 株式会社デンソー Vehicle data collection system, vehicle data management device, and vehicle data collection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134228A (en) 2011-12-27 2013-07-08 Nomura Research Institute Ltd Navigation system, method, and computer program
JP2016200884A (en) 2015-04-08 2016-12-01 株式会社ユニモト Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor
WO2018198281A1 (en) 2017-04-27 2018-11-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Information processing apparatus, aerial-photographing path generation method, aerial-photographing path generation system, program, and recording medium
JP2018174512A (en) 2017-03-31 2018-11-08 本田技研工業株式会社 Image sharing system, image sharing server, and image sharing method
JP2020014894A (en) 2015-03-30 2020-01-30 株式会社バンダイナムコエンターテインメント Server system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134228A (en) 2011-12-27 2013-07-08 Nomura Research Institute Ltd Navigation system, method, and computer program
JP2020014894A (en) 2015-03-30 2020-01-30 株式会社バンダイナムコエンターテインメント Server system
JP2016200884A (en) 2015-04-08 2016-12-01 株式会社ユニモト Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor
JP2018174512A (en) 2017-03-31 2018-11-08 本田技研工業株式会社 Image sharing system, image sharing server, and image sharing method
WO2018198281A1 (en) 2017-04-27 2018-11-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Information processing apparatus, aerial-photographing path generation method, aerial-photographing path generation system, program, and recording medium

Also Published As

Publication number Publication date
JP2023070586A (en) 2023-05-19

Similar Documents

Publication Publication Date Title
US8397166B2 (en) Image processing apparatus for determining an operation trajectory based on an operation by a user and for performing a designated process on images based on the determined operation trajectory
US8260775B2 (en) Geotemporal search
US20200076895A1 (en) Data collection apparatus, on-vehicle device, data collection system, and data collection method
US10242007B2 (en) Automated media clipping and combination system
JP7272244B2 (en) Image data delivery system
US20100082712A1 (en) Location and Time Based Media Retrieval
US20190141282A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable medium storing program
US8570424B2 (en) Display control apparatus and display control method
CN110223528A (en) Car searching method, parking method and the device using this method
JP7694345B2 (en) Information processing device and information processing method
KR100882025B1 (en) GS image search method, geographic location service based GS image search method, blog service based GS image search method and regional blog service provision method
CN108391235B (en) A data analysis method and device
JP2013528782A (en) Method and navigation device for providing at least one route
CN112084432B (en) Information display method, device and electronic equipment
CN111680238A (en) Information sharing method and device and storage medium
JP6606354B2 (en) Route display method, route display device, and database creation method
CN116202544A (en) Positioning navigation method and device
JP6088781B2 (en) Server apparatus, program, and control method
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP5454751B2 (en) SEARCH METHOD, SEARCH SYSTEM, PROGRAM, AND COMPUTER
JP5958026B2 (en) Information processing apparatus, information processing apparatus control method, and program
US20100035631A1 (en) Systems and Methods to Record and Present a Trip
JP2016103049A (en) Information processing device, system, control method, and program
US20230289385A1 (en) Information processing device, information processing method, and storage medium
JP5176605B2 (en) Video search device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250520

R150 Certificate of patent or registration of utility model

Ref document number: 7694345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150