[go: up one dir, main page]

JP2021069031A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2021069031A
JP2021069031A JP2019193668A JP2019193668A JP2021069031A JP 2021069031 A JP2021069031 A JP 2021069031A JP 2019193668 A JP2019193668 A JP 2019193668A JP 2019193668 A JP2019193668 A JP 2019193668A JP 2021069031 A JP2021069031 A JP 2021069031A
Authority
JP
Japan
Prior art keywords
vehicle
autonomous traveling
unit
traveling vehicle
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019193668A
Other languages
Japanese (ja)
Inventor
高橋 健太郎
Kentaro Takahashi
健太郎 高橋
砂田 洋尚
Hironao Sunada
洋尚 砂田
英男 長谷川
Hideo Hasegawa
英男 長谷川
直美 近藤
Naomi Kondo
直美 近藤
隆 汐見
Takashi Shiomi
隆 汐見
和哉 三ヶ島
Kazuya Mitsugashima
和哉 三ヶ島
潤 宇佐見
Jun Usami
潤 宇佐見
泰彦 福住
Yasuhiko Fukuzumi
泰彦 福住
さやか 石川
Sayaka Ishikawa
さやか 石川
克仁 山内
Katsuto Yamauchi
克仁 山内
祐功 久野
Tasuku Kuno
祐功 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Toyota Motor Corp
Original Assignee
Toyota Boshoku Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp, Toyota Motor Corp filed Critical Toyota Boshoku Corp
Priority to JP2019193668A priority Critical patent/JP2021069031A/en
Publication of JP2021069031A publication Critical patent/JP2021069031A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】車両等の移動体の中の人々に、異なる場所又は異なる時間の風景等を好適に提供可能にする。【解決手段】本開示の情報処理装置であるサーバ装置200は、第1の移動体としての自律走行車両100で撮影された映像を取得することと、取得した前記映像を前記第1の移動体と異なる第2の移動体としての自律走行車両100の内部の映像表示部に表示するようにその第2の移動体としての自律走行車両100に提供することとを実行する制御部204を備える。【選択図】図3PROBLEM TO BE SOLVED: To preferably provide landscapes of different places or different times to people in a moving body such as a vehicle. SOLUTION: A server device 200, which is an information processing device of the present disclosure, acquires an image taken by an autonomous traveling vehicle 100 as a first moving body, and obtains the acquired image as the first moving body. The control unit 204 is provided to provide the autonomous traveling vehicle 100 as the second moving body so as to be displayed on the image display unit inside the autonomous traveling vehicle 100 as the second moving body different from the above. [Selection diagram] Fig. 3

Description

本発明は、移動体において別の移動体で撮影された映像を表示することを可能にする情報処理装置に関する。 The present invention relates to an information processing device that enables a moving body to display an image captured by another moving body.

従来、車外を撮影して、車内にその映像を表示することが提案されている(例えば特許文献1参照)。 Conventionally, it has been proposed to photograph the outside of a vehicle and display the image inside the vehicle (see, for example, Patent Document 1).

特開2019−14456号公報Japanese Unexamined Patent Publication No. 2019-14456

車内から見える車外の風景等は、実在の世界であり、場所及び時間によって定まる。多くの場合、車内の人々の目に映る世界は、特段面白味があるものとは言い難い。そこで、本発明の目的は、車両等の移動体の中の人々に、異なる場所又は異なる時間の風景等を好適に提供可能にすることにある。 The scenery outside the car that can be seen from inside the car is a real world and is determined by the place and time. In many cases, the world seen by the people in the car is not particularly interesting. Therefore, an object of the present invention is to make it possible to suitably provide people in a moving body such as a vehicle with landscapes of different places or different times.

本発明の実施の形態の一側面は、制御部を備える情報処理装置によって例示される。本制御部は、第1の移動体で撮影された映像を取得することと、取得した前記映像を前記第1の移動体と異なる第2の移動体の内部の映像表示部に表示するように前記第2の移動体に提供することとを実行する。 One aspect of the embodiment of the present invention is exemplified by an information processing device including a control unit. The control unit acquires the image captured by the first moving body and displays the acquired image on the image display unit inside the second moving body different from the first moving body. What is provided to the second moving body is performed.

本情報処理装置によれば、移動体の中の人々に、異なる場所又は異なる時間の風景等を好適に提供することが可能になる。 According to this information processing device, it is possible to suitably provide people in a moving body with landscapes of different places or different times.

本発明の一実施の形態に係る映像提供システムの概念図である。It is a conceptual diagram of the image providing system which concerns on one Embodiment of this invention. 図1のシステムにおける、その構成を概略的に示したブロック図であり、特に自律走行車両の構成を示した図である。It is a block diagram which roughly showed the structure in the system of FIG. 1, and is the figure which showed the structure of the autonomous traveling vehicle in particular. 図1のシステムにおける、その構成を概略的に示したブロック図であり、特にサーバ装置の構成を示した図である。It is a block diagram which roughly showed the structure in the system of FIG. 1, and is the figure which showed the structure of the server apparatus in particular. 図1のシステムにおける、その構成を概略的に示したブロック図であり、特にユーザ装置の構成を示した図である。It is a block diagram which roughly showed the structure in the system of FIG. 図4のユーザ装置の表示部の表示例を示す図である。It is a figure which shows the display example of the display part of the user apparatus of FIG. 図1のシステムにおける、サーバ装置の映像取得処理のフローチャートである。It is a flowchart of the image acquisition process of the server device in the system of FIG. 図1のシステムにおける、サーバ装置の映像提供処理のフローチャートである。It is a flowchart of the image provision process of a server device in the system of FIG.

以下、図面を参照して、本発明の実施の形態に係る情報処理装置、その情報処理装置での情報処理方法、およびプログラムについて説明する。 Hereinafter, the information processing apparatus according to the embodiment of the present invention, the information processing method in the information processing apparatus, and the program will be described with reference to the drawings.

図1に、本発明の一実施の形態に係る映像提供システムSを概念的に示す。映像提供システムSは、自律走行車両100(100A、・・・)と、サーバ装置200とを備える。システムSは、更にユーザ装置300(300A、・・・)を有する。 FIG. 1 conceptually shows the video providing system S according to the embodiment of the present invention. The video providing system S includes an autonomous traveling vehicle 100 (100A, ...) And a server device 200. The system S further includes a user device 300 (300A, ...).

自律走行車両100は映像提供システムSの映像提供サービスを実行可能に構成された移動体の一例である。サーバ装置200は、情報処理装置であり、ネットワークN上のコンピュータである。サーバ装置200は、ネットワークNを介して、自律走行車両100の各々と通信可能に構成されていて、自律走行車両100の情報処理装置とネットワークNを介して連携する。なお、図1では、複数の自律走行車両100(100A、・・・)のうち自律走行車両100A、100B、100Cのみを例示する。しかし、これは自律走行車両100の数等を限定するものではなく、それは幾つであってもよい。 The autonomous traveling vehicle 100 is an example of a mobile body configured to be able to execute the video providing service of the video providing system S. The server device 200 is an information processing device and is a computer on the network N. The server device 200 is configured to be able to communicate with each of the autonomous traveling vehicles 100 via the network N, and cooperates with the information processing device of the autonomous traveling vehicle 100 via the network N. Note that FIG. 1 illustrates only the autonomous traveling vehicles 100A, 100B, and 100C among the plurality of autonomous traveling vehicles 100 (100A, ...). However, this does not limit the number of autonomous traveling vehicles 100 and the like, and may be any number.

サーバ装置200は、他のサーバ装置等ともネットワークNを介して通信可能である。サーバ装置200は、自律走行車両100の各々と通信可能に構成されていることに加えて、ネットワークNを介して、ユーザ装置300の各々とも通信可能に構成されている。 The server device 200 can also communicate with other server devices and the like via the network N. The server device 200 is configured to be communicable with each of the autonomous traveling vehicles 100, and is also configured to be communicable with each of the user devices 300 via the network N.

ユーザ装置300はネットワークNを介してサーバ装置200と通信可能に構成されている。また、ユーザ装置300はネットワークNを介して自律走行車両100とも通信可能に構成されている。ここでは、特に、ユーザ装置300は関係付けられた自律走行車両100と直接的に通信可能に構成されている。図1では、ユーザ装置300Bは自律走行車両100Bと関連付けられ、自律走行車両100Bと直接的に通信可能に構成されている(矢印NB参照)。これは、自律走行車両100Aと関連付けられたユーザ装置300A、自律走行車両100Cと関連付けられたユーザ装置300Cでも同様である。図1では、複数のユーザ装置300(300A、・・・)のうちのユーザ装置300A、300B、300Cのみを例示している。しかし、これはユーザ装置の数等を限定するものではなく、それは幾つであってもよい。 The user device 300 is configured to be able to communicate with the server device 200 via the network N. Further, the user device 300 is configured to be able to communicate with the autonomous traveling vehicle 100 via the network N. Here, in particular, the user device 300 is configured to be able to directly communicate with the associated autonomous vehicle 100. In FIG. 1, the user device 300B is associated with the autonomous traveling vehicle 100B and is configured to be able to directly communicate with the autonomous traveling vehicle 100B (see arrow NB). This also applies to the user device 300A associated with the autonomous traveling vehicle 100A and the user device 300C associated with the autonomous traveling vehicle 100C. FIG. 1 illustrates only the user devices 300A, 300B, and 300C among the plurality of user devices 300 (300A, ...). However, this does not limit the number of user devices and the like, and may be any number.

自律走行車両100は、Electric Vehicle(EV)パレットとも呼ばれる。自律走行車両100は、自動運転及び無人運転可能な移動体であり、様々な寸法のものが存在する。例えば、1人の乗車のみが可能な小型のものから、数十人が乗車できる大型のものまで、様々なサイズの自律走行車両100が利用可能である。 The autonomous vehicle 100 is also called an Electric Vehicle (EV) pallet. The autonomous traveling vehicle 100 is a moving body capable of automatic driving and unmanned driving, and there are vehicles having various dimensions. For example, autonomous traveling vehicles 100 of various sizes can be used, from small ones that can only be used by one person to large ones that can be used by dozens of people.

自律走行車両100は、それ自体の制御のための制御機能及び通信機能を有している。自律走行車両100は、ネットワークN上のサーバ装置と連携して、自律走行車両100単独で実行可能な処理に加えて、ネットワークN上のサーバ装置によって付加される機能及びサービスをユーザに提供することができる。なお、自律走行車両100は、必ずしも無人車両である必要はない。例えば、営業要員や接客要員、保安要員などが乗車していてもよい。例えば、自律走行車両100が提供するサービスが飲食サービスであるとき、料理人、ウエイターなどが乗車し得、自律走行車両100が提供するサービスが保育サービスであるとき保育士などが乗車し得る。また、自律走行車両100は、必ずしも完全なる自律走行が可能な車両でなくてもよい。例えば、状況に応じて人が運転ないし運転の補助を行う車両であってもよい。なお、本実施の形態では、移動体として自律走行車両100を採用するが、システムSにおける移動体は、自律走行が不可能な車両、つまりドライバによる運転操作が必要不可欠な車両を含んでもよい。 The autonomous traveling vehicle 100 has a control function and a communication function for controlling itself. The autonomous traveling vehicle 100 cooperates with the server device on the network N to provide the user with functions and services added by the server device on the network N in addition to the processing that can be executed by the autonomous traveling vehicle 100 alone. Can be done. The autonomous vehicle 100 does not necessarily have to be an automatic guided vehicle. For example, sales personnel, customer service personnel, security personnel, etc. may be on board. For example, when the service provided by the autonomous traveling vehicle 100 is a food and drink service, a cook, a waiter, or the like can get on, and when the service provided by the autonomous traveling vehicle 100 is a childcare service, a nursery teacher or the like can get on. Further, the autonomous traveling vehicle 100 does not necessarily have to be a vehicle capable of completely autonomous traveling. For example, it may be a vehicle in which a person drives or assists driving depending on the situation. In the present embodiment, the autonomous traveling vehicle 100 is adopted as the moving body, but the moving body in the system S may include a vehicle that cannot autonomously travel, that is, a vehicle in which a driving operation by a driver is indispensable.

上述のように、自律走行車両100は、ユーザ装置300(300A、・・・)ともネットワークNを介して通信可能に構成されている。ユーザ装置300は、ユーザからの入力及びそれに準じる操作を受け付け、サーバ装置200に対してのみならず、ネットワークNを介して自律走行車両100とも通信することができる。 As described above, the autonomous traveling vehicle 100 is configured to be able to communicate with the user device 300 (300A, ...) Via the network N. The user device 300 receives an input from the user and an operation corresponding thereto, and can communicate not only with the server device 200 but also with the autonomous traveling vehicle 100 via the network N.

サーバ装置200は、ここでは主に、自律走行車両100に対して運行を指令する装置である。例えば、サーバ装置200は、サービスを希望するユーザ等の乗車希望者をいつ、どこで乗車させ、いつ、どこで降ろすのかについての走行計画を含む運行指令を、自律走行車両100に送信する。 Here, the server device 200 is mainly a device that commands the autonomous traveling vehicle 100 to operate. For example, the server device 200 transmits to the autonomous traveling vehicle 100 an operation command including a traveling plan regarding when, where, when, and where a person who wants to get on board, such as a user who desires a service, gets on and off.

図1のシステムSにおける各構成要素について、以下、詳しく説明する。図2は、自律走行車両100、サーバ装置200、及び、ユーザ装置300を含むシステムSの構成を概略的に示したブロック図であり、特に自律走行車両100Aの構成を示した図である。図2では、自律走行車両100の一例として自律走行車両100Aの構成を示す。他の自律走行車両100B、100C等は、自律走行車両100Aと同様の構成を備える。なお、複数の自律走行車両100は、ここでは、それぞれが異なるサービス(例えば飲食サービス、送迎サービス)を提供可能に構成されている。複数の自律走行車両100のうちの1台又は複数の車両は、後述する映像の撮影のためだけに走行されてもよい。 Each component in the system S of FIG. 1 will be described in detail below. FIG. 2 is a block diagram schematically showing the configuration of the system S including the autonomous traveling vehicle 100, the server device 200, and the user device 300, and is particularly a diagram showing the configuration of the autonomous traveling vehicle 100A. FIG. 2 shows the configuration of the autonomous traveling vehicle 100A as an example of the autonomous traveling vehicle 100. The other autonomous traveling vehicles 100B, 100C, etc. have the same configuration as the autonomous traveling vehicle 100A. The plurality of autonomous traveling vehicles 100 are configured here so that different services (for example, eating and drinking service, pick-up service) can be provided. One or more of the plurality of autonomous traveling vehicles 100 may be traveled only for photographing the image described later.

図2の自律走行車両100Aは、情報処理装置102を備え、その機能を実質的に担う制御部104を有する。自律走行車両100Aは、サーバ装置200から取得した運行指令に従って走行などをすることができる。具体的には、自律走行車両100Aは、ネットワークNを介して取得した運行指令に基づいて、車両の周辺をセンシングしながら適切な方法で走行する。そして、この走行に際し、自律走行車両100Aは、各種ユーザにサービスを提供することができる。 The autonomous traveling vehicle 100A of FIG. 2 includes an information processing device 102, and has a control unit 104 that substantially bears the function thereof. The autonomous traveling vehicle 100A can travel according to the operation command acquired from the server device 200. Specifically, the autonomous traveling vehicle 100A travels in an appropriate manner while sensing the periphery of the vehicle based on the operation command acquired via the network N. Then, during this traveling, the autonomous traveling vehicle 100A can provide services to various users.

自律走行車両100Aは、さらに、センサ106、位置情報取得部108、駆動部110、通信部112、記憶部114を含んで構成される。自律走行車両100Aは、バッテリから供給される電力で動作する。 The autonomous vehicle 100A further includes a sensor 106, a position information acquisition unit 108, a drive unit 110, a communication unit 112, and a storage unit 114. The autonomous vehicle 100A operates on the electric power supplied from the battery.

センサ106は、車両周辺のセンシングを行う手段であり、典型的にはステレオカメラ、レーザスキャナ、Light Detection and Ranging、Laser Imaging Detection and Ranging(LIDAR)、レーダなどを含む。センサ106が取得した情報は、制御部104に送信される。センサ106は、自車両が自律走行を行うためのセンサを含む。センサ106は、自律走行車両100Aの車体に設けられたカメラ107を含む。例えば、カメラ107は、Charged-Coupled Devices(CCD)、Metal-Oxide-Semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用
いた撮影装置で有り得る。カメラ107で撮影された映像として、車載型の映像記録装置で撮影された映像が用いられてもよい。以下、撮影された映像を単に、撮影映像という。ここでは、車体の複数の箇所に複数のカメラ107が設けられている。具体的には、図1に示すように、車体の前方、後方、左右側方にそれぞれカメラ107が設置されている。なお、カメラ107は車体にたった1つのみ設けられてもよく、例えば360°撮影が可能なカメラであってもよい。
The sensor 106 is a means for sensing the periphery of the vehicle, and typically includes a stereo camera, a laser scanner, a Light Detection and Ranging, a Laser Imaging Detection and Ranging (LIDAR), a radar, and the like. The information acquired by the sensor 106 is transmitted to the control unit 104. The sensor 106 includes a sensor for the own vehicle to perform autonomous traveling. The sensor 106 includes a camera 107 provided on the vehicle body of the autonomous vehicle 100A. For example, the camera 107 can be a photographing device using an image sensor such as Charged-Coupled Devices (CCD), Metal-Oxide-Semiconductor (MOS), or Complementary Metal-Oxide-Semiconductor (CMOS). As the image captured by the camera 107, an image captured by an in-vehicle video recording device may be used. Hereinafter, the captured image is simply referred to as a photographed image. Here, a plurality of cameras 107 are provided at a plurality of locations on the vehicle body. Specifically, as shown in FIG. 1, cameras 107 are installed in the front, rear, and left and right sides of the vehicle body, respectively. It should be noted that only one camera 107 may be provided on the vehicle body, and for example, a camera capable of 360 ° photographing may be used.

位置情報取得部108は、車両の現在位置を取得する手段であり、典型的にはGlobal Positioning System(GPS)受信器などを含む。位置情報取得部108が取得した情報
は、制御部104に送信される。衛星信号受信器としてのGPS受信器は、複数のGPS衛星からの信号を受信する。各GPS衛星は、地球の周囲を周回する人工衛星である。衛星測位システムつまりNavigation Satellite System(NSS)はGPSに限られない。
種々の衛星測位システムからの信号に基づいて、位置情報が検出されてもよい。NSSは、全地球航法衛星システムに限定されず、準天頂衛星システム(Quasi-Zenith Satellite
System)を含み得、例えば、欧州の“ガリレオ”や、GPSと一体運用される日本国の
“みちびき”を含み得る。
The position information acquisition unit 108 is a means for acquiring the current position of the vehicle, and typically includes a Global Positioning System (GPS) receiver and the like. The information acquired by the position information acquisition unit 108 is transmitted to the control unit 104. A GPS receiver as a satellite signal receiver receives signals from a plurality of GPS satellites. Each GPS satellite is an artificial satellite that orbits the earth. The satellite positioning system, that is, the Navigation Satellite System (NSS), is not limited to GPS.
Position information may be detected based on signals from various satellite positioning systems. NSS is not limited to the Global Navigation Satellite System, but the Quasi-Zenith Satellite
System) can be included, for example, "Galileo" in Europe and "MICHIBIKI" in Japan, which is operated integrally with GPS.

制御部104は、センサ106、位置情報取得部108等から取得した情報に基づいて
、自律走行車両100Aの制御を行うコンピュータである。制御部104は、サーバ装置200からの運行指令を受けて、移動体である自律走行車両100Aの走行、各種ユーザの乗降作業を制御する制御手段の一例である。
The control unit 104 is a computer that controls the autonomous traveling vehicle 100A based on the information acquired from the sensor 106, the position information acquisition unit 108, and the like. The control unit 104 is an example of a control means for controlling the traveling of the autonomous traveling vehicle 100A, which is a moving body, and the boarding / alighting work of various users in response to an operation command from the server device 200.

制御部104は、CPUと、主記憶部とを有し、プログラムにより情報処理を実行する。CPUはプロセッサともいう。制御部104の主記憶部は主記憶装置の一例である。制御部104におけるCPUは、その主記憶部に実行可能に展開されたコンピュータプログラムを実行し、各種機能を提供する。制御部104における主記憶部は、CPUが実行するコンピュータプログラムやデータ等を記憶する。制御部104における主記憶部は、Dynamic Random Access Memory(DRAM)、Static Random Access Memory(SRAM)
、Read Only Memory(ROM)等である。
The control unit 104 has a CPU and a main storage unit, and executes information processing by a program. The CPU is also called a processor. The main storage unit of the control unit 104 is an example of the main storage device. The CPU in the control unit 104 executes a computer program executably deployed in the main storage unit to provide various functions. The main storage unit in the control unit 104 stores computer programs, data, and the like executed by the CPU. The main storage unit in the control unit 104 is a Dynamic Random Access Memory (DRAM) or a Static Random Access Memory (SRAM).
, Read Only Memory (ROM), etc.

制御部104は、記憶部114と接続されている。記憶部114は、所謂外部記憶部であり、制御部104の主記憶部を補助する記憶領域として使用され、制御部104のCPUが実行するコンピュータプログラムやデータ等を記憶する。記憶部114は、ハードディスクドライブ、Solid State drive(SSD)等である。 The control unit 104 is connected to the storage unit 114. The storage unit 114 is a so-called external storage unit, which is used as a storage area for assisting the main storage unit of the control unit 104, and stores computer programs, data, and the like executed by the CPU of the control unit 104. The storage unit 114 is a hard disk drive, a solid state drive (SSD), or the like.

制御部104は、機能モジュールとして、情報取得部1041、計画生成部1042、環境検出部1043、タスク制御部1044、提供処理部1045、表示処理部1046を有している。各機能モジュールは、主記憶部や記憶部114に記憶されたプログラムを制御部104つまりそのうちのCPUによって実行することで実現される。 The control unit 104 has an information acquisition unit 1041, a plan generation unit 1042, an environment detection unit 1043, a task control unit 1044, a provision processing unit 1045, and a display processing unit 1046 as functional modules. Each functional module is realized by executing a program stored in the main storage unit or the storage unit 114 by the control unit 104, that is, the CPU thereof.

情報取得部1041は、サーバ装置200から運行指令の情報を取得する。運行指令は、その自律走行車両100Aが提供するサービスの利用を希望するユーザ又は乗車希望者に関する乗車位置(乗車場所)、降車位置(降車場所)、乗車時刻及び降車時刻の情報を含む。更に、運行指令は、そのユーザのユーザ情報(例えばユーザID又は、ユーザに対応付けられているユーザ装置300の端末情報)を含み得る。情報取得部1041は、定期的に又は不定期に、自車両の情報を取得し、例えば乗車状況を取得し、記憶部114の自車両情報データベース1141に記憶させる。情報取得部1041は、ユーザ装置300からも情報を取得する。ユーザ装置300から映像の撮影指令の情報を受け取ったとき、情報取得部1041は、提供処理部1045に送信する。ユーザ装置300から映像表示の指令の情報を受け取ったとき、情報取得部1041は、表示処理部1046に送信する。 The information acquisition unit 1041 acquires the operation command information from the server device 200. The operation command includes information on the boarding position (boarding place), the disembarking position (disembarking place), the boarding time, and the disembarking time regarding the user or the person who wants to use the service provided by the autonomous traveling vehicle 100A. Further, the operation command may include user information of the user (for example, user ID or terminal information of the user device 300 associated with the user). The information acquisition unit 1041 acquires information on the own vehicle periodically or irregularly, for example, acquires the riding status and stores it in the own vehicle information database 1141 of the storage unit 114. The information acquisition unit 1041 also acquires information from the user device 300. When the information of the video shooting command is received from the user device 300, the information acquisition unit 1041 transmits the information to the provision processing unit 1045. When the information of the video display command is received from the user device 300, the information acquisition unit 1041 transmits the information to the display processing unit 1046.

計画生成部1042は、サーバ装置200から取得した運行指令に基づいて、特にそこに含まれる走行計画の情報に基づいて、自車両の運行計画を生成する。なお、計画生成部1042が生成した運行計画は、後述するタスク制御部1044へ送信される。本実施の形態において、運行計画とは、自律走行車両100Aが走行するルートと、ルートの一部または全部において自律走行車両100Aが行うべき処理を規定したデータである。運行計画に含まれるデータの例として、例えば、以下のようなものが挙げられる。 The plan generation unit 1042 generates an operation plan of the own vehicle based on the operation command acquired from the server device 200, particularly based on the travel plan information included therein. The operation plan generated by the plan generation unit 1042 is transmitted to the task control unit 1044, which will be described later. In the present embodiment, the operation plan is data that defines a route on which the autonomous vehicle 100A travels and processing to be performed by the autonomous vehicle 100A in a part or all of the route. Examples of data included in the operation plan include the following.

(1)自車両が走行するルートを道路リンクの集合によって表したデータ
自車両が走行するルートは、例えば、記憶部114に記憶された地図データを参照し、運行指令に含まれる走行計画の情報をベースにしつつ、与えられた出発地と目的地に基づいて自動的に生成してもよい。また、ルートは、外部のサービスを利用して生成してもよい。
(1) Data representing the route on which the own vehicle travels by a set of road links The route on which the own vehicle travels refers to, for example, the map data stored in the storage unit 114, and the travel plan information included in the operation command. May be automatically generated based on a given origin and destination. Further, the route may be generated by using an external service.

(2)ルート上の地点において自車両が行うべき処理を表したデータ
ルート上において自車両が行うべき処理には、例えば、「ユーザの乗車」、「ユーザの降車」、「提供するサービス」といったものがあるが、これらに限られない。
(2) Data representing the processing to be performed by the own vehicle at a point on the route The processing to be performed by the own vehicle on the route includes, for example, "getting on the user", "getting off the user", and "service to be provided". There are things, but they are not limited to these.

環境検出部1043は、センサ106が取得したデータに基づいて、車両周辺の環境を検出する。検出の対象は、例えば、車線の数や位置、自車両の周辺に存在する車両の数や位置、自車両の周辺に存在する障害物(例えば歩行者、自転車、構造物、建築物など)の数や位置、道路の構造、道路標識などであるが、これらに限られない。自律的な走行を行うために必要なものであれば、検出の対象はどのようなものであってもよい。また、環境検出部1043は、検出した物体をトラッキングしてもよい。例えば、1ステップ前に検出した物体の座標と、現在の物体の座標との差分から、当該物体の相対速度を求めてもよい。環境検出部1043が検出した、環境に関するデータ(以下、環境データ)は、後述するタスク制御部1044へ送信される。 The environment detection unit 1043 detects the environment around the vehicle based on the data acquired by the sensor 106. Targets of detection are, for example, the number and position of lanes, the number and position of vehicles around the own vehicle, and obstacles (for example, pedestrians, bicycles, structures, buildings, etc.) around the own vehicle. Numbers and locations, road structures, road signs, etc., but not limited to these. Any object may be detected as long as it is necessary for autonomous driving. In addition, the environment detection unit 1043 may track the detected object. For example, the relative velocity of the object may be obtained from the difference between the coordinates of the object detected one step before and the coordinates of the current object. The data related to the environment (hereinafter referred to as environment data) detected by the environment detection unit 1043 is transmitted to the task control unit 1044 described later.

タスク制御部1044は、計画生成部1042が生成した運行計画と、環境検出部1043が生成した環境データ、ならびに、位置情報取得部108が取得した自車両の位置情報に基づいて、移動体である自車両の運行つまり走行を制御する。例えば、所定のルートに沿って走行し、かつ、自車両を中心とする所定の安全領域内に障害物が進入しないように自車両を走行させる。車両を自律走行させる方法については、公知の方法を採用することができる。また、タスク制御部1044は、計画生成部1042が生成した運行計画に基づいて、走行以外のタスクも実行する。タスクとしては、ユーザの乗降、受領証や預り証の発行等を例示できる。 The task control unit 1044 is a moving body based on the operation plan generated by the plan generation unit 1042, the environment data generated by the environment detection unit 1043, and the position information of the own vehicle acquired by the position information acquisition unit 108. Controls the operation of the own vehicle, that is, the running. For example, the vehicle is driven along a predetermined route and the vehicle is driven so that an obstacle does not enter the predetermined safety area centered on the vehicle. As a method for autonomously traveling the vehicle, a known method can be adopted. In addition, the task control unit 1044 also executes tasks other than traveling based on the operation plan generated by the plan generation unit 1042. Examples of tasks include getting on and off the user, issuing a receipt and a deposit certificate, and the like.

提供処理部1045は、車体のカメラ107からの撮影映像をサーバ装置200に提供する。自律走行車両100Aにおいては、それに関連付けられているユーザ装置300Aからの映像の撮影指令の情報に基づいて、提供処理部1045は車外の風景等の映像を撮影し、それをサーバ装置200に提供する。提供される撮影映像には、位置情報取得部108による位置情報と、撮影の時間情報とを含む。時間情報は、撮影開始時刻と撮影終了時刻とを含むとよい。 The providing processing unit 1045 provides the server device 200 with the captured image from the camera 107 of the vehicle body. In the autonomous traveling vehicle 100A, the providing processing unit 1045 photographs an image such as a landscape outside the vehicle based on the information of the image shooting command from the user device 300A associated therewith, and provides the image to the server device 200. .. The provided shooting image includes position information by the position information acquisition unit 108 and shooting time information. The time information may include a shooting start time and a shooting end time.

表示処理部1046は、自律走行車両100Aの内部の映像表示部に他の車両の撮影映像を表示する。自律走行車両100Aにおいては、それに関連付けられているユーザ装置300Aからの映像表示の指令の情報に基づいて、表示処理部1046はサーバ装置200から撮影映像を取得して、取得した撮影映像をその内部の映像表示部に表示する。ここでは、自律走行車両100Aの窓Wが車内の投影機からの映像を表示する映像表示部にあたるが、これは一例に過ぎない。具体的には、自律走行車両100Aの窓Wは、車両内部から外部を見ることができる透明な状態と、スクリーンとして機能し得る不透明な状態との間で転じることが可能な構成を備えている。表示処理部1046の作動により、窓Wは、通常時の透明な状態から、スクリーンとなる不透明な状態になることができる。スクリーンとなった窓Wにその撮影映像を表示するとき、映写機はスクリーンとなった窓のサイズ、形状、及び傾き等(以下、サイズ等)に合わせて、表示する撮影映像のサイズ等を調整する。例えば、図1に示すように、自律走行車両100Aは自律走行車両100Bと大きさが異なるので、カメラ107の位置も異なり、窓Wのサイズも異なる。そこで、自律走行車両100Aのカメラ107で撮影した映像を自律走行車両100Bの窓Wに表示するとき、自律走行車両100Bの窓Wのサイズ等に合わせるようにその撮影映像は補正されて表示される。なお、窓Wをスクリーンにするとき、窓Wの内側に暗幕等が機械的に延出されてもよい。 The display processing unit 1046 displays the captured image of another vehicle on the image display unit inside the autonomous traveling vehicle 100A. In the autonomous traveling vehicle 100A, the display processing unit 1046 acquires a photographed image from the server device 200 based on the information of the image display command associated with the user device 300A, and the acquired photographed image is inside the autonomous vehicle 100A. It is displayed on the video display section of. Here, the window W of the autonomous vehicle 100A corresponds to the image display unit that displays the image from the projector in the vehicle, but this is only an example. Specifically, the window W of the autonomous vehicle 100A has a configuration capable of turning between a transparent state in which the outside can be seen from the inside of the vehicle and an opaque state in which the screen can function as a screen. .. By operating the display processing unit 1046, the window W can be changed from a normally transparent state to an opaque state to be a screen. When displaying the captured image on the screen W, the projector adjusts the size of the captured image to be displayed according to the size, shape, inclination, etc. (hereinafter, size, etc.) of the screened window. .. For example, as shown in FIG. 1, since the size of the autonomous traveling vehicle 100A is different from that of the autonomous traveling vehicle 100B, the position of the camera 107 is also different, and the size of the window W is also different. Therefore, when the image taken by the camera 107 of the autonomous vehicle 100A is displayed on the window W of the autonomous vehicle 100B, the photographed image is corrected and displayed so as to match the size of the window W of the autonomous vehicle 100B. .. When the window W is used as a screen, a blackout curtain or the like may be mechanically extended inside the window W.

駆動部110は、タスク制御部1044が生成した指令に基づいて、自律走行車両100Aを走行させる手段である。駆動部110は、例えば、車輪を駆動するためのモータやインバータ、ブレーキ、ステアリング機構、二次電池等を含んで構成される。 The drive unit 110 is a means for driving the autonomous traveling vehicle 100A based on a command generated by the task control unit 1044. The drive unit 110 includes, for example, a motor for driving the wheels, an inverter, a brake, a steering mechanism, a secondary battery, and the like.

通信部112は、自律走行車両100AをネットワークNに接続するための通信手段を
有する。本実施の形態では、自律走行車両100Aは、ネットワークN経由で他の装置、例えばサーバ装置200やユーザ装置300Aと通信を行うことができる。なお、通信部112は、自車両である自律走行車両100Aが他の自律走行車両100(100B、・・・)と車々間通信を行うための通信手段をさらに有していてもよい。
The communication unit 112 has a communication means for connecting the autonomous traveling vehicle 100A to the network N. In the present embodiment, the autonomous traveling vehicle 100A can communicate with other devices such as the server device 200 and the user device 300A via the network N. The communication unit 112 may further have a communication means for the autonomous traveling vehicle 100A, which is its own vehicle, to perform inter-vehicle communication with another autonomous traveling vehicle 100 (100B, ...).

次に、サーバ装置200について説明する。サーバ装置200は、複数の自律走行車両100のそれぞれについてのサービスに関する情報など、種々の運行指令の情報を提供する装置である。また、サーバ装置200は、自律走行車両100から、撮影映像を取得する装置である。更に、サーバ装置200は、自律走行車両100からの映像要求の指令の情報に基づき、他の車両の撮影映像をその自律走行車両100に提供する装置である。 Next, the server device 200 will be described. The server device 200 is a device that provides information on various operation commands, such as information on services for each of the plurality of autonomous traveling vehicles 100. Further, the server device 200 is a device that acquires a captured image from the autonomous traveling vehicle 100. Further, the server device 200 is a device that provides the autonomous traveling vehicle 100 with captured images of another vehicle based on the information of the command of the image request from the autonomous traveling vehicle 100.

サーバ装置200は、情報処理装置であり、図3に示すように、通信部202、制御部204、記憶部206を有して構成される。通信部202は、通信部112と同様であり、サーバ装置200をネットワークNに接続するための通信機能を有する。そして、サーバ装置200の通信部202は、ネットワークN経由で自律走行車両100及びユーザ装置300と通信を行うための通信インタフェースである。制御部204は、制御部104と同様にCPUと主記憶部とを有し、プログラムにより情報処理を実行する。もちろん、このCPUもプロセッサであり、制御部204の主記憶部も主記憶装置の一例である。制御部204におけるCPUは、その主記憶部に実行可能に展開されたコンピュータプログラムを実行し、各種機能を提供する。制御部204における主記憶部は、CPUが実行するコンピュータプログラムやデータ等を記憶する。制御部204における主記憶部は、DRAM、SRAM、ROM等である。 The server device 200 is an information processing device, and as shown in FIG. 3, includes a communication unit 202, a control unit 204, and a storage unit 206. The communication unit 202 is the same as the communication unit 112, and has a communication function for connecting the server device 200 to the network N. The communication unit 202 of the server device 200 is a communication interface for communicating with the autonomous traveling vehicle 100 and the user device 300 via the network N. The control unit 204 has a CPU and a main storage unit like the control unit 104, and executes information processing by a program. Of course, this CPU is also a processor, and the main storage unit of the control unit 204 is also an example of the main storage device. The CPU in the control unit 204 executes a computer program executably deployed in the main storage unit and provides various functions. The main storage unit in the control unit 204 stores computer programs, data, and the like executed by the CPU. The main storage unit in the control unit 204 is a DRAM, SRAM, ROM, or the like.

制御部204は、記憶部206と接続されている。記憶部206は、外部記憶部であり、制御部204の主記憶部を補助する記憶領域として使用され、制御部204のCPUが実行するコンピュータプログラムやデータ等を記憶する。記憶部206は、ハードディスクドライブ、SSD等である。 The control unit 204 is connected to the storage unit 206. The storage unit 206 is an external storage unit, which is used as a storage area that assists the main storage unit of the control unit 204, and stores computer programs, data, and the like executed by the CPU of the control unit 204. The storage unit 206 is a hard disk drive, SSD, or the like.

制御部204は、サーバ装置200の制御を司る手段である。制御部204は、図3に示すように、機能モジュールとして、情報取得部2041、車両管理部2042、情報提供部2043、ポイント加算部2044を有している。これらの各機能モジュールは、主記憶部や記憶部206に記憶されたプログラムを制御部204のCPUによって実行することで実現される。 The control unit 204 is a means for controlling the server device 200. As shown in FIG. 3, the control unit 204 has an information acquisition unit 2041, a vehicle management unit 2042, an information provision unit 2043, and a point addition unit 2044 as functional modules. Each of these functional modules is realized by executing a program stored in the main storage unit or the storage unit 206 by the CPU of the control unit 204.

情報取得部2041は、自律走行車両100やユーザ装置300から各種情報、例えば提供処理部1045から提供された撮影映像を取得する。そして、取得した情報を、車両管理部2042に送信する。また、情報取得部2041は、自律走行車両100から位置情報や、自車両情報データベース1141の情報などを定期的に取得し、車両管理部2042に送信する。更に、情報取得部2041は、自律走行車両100から映像要求の指令の情報を取得し、それを情報提供部2043に送信する。 The information acquisition unit 2041 acquires various information from the autonomous traveling vehicle 100 and the user device 300, for example, a captured image provided by the provision processing unit 1045. Then, the acquired information is transmitted to the vehicle management unit 2042. Further, the information acquisition unit 2041 periodically acquires position information, information of the own vehicle information database 1141 and the like from the autonomous traveling vehicle 100, and transmits the information acquisition unit 2041 to the vehicle management unit 2042. Further, the information acquisition unit 2041 acquires the information of the video request command from the autonomous traveling vehicle 100 and transmits it to the information providing unit 2043.

車両管理部2042は、管理下にある複数の自律走行車両100の情報を管理する。具体的には、車両管理部2042は、所定の周期ごとに、複数の自律走行車両100から、自律走行車両100に関するデータ等の情報を情報取得部2041を介して受信し、記憶部206の車両情報データベース2061に記憶させる。自律走行車両100に関する情報として、位置情報と車両情報を用いる。車両情報は、例えば、自律走行車両100の識別子、用途・種別、待機地点(車庫や営業所)に関する情報、扉タイプ、車体サイズ、荷室サイズ、積載量、満充電時における走行可能距離、現時点における走行可能距離、現在のステータスなどである。ただし、車両情報がこれらに限定される訳ではなく、他の項目を含んでもよい。現在のステータスは、ユーザの乗車状況、サービスの提供状況などの情
報を含む。更に、車両管理部2042は、自律走行車両100の提供処理部1045から提供された撮影映像を位置情報及び時間情報で検索可能に、映像情報データベース2062に記憶する。この記憶のとき、記憶部206のユーザ情報データベース2063のユーザ情報と、撮影映像とを関連付けるとよい。これにより、撮影映像の使用に応じたポイント加算は、ユーザと関連付けて、より具体的にはユーザ装置300のユーザ情報と関連付けて行うことができる。ユーザ情報は記憶部206のユーザ情報データベース2063に記憶されていて、車両情報データベース2061の車両情報等と関連付けられている。
The vehicle management unit 2042 manages information on a plurality of autonomous traveling vehicles 100 under control. Specifically, the vehicle management unit 2042 receives information such as data related to the autonomous traveling vehicle 100 from the plurality of autonomous traveling vehicles 100 via the information acquisition unit 2041 at predetermined cycles, and the vehicle of the storage unit 206. Stored in the information database 2061. Position information and vehicle information are used as information regarding the autonomous traveling vehicle 100. Vehicle information includes, for example, an identifier of an autonomous vehicle 100, usage / type, information on a standby point (garage or sales office), door type, vehicle body size, luggage compartment size, load capacity, mileage when fully charged, and current time. The mileage in, the current status, etc. However, the vehicle information is not limited to these, and may include other items. The current status includes information such as the user's boarding status and service provision status. Further, the vehicle management unit 2042 stores the captured image provided by the providing processing unit 1045 of the autonomous traveling vehicle 100 in the image information database 2062 so as to be searchable by the position information and the time information. At the time of this storage, it is preferable to associate the user information of the user information database 2063 of the storage unit 206 with the captured image. As a result, the point addition according to the use of the captured image can be performed in association with the user, and more specifically in association with the user information of the user device 300. The user information is stored in the user information database 2063 of the storage unit 206, and is associated with the vehicle information and the like of the vehicle information database 2061.

情報提供部2043は、記憶する撮影映像を自律走行車両100に提供する。自律走行車両100から映像要求の指令の情報を情報取得部2041を介して受け付けたとき、情報提供部2043は、所定のプログラムに従って、映像情報データベース2062を検索する。具体的には、自律走行車両100から要求を受けた時間帯に応じた時間帯の撮影映像を検索して抽出する。また。自律走行車両100つまりそれに関連付けられているユーザ装置300からの過去の要求履歴がユーザ情報データベース2063に、ユーザ情報と関連付けて記憶されている。この過去の要求履歴からジャンルを絞って抽出することが行われる。例えば、雄大な自然の映像を多く要求する自律走行車両100の場合、自然の風景をジャンルとする地域つまり位置情報に基づいて、映像を抽出することができる。なお、映像ジャンルや映像に関するキーワードなどを伴う要求を自律走行車両100から取得したとき、情報提供部2043は、その映像ジャンルやキーワードに基づいて、映像情報データベース2062を検索することができる。このため、映像情報データベース2062に記憶される映像は、例えばそれの位置情報に基づいて、自動的に又は手動でジャンル分けされる。情報提供部2043は、こうして抽出された撮影映像を、映像要求の指令の情報の送信元である自律走行車両100に提供する。 The information providing unit 2043 provides the captured image to be stored to the autonomous traveling vehicle 100. When the information of the video request command is received from the autonomous traveling vehicle 100 via the information acquisition unit 2041, the information providing unit 2043 searches the video information database 2062 according to a predetermined program. Specifically, the captured video of the time zone corresponding to the time zone requested by the autonomous traveling vehicle 100 is searched and extracted. Also. The past request history from the autonomous traveling vehicle 100, that is, the user device 300 associated with the autonomous vehicle 100, is stored in the user information database 2063 in association with the user information. The genre is narrowed down and extracted from this past request history. For example, in the case of the autonomous traveling vehicle 100 that requires a lot of magnificent images of nature, the images can be extracted based on the area, that is, the position information, in which the natural scenery is a genre. When a request accompanied by a video genre or a keyword related to a video is acquired from the autonomous traveling vehicle 100, the information providing unit 2043 can search the video information database 2062 based on the video genre or the keyword. Therefore, the video stored in the video information database 2062 is automatically or manually classified into genres based on, for example, its position information. The information providing unit 2043 provides the captured video extracted in this way to the autonomous traveling vehicle 100, which is the source of the information of the video request command.

ポイント加算部2044は、自律走行車両100からの要求に基づいて情報提供部2043から提供した映像の利用度合いなどに応じて、その映像に関連付けられているユーザにポイント加算する。このポイント加算処理は、所定のプログラムに従って実行される。これにより、自律走行車両100のカメラ107で撮影した撮影映像に対して対価を提供することができる。このポイントは、現金や商品と交換可能にしてもよい。また、ポイント加算部2044は、提供した撮影映像の表示に関連してコマーシャル映像も流すとき、そのコマーシャル映像の表示回数や表示時間に応じたポイントを加算処理してもよい。更に、ポイント加算部2044は、自律走行車両に提供した映像を自律走行車両100でみたユーザからの評価に応じたポイント加算処理を実行してもよい。 The point addition unit 2044 adds points to the user associated with the video according to the degree of use of the video provided by the information providing unit 2043 based on the request from the autonomous traveling vehicle 100. This point addition process is executed according to a predetermined program. As a result, it is possible to provide compensation for the captured image captured by the camera 107 of the autonomous traveling vehicle 100. This point may be redeemable for cash or merchandise. Further, when the point addition unit 2044 also plays a commercial image in connection with the display of the provided captured image, the point addition unit 2044 may add points according to the number of times the commercial image is displayed and the display time. Further, the point addition unit 2044 may execute the point addition process according to the evaluation from the user who viewed the image provided to the autonomous traveling vehicle on the autonomous traveling vehicle 100.

次に、ユーザ装置300について説明する。ユーザ装置300は、例えば、携帯端末、スマートフォン、パーソナルコンピュータ等である。一例としての図4のユーザ装置300Aは、通信部302と、制御部304と、記憶部306とを有する。ユーザ装置300Aの通信部302及び記憶部306は、サーバ装置200の通信部202及び記憶部206のそれぞれと同様である。さらに、ユーザ装置300Aは、表示部308と、操作部310とを有する。表示部308は、例えば、液晶ディスプレイ、エレクトロルミネッセンスパネル等である。操作部310は、例えば、キーボード、ポインティングデバイス等であってもよい。より具体的には、本実施の形態では、操作部310はタッチパネルを含み、実質的に表示部308と一体化されている。 Next, the user device 300 will be described. The user device 300 is, for example, a mobile terminal, a smartphone, a personal computer, or the like. As an example, the user device 300A of FIG. 4 has a communication unit 302, a control unit 304, and a storage unit 306. The communication unit 302 and the storage unit 306 of the user device 300A are the same as the communication unit 202 and the storage unit 206 of the server device 200, respectively. Further, the user device 300A has a display unit 308 and an operation unit 310. The display unit 308 is, for example, a liquid crystal display, an electroluminescence panel, or the like. The operation unit 310 may be, for example, a keyboard, a pointing device, or the like. More specifically, in the present embodiment, the operation unit 310 includes a touch panel and is substantially integrated with the display unit 308.

制御部304は、サーバ装置200の制御部204と同様に、CPUと主記憶部とを有する。制御部304のCPUは、記憶部306に記憶されたアプリケーションプログラム(以下、アプリケーション)3061を実行する。アプリケーション3061は、ウェブブラウザあるいはサーバ装置200から配信される情報にアクセスするためのアプリケーションプログラムである。アプリケーション3061は、GUIを有し、ユーザによる入力、例えば、アクセスを受け付け、ネットワークNを介して自律走行車両100やサーバ
装置200に送信する。ユーザ装置300を介して、ユーザは、利用することを希望するサービスを入力し、サーバ装置200や自律走行車両100と通信することができる。撮影映像を表示するための操作が実行されたとき、ユーザ装置300は、関連付けられている自律走行車両100にその指令の情報を送る。また、ユーザ装置300は、カメラ107で映像を撮影したいとき、関連付けられている自律走行車両100にカメラ107での撮影を行う指令の情報を送る。
The control unit 304 has a CPU and a main storage unit, similarly to the control unit 204 of the server device 200. The CPU of the control unit 304 executes the application program (hereinafter, application) 3061 stored in the storage unit 306. Application 3061 is an application program for accessing information distributed from a web browser or a server device 200. The application 3061 has a GUI, receives input by the user, for example, access, and transmits the input to the autonomous vehicle 100 or the server device 200 via the network N. Through the user device 300, the user can input a service desired to be used and communicate with the server device 200 and the autonomous traveling vehicle 100. When the operation for displaying the captured image is executed, the user device 300 sends the information of the command to the associated autonomous vehicle 100. Further, when the user device 300 wants to take a picture with the camera 107, the user device 300 sends information of a command to take a picture with the camera 107 to the associated autonomous vehicle 100.

なお、図2、図3及び図4では、自律走行車両100とサーバ装置200とユーザ装置300が同一のネットワークNで接続されている。ただし、この接続は複数のネットワークで実現されてもよい。例えば、自律走行車両100とサーバ装置200とを接続するネットワークと、サーバ装置200とユーザ装置300とを接続するネットワークとが異なるネットワークであってもよい。 In FIGS. 2, 3 and 4, the autonomous traveling vehicle 100, the server device 200, and the user device 300 are connected by the same network N. However, this connection may be realized in a plurality of networks. For example, the network connecting the autonomous vehicle 100 and the server device 200 and the network connecting the server device 200 and the user device 300 may be different networks.

上記構成を有するシステムSにおける処理について、以下説明する。まず、図5に基づいて、ユーザ装置300における入力操作について説明する。なお、以下では、ユーザUAの端末装置がユーザ装置300Aであり、ユーザUBの端末装置がユーザ装置300Bであり、ユーザUCの端末装置がユーザ装置300Cである。 The processing in the system S having the above configuration will be described below. First, the input operation in the user device 300 will be described with reference to FIG. In the following, the terminal device of the user UA is the user device 300A, the terminal device of the user UB is the user device 300B, and the terminal device of the user UC is the user device 300C.

図5は、アプリケーション3061の実行によるユーザ装置300Aの表示部308の画面の一例である。この表示部308は、タッチパネルとしての操作部310にも相当する。 FIG. 5 is an example of the screen of the display unit 308 of the user device 300A by executing the application 3061. The display unit 308 also corresponds to an operation unit 310 as a touch panel.

ユーザ装置300Aの表示部308のうち、撮影領域R1の表示部3081における「車両1」は、ユーザ装置300Aに関連付けられている自律走行車両100Aを指す。ユーザ装置300Aに関連付けられている自律走行車両100が複数あるとき、この表示部3081において、ユーザUAは複数の自律走行車両100から1つの車両を選択することができる。 Of the display unit 308 of the user device 300A, the "vehicle 1" in the display unit 3081 of the photographing area R1 refers to the autonomous traveling vehicle 100A associated with the user device 300A. When there are a plurality of autonomous traveling vehicles 100 associated with the user device 300A, the user UA can select one vehicle from the plurality of autonomous traveling vehicles 100 on the display unit 3081.

ユーザ装置300Aの撮影領域R1にある「開始」ボタン3082aが押されると、ユーザ装置300Aからの撮影信号は表示部3081の「車両1」である自律走行車両100Aに送信される。その結果、自律走行車両100Aでは、カメラ107で映像が撮影され、その撮影映像が上述の如くサーバ装置200に送信される。この撮影は、ユーザ装置300Aの撮影領域R1にある「終了」ボタン3082bを押されるまで行われる。図1に示すように、ユーザ装置300Aは自律走行車両100A内にあり、自律走行車両100A内のユーザUAにより操作される。これは、自律走行車両100C内のユーザUCによるユーザ装置300Cの操作においても同様である。しかし、図1に示すように、ユーザUBのユーザ装置300Bは、自律走行車両100B外にあり、自律走行車両100B外で操作される。このように、ユーザ装置300は関連付けられている自律走行車両100の内部にあっても外部にあってもよく、内部にあるときその自律走行車両100に固定されていてもよい。 When the "start" button 3082a in the shooting area R1 of the user device 300A is pressed, the shooting signal from the user device 300A is transmitted to the autonomous traveling vehicle 100A which is the "vehicle 1" of the display unit 3081. As a result, in the autonomous traveling vehicle 100A, an image is captured by the camera 107, and the captured image is transmitted to the server device 200 as described above. This shooting is performed until the "end" button 3082b in the shooting area R1 of the user device 300A is pressed. As shown in FIG. 1, the user device 300A is in the autonomous traveling vehicle 100A and is operated by the user UA in the autonomous traveling vehicle 100A. This also applies to the operation of the user device 300C by the user UC in the autonomous traveling vehicle 100C. However, as shown in FIG. 1, the user device 300B of the user UB is outside the autonomous traveling vehicle 100B and is operated outside the autonomous traveling vehicle 100B. As described above, the user device 300 may be inside or outside the associated autonomous vehicle 100, and may be fixed to the autonomous vehicle 100 when it is inside.

ユーザ装置300Aの表示部308のうち、映像表示領域R2にある「開始」ボタン3083a及び「終了」ボタン3083bは、それぞれ、自律走行車両100Aへの表示処理部1046による撮影映像の表示の開始及び終了の指示のためのものである。映像表示領域R2にある「前」ボタン3084a及び「後」ボタン3084bは、表示されている映像をその前後の映像に切り替えるボタンである。そして、コメント入力部3085は、表示している撮影映像へのコメント例えば評価を入力する入力部である。このコメント入力部3085に加えて或いは代えて、「よい」「悪い」といった評価ボタンを設けてもよい。 Of the display units 308 of the user device 300A, the "start" button 3083a and the "end" button 3083b in the image display area R2 start and end the display of the captured image by the display processing unit 1046 on the autonomous vehicle 100A, respectively. It is for the instruction of. The "front" button 3084a and the "rear" button 3084b in the image display area R2 are buttons for switching the displayed image between the images before and after the displayed image. Then, the comment input unit 3085 is an input unit for inputting a comment, for example, an evaluation to the displayed captured image. In addition to or in place of the comment input unit 3085, evaluation buttons such as "good" and "bad" may be provided.

ユーザ装置300Aの表示部308のうち、リクエスト領域R3は、映像表示領域R2での撮影映像の表示指示に伴い表示される撮影映像のジャンル等を入力する入力部3086を有する。このリクエスト領域R3で入力された情報は、映像表示領域R2での撮影映像の表示の開始及び終了の指示とともに、自律走行車両100Aに送信される。ユーザ装置300Aは、サーバ装置200との通信によりリクエスト領域R3でのジャンル情報を取得することができる。このジャンル情報は、サーバ装置200の記憶部206の映像情報データベース2062に記憶されていて、サーバ装置200の情報提供部2043によりユーザ装置300Aに提供される。 Of the display unit 308 of the user device 300A, the request area R3 has an input unit 3086 for inputting the genre of the photographed image to be displayed in accordance with the display instruction of the photographed image in the image display area R2. The information input in the request area R3 is transmitted to the autonomous traveling vehicle 100A together with instructions for starting and ending the display of the captured image in the image display area R2. The user device 300A can acquire the genre information in the request area R3 by communicating with the server device 200. This genre information is stored in the video information database 2062 of the storage unit 206 of the server device 200, and is provided to the user device 300A by the information providing unit 2043 of the server device 200.

ここで更に具体的に説明する。ユーザ装置300Aのリクエスト領域R3において「雄大な自然の映像」が選択されているときに、映像表示領域R2の「開始」ボタン3083aが押される。これにより、ユーザ装置300Aからの映像表示の信号は、「雄大な自然の映像」という情報と共に、自律走行車両100Aに送信される。その結果、自律走行車両100Aでは、表示処理部1046は、その信号に基づく信号をサーバ装置200に送信する。そして、サーバ装置200の情報提供部2043は、「雄大な自然の映像」に関連するジャンルの撮影映像であって、同じ時間帯の撮影映像を所定のプログラムにしたがって抽出し、自律走行車両100Aに提供する。この提供された撮影映像は、自律走行車両100Aの表示処理部1046により、映像表示部としての窓Wに表示される。更に、この表示される映像を別の映像に切り替えたいとき、ユーザUAは、ユーザ装置300Aの「前」ボタン3084aや「後」ボタン3084bを押す。これにより、ユーザ装置300Aからの信号は自律走行車両100Aに送信される。この結果、自律走行車両100Aはサーバ装置200との間で通信し、別の撮影映像を取得して、表示する。 Here, a more specific description will be given. When the "magnificent natural image" is selected in the request area R3 of the user device 300A, the "start" button 3083a of the image display area R2 is pressed. As a result, the image display signal from the user device 300A is transmitted to the autonomous traveling vehicle 100A together with the information of "magnificent natural image". As a result, in the autonomous traveling vehicle 100A, the display processing unit 1046 transmits a signal based on the signal to the server device 200. Then, the information providing unit 2043 of the server device 200 extracts the captured images of the genre related to the "magnificent natural image" according to a predetermined program in the same time zone, and makes the autonomous traveling vehicle 100A. provide. The provided captured image is displayed on the window W as the image display unit by the display processing unit 1046 of the autonomous traveling vehicle 100A. Further, when it is desired to switch the displayed image to another image, the user UA presses the "front" button 3084a or the "rear" button 3084b of the user device 300A. As a result, the signal from the user device 300A is transmitted to the autonomous traveling vehicle 100A. As a result, the autonomous traveling vehicle 100A communicates with the server device 200, acquires another captured image, and displays it.

このときのサーバ装置200での情報処理の流れを図6及び図7に基づいて説明する。
図6のフローチャートは、サーバ装置200における、第1移動体としての自律走行車両100からの撮影映像の取得処理を表す。図7のフローチャートは、サーバ装置200における、第1移動体としての自律走行車両100からの撮影映像の、第2移動体としての自律走行車両100への提供処理を表す。なお、第1移動体としての自律走行車両100は、第2移動体としての自律走行車両100と異なるとよい。ここでは、第1移動体としての自律走行車両100は自律走行車両100Aであり、第2移動体としての自律走行車両100は自律走行車両100Cとして、以下説明する。
The flow of information processing in the server device 200 at this time will be described with reference to FIGS. 6 and 7.
The flowchart of FIG. 6 represents the acquisition process of the captured image from the autonomous traveling vehicle 100 as the first moving body in the server device 200. The flowchart of FIG. 7 shows the processing of providing the image taken from the autonomous traveling vehicle 100 as the first moving body to the autonomous traveling vehicle 100 as the second moving body in the server device 200. The autonomous traveling vehicle 100 as the first moving body may be different from the autonomous traveling vehicle 100 as the second moving body. Here, the autonomous traveling vehicle 100 as the first moving body is the autonomous traveling vehicle 100A, and the autonomous traveling vehicle 100 as the second moving body is described below as the autonomous traveling vehicle 100C.

サーバ装置200の情報取得部2041は、自律走行車両100Aから撮影映像を取得すると(図6のステップS601)、車両管理部2042に送信する。これにより、車両管理部2042は、取得した情報を上記のように分類分けしつつ、映像情報データベース2062に記憶する(図6のステップS602)。こうして、サーバ装置200には、複数の映像が蓄積されるようになる。なお、サーバ装置200は、他のサーバ装置からそのような映像を取得して更に蓄積することができる。 When the information acquisition unit 2041 of the server device 200 acquires the captured image from the autonomous traveling vehicle 100A (step S601 in FIG. 6), the information acquisition unit 2041 transmits it to the vehicle management unit 2042. As a result, the vehicle management unit 2042 stores the acquired information in the video information database 2062 while classifying the acquired information as described above (step S602 in FIG. 6). In this way, a plurality of images are stored in the server device 200. The server device 200 can acquire such an image from another server device and further store it.

ユーザ装置300Cの映像表示領域R2の「開始」ボタン3083aが押されると、それに対応する撮影映像の要求信号が自律走行車両100Cからサーバ装置200に送信される。サーバ装置200の情報取得部2041は、自律走行車両100Cから撮影映像の要求を取得すると(図7のステップS701で肯定判定)、情報提供部2043に送信する。これにより、サーバ装置200の情報提供部2043は、上記のように撮影映像を抽出し、自律走行車両100Cに提供する(ステップS703)。ここでは、自律走行車両100Aでの撮影映像が自律走行車両100Cに提供されたと仮定する。この映像の提供は、自律走行車両100Cからの要求が終了するまで、基本的には実行される。ユーザ装置300Cの「終了」ボタン3083bが押されると、それに対応する信号が自律走行車両100Cを介してサーバ装置200に送られる。これにより、サーバ装置200の情報提供部2043では終了要求があったと判定し(ステップS705で肯定判定)、撮影映
像の提供を終了する。そして、ポイント加算部2044は上記したようにポイント加算処理を実行する(ステップS707)。これにより、提供した撮影映像を撮影した自律走行車両100Aに関連付けられているユーザ装置300AつまりユーザUAへのポイント加算処理が実行される。
When the "start" button 3083a of the image display area R2 of the user device 300C is pressed, the corresponding captured image request signal is transmitted from the autonomous traveling vehicle 100C to the server device 200. When the information acquisition unit 2041 of the server device 200 acquires the request for the captured image from the autonomous traveling vehicle 100C (affirmative determination in step S701 of FIG. 7), the information acquisition unit 2041 transmits the request to the information providing unit 2043. As a result, the information providing unit 2043 of the server device 200 extracts the captured image as described above and provides it to the autonomous traveling vehicle 100C (step S703). Here, it is assumed that the image captured by the autonomous traveling vehicle 100A is provided to the autonomous traveling vehicle 100C. The provision of this image is basically executed until the request from the autonomous traveling vehicle 100C is completed. When the "end" button 3083b of the user device 300C is pressed, the corresponding signal is sent to the server device 200 via the autonomous traveling vehicle 100C. As a result, the information providing unit 2043 of the server device 200 determines that the end request has been made (affirmative determination in step S705), and ends the provision of the captured image. Then, the point addition unit 2044 executes the point addition process as described above (step S707). As a result, the point addition process to the user device 300A, that is, the user UA, which is associated with the autonomous traveling vehicle 100A that captured the provided captured image, is executed.

以上説明したように、システムSによれば、サーバ装置200の制御部204において第1の移動体としての自律走行車両100からの撮影映像が取得されて記憶される。そして、サーバ装置200の制御部204において第2の移動体としての自律走行車両100に撮影映像が提供される。したがって、第2移動体の中のユーザに、第1移動体による異なる場所又は異なる時間の風景等の撮影映像を好適に提供することが可能になる。 As described above, according to the system S, the control unit 204 of the server device 200 acquires and stores the captured image from the autonomous traveling vehicle 100 as the first moving body. Then, the control unit 204 of the server device 200 provides the captured image to the autonomous traveling vehicle 100 as the second moving body. Therefore, it is possible to preferably provide the user in the second mobile body with captured images of landscapes of different places or different times by the first mobile body.

なお、上記実施の形態では、サーバ装置200は、第1の移動体としての自律走行車両100からの撮影映像を取得して記憶しておき、その後に、それを第2の移動体としての自律走行車両100に提供した。しかし、サーバ装置200は、リアルタイムで、第1の移動体としての自律走行車両100からの撮影映像を、第2の移動体としての自律走行車両100に提供してもよい。この場合、ユーザ装置300で、リアルタイムで撮影する車両を選択可能にするとなおよい。 In the above embodiment, the server device 200 acquires and stores a captured image from the autonomous traveling vehicle 100 as the first moving body, and then autonomously stores the captured image as the second moving body. Provided to the traveling vehicle 100. However, the server device 200 may provide the photographed image from the autonomous traveling vehicle 100 as the first moving body to the autonomous traveling vehicle 100 as the second moving body in real time. In this case, it is more preferable that the user device 300 can select the vehicle to be photographed in real time.

また、上記実施の形態では、自律走行車両100Aの窓Wを映像表示部とした。しかし、映像表示部は、例えば、車内の壁、運転席の背面など、種々の箇所に設けられてもよい。また、映像表示部は、車内を区画形成する壁や窓など全ての面とすることもできる。 Further, in the above embodiment, the window W of the autonomous traveling vehicle 100A is used as the image display unit. However, the image display unit may be provided at various locations such as a wall inside the vehicle and the back of the driver's seat. In addition, the image display unit can be any surface such as a wall or a window that forms a section inside the vehicle.

上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。 The above embodiment is merely an example, and the present disclosure may be appropriately modified and implemented without departing from the gist thereof. The processes and means described in the present disclosure can be freely combined and carried out as long as there is no technical contradiction.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。例えば、情報処理装置であるサーバ装置200や自律走行車両100の情報処理装置102は1つのコンピュータである必要はなく、複数のコンピュータを備えるシステムとして構成されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。 Further, the processing described as being performed by one device may be shared and executed by a plurality of devices. For example, the server device 200, which is an information processing device, and the information processing device 102 of the autonomous traveling vehicle 100 do not have to be one computer, and may be configured as a system including a plurality of computers. Alternatively, the processing described as being performed by different devices may be performed by one device. In a computer system, it is possible to flexibly change what kind of hardware configuration (server configuration) is used to realize each function.

本開示は、上記の実施の形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be realized by supplying a computer program to which the functions described in the above-described embodiment are implemented, and having one or more processors of the computer read and execute the program. Such a computer program may be provided to the computer by a non-temporary computer-readable storage medium connectable to the computer's system bus, or may be provided to the computer via a network. Non-temporary computer-readable storage media include, for example, any type of disc such as a magnetic disc (floppy (registered trademark) disc, hard disk drive (HDD), etc.), optical disc (CD-ROM, DVD disc, Blu-ray disc, etc.). Includes read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic cards, flash memory, optical cards, and any type of medium suitable for storing electronic instructions.

S 映像提供システム
100、100A、100B、100C 自律走行車両
102 情報処理装置
104 制御部
106 センサ
107 カメラ
108 位置情報取得部
110 駆動部
112 通信部
114 記憶部
200 サーバ装置
202 通信部
204 制御部
206 記憶部
300、300A、300B、300C ユーザ装置
302 通信部
304 制御部
306 記憶部

S Video providing system 100, 100A, 100B, 100C Autonomous traveling vehicle 102 Information processing device 104 Control unit 106 Sensor 107 Camera 108 Position information acquisition unit 110 Drive unit 112 Communication unit 114 Storage unit 200 Server device 202 Communication unit 204 Control unit 206 Storage unit Unit 300, 300A, 300B, 300C User device 302 Communication unit 304 Control unit 306 Storage unit

Claims (1)

第1の移動体で撮影された映像を取得することと、
取得した前記映像を前記第1の移動体と異なる第2の移動体の内部の映像表示部に表示するように前記第2の移動体に提供することと
を実行する制御部を備える、情報処理装置。

Acquiring the image taken by the first moving body and
Information processing including a control unit that executes providing the acquired video to the second mobile body so as to display the acquired video on a video display unit inside the second mobile body different from the first mobile body. apparatus.

JP2019193668A 2019-10-24 2019-10-24 Information processing device Pending JP2021069031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019193668A JP2021069031A (en) 2019-10-24 2019-10-24 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019193668A JP2021069031A (en) 2019-10-24 2019-10-24 Information processing device

Publications (1)

Publication Number Publication Date
JP2021069031A true JP2021069031A (en) 2021-04-30

Family

ID=75637689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193668A Pending JP2021069031A (en) 2019-10-24 2019-10-24 Information processing device

Country Status (1)

Country Link
JP (1) JP2021069031A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123190A (en) * 2001-10-10 2003-04-25 Sumitomo Electric Ind Ltd Image transmission system, image transmission device, and image acquisition device
JP2013196067A (en) * 2012-03-16 2013-09-30 Casio Comput Co Ltd Image display device, image display system, and program
JP2014164316A (en) * 2013-02-21 2014-09-08 Honda Motor Co Ltd Information provision system using on-vehicle camera
JP2019114875A (en) * 2017-12-21 2019-07-11 トヨタ自動車株式会社 Image capturing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123190A (en) * 2001-10-10 2003-04-25 Sumitomo Electric Ind Ltd Image transmission system, image transmission device, and image acquisition device
JP2013196067A (en) * 2012-03-16 2013-09-30 Casio Comput Co Ltd Image display device, image display system, and program
JP2014164316A (en) * 2013-02-21 2014-09-08 Honda Motor Co Ltd Information provision system using on-vehicle camera
JP2019114875A (en) * 2017-12-21 2019-07-11 トヨタ自動車株式会社 Image capturing apparatus

Similar Documents

Publication Publication Date Title
KR102043588B1 (en) System and method for presenting media contents in autonomous vehicles
CN107563267B (en) System and method for providing content in unmanned vehicle
JP7024396B2 (en) Person search system
US10289922B1 (en) System for managing lost, mislaid, or abandoned property in a self-driving vehicle
JP7180535B2 (en) Information processing device, information processing method and program
US20200327460A1 (en) Information processing apparatus, information processing method and program
US20190242715A1 (en) Mobile shop system and control method of mobile shop system
US11487286B2 (en) Mobile object system that provides a commodity or service
US11700357B2 (en) Connected camera system for vehicles
JP7075626B2 (en) Information processing equipment, information processing methods and programs
US11521259B2 (en) System, information processing apparatus, information processing method, and non-transitory computer readable medium
JP7264837B2 (en) Information processing device, information processing method, and information processing system
JP2021069031A (en) Information processing device
US11972391B2 (en) Autonomous traveling unit, information processing method and non-transitory storage medium
US11410197B2 (en) Mobile unit, information processing method, and program
US11978326B2 (en) Information processing apparatus, information processing method, and system
JP7318526B2 (en) Information processing device, information processing method and program
JP2021103446A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231031