[go: up one dir, main page]

JP2019191914A - 情報処理装置、プログラム、及び情報処理方法 - Google Patents

情報処理装置、プログラム、及び情報処理方法 Download PDF

Info

Publication number
JP2019191914A
JP2019191914A JP2018083762A JP2018083762A JP2019191914A JP 2019191914 A JP2019191914 A JP 2019191914A JP 2018083762 A JP2018083762 A JP 2018083762A JP 2018083762 A JP2018083762 A JP 2018083762A JP 2019191914 A JP2019191914 A JP 2019191914A
Authority
JP
Japan
Prior art keywords
vehicle
user
location
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018083762A
Other languages
English (en)
Inventor
忍 及川
Shinobu Oikawa
忍 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018083762A priority Critical patent/JP2019191914A/ja
Priority to PCT/JP2019/007190 priority patent/WO2019207944A1/ja
Publication of JP2019191914A publication Critical patent/JP2019191914A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】呼び寄せた車両をユーザーが容易に特定することを可能とする情報処理装置を提供する。【解決手段】位置取得部100は、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する。車両箇所算出部110は、位置取得部100により取得された車両の位置情報302及びユーザーの位置情報300により、ユーザーのカメラ16から取得したユーザー画像データ310内に表示される車両の箇所を算出する。画像提示部120は、車両箇所算出部110により算出された車両の箇所を、ユーザー画像データ310上に提示する。【選択図】図3

Description

本発明は、情報処理装置、プログラム、及び情報処理方法に係り、特に車両を呼び寄せるサービスで用いられる情報処理装置、プログラム、及び情報処理方法に関する。
従来から、ユーザーが携帯端末を介してタクシー等の車両を呼び寄せるサービスが普及している。
このようなサービスにおいて、待ち合わせ場所に向かってくる車両をユーザーが容易に確認するようにしたナビゲーション装置が特許文献1に記載されている。このナビゲーション装置は、設定された待ち合わせ場所の位置情報とルート情報とに基づいて、待ち合わせ場所に対してどの方向から車両が進入してくるかを示す、音声の案内情報を生成する。この装置は、生成された案内情報を、ユーザーの端末に送信する。ユーザーは、この音声の案内情報を聞くことで、車両を容易に確認することができる。
特開2006−25874号公報
しかしながら、特許文献1の装置では、待ち合わせ場所が多くのタクシー車両等で混雑していると、呼び寄せた車両がどの車両なのかを、ユーザーが特定することが難しい場合があった。
本発明は、このような状況に鑑みてなされたものであって、呼び寄せた車両をユーザーに認識させやすくし、上述の問題点を解消する情報処理装置を提供することを課題とする。
本発明の情報処理装置は、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出する車両箇所算出部(110)と、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示する画像提示部(120)とを備える情報処理装置(1)であることを特徴とする。
本発明の情報処理装置は、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、前記位置取得部により取得された前記車両及び前記ユーザーの位置情報により、前記車両の外部用カメラ(26)から取得した車両外部画像データ(320)内に表示される前記ユーザーの箇所を算出するユーザー箇所算出部(210)と、前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車両外部画像データ上に提示する画像提示部(120)とを備える情報処理装置(2)であることを特徴とする。
本発明のプログラムは、情報処理装置(1)により実行される情報処理プログラムであって、位置取得部(100)に、待ち合わせ場所に呼び寄せている車両の位置情報(320)及びユーザーの位置情報(300)を取得させ、車両箇所算出部(110)に、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出させ、画像提示部(120)に、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示させるプログラムであることを特徴とする。
本発明の情報処理方法は、情報処理装置(1)により実行される情報処理方法であって、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得し、取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出し、算出された前記車両の箇所を、前記ユーザー画像データ上に提示する情報処理方法であることを特徴とする。
本発明によれば、まず、待ち合わせ場所に呼び寄せている車両の位置情報及びユーザーの位置情報を取得する。この上で、これらの位置情報により、ユーザーのカメラの画像データに表示される車両の箇所を算出する。そして、算出された車両の箇所を、画像データ上に提示する。これにより、呼び寄せた車両をユーザーが容易に特定することを可能とする情報処理装置を提供することができる。
本発明の第一実施形態に係る情報処理システムのシステム構成図である。 図1に示すユーザー端末、自動車端末、及びサーバーの制御構成を示すブロック図である。 本発明の第一実施形態に係る情報処理システムの機能構成を示すブロック図である。 本発明の第一実施形態に係る車両提示処理のフローチャートである。 図4に示す車両提示処理の画面例である。 本発明の第二実施形態に係る情報処理システムの機能構成を示すブロック図である。 本発明の第二実施形態に係る車両ユーザー提示処理のフローチャートである。 図7に示す車両ユーザー提示処理の画面例である。 本発明の第三実施形態に係る情報処理システムの機能構成を示すブロック図である。 本発明の第四実施形態に係る情報処理システムの機能構成を示すブロック図である。 本発明の第五実施形態に係る情報処理システムの機能構成を示すブロック図である。 本発明の第五実施形態に係る情報処理システムの画面例である。
<第一実施形態>
〔情報処理システムXのシステム構成〕
まず、図1により、本発明の第一実施形態に係る情報処理システムXのシステム構成について説明する。
本実施形態の情報処理システムXは、タクシーやハイヤー等の自動車をユーザーが呼び寄せる際に、確認できるようにするシステムである。
図1(a)によれば、情報処理システムXは、ユーザー端末1、自動車端末2、及びサーバー3を含み、これらがネットワーク4で接続されている。
ユーザー端末1は、サーバー3により提供されるウェブ上のサービスを利用可能であり、カメラ付きのスマートフォン(Smart Phone)、携帯電話、PDA(Personal Data Assistant)、PC(Personal Computer)、パーソナルナビゲーション装置、家電機器等の装置である。本実施形態においては、ユーザー端末1がスマートフォンである例について説明する。このスマートフォンは、後述するアプリケーション・ソフトウェア(Application Software、以下、単に「アプリ」という。)をインストールして実行することで、本実施形態の情報処理装置として機能する。
自動車端末2は、サーバー3により提供されるウェブ上のサービスを利用する自動車の車内端末である。この車内端末は、スマートフォン、携帯電話、PDA、カーナビゲーション装置等である。
本実施形態においては、図1(b)に示すように、自動車端末2もスマートフォンである例について説明する。この例の場合、スマートフォンは、自動車(車両)のダッシュボードD上のホルダーHに載置され、自動車のドライバー(操縦者)により、カーナビゲーション用として使用される。この配置により、スマートフォンのアウトカメラ及びインカメラで、車外及び車内を、それぞれ撮像することが可能である。加えて、このホルダーHは、自動車端末2からの制御で電動雲台のように駆動され、スマートフォンのカメラによる撮像の向きを変更することも可能である。
サーバー3は、車両の呼び寄せのサービスにおける管理を行うサーバーである。具体的には、サーバー3は、ユーザー端末1からの自動車の呼び寄せの要請を受けて、呼び寄せ可能な自動車の自動車端末2を検索して、双方の端末の仲介を行う。たとえば、サーバー3は、ユーザーの購入履歴、覧履歴、移動履歴等の情報からユーザーの特性を推定し、それに基づいた料金、ドライバー、車両等のマッチングを行う。
この際、サーバー3は、サービスに登録した車両のドライバーの紹介、車両の車種、車両の外観を撮像した画像データ、ストリーミングデータ、記述言語データ、音声データ等(以下、単に「画像データ等」と省略する。)を、ユーザーに配信することも可能である。この画像データ等は、静止画でも動画でもよい。さらに、サーバー3は、各車両の口コミ、レーティング等を示すことも可能である。
加えて、サーバー3は、ユーザー端末1にインストールされるアプリを設定したり、各種情報を取得したり、アプリの動作を管理したり、アプリ自体を配布したりしてもよい。
ネットワーク4は、携帯電話網、インターネット(登録商標)等のWAN(Wide Area Network)、又は、Wifi(登録商標)や無線LAN等のLAN(Local Area Network)等のIPネットワーク等である。これらのネットワーク等は、例えば、ユーザー端末1及び自動車端末2から常時接続可能(コネクティッド)であってもよく、携帯電話網の場合には、4G(4th Generation)や5G(5th Generation)等の規格の低レイテンシーで高速な通信ネットワークであってもよい。
後述する第二乃至第五実施形態においても、システム構成は同一であってもよい。
次に、図2により、ユーザー端末1、自動車端末2、及びサーバー3の装置構成について説明する。図2(a)はユーザー端末1、図2(b)は自動車端末2、図2(c)はサーバー3の構成を示す。
ユーザー端末1は、制御部10、記憶部11、入力部12、表示部13、接続部14、センサ群15、カメラ16、及び音声入出力部18等を含む。各部は、制御部10に接続され、制御部10によって動作制御される。
自動車端末2は、制御部20、記憶部21、入力部22、表示部23、接続部24、外部用カメラ26、車内用カメラ27、及び音声入出力部28等を含む。各部は、制御部20に接続され、制御部20によって動作制御される。
サーバー3は、制御部30、記憶部31、及び接続部34等を含む。各部は、制御部30に接続され、制御部30によって動作制御される。
制御部10、20、30は、CPU(Central Processing Unit、中央処理装置)、MPU(Micro Processing Unit)、GPU、TPU(Tensor Processing Unit)、DFP(Data Flow Processor)、DSP(Digital Signal Processor)、その他のASIC(Application Specific Processor、特定用途向けプロセッサー)等を含む情報処理部である。
各制御部10、20、30は、対応する各記憶部11、21、31の補助記憶部に記憶されているプログラムを読み出して、このプログラムを主記憶部に展開させて実行することで、後述する各機能ブロック(機能部)として動作させられる。また、制御部10、20、30は、ユーザー端末1、自動車端末2、及びサーバー3のそれぞれの装置全体の制御を行う。
記憶部11、21、31は、RAM(Random Access Memory)等の主記憶部、ROM(Read Only Memory)、SSD(Solid State Disk)、HDD(Hard Disk Drive)等の補助記憶部、フラッシュメモリーカードや光学記録媒体等を含んでいてもよい、非遷移的実体的記録媒体(non-transitory tangible storage media)である。
記憶部11、21、31の補助記憶部には、それぞれ、ユーザー端末1、自動車端末2、及びサーバー3の動作制御を行うためのプログラムが記憶されている。このプログラムは、OS(Operating System)及びアプリ等である。加えて、記憶部11、21、31は、各種データも格納している。
入力部12、22は、タッチパネル、マウス等のポインティングデバイス、ボタン、キーボード、加速度センサ、視線センサ、生体認証センサ等である。入力部12は、ユーザーによるウェブページのフォーム等への入力、各種指示等を取得する。
表示部13、23は、LCD(Liquid Crystal Display)、有機ELディスプレイ、LED(Light Emitting Diode)等である。
接続部14、24、34は、ネットワーク4に接続するための無線送受信機やLANインターフェイス等を含む接続手段である。接続部14、24、34は、USB(Universal Serial Bus)、RS−232C、各種フラッシュメモリーカード、SIMカード、Bluetooth(登録商標)等へのインターフェイス等も含んでいてもよい。
センサ群15、25は、GNSS(Global Navigation Satellite System)の位置情報センサ、ジャイロセンサ、磁気センサ、高度センサ等である。本実施形態においては、センサ群15は、自装置の地図の位置(座標)や向きや速度や加速度等(以下、「位置等」という。)を検出する。
カメラ16は、ユーザー端末1にユーザー自身やユーザー周辺を撮像するために設けられる。このカメラ16は、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子と、レンズ等の光学素子とを組み合わせたカメラ等である。カメラ16は、主にユーザーが向けた方向の静止画又は動画を撮像して、画像データを記憶部11に格納する。
音声入出力部18、28は、音声入力のためのマイクロフォンとA/D(Analog to Digital)コンバータ、音声出力のためのD/A(Digital to Analog)コンバータ、アンプ(Amplifier)、スピーカー、振動モータ等を含む。これらの構成により、音声入出力部18、28は、ユーザー又はドライバーの音声通話、音声コマンドの入力、呼び寄せ時の情報通知、ナビゲーション等の通知を行う。
外部用カメラ26は、車両の外部撮像用のカメラ等である。本実施形態では、スマートフォンのアウトカメラを、外部撮像用に用いる。このアウトカメラで撮像された画像データは、記憶部21に格納される。
車内用カメラ27は、車両の車内撮像用のカメラ等である。本実施形態では、スマートフォンのインカメラを、車内撮像用に用いる。このインカメラで撮像された画像データも、記憶部21に格納される。
カメラ16、外部用カメラ26、及び車内用カメラ27では、静止画及び動画のいずれを撮像するか、画像解像度、ズーム倍率等が、ユーザー端末1にインストールされたアプリを介して変更可能である。また、自動車端末2においても、これらの変更が可能であってもよい。
〔情報処理システムXaの機能構成〕
ここで、図3により、本発明の第一実施形態に係る情報処理システムXaの機能構成について説明する。なお、以下の実施形態においても、機能部の構成が異なる情報処理システムX、ユーザー端末1、サーバー3等については、説明上、英小文字符号a、b、c……等を付加して示す。
ユーザー端末1aの制御部10aは、位置取得部100、車両箇所算出部110、及び画像提示部120を備える。
ユーザー端末1aの記憶部11aは、位置情報300及びユーザー画像データ310を格納している。
自動車端末2aは、位置情報302を含む。
サーバー3は、地図データ340を格納している。
位置取得部100は、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する。本実施形態においては、待ち合わせ場所は、アプリによりユーザーが指定して、サーバー3を介して、自動車のドライバーに連絡された位置等である。この待ち合わせ場所は、地図データ340上で示すことが可能である。位置情報302は、自動車端末2からサーバー3を介して取得される。ユーザーの位置情報300は、自装置のセンサ群15により取得される。
車両箇所算出部110は、位置取得部100により取得された車両の位置情報302及びユーザーの位置情報300により、ユーザーのカメラ16で、ユーザーの周辺が撮像されたユーザー画像データ310内に表示される車両の箇所を算出する。本実施形態では、例えば、車両箇所算出部110は、呼び出された車両の地図データ340上の位置を、位置情報302から算出し、ユーザーの位置情報300のユーザーの地図データ340上の位置と、カメラ16の撮像している方向とを算出する。そして、車両箇所算出部110は、ユーザー画像データ310を透視投影変換やアフィン変換等して、DNN(Deep neural network)等にて、地図データ340と照合する。これにより、ユーザー画像データ310内の建物や道路の座標を、車両箇所算出部110が把握可能となる。さらに、車両箇所算出部110は、道路上の自動車の画像を、DNN等を用いた画像認識により認識し、呼び出された車両の位置等の座標と一致するものを検索する。一致するものがあった場合、車両箇所算出部110は、この座標を車両の箇所として算出する。
画像提示部120は、車両箇所算出部110により算出された車両の箇所を、ユーザー画像データ310上に提示する。本実施形態においては、例えば、AR(Augmented Reality)により、撮像された画像に丸印等で注釈を付加して、車両の画像が強調されるように示すことが可能である。
この際、画像提示部120は、画像認識で認識された建物や道路名等も、ユーザー画像データ310に示すことが可能である。さらに、画像提示部120は、サーバー3から、地図データ340を取得し、車両の位置情報302及びユーザーの位置情報300を地図上に配置して、表示部13に示すことも可能である。
加えて、画像提示部120は、ユーザーに、呼び出される車両の到来する方向等を示すことも可能である。
位置情報300は、自装置であるユーザー端末1aのセンサ群15により取得された自装置の位置(ユーザーの位置)等の情報である。この位置情報300は、待ち合わせ場所から離れていてもよい。
位置情報302は、自動車端末2aのセンサ群25により取得された自動車端末2aの位置(車両の位置)等の情報である。本実施形態では、例えば、ユーザー端末1の位置取得部100により、サーバー3を介して、呼び寄せている車両の自動車端末2aから、この位置情報302が取得される。
ユーザー画像データ310は、カメラ16で撮像された静止画又は動画の画像データである。本実施形態においては、ユーザーの周辺、すなわち、呼び寄せている自動車が来ると思われる周囲の道路や建物を含む、AR表示用の風景が、ユーザーにより撮像される。
ここで、ユーザー端末1の制御部10aは、記憶部11aに記憶されたOS(Operating System)上でアプリ等のプログラムを実行することで、位置取得部100、車両箇所算出部110、及び画像提示部120等として機能させられる。この際、制御部10、20、30が実行する機能の一部又は全部を、一つ又は複数のIC、DSP、プログラマブルロジック回路等によりハードウェア的に構成してもよい。
また、上述のユーザー端末1の各部は、本発明の方法を実行するハードウェア資源となる。
〔情報処理システムXaによる車両提示処理〕
次に、図4〜図5を参照して、本発明の第一実施形態に係る情報処理システムXaによる車両提示の説明を行う。
本実施形態の車両提示処理は、待ち合わせ場所に呼び寄せている車両の位置情報302の及びユーザーの位置情報300を取得する。そして、取得された位置情報302及び位置情報300により、ユーザーのカメラから取得したユーザー画像データ310内に表示される車両の箇所を算出する。その後、算出された車両の箇所を、ユーザー画像データ310上に提示して、ユーザーに、呼び寄せた車両を認識させやすくする。
本実施形態の車両提示処理は、主に、ユーザー端末1の制御部10aが、記憶部に記憶されたアプリ等のプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図4のフローチャートを参照して、本実施形態の車両提示処理の詳細をステップ毎に説明する。
(ステップS101)
まず、位置取得部100が、位置取得処理を行う。
ここでは、ユーザーがユーザー端末1でアプリを起動し、サーバー3に接続して、車両の呼び寄せを依頼する。サーバー3は、呼び寄せる車両を設定して、当該車両の自動車端末2に通知し、ユーザー端末1との間で通信可能とする。
この状態で、位置取得部100は、待ち合わせ場所に呼び寄せている車両の自動車端末2aから、位置情報302を取得して、記憶部11aに格納する。
位置取得部100は、センサ群15から、ユーザー端末1aの位置情報300も取得して、記憶部11aに格納する。
(ステップS102)
次に、車両箇所算出部110が、車両箇所算出処理を行う。
ユーザーは、特に車両を呼び寄せて待っている際に、車両がどこを走っているのか気になるため、色々な箇所のユーザー画像データ310を撮像してAR表示させようとすると考えられる。
このため、車両がユーザー端末1aと近い距離に到着し、ユーザー画像データ310として撮像可能となった場合、画像提示部120は、その旨をユーザーに通知してもよい。この通知は、アプリの画面上で、ポップアップ等を表示して行う。
車両箇所算出部110は、車両の位置情報302及びユーザーの位置情報300により、呼び寄せた車両が近くにきた際に、車両が来る方向を算出し、ユーザー端末のカメラ16をそちらに向けるようにユーザーに指示する。この指示は、アプリの画面上で行われてもよい。
ユーザーは、自分の知っているランドマークに照らし合わせるようにして、指示された方向に、カメラ16を向ける。
車両が来る方向にカメラ16が向けられた場合、車両箇所算出部110は、音声入出力部18により、音声や振動でユーザーに示してもよい。
ユーザーがカメラ16によりユーザー画像データ310を撮像すると、車両箇所算出部110は、この内に表示される車両を認識して、呼び寄せた車両が撮像されている箇所を算出する。
(ステップS103)
次に、画像提示部120が、画像提示処理を行う。
画像提示部120は、算出された車両の箇所を、ユーザー画像データ310上にARにより提示する。
図5のアプリの画面例500によると、画像提示部120は、呼び寄せた車両が撮像されている場合、まず、表示欄610に「ユーザー様、ドライバーが到着しました」等のメッセージを表示する。この上で、画像提示部120は、ユーザー画像データ310をアプリの画面上に表示して、算出された車両の箇所である車両箇所700をAR表示する。
画像提示部120は、サーバー3から取得した地図データ340も表示して、この上に、ユーザーの位置をポインターUで表示し、車両の位置をポインターPで表示する。この地図データ340上には、待ち合わせ場所までの車両のルート、車両の進行方向の矢印等を示してもよい。これにより、ユーザーに呼び寄せた車両を認識させやすくなる。
以上により、本発明の第一実施形態に係る車両提示処理を終了する。
以上のように構成することで、以下のような効果を得ることができる。
従来から、車両を呼び寄せるサービスが提供されている。しかしながら、車両の待ち合わせ場所が混雑していたり、到着地点がずれていたりした等の場合、呼び寄せた車両をユーザーが認識できないことがあった。また、ユーザーは、呼び寄せた車両の外観等を知らないため、例えば、サーバーから車種等の情報を与えられても、分からない可能性がある。
このような場合、上述のサービスのみでは車両を特定できず、わざわざ呼び寄せた車両の運転手に別途連絡しなければならなかった。
これに対して、本実施形態の情報処理システムXaのユーザー端末1aは、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する位置取得部100と、位置取得部100により取得された車両の位置情報302及びユーザーの位置情報300により、ユーザーのカメラから取得したユーザー画像データ310内に表示される車両の箇所を算出する車両箇所算出部110と、車両箇所算出部110により算出された車両の箇所を、ユーザー画像データ310上に提示する画像提示部120とを備える情報処理装置であることを特徴とする。
このように構成することで、呼び寄せた車両の箇所を画像上でリアルタイムに知ることができる。このため、ユーザーが、どの車両が呼び寄せた車両なのかを容易に見つけることができる。車両がどこに到着したのか分かるため、迷わず乗車することが可能となる。
加えて、建物の位置関係について、ユーザーが知っているランドマークに照らし合わせた上で、選択的に画像上で照合と認識を行うことができる。このため、ユーザーが、呼び寄せた車両を特定しやすくなる。
なお、上述の実施形態においては、自動車端末2を、ホルダーHに固定されたスマートフォン等である例について記載した。
しかしながら、自動車端末2は、カーナビゲーション装置と、これに別途接続された外部用カメラ26及び車内用カメラ27であってもよい。外部用カメラ26も、フロントカメラ、リアカメラ、側面カメラ等のいずれか及び任意の組み合わせであってもよい。さらに、外部用カメラ26は、自動運転時等に用いられる画像データ作成可能なレーダーやLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、センサ群25の運行管理や遠隔操作に使われるカメラ等であってもよい。また、外部用カメラ26及び/又は車内用カメラ27は、360°カメラのように広い範囲を撮像可能であってもよい。さらに、外部用カメラ26として、車両の周辺にある監視カメラ等の外部カメラの画像を取得可能であってもよい。これにより、ビルの谷間、空港の車の乗降が多い箇所、道が階層になっている箇所等を容易に判別可能となる。
上述の実施形態においては、地図データ340を用いて、車両が近くにきたことを検出するように記載した。しかしながら、車両箇所算出部110は、ユーザー端末1及び自動車端末2の間で、双方向通信等を用いて、近くに来たことを検出してもよい。また、双方向通信の電波の強度等により、カメラ16を向ける方向を、ユーザーに提示することも可能である。
加えて、車両箇所算出部110は、画像認識を行わないで、位置情報300及び位置情報302のみから車両の箇所を算出してもよい。さらに、車両箇所算出部110は、ユーザー画像データ310から、車両そのものではなく二次元バーコードや車両に記載されたタクシー会社等の文字認識を行って、呼び寄せた車両を画像認識してもよい。
サーバー3は、SIP(Session Initiation Protocol)等により、ユーザーとドライバーとの通話を行う仲介が可能であってもよい。加えて、サーバー3は、チャット、メッセンジャー送受信、電子メール送受信等を行う機能(以下、「チャット等」という。)を備えることも可能である。このチャット等は、ユーザー端末1からの音声入力によって入力し、自動翻訳を行うようにすることが可能であってもよい。
加えて、ユーザー端末1、自動車端末2、及びサーバー3は、複数備えられていてもよい。
ユーザー端末1、自動車端末2、及びサーバー3は、上述の各部に加えて、他の構成要素を含んでもよく、各部が複数の制御単位を含んでいてもよい。
各部のいずれか及び任意の組み合わせのものが一体的に構成されていてもよく、例えば、入力部12と表示部13とは、一体的に形成されていてもよい。また、制御部10、20、30と、記憶部11、21、31とについても、それぞれが一体的に形成されていてもよい。
さらに、本実施形態の情報処理システムXを、タクシーやハイヤー等の車両の呼び寄せのサービスに用いる例について記載した。
これについて、自動運転のコミュニティーカー、シェアリングカー、宅配の待ち合わせ等に用いることも可能である。
<第二実施形態>
次に、本発明の第二実施形態に係る情報処理システムXbの説明を行う。自動車端末2bでもユーザーの箇所を提示して、自動車のドライバーもユーザーを確認可能とする。ユーザー側では、上述の第一実施形態のユーザー端末1aのように呼び寄せた車両の箇所をAR提示する。この際に、サーバー3から外観画像データ350を取得して画像認識する。これに加えて、自動車端末2bの車内用カメラ27の画像も表示する。さらに、外部用カメラ26及び車内用カメラ27の撮像の向きを、ユーザー端末1bから操作可能にする。
〔情報処理システムXbの機能構成〕
ここで、図6により、本発明の第二実施形態に係る情報処理システムXbの機能構成について説明する。
ユーザー端末1bの制御部10bは、位置取得部100、車両箇所算出部110、画像提示部120、及びカメラ制御部130を備える。
ユーザー端末1bの記憶部11bは、位置情報300、ユーザー画像データ310、車外画像データ320、及び車内画像データ330を格納する。
自動車端末2bの制御部10bは、位置取得部200、ユーザー箇所算出部210、及び画像提示部220を備える。
自動車端末2bの記憶部11bは、位置情報302、ユーザー画像データ310、車外画像データ320、及び車内画像データ330を格納する。
サーバー3は、地図データ340及び外観画像データ350を格納している。
図6において、図3の第二実施形態と同じ符号は、同様の構成要素を示す。
本実施形態において、車両箇所算出部110は、第一実施形態の処理に加え、車両の外観画像データ350をサーバー3から取得する。この上で、車両箇所算出部110は、地図データ340と照合した後、外観画像データ350を用いて、DNN等にて呼び寄せた車両を画像認識する。これにより、正確に車両の箇所を算出する。
画像提示部120は、第一実施形態の処理に加え、車両の車内用カメラ27で撮像された車内画像データ330も、自動車端末2bから取得して提示する。
この際、画像提示部120は、地図データ340上に、車両の位置をポインターで表示し、併せて該ポインターの近傍に外観画像データ350を表示する。表示される外観画像データ350は、サムネイルのデータ等の小さい画像を用いてもよい。
加えて、画像提示部120は、例えば、自動車端末2bの外部用カメラ26で撮像された車外画像データ320も、自動車端末2bから取得して提示することが可能である。この際、この車外画像データ320には、自動車端末2bのユーザー箇所算出部210で算出された、ユーザー自身の姿が撮像された箇所が示されてもよい。
カメラ制御部130は、車両の外部用カメラ26及び/又は車内用カメラ27を制御する。本実施形態において、カメラ制御部130は、例えば、ユーザーのアプリ上の指示により、図1(b)に記載したような、スマートフォン用のホルダーHの向きを軸動させたり、ズームレンズのズーム倍率を変更させたりする制御を行うことが可能である。この制御は、自動車端末2bにインストールされたアプリを介して行うことが可能である。
位置取得部200は、ユーザー端末1bの位置取得部100と同様に、自車両の位置情報302及びユーザーの位置情報300を取得する。
ユーザー箇所算出部210は、位置取得部200により取得された車両の位置情報及びユーザーの位置情報300により、車両の外部用カメラ26で撮像された車外画像データ320内に表示されるユーザーの箇所を算出する。このユーザーの認識は、例えば、車両箇所算出部110と同様に、透視投影変換やアフィン変換等により地図データ340と照合し、DNN等を用いて行う。ここで、ユーザー箇所算出部210は、車外画像データ320内にヒトが多数いた場合、位置等が一番近いヒトをユーザーと認識してもよい。この際、ユーザー箇所算出部210は、ユーザー端末1bからユーザーの情報を取得して、男女別や年齢等から最もユーザーらしいヒトを選択することも可能である。
画像提示部220は、画像提示部120と同様の機能部である。
画像提示部220は、例えば、ユーザー箇所算出部210により算出されたユーザーの箇所を、車外画像データ320上に、ARで提示する。これに加えて、画像提示部220は、ユーザー端末1bからユーザー画像データ310を取得し、ユーザー端末1bの車両箇所算出部110により算出された車両の箇所を、ユーザー端末1aから取得して、提示することも可能である。
車外画像データ320は、自動車端末2bの外部用カメラ26で撮像された静止画又は動画の画像データである。
車内画像データ330は、自動車端末2bの車内用カメラ27で撮像された静止画又は動画の画像データである。
外観画像データ350は、車両の外観が撮像された画像データである。この画像データは、車両箇所算出部110の画像認識の際に用いられる認識用データ、ユーザーの地図上に示すためのサムネイルデータ等、フォーマットや大きさ等が異なるデータを含んでいてもよい。
〔情報処理システムXbによる車両ユーザー提示処理〕
次に、図7〜図8を参照して、本発明の第二実施形態に係る情報処理システムXbによる車両ユーザー提示処理の説明を行う。
本実施形態の車両ユーザー提示処理では、第一実施形態の車両提示処理と同様の処理に加えて、自動車端末2bから撮像された車外画像データ320にユーザーの箇所を提示する。加えて、車内画像データ330も提示する。この際、ユーザーの指示により、自動車端末2bのカメラの向き等を制御する。これにより、呼び寄せた車両のドライバー及びユーザーの双方に、お互いを認識されやすくする。
本実施形態の車両提示処理は、主に、ユーザー端末1bの制御部10b、及び自動車端末2bの制御部20bが、それぞれ、記憶部11b及び記憶部21bに記憶されたアプリ等のプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図7のフローチャートを参照して、本実施形態の車両ユーザー提示処理の詳細をステップ毎に説明する。
(ステップS111)
まず、ユーザー端末1aの位置取得部100が、位置取得処理を行う。
この処理は、図4のステップS101と同様に行う。
これに加えて、本実施形態において、位置取得部100は、センサ群15から取得した位置情報300を、自動車端末2bへ送信する。
(ステップS211)
ここで、自動車端末2bの位置取得部200が、位置取得処理を行う。
位置取得部200は、走行中、センサ群25から、位置情報302を取得して、記憶部21bに格納している。
アプリが起動され、自動車端末2とユーザー端末1との間で通信可能となった状態で、位置取得部200は、位置情報302をユーザー端末1bへ送信する。
加えて、本実施形態においては、位置取得部200は、ユーザー端末1aの位置情報300も取得して、記憶部21bに格納する。
(ステップS112)
次に、ユーザー端末1aのカメラ制御部130は、車両の外部用カメラ26及び/又は車内用カメラ27を制御する。
図8(a)の画面例510は、ユーザー端末1bの表示部13及び/又は自動車端末2bの表示部23に表示される外部用カメラ26の車外画像データ320の例を示す。この例によれば、ユーザーは、車外画像データ320に重ねて表示されたボタン720の各矢印を押下して指示し、ホルダーの電動雲台を当該矢印の向きへ移動させることが可能である。また、ボタン730のズームマークにより、外部用カメラ26又は車内用カメラ27のズーム倍率を変更することが可能である。
(ステップS113)
次に、車両箇所算出部110が、車両箇所算出処理を行う。
この処理も、図4のステップS102と同様に行う。
これに加え、本実施形態においては、車両箇所算出部110は、サーバー3から車両の外観画像データ350を取得する。この上で、車両箇所算出部110は、外観画像データ350を用いて、DNN等を用いた画像認識により車両を認識し、車両の箇所を算出する。
(ステップS213)
ここで、自動車端末2bのユーザー箇所算出部210は、ユーザー箇所算出処理を行う。
ユーザー箇所算出部210は、外部用カメラ26で撮像された車外画像データ320内に表示されるユーザーを認識して、ユーザーの表示された箇所を算出する。
(ステップS114、S214)
ユーザー端末1aの画像提示部120、及び自動車端末2bの画像提示部220が、画像送受信処理を行う。
ここでは、画像提示部120が、車両の箇所を提示済みのユーザー画像データ310を自動車端末2bへ送信する。さらに、画像提示部220が、ユーザーの箇所を提示済みの車外画像データ320、及び車内画像データ330を、ユーザー端末1bへ送信する。これらの画像データの送受信は、PtP(Peer to Peer)で行っても、サーバー3を介して行ってもよい。各部は、これらの画像データを受信して、記憶部11b、21bへそれぞれ格納する。
(ステップS115、S215)
ユーザー端末1aの画像提示部120、及び自動車端末2bの画像提示部220が、それぞれ、画像提示処理を行う。
画像提示部120は、図4のステップS103の画像提示処理と同様の処理に加え、カメラ16、外部用カメラ26、及び車内用カメラ27の各画像を切り換えたり、重ねたりして表示部13に表示させることが可能である。
また、自動車端末2bの画像提示部220も、これら各画像を切り換えて、表示部23に表示させることが可能である。
図8(a)の画面例510では、車外画像データ320において、算出されたユーザーの箇所であるユーザー箇所710がAR表示されている例を示している。
図8(b)の画面例512では、第一実施形態の図5の画面例500の各画像に加えて、車内画像データ330が表示されている例を示している。さらに、地図データ340上では、車両の位置を示すポインターPの近傍に、吹き出し形式で外観画像データ350のサムネイル画像を表示している。
これらの画面例は、表示部13及び/又は表示部23に、ぞれぞれ、リアルタイム(実時間)で表示される。
以上により、本発明の第二実施形態に係る車両ユーザー提示処理を終了する。
以上のように構成することで、以下のような効果を得ることができる。
従来の呼び寄せのサービスでは、車両のドライバーにとって、例えば、人が多いところは誰がお客さん(ユーザー)かわからないことがあった。この場合、車両が待ち合わせ場所に到着しても、ユーザーを認識できず、トラブルとなることがあった。
これに対して、本実施形態の情報処理システムXbの自動車端末2bは、位置取得部200により取得された車両の位置情報302及びユーザーの位置情報300により、車両の外部用カメラ26から取得した車外画像データ320内に表示されるユーザーの箇所を算出するユーザー箇所算出部210を更に備え、画像提示部120及び/又は画像提示部220は、ユーザー箇所算出部210により算出されたユーザーの箇所を、車外画像データ320上に提示する情報処理装置であることを特徴とする。
このように構成することで、ドライバーが、走行中の周辺の画像から、ユーザーの箇所を認識することができる。このため、ドライバーがユーザーを把握しやすくなり、待ち合わせ場所へ容易に到着可能となる。
加えて、本実施形態のユーザー端末1bも、車外画像データ320を画像提示部120で表示可能であってもよい。このため、ユーザーも、リアルタイムで、車両がどの辺を走行しているかを知ることができる。すなわち、車両の現在の状態を知ることができることで、呼び寄せた車両がどこに到着しているかを容易に把握可能となる。
このようにして、ユーザー及びドライバーの双方がお互いを認識することで、待ち合わせのトラブルが生じる可能性を少なくすることができる。
本実施形態のユーザー端末1bにおいて、車両箇所算出部110は、車両の外観画像データ350を取得して、該外観画像データ350により車両を画像認識することで、車両の箇所を算出する情報処理装置であることを特徴とする。
このように構成することで、ユーザー画像データ310から確実に、呼び寄せた車両を画像認識して、車両の箇所を算出することができる。すなわち、一般的な自動車をカテゴライズしたDNNよりも、実際の車両のデータを用いて画像認識した方が、認識率を顕著に高めることができる。このため、確実にユーザーに、呼び寄せた車両を認識させることができ、トラブルを防止可能となる。
本実施形態のユーザー端末1bにおいて、画像提示部120は、取得された地図データ340上に、車両の位置をポインターで表示し、併せて該ポインターの近傍に外観画像データ350を表示する情報処理装置であることを特徴とする。
このように構成することで、ユーザーは、呼び寄せた車両を地図上で容易に判別することができ、更に、近くにきた車両を見つけやすくなる。特に、呼び寄せた車両が、車種や塗装等の外観で特徴あるものであった場合、容易に判別可能となる。
従来、車両の呼び寄せのサービスでは、呼び寄せた車両の状況をユーザーが知ることはできなかった。ユーザーは、実際に呼び寄せた車が車両の画像と違う雰囲気だったらと考えて心配になることがあった。
これに対して、本実施形態のユーザー端末1bは、画像提示部120は、車両の車内用カメラ27から取得した車内画像データ330も提示する情報処理装置であることを特徴とする。
このように構成することで、呼び寄せた車両の状況を、リアルタイムで、アプリ上にて確認することができる。つまり、車外状況だけではなく、車内状況も確認可能となる。これにより、車内状況も知ることが可能となる。結果として、予め登録したドライバーや車両の画像、口コミ、レーティング等以上に、ユーザーに安心感を与えることができる。
さらに、自動運転のコミュニティーカー、シェアリングカー等では、車内の状況を知ることが重要であった。これは、車内の人数が多いときには、呼び寄せのサービスを別に頼む必要があるからである。
また、ユーザーによっては、タクシーやハイヤー等を数人でシェア(相乗り)して安く使いたいというニーズもある。しかし、相乗りが多くなると煩わしく感じることもあり、別途、呼び寄せのサービスを使うかどうか、ユーザーが悩ましく感じることがあった。
これに対して、車内の状況を知ることが可能となるため、どのくらい人が乗っているか、乗る可能性があるか等をユーザーが判断可能となる。このため、別途、呼び寄せするかどうかをユーザーが容易に選択可能となり、ユーザーの使い勝手を高めることができる。
本実施形態のユーザー端末1bは、車両の外部用カメラ26及び/又は車内用カメラ27を制御するカメラ制御部130を更に備える情報処理装置であることを特徴とする。
このように構成することで、自動車端末2bでどこを撮像するか、ユーザー端末1bのアプリ上からユーザーが操作可能となる。つまり、ユーザーは、自動車端末2bのカメラを遠隔操作することができ、車両の画像を遠隔操作しながら自由に見ることができる。
これにより、ドライバーに示したいところ、ユーザーが閲覧したいところ等を閲覧可能となる。このため、駐車場位置、送迎等が多い場所等で、どこにユーザーが待ち合わせているのか、確実にドライバーへ示すことができる。加えて、ユーザー自身が、例えば、自分の奥さんや子供等の分かりやすい服装をした人物を見つけて、この画像を取得して車両を判別しやすくすることができる。
加えて、本実施形態の情報処理システムXbでは、ユーザー端末1bで撮像されたユーザー画像データ310を、自動車端末2bへ送信することができる。
このため、ドライバーに対して、ユーザーのいる位置の画像、現在の状況等を送信することが可能となり、ドライバーがユーザーを探す手間を省くことができる。このため、サービスを向上させることができる。
なお、上述の実施形態においては、ユーザーの指示に基づき、外部用カメラ26及び車内用カメラ27を制御するように記載した。
これに対して、停車時に、自動車のドライバーも自動車端末2bのアプリを介して、ホルダーHを駆動させ、外部用カメラ26及び車内用カメラ27の向きやズーム倍率を変更可能であってもよい。
さらに、車外画像データ320、車内画像データ330、及びユーザー画像データ310は、リアルタイムで各端末へ送信されるだけでなく、各端末で特定期間保存可能であってもよい。これにより、数秒〜数分程度前の画像を閲覧することができる。
加えて、車内画像データ330は、車内用カメラ27の画像だけでなく、車の外観画像等が見られるような外部カメラの画像を含んでいてもよい。
<第三実施形態>
次に、図9により、本発明の第三実施形態に係る情報処理システムXcについて説明する。図9においても、上述の第一実施形態及び第二実施形態と同様の構成は、同じ符号を付している。
上述の第一実施形態では、ユーザー画像データ310において、車両の箇所を提示した。第二実施形態においては、車両の箇所に加え、車外画像データ320において、ユーザーの箇所を提示した。
これに対して、情報処理システムXcのように、自動車端末2cのみでユーザーの箇所を提示するように構成してもよい。図9の例では、制御部20cは、位置取得部200、ユーザー箇所算出部210、画像提示部220を備えている。記憶部21cは、位置情報300及び車外画像データ320を格納している。ユーザー端末1cは、位置情報302を備えている。
つまり、本実施形態の自動車端末2cは、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する位置取得部200と、位置取得部100により取得された車両及びユーザーの位置情報300により、車両の外部用カメラ26から取得した車両外部画像データ内に表示されるユーザーの箇所を算出するユーザー箇所算出部210と、ユーザー箇所算出部210により算出されたユーザーの箇所を、車両外部画像データ上に提示する画像提示部120とを備える情報処理装置であることを特徴とする。
このように構成することで、上述の第二実施形態と同様に、自動車のドライバーに対して、ユーザーを認識しやすくすることができる。この場合、ユーザーが呼び寄せた自動車を確認しなくてもよいので、ユーザーの負担を減らすことができる。
<第四実施形態>
次に、図10により、本発明の第四実施形態に係る情報処理システムXdについて説明する。図10においても、上述の第一乃至第三実施形態と同様の構成は、同じ符号を付している。
上述の第一乃至第四実施形態では、サーバー3に地図データ340を備える例について記載した。しかしながら、本実施形態においては、PtPのようにユーザー端末1dと自動車端末2dとのみで、例えば、上述の第二実施形態と同様の処理を行うようにする。
図10の例では、ユーザー端末1dの制御部10d及び記憶部11d、自動車端末2dの制御部20dは、第二実施形態の制御部10b、記憶部11b、制御部20bと、それぞれ同様の構成である。これに対して、自動車端末2dの記憶部21dは、第二実施形態の記憶部21bの各データに加えて、地図データ340を格納している。
このように構成することで、サーバー3を介さないで、ユーザー及びドライバーがお互いを確認することができる。また、自動車端末2dが専用ナビゲーションの地図データ340を格納して、これを基に照合することで、ユーザー端末1dと自動車端末2dとで地図データ340のズレ等を防ぎ、ユーザー及び車両の箇所を算出しやすくなる。
なお、この例では、自動車端末2dに地図データ340を格納するように記載したものの、ユーザー端末1dであってもよい。また、別途、自動車端末2bと接続可能なナビゲーション装置を備えていて、これから地図データ340を取得するようにしてもよい。さらに、地図データ340を用いないで、直接車両やユーザーの箇所を認識するようにしてもよい。
<第五実施形態>
次に、図11により、本発明の第五実施形態に係る情報処理システムXeについて説明する。図11においても、上述の第一乃至第四実施形態と同様の構成は、同じ符号を付している。
上述の第一乃至第四実施形態では、それぞれの端末で画像データから車両又はユーザーの箇所を算出するように記載した。しかしながら、情報処理システムXeのように、サーバー3eで、これらの箇所の算出を行ってもよい。この場合、例えば、サーバー3eは、制御部30eにユーザー箇所算出部210及び車両箇所算出部110を備える。記憶部31eは、地図データ340に加え、ユーザー端末1eから位置情報300及びユーザー画像データ310を取得して格納する。さらに、自動車端末2eから位置情報302、車外画像データ320、及び社内画像データを取得して、記憶部31dに格納する。この上で、サーバー3eから、各端末に、各画像データをストリーミング等で配信する。
この例の場合、ユーザー端末1eの制御部10eは、位置取得部100、画像提示部120、カメラ制御部130を備えている。自動車端末2eの制御部20eは、位置取得部200、画像提示部220を備えている。
このように構成することで、ユーザー端末1e及び自動車端末2eの処理負担を低減することができる。また、サーバー3eで各画像データを蓄積し、各箇所を認識することで、効率的に学習させて、地図データ340との照合や各認識の精度を高めることができる。
さらに、サーバー3eの記憶部31eに、車外画像データ320等を特定期間、蓄積するような構成も可能である。
これにより、ユーザー端末1eにおいて、車両がどこを走っていたのかを、時系列に沿って検索して、より車両を発見しやすくすることが可能である。
これに加えて、図12によれば、車両の呼び寄せのサービスを利用している各車両の車外画像データ320を蓄積することで、ユーザーが地図データ340と照合された車外画像データ320を閲覧して、ユーザーが行き先を設定することも可能となる。
たとえば、図12(a)の画面例520のように、ユーザーが行き先を地図上のピンで設定する。この場合、図12(b)の画面例530のように、対応する車外画像データ320を表示可能である。これにより、ユーザー端末1eにて、行き先を、車両が実際に移動した箇所の画像によって設定可能となる。
さらに、ユーザー端末1eで、地図データ340とユーザー画像データ310のランドマークとの照合結果から、「大体、あの辺に行きたい」という行き先設定を行うことも可能となる。
このように構成することで、ユーザーが到着地点を知らない場合であっても、容易に行き先を設定することができる。このため、旅行先や初めて訪れる場所で、住所を説明するのが難しい場合に対応可能となる。すなわち、ユーザーが「あの辺」と漠然と覚えている行き先の検索を容易にすることができる。加えて、ユーザーが画像で示すことで、行き先をドライバーに確実に伝えることができる。
サーバー3eに、地図データ340と照合された車外画像データ320とを蓄積することで、ユーザーが実際に車両に乗った後で、行き先の画像データを閲覧することも可能となる。このため、ユーザーが住所だけで到着地が分からない場合でも、行き先の画像を閲覧できることで、「あの辺」に行きたいというように、ドライバーに説明できるようになる。
加えて、蓄積された車外画像データ320から、360°画像を作成して、VR(Virtual Reality)動画のリアルタイム配信等も可能となる。
さらに、サーバー3eの記憶部31eに、車内画像データ330等を特定期間、蓄積するような構成も可能である。
これにより、ユーザー端末1eから、過去の車内状況を確認し、どのくらい人が乗っているか、乗る可能性があるか等で呼び寄せのサービスを使うかどうかを、ユーザーが容易に判断可能となる。
<他の実施形態>
なお、上述の実施形態においては、車外画像データ320に、車両を呼び寄せているユーザーの箇所のみを表示するように記載した。
しかしながら、車外画像データ320に、アプリを起動しているユーザーの箇所を全て表示するようにしてもよい。加えて、地図データ340上で、過去に利用したユーザーのデータ、携帯電波による人の流れや多さ等を示してもよい。
このように構成することで、ユーザーやドライバーが待ち合わせ場所として最適な箇所かどうかを判断することができ、場合によっては待ち合わせ場所を変更することが可能となる。これにより、トラブルの発生等を防ぐことができる。
上述の実施形態では、ユーザー画像データ310に車両の箇所のみを提示するように記載した。
しかしながら、ユーザーが車両に乗車した後にも、移動中に、地図データ340と照合して、歴史上の建物の紹介、町の歴史やニュース、天気等を、AR表示することも可能である。この際に、自動翻訳等を行ったり、ユーザーの感情を推定してAR表示する情報を選択してもよい。
このように、知識とその場の体験を一致させることで、感動を生じさせることができる。また、ユーザーは、移動中は暇になり、ドライバーと話したくないこともある。この場合であっても、AR表示を眺めることで、ユーザーに便宜を与えることができる。
上述の本発明の第一乃至第五実施形態においては、本発明の特徴を主要な構成に絞って説明した。しかしながら、これらの実施形態の機能部の構成の組み合わせは任意である。すなわち、第一乃至第五実施形態のいずれかの構成、任意の組み合わせの構成、又は、全ての機能部を備えた構成であってもよい。
また、ユーザー端末1は、上述の第一乃至第五実施形態で記載していない機能部を更に備えていてもよい。
また、上記実施形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。
1,1a,1b,1c,1d,1e ユーザー端末、2,2a,2b,2c,2d,2e 自動車端末、3,3e サーバー、4 ネットワーク、10,10a,10b,10d,10e,20,20b,20c,20d,20e,30,30e 制御部、11,11a,11b,11d,21,21b,21c,21d,31,31e 記憶部、12,22 入力部、13,23 表示部、14,24,34 接続部、15,25 センサ群、16 カメラ、26 外部用カメラ、27 車内用カメラ、18,28 音声入出力部、100,200 位置取得部、110 車両箇所算出部、120,220 画像提示部、130 カメラ制御部、210 ユーザー箇所算出部、300,302 位置情報、310 ユーザー画像データ、320 車外画像データ、330 車内画像データ、340 地図データ、350 外観画像データ、500,510,512,520,530 画面例、610 表示欄、700 車両箇所、710 ユーザー箇所、720,730 ボタン、D ダッシュボード、H ホルダー、U,P ポインター、X,Xa,Xb,Xc,Xd,Xe 情報処理システム

Claims (9)

  1. 待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、
    前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出する車両箇所算出部(110)と、
    前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示する画像提示部(120)とを備える
    情報処理装置。
  2. 前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記車両の外部用カメラ(26)で撮像された車外画像データ(320)内に表示される前記ユーザーの箇所を算出するユーザー箇所算出部(210)を更に備え、
    前記画像提示部は、
    前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車外画像データ上に提示する
    請求項1に記載の情報処理装置。
  3. 前記車両箇所算出部は、
    前記車両の外観画像データ(350)を取得して、該外観画像データにより前記車両を画像認識することで、前記車両の箇所を算出する
    請求項1又は2に記載の情報処理装置。
  4. 前記画像提示部は、
    取得された地図データ(340)上に、前記車両の位置をポインターで表示し、併せて該ポインターの近傍に前記外観画像データを表示する
    請求項3に記載の情報処理装置。
  5. 前記画像提示部は、
    前記車両の車内用カメラ(27)で撮像された車内画像データ(330)も提示する
    請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記車両の前記外部用カメラ及び/又は前記車内用カメラを制御するカメラ制御部(130)を更に備える
    請求項2乃至5のいずれか1項に記載の情報処理装置。
  7. 待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、
    前記位置取得部により取得された前記車両及び前記ユーザーの位置情報により、前記車両の外部用カメラ(26)から取得した車両外部画像データ(320)内に表示される前記ユーザーの箇所を算出するユーザー箇所算出部(210)と、
    前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車両外部画像データ上に提示する画像提示部(120)とを備える
    情報処理装置。
  8. 情報処理装置(1)により実行される情報処理プログラムであって、
    位置取得部(100)に、待ち合わせ場所に呼び寄せている車両の位置情報(320)及びユーザーの位置情報(300)を取得させ、
    車両箇所算出部(110)に、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出させ、
    画像提示部(120)に、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示させる
    プログラム。
  9. 情報処理装置(1)により実行される情報処理方法であって、
    待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得し、
    取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出し、
    算出された前記車両の箇所を、前記ユーザー画像データ上に提示する
    情報処理方法。
JP2018083762A 2018-04-25 2018-04-25 情報処理装置、プログラム、及び情報処理方法 Pending JP2019191914A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018083762A JP2019191914A (ja) 2018-04-25 2018-04-25 情報処理装置、プログラム、及び情報処理方法
PCT/JP2019/007190 WO2019207944A1 (ja) 2018-04-25 2019-02-26 情報処理装置、プログラム、及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083762A JP2019191914A (ja) 2018-04-25 2018-04-25 情報処理装置、プログラム、及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2019191914A true JP2019191914A (ja) 2019-10-31

Family

ID=68294945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083762A Pending JP2019191914A (ja) 2018-04-25 2018-04-25 情報処理装置、プログラム、及び情報処理方法

Country Status (2)

Country Link
JP (1) JP2019191914A (ja)
WO (1) WO2019207944A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077177A (ja) * 2018-11-07 2020-05-21 矢崎総業株式会社 予約車両確認システム
JP2022147833A (ja) * 2021-03-23 2022-10-06 株式会社日立国際電気 配車システム
JP7468411B2 (ja) 2021-03-05 2024-04-16 トヨタ自動車株式会社 自動運転車両、配車管理装置、及び端末機器
JP7534413B2 (ja) 2020-07-31 2024-08-14 マクセル株式会社 位置推定システムおよびそれに用いる情報端末、位置推定方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6997471B2 (ja) * 2020-03-09 2022-01-17 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
JP6842099B1 (ja) * 2020-08-24 2021-03-17 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
WO2024224780A1 (ja) * 2023-04-26 2024-10-31 株式会社デンソー 車両用監視装置及び車両用監視方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3729161B2 (ja) * 2001-08-07 2005-12-21 カシオ計算機株式会社 目標位置探索装置、目標位置探索方法及びプログラム
JP5082982B2 (ja) * 2008-03-28 2012-11-28 株式会社デンソー カーナビゲーション装置
JP5669661B2 (ja) * 2011-04-20 2015-02-12 アイシン・エィ・ダブリュ株式会社 情報提供システム及び情報提供方法
JP2014048079A (ja) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp ナビゲーション装置
JP2015230690A (ja) * 2014-06-06 2015-12-21 パナソニックIpマネジメント株式会社 車両確認システム、車載装置、端末装置、サーバ、及び、車両確認制御方法
JP6460524B2 (ja) * 2015-01-29 2019-01-30 株式会社ゼンリンデータコム ナビゲーションシステム、ナビゲーション装置、飛行体及びナビゲーション連携制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077177A (ja) * 2018-11-07 2020-05-21 矢崎総業株式会社 予約車両確認システム
JP7534413B2 (ja) 2020-07-31 2024-08-14 マクセル株式会社 位置推定システムおよびそれに用いる情報端末、位置推定方法
JP7468411B2 (ja) 2021-03-05 2024-04-16 トヨタ自動車株式会社 自動運転車両、配車管理装置、及び端末機器
JP2022147833A (ja) * 2021-03-23 2022-10-06 株式会社日立国際電気 配車システム
JP7497319B2 (ja) 2021-03-23 2024-06-10 株式会社日立国際電気 配車システム

Also Published As

Publication number Publication date
WO2019207944A1 (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
WO2019207944A1 (ja) 情報処理装置、プログラム、及び情報処理方法
CN105513404A (zh) 一种辅助寻车的方法、装置、行车记录仪及用户设备
EP3660458A1 (en) Information providing system, server, onboard device, and information providing method
JP5943222B2 (ja) 位置情報提供装置、位置情報提供システム
WO2016035281A1 (ja) 車載システム、情報処理方法、およびコンピュータプログラム
JP2014041604A (ja) 情報処理システム
CN104350361A (zh) 位置信息发送装置、位置信息发送系统以及车辆
JP2017222271A (ja) 車両用表示制御装置
EP2925029A1 (en) Performance of a location response action
JPWO2018230649A1 (ja) 情報提供システム、情報提供方法、およびプログラム
WO2019163338A1 (ja) 車両乗合支援システム
JP2013185859A (ja) 情報提供システム及び情報提供方法
JP6604985B2 (ja) ナビゲーションシステム、ユーザ端末、及びナビゲーション方法
CN113496446A (zh) 物品归还方法、装置、计算机设备和存储介质
JP5612925B2 (ja) 交通情報処理装置、交通情報処理システム、プログラム、及び交通情報処理方法
JP6267014B2 (ja) メッセージ交換を行うプログラム、方法、及び電子機器
JP2006031583A (ja) 車載システム及び遠隔地点観測システム
JP2022103977A (ja) 情報提供装置、情報提供方法、およびプログラム
JP7560593B2 (ja) 制御システム、制御方法およびプログラム
JP6584285B2 (ja) 電子装置およびレコメンド情報提示システム
JP7124823B2 (ja) 情報処理装置、情報処理方法、及び情報処理システム
JP5831936B2 (ja) 車載機器システム及び車載機器
JP5858798B2 (ja) 車載システム
CN108762713A (zh) 预约车辆的定位导航方法、装置以及计算机可读存储介质
JP2024129476A (ja) 情報処理装置、情報処理方法、および情報処理プログラム