JP2007080060A - Object identification device - Google Patents
Object identification device Download PDFInfo
- Publication number
- JP2007080060A JP2007080060A JP2005268535A JP2005268535A JP2007080060A JP 2007080060 A JP2007080060 A JP 2007080060A JP 2005268535 A JP2005268535 A JP 2005268535A JP 2005268535 A JP2005268535 A JP 2005268535A JP 2007080060 A JP2007080060 A JP 2007080060A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- vehicle
- image
- imaging
- specifying device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】 ユーザの手や指が指し示している方向に存在する対象物を正確に特定する対象物特定装置を提供する。
【解決手段】 測位部13は、車両の現在位置および車両の方位を検出する。撮像部18は、車両の周囲を撮像する。指差し方向検知部16は、車両内のユーザが自身の手を用いて指し示した指示方向を検知する。対象物抽出部は、指差し方向検知部16が検知した指示方向に存在する対象物を撮像部18が撮像した画像内から抽出する。対象物位置特定部は、車両に対して、対象物抽出部が抽出した対象物の位置を特定する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide an object specifying device for accurately specifying an object existing in a direction indicated by a user's hand or finger.
A positioning unit 13 detects a current position of a vehicle and a direction of the vehicle. The imaging unit 18 images the surroundings of the vehicle. The pointing direction detection unit 16 detects an instruction direction indicated by a user in the vehicle using his / her hand. The object extraction unit extracts an object existing in the indicated direction detected by the pointing direction detection unit 16 from the image captured by the imaging unit 18. The object position specifying unit specifies the position of the object extracted by the object extracting unit with respect to the vehicle.
[Selection] Figure 1
Description
本発明は、対象物特定装置に関し、より特定的には、ユーザの手または指が指し示している方向に基づいて、車両周辺の対象物を特定する対象物特定装置に関する。 The present invention relates to an object specifying device, and more specifically to an object specifying device that specifies an object around a vehicle based on a direction indicated by a user's hand or finger.
近年、HDD(ハードディスクドライブ)やDVD(デジタルヴァーサタイルディスク)等の記録媒体に地図情報と共に記憶された車両周辺の情報を、ディスプレイ上で閲覧可能なカーナビゲーション装置が広く普及している。 2. Description of the Related Art In recent years, car navigation devices that can browse information on the periphery of a vehicle stored together with map information on a recording medium such as an HDD (Hard Disk Drive) or a DVD (Digital Versatile Disk) on a display have become widespread.
一方、ディスプレイ上の地図に表示されている情報からだけではなく、運転者等の搭乗者が手や指で指し示している指示方向に存在する地図上の地名や施設名を音声にて読上げて、ディスプレイ上に表示するナビゲーション装置が開示されている(例えば、特許文献1参照)。これにより、搭乗者が目に付いた建物や湖等の名称や周囲の地名等の情報を、当該搭乗者の手や指で指し示すことで迅速に入手することができる。
しかしながら、上記特許文献1に開示されているナビゲーション装置は、搭乗者の手や指で指し示している指示方向に存在する対象物までの距離を算出するにあたり、当該指示方向の仰角を用いて対象物までの距離を4段階に分けて対応付けして算出している。したがって、地図情報記憶部にある地図情報からある程度の広範囲を対象にして上記指示方向に存在する対象物を特定する必要があり、対象物特定の精度に課題を残している。また、車両周辺に関する情報だけでなく相対的に遠方にあり、搭乗者が視認困難な距離に存在する対象物(例えば、遠方の標識や看板)を高精度に特定することはできなかった。
However, the navigation device disclosed in
それ故に、本発明の目的は、ユーザの手や指が指し示している方向に存在する対象物を正確に特定する対象物特定装置を提供することである。 Therefore, an object of the present invention is to provide an object specifying device that accurately specifies an object existing in a direction indicated by a user's hand or finger.
上記目的を達成するために、本発明は、以下に述べるような特徴を有している。
第1の発明は、車両周辺の対象物の位置を特定する対象物特定装置である。対象物特定装置は、測位部、撮像部、指差し方向検知部、対象物抽出部、および対象物位置特定部を備える。測位部は、車両の現在位置および車両の方位を検出する。撮像部は、車両の周囲を撮像する。指差し方向検知部は、車両内のユーザが自身の手を用いて指し示した指示方向を検知する。対象物抽出部は、指差し方向検知部が検知した指示方向に存在する対象物を撮像部が撮像した画像内から抽出する。対象物位置特定部は、車両に対して、対象物抽出部が抽出した対象物の位置を特定する。
In order to achieve the above object, the present invention has the following features.
1st invention is the target object specific apparatus which specifies the position of the target object around a vehicle. The object specifying device includes a positioning unit, an imaging unit, a pointing direction detecting unit, an object extracting unit, and an object position specifying unit. The positioning unit detects the current position of the vehicle and the direction of the vehicle. The imaging unit images the surroundings of the vehicle. The pointing direction detection unit detects an instruction direction indicated by a user in the vehicle using his / her hand. The object extraction unit extracts an object existing in the indicated direction detected by the pointing direction detection unit from the image captured by the imaging unit. The object position specifying unit specifies the position of the object extracted by the object extracting unit with respect to the vehicle.
第2の発明は、上記第1の発明において、撮像部は、車両に設置された少なくとも1つのカメラで構成される。対象物特定装置は、座標変換部を、さらに備える。座標変換部は、指差し方向検知部が検知した指示方向をカメラの撮像方向を基準とするカメラ座標系における指示方向に変換する。対象物抽出部は、撮像部が撮像した画像内から座標変換部が変換した指示方向に撮像された被撮像物を対象物として抽出する。 In a second aspect based on the first aspect, the imaging unit is composed of at least one camera installed in the vehicle. The target object specifying device further includes a coordinate conversion unit. The coordinate conversion unit converts the indication direction detected by the pointing direction detection unit into an indication direction in a camera coordinate system based on the imaging direction of the camera. The target object extraction unit extracts, as a target object, an imaged object imaged in the indicated direction converted by the coordinate conversion unit from the image captured by the imaging unit.
第3の発明は、上記第2の発明において、撮像部は、平行等位に車両に設置された複数のカメラで構成される。対象物抽出部は、一方のカメラが撮像した画像から指示方向に撮像された所定サイズの領域を抽出し、その領域の画像と他方のカメラが撮像した画像とのマッチングによってその指示方向に撮像された被撮像物を対象物として抽出する。対象物位置特定部は、複数のカメラが対象物をそれぞれ撮像している方向に基づいて、車両に対する対象物の位置を算出する。 In a third aspect based on the second aspect, the imaging unit is composed of a plurality of cameras installed on the vehicle in parallel equiposition. The object extraction unit extracts a region of a predetermined size captured in the indicated direction from an image captured by one camera, and is captured in the specified direction by matching the image of that region with the image captured by the other camera. The captured object is extracted as an object. The object position specifying unit calculates the position of the object with respect to the vehicle based on directions in which the plurality of cameras are respectively imaging the objects.
第4の発明は、上記第3の発明において、対象物抽出部は、指示方向が時系列的に変化することによってその指示方向に囲まれた空間内に撮像された画像を領域の画像として抽出する。 In a fourth aspect based on the third aspect, the object extraction unit extracts, as an image of a region, an image captured in a space surrounded by the designated direction when the designated direction changes in time series To do.
第5の発明は、上記第2の発明において、撮像部は、車両に設置された単一のカメラで構成される。対象物特定装置は、地図情報記憶部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の3次元地図を格納する。対象物抽出部は、カメラが撮像した画像から指示方向に撮像された被撮像物の輪郭を対象物の輪郭として抽出する。対象物位置特定部は、3次元地図から対象物抽出部が抽出した輪郭と一致する形状のオブジェクトの位置をその3次元地図上で特定して、車両に対する対象物の位置を算出する。 In a fifth aspect based on the second aspect, the imaging unit is constituted by a single camera installed in the vehicle. The target object specifying device further includes a map information storage unit. The map information storage unit stores at least a three-dimensional map near the current position of the vehicle. The object extraction unit extracts the contour of the object to be imaged in the designated direction from the image captured by the camera as the contour of the object. The target object position specifying unit specifies the position of an object having a shape matching the contour extracted by the target object extracting unit from the three-dimensional map on the three-dimensional map, and calculates the position of the target object with respect to the vehicle.
第6の発明は、上記第1の発明において、表示部、ポインタ座標決定部、および表示制御部を、さらに備える。表示部は、車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する。ポインタ座標決定部は、指差し方向検知部が検知した指示方向と表示領域が設定されたガラスとの交点座標を決定する。表示制御部は、ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する。 In a sixth aspect based on the first aspect, the display device further includes a display unit, a pointer coordinate determination unit, and a display control unit. The display unit projects an image using at least one glass provided in the vehicle as a display area. The pointer coordinate determination unit determines an intersection coordinate between the indication direction detected by the pointing direction detection unit and the glass in which the display area is set. The display control unit controls the display of the pointer image in the display area on the intersection coordinates determined by the pointer coordinate determination unit.
第7の発明は、上記第1の発明において、表示部、視線検知部、ポインタ座標決定部、および表示制御部を、さらに備える。表示部は、車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する。視線検知部は、車両内のユーザの視線方向を検知する。ポインタ座標決定部は、対象物位置特定部が特定した対象物の位置とユーザの視線とを結ぶ直線と表示領域が設定されたガラスとの交点座標を決定する。表示制御部は、ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する。 In a seventh aspect based on the first aspect, the display device further includes a display unit, a line-of-sight detection unit, a pointer coordinate determination unit, and a display control unit. The display unit projects an image using at least one glass provided in the vehicle as a display area. The line-of-sight detection unit detects a user's line-of-sight direction in the vehicle. The pointer coordinate determining unit determines an intersection coordinate between a straight line connecting the position of the object specified by the object position specifying unit and the user's line of sight and the glass on which the display area is set. The display control unit controls the display of the pointer image in the display area on the intersection coordinates determined by the pointer coordinate determination unit.
第8の発明は、上記第6または第7の発明において、調整部を、さらに備える。調整部は、ポインタ座標決定部が決定する交点座標をユーザからの指示に応じて調整する。 An eighth invention according to the sixth or seventh invention further comprises an adjustment unit. The adjustment unit adjusts the intersection coordinates determined by the pointer coordinate determination unit in accordance with an instruction from the user.
第9の発明は、上記第1の発明において、撮像部は、車両に設置された複数のカメラで構成される。対象物特定装置は、表示部および選択部を、さらに備える。表示部は、車両内に設置される。選択部は、指差し方向検知部が検知した指示方向に応じて、複数のカメラから出力される画像から何れか1つの画像を選択して表示部に表示する。 In a ninth aspect based on the first aspect, the imaging unit includes a plurality of cameras installed in the vehicle. The target object specifying device further includes a display unit and a selection unit. The display unit is installed in the vehicle. The selection unit selects any one image from the images output from the plurality of cameras according to the instruction direction detected by the pointing direction detection unit, and displays the selected image on the display unit.
第10の発明は、上記第9の発明において、撮像制御部を、さらに備える。撮像制御部は、対象物位置特定部が特定した対象物が画像の中心に撮像されるように、選択部が選択した画像を撮像するカメラの撮像方向を制御する。 In a tenth aspect based on the ninth aspect, an imaging control unit is further provided. The imaging control unit controls the imaging direction of the camera that captures the image selected by the selection unit so that the object specified by the object position specifying unit is imaged at the center of the image.
第11の発明は、上記第9の発明において、撮像制御部を、さらに備える。撮像制御部は、対象物位置特定部が特定した対象物が画像の中心で拡大または縮小して撮像されるように、選択部が選択した画像を撮像するカメラの撮像倍率を制御する。 In an eleventh aspect based on the ninth aspect, an imaging control unit is further provided. The imaging control unit controls the imaging magnification of the camera that captures the image selected by the selection unit so that the object specified by the object position specifying unit is enlarged or reduced at the center of the image.
第12の発明は、上記第1の発明において、地図情報記憶部および情報出力部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の地図情報およびその地図で表される各領域に対する情報を格納する。情報出力部は、対象物位置特定部が特定した対象物に関する情報を地図情報記憶部に格納されている情報から抽出して、車両内のユーザに報知する。 In a twelfth aspect based on the first aspect, the map information storage section and the information output section are further provided. The map information storage unit stores at least map information in the vicinity of the current position of the vehicle and information for each area represented by the map. The information output unit extracts information related to the object specified by the object position specifying unit from the information stored in the map information storage unit, and notifies the user in the vehicle.
第13の発明は、上記第12の発明において、通信部および表示部を、さらに備える。通信部は、所定のネットワークを介して通信可能である。表示部は、情報出力部が出力する情報を表示する。情報出力部は、地図情報記憶部に格納されている情報がネットワーク上に存在する情報資源の場所を示すとき、通信部を介してその情報資源から情報を取得して表示部に表示する。 In a thirteenth aspect based on the twelfth aspect, the communication section and the display section are further provided. The communication unit can communicate via a predetermined network. The display unit displays information output from the information output unit. When the information stored in the map information storage unit indicates the location of the information resource existing on the network, the information output unit acquires the information from the information resource via the communication unit and displays it on the display unit.
第14の発明は、上記第1の発明において、地図情報記憶部およびルート検索部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の地図情報を格納する。ルート検索部は、対象物位置特定部が特定した対象物の位置を経由地または目的地に設定してルート検索する。 In a fourteenth aspect based on the first aspect, the information processing apparatus further includes a map information storage unit and a route search unit. The map information storage unit stores at least map information near the current position of the vehicle. The route search unit performs a route search by setting the position of the object specified by the object position specifying unit as a waypoint or a destination.
上記第1の発明によれば、ユーザの手や指が指し示している方向に存在する対象物を特定するにあたり、撮像部が撮像した画像を用いて特定されるため高精度に対象物の位置を特定することができる。 According to the first aspect of the invention, in specifying the object existing in the direction indicated by the user's hand or finger, the object is specified using the image captured by the imaging unit, so the position of the object is determined with high accuracy. Can be identified.
上記第2の発明によれば、ユーザが指し示した方向がカメラ座標に変換され、その方向の被撮像物が抽出されるため、対象物の認識精度が向上する。 According to the second aspect, since the direction pointed to by the user is converted into camera coordinates and the object to be imaged in the direction is extracted, the recognition accuracy of the object is improved.
上記第3の発明によれば、ステレオカメラの原理を用いて対象物を高精度に特定することができる。 According to the third aspect, the object can be specified with high accuracy using the principle of the stereo camera.
上記第4の発明によれば、ユーザが指し示して指定した形状に応じて対象物を抽出することができ、当該形状で囲まれた画像を用いてマッチングすることによってマッチング精度が高まり、結果的に効率よく高精度に対象物を特定することができる。 According to the fourth aspect of the invention, the object can be extracted according to the shape pointed to and specified by the user, and matching accuracy is improved by matching using the image surrounded by the shape. An object can be identified efficiently and with high accuracy.
上記第5の発明によれば、撮像部を単一カメラで構成して対象物の特定を実現することができる。 According to the fifth aspect, the object can be specified by configuring the imaging unit with a single camera.
上記第6または第7の発明によれば、ユーザは、指し示した方向と視認されている対象物の方向とを、表示されたポインタを見ながら調整することができるので、指し示した方向と対象物との関係を容易に把握することができる。 According to the sixth or seventh invention, the user can adjust the indicated direction and the direction of the object being viewed while looking at the displayed pointer. Can be easily grasped.
上記第8の発明によれば、指し示した方向に存在する対象物を確実に特定することができる。 According to the eighth aspect of the invention, it is possible to reliably identify an object that exists in the indicated direction.
上記第9の発明によれば、ユーザが指し示した方向に応じて適切な映像を表示部に表示することができる。 According to the ninth aspect, an appropriate video can be displayed on the display unit in accordance with the direction indicated by the user.
上記第10および第11の発明によれば、対象物に注目した映像をユーザに提供することができる。 According to the tenth and eleventh aspects of the present invention, it is possible to provide the user with an image focusing on the object.
上記第12の発明によれば、対象物に関する情報を容易に得ることができる。 According to the twelfth aspect, information about the object can be easily obtained.
上記第13の発明によれば、インターネット等に公開されたWebページ等の対象物に関する情報を容易に得ることができる。 According to the thirteenth aspect, information relating to an object such as a Web page published on the Internet or the like can be easily obtained.
上記第14の発明によれば、ルート設定が容易に行うことができ、安全性に配慮した入力を行うことができるカーナビゲーション装置を提供することができる。 According to the fourteenth aspect of the present invention, it is possible to provide a car navigation device that can easily perform route setting and can perform input in consideration of safety.
(第1の実施形態)
以下、本発明の第1の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(First embodiment)
Hereinafter, the target object specifying device according to the first embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.
図1および図2を参照して、第1の実施形態に係るカーナビゲーション装置1について説明する。なお、図1は、第1の実施形態に係るカーナビゲーション装置1の概略の構成を示す構成図である。図2は、ユーザ(例えば、車両のドライバ等の搭乗者)が対象物を手や指で指し示す様子を示す模式図である。
A
図1において、カーナビゲーション装置1は、制御部11、地図情報記憶部12、測位部13、入力部14、音声出力部15、指差し方向検知部16、指差し座標取得部17、撮像部18、画像認識/測距部20、ポインタ座標決定部21、および表示部22から構成されている。また、図2において、車両Cのユーザが手Hによって対象物Mの一部を指し示している。なお、車両C内にはカーナビゲーション装置1が搭載されるが、図2では測位部13および撮像部18のみ図示している。
In FIG. 1, the
制御部11は、経路探索や案内等のナビゲーション機能等、カーナビゲーション装置1の基本機能を制御するとともに、後述する処理を実行する手段であり、例えば、CPUやMPUで構成される。
The
地図情報記憶部12は、経路案内や探索に必要な地図情報を格納する記憶媒体であり、例えば、HDD(ハードディスクドライブ)やDVD(デジタルヴァーサタイルディスク)である。また、地図情報記憶部12は、少なくとも車両Cが位置する現在地付近に存在する対象物(例えば、建物等の施設)の位置や名称および当該対象物に関連した情報(例えば、URL(Uniform Resource Locator;ユニフォーム・リソース・ロケータ)、営業時間、広告等)が格納されている。なお、地図情報記憶部12は、図示しない通信手段(例えば、携帯電話)によって情報をセンター設備から適宜ダウンロードして格納してもかまわない。
The map
測位部13は、車両の現在位置や方位を測位する手段であり、例えば、GPS(Global Positioning System;全地球測位システム)、INS(Inertial Navigation System;慣性航法システム)、車速センサ等で構成される。INSは、加速度センサやジャイロセンサから構成され、車両Cの現在位置および方位を初期値からの積分によって算出するものである。ここで、図2では測位部13としてINSが車両Cに固定設置された様子を例示している。以下に説明する車両座標系では、車両Cの前後方向をX軸とし、車両Cの前方進行方向をX軸正方向とする。車体Cの左右方向をY軸とし、車両Cの右方向をY軸正方向とする。そして、X−Y平面に対して垂直な方向(つまり、車両Cの上下方向)をZ軸とし、車両Cの上方向をZ軸正方向とする。
The
入力部14は、ユーザが手や指(以下、手のみ記載する)Hで指し示した対象物Mに対して、ユーザ所望の指示を入力する手段であり、例えば、音声入力するマイクや音声認識エンジン等で構成される。
The
音声出力部15は、制御部11が地図情報記憶部12から抽出した対象物Mに関連した情報を読上げるための手段であり、例えば、音声合成エンジンやスピーカ等で構成される。
The
指差し方向検知部16は、ユーザ(運転手等の車両搭乗者)が手Hで指し示した方向を検知するための手段であり、例えば、手Hの画像を撮像する車両C内に固設された複数のカメラによって構成される。また、指差し方向検知部16として、車両C内に所定の電波を放射して手Hが指し示す方向を検知する周知の検知手段を用いてもかまわない。
The pointing
指差し座標取得部17は、指差し方向検知部16が取得した情報を用いて、3軸の座標値(以下、指差し座標(系)と記載する)を取得するための手段であり、例えば、指差し方向検知部16が撮像した複数の画像を画像処理する画像処理回路で構成される。そして、指差し座標取得部17は、取得した指差し座標を制御部11に出力する。
The pointing coordinate
撮像部18は、車両C外部に設けられた車両周辺の画像を取得するための手段であり、例えば、単一カメラまたはステレオカメラである。撮像部18は、図2に例示するように、車両Cのルーフ上に設置され、車両Cの前方を撮像する。ここで、撮像部18は前述の車両座標系と原点は異なるが、X軸正方向が撮像方向となるように設置される。以下、撮像部18の撮像方向を基準とした座標系をカメラ座標系と記載する。なお、図2では、車両Cのルーフ上に撮像部18を設置する例を示したが、車両Cの室内(例えば、ルームミラー)にも設置してもかまわない。
The
画像認識/測距部20は、撮像部18が撮像した画像を認識し、制御部11が特定した対象物Mまでの距離を測定するための手段である。そして、画像認識/測距部20は、撮像部18が撮像した画像や距離情報を制御部11に出力する。
The image recognition / ranging
ポインタ座標決定部21は、ユーザの手Hと対象物Mとの間に存在する車両Cのフロントガラス上の2次元座標であるポインタ座標(図2におけるA点)を決定するための手段である。以下、車両Cのフロントガラス上の2次元座標系をポインタ座標系と記載する。
The pointer coordinate
表示部22は、ポインタ座標決定部21で決定したポインタ座標に基づいて、車両Cのフロントガラスの室内側表面にポインタPを投影表示するための手段である。なお、表示部22は、HUD(Head Up Display;ヘッドアップ・ディスプレイ)で構成してもかまわない。
The
次に、図3を参照して、ユーザが手Hを車両C前方のフロントガラスF越しに指し示した状態について説明する。なお、図3は、ユーザが手Hを車両C前方のフロントガラスF越しに指し示したときにポインタPが投影されている様子を示す模式図である。 Next, a state in which the user points the hand H through the windshield F in front of the vehicle C will be described with reference to FIG. FIG. 3 is a schematic diagram showing a state in which the pointer P is projected when the user points the hand H through the windshield F in front of the vehicle C.
図3において、車両CのフロントガラスFを介して視認できる車両周辺風景に対して、当該フロントガラスFにポインタPが表示されている。このようにポインタPはフロントガラスF上に表示され、その表示位置はユーザの手Hと対象物Mとを結ぶ直線とフロントガラスFとが重なる点(図2で示したA点、すなわちポインタ座標)に表示される。このように、ユーザは、ポインタPを見ながら手Hで指し示した方向と対象物Mに対する方向との調整を行うことができるので、指し示した方向の対象物Mとの対応を容易に把握することができる。なお、撮像部18や表示部22を車両Cの周囲360度を撮像できるように複数設置することで、フロントガラスFだけではなく、車両CのサイドガラスやリヤガラスにもポインタPを投影表示してもかまわない。また、図3では、ポインタPを表示するとしたが、指し示す方向と対象物Mとの対応関係が分かる表示であれば他の表示でもかまわない。例えば、指し示す方向に応じて特定された対象物Mの輪郭に相当する図形を表示したり、当該対象物Mの輪郭の内部を塗りつぶしたりする表示を行ってもかまわない。
In FIG. 3, a pointer P is displayed on the windshield F with respect to the scenery around the vehicle that can be seen through the windshield F of the vehicle C. In this way, the pointer P is displayed on the windshield F, and the display position is the point where the straight line connecting the user's hand H and the object M and the windshield F overlap (point A shown in FIG. 2, ie, pointer coordinates). ) Is displayed. Thus, the user can adjust the direction pointed with the hand H while looking at the pointer P and the direction with respect to the object M, so that the correspondence with the object M in the indicated direction can be easily grasped. Can do. Note that by installing a plurality of
次に、図4〜図8を参照して、カーナビゲーション装置1の動作の第1の例について説明する。なお、図4は、カーナビゲーション装置1の第1の例における前半部の動作を示すフローチャートである。図5は、カーナビゲーション装置1の第1の例における後半部の動作を示すフローチャートである。図6は、カーナビゲーション装置1の動作で用いる指差し座標系および車両座標系の一例を説明するための図である。図7は、カーナビゲーション装置1の動作で用いるカメラ座標系の一例を説明するための図である。図8は、カーナビゲーション装置1の動作で用いるポインタ座標系の一例を説明するための図である。ここで、撮像部18は、ステレオカメラで構成されているとする。また、地図情報記憶部12には、上記地図情報として2次元地図が格納されている。
Next, a first example of the operation of the
図4において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS10)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS11でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS12)。そして、ポインタ座標決定部21は、ステップS12で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS13)。また、制御部11は、ステップS12で取得した指差し座標(Xh、Yh)をカメラ座標mr(Xr、Yr)に座標変換する(ステップS14)。制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。
In FIG. 4, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the
図6〜図8を用いて、指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系について説明する。なお、制御部11およびポインタ座標決定部21は、それぞれ上記座標変換行列を用いてこれら座標系同士の座標変換が可能となる。
A pointing coordinate system, a vehicle coordinate system, a camera coordinate system, and a pointer coordinate system will be described with reference to FIGS. The
図6において、指差し座標系は、手Hの左右方向をX軸(横軸)、手Hの上下方向をY軸(縦軸)と定義し、右方向をX軸正方向、上方向をY軸正方向とする。そして、指差し座標系で指定される座標を指差し座標(Xh、Yh)で示す。また、車両座標系は、測位部13の位置を基準に、車両Cの前後方向をX軸、車体Cの左右方向をY軸、車両Cの上下方向をZ軸と定義し、車両Cの前方進行方向をX軸正方向、車両Cの右方向をY軸正方向、車両Cの上方向をZ軸正方向とする。そして、車両座標系で指定される座標を車両座標(Xv、Yv、Zv)で示す。なお、制御部11は、この車両座標系から、車両Cの緯度、経度、高度(測地座標系)を算出することも可能である。
In FIG. 6, the pointing coordinate system defines the horizontal direction of the hand H as the X axis (horizontal axis), the vertical direction of the hand H as the Y axis (vertical axis), the right direction as the X axis positive direction, and the upward direction as the upward direction. Y-axis positive direction. The coordinates specified in the pointing coordinate system are indicated by pointing coordinates (Xh, Yh). The vehicle coordinate system defines the front-rear direction of the vehicle C as the X axis, the left-right direction of the vehicle body C as the Y-axis, and the up-down direction of the vehicle C as the Z-axis, based on the position of the
図7において、撮像部18として2台の同一仕様のカメラ(ステレオカメラ)を平行等位に設置する。平行等位とは、2つのカメラの光軸を平行にしてながらそれぞれの撮像面を一致させ、さらにそれぞれの撮像面の横軸(x軸)も一致させたカメラ配置のことである。図7に示すカメラ配置の例では、左右のカメラの間隔をカメラ間隔Bとして焦点距離fのカメラを2台配置している。図7に示すように、右カメラの焦点Oを原点として左右カメラの光軸方向をZ軸、左右カメラの焦点を結ぶ方向をX軸、X軸およびZ軸に垂直な方向をY軸とした実空間の座標系の位置M(Xm、Ym、Zm)に対象物Mが存在するとする。そして、右カメラのカメラ座標系mr(Xr、Yr)および左カメラの座標系ml(Xl、Yl)を、右カメラおよび左カメラの撮像面上でそれぞれ光軸との交点OrおよびOlを原点とした座標系とする。また、実空間の座標系のX軸、右カメラ座標系のXr軸、および左カメラ座標系のXl軸は、全て左カメラの焦点から右カメラの焦点に向かう方向に一致させる。
In FIG. 7, two cameras (stereo cameras) having the same specification are installed in parallel equiposition as the
このようなカメラ配置においては、Yl=Yrとなるため、対象物Mの位置M(Xm、Ym、Zm)、右カメラ座標mr(Xr、Yr)、および左カメラ座標ml(Xl、Yl)は、以下の関係式を満たす。
Xm=Zm/f×Xr
Ym=Zm/f×Yr
Zm=B×f/(Xl−Xr)
ここで、Bはカメラ間隔、fは焦点距離であるため、共に定数となる。これらの式で明らかなように、Xl−Xr(視差)を計測すればZmが求まり、右カメラでの像の位置(Xr、Yr)を用いれば、対象物Mの座標(Xm、Ym、Zm)を算出することができる。
In such a camera arrangement, since Yl = Yr, the position M (Xm, Ym, Zm) of the object M, the right camera coordinates mr (Xr, Yr), and the left camera coordinates ml (Xl, Yl) are The following relational expression is satisfied.
Xm = Zm / f × Xr
Ym = Zm / f × Yr
Zm = B × f / (X1-Xr)
Here, since B is the camera interval and f is the focal length, both are constants. As apparent from these equations, Zm can be obtained by measuring Xl-Xr (parallax), and the coordinates (Xm, Ym, Zm) of the object M can be obtained by using the position (Xr, Yr) of the image with the right camera. ) Can be calculated.
ここで、上記視差(Xl−Xr)は、右画像の小領域(所定サイズ画素×所定サイズ画素)と同じパターンを左画像から探し、一致したそれらの位置の相対的なずれを抽出するステレオマッチング処理を用いて求めることができる。より具体的には、パターンの一致度を示す評価関数を導入し、探索範囲を1画素ずつずらしながら一致度を判定し、最も一致度合いが高い小領域を左画像から求めることで視差を求めることができる。 Here, the parallax (X1−Xr) is a stereo matching that searches the left image for the same pattern as the small region (predetermined size pixels × predetermined size pixels) of the right image and extracts the relative shift of the matched positions. It can be determined using a process. More specifically, an evaluation function indicating the degree of pattern matching is introduced, the degree of matching is determined while shifting the search range pixel by pixel, and the parallax is obtained by obtaining the small region having the highest degree of matching from the left image. Can do.
図8において、ポインタ座標系は、フロントガラスFの左上隅を原点として、横方向をX軸、縦方向をY軸と定義し、右方向をX軸正方向、下方向をY軸正方向とする。そして、ポインタ座標系で指定される座標をポインタ座標(Xp、Yp)で示す。 In FIG. 8, the pointer coordinate system is defined with the upper left corner of the windshield F as the origin, the horizontal direction as the X axis, the vertical direction as the Y axis, the right direction as the X axis positive direction, and the downward direction as the Y axis positive direction. To do. The coordinates specified in the pointer coordinate system are indicated by pointer coordinates (Xp, Yp).
図4に戻り、上記ステップS13で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS15;図3参照)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。
Returning to FIG. 4, the
なお、ステップS15におけるポインタPの表示は、カーナビゲーション装置1の起動中に常時表示していてもいいし、一定時間のみ表示してもいいし、地図情報記憶部12に対象物Mに関連する情報が格納されている場合にだけ表示するようにしてもよい。情報の有無に応じて表示有無を対応させることによって、指し示した方向に存在する対象物Mに関連する情報が格納されていないことを容易に理解でき、ユーザの混乱を招くことを防止できる。
In addition, the display of the pointer P in step S15 may be always displayed while the
一方、上記ステップS15の処理と並行して、上記ステップS14で座標変換されたカメラ座標mr(Xr、Yr)を用いて、ユーザが指し示した対象物Mの3次元位置を特定する処理が行われる。画像認識/測距部20は、撮像部18の右カメラが撮像した画像から、座標変換されたカメラ座標mr(Xr、Yr)を中心とする小領域(図7参照)を抽出する(ステップS16)。そして、画像認識/測距部20および制御部11は、ステレオマッチング処理を用いて、対象物Mの位置M(Xm、Ym、Zm)を算出する(ステップS17)。具体的には、画像認識/測距部20は、上記小領域と同じパターンを撮像部18の左カメラで撮像した画像から探し、一致したそれらの位置の相対的なずれから視差(Xl−Xr)を求める。そして、カメラ間隔B、焦点距離f、および上述したXm、Ym、Zmを求める式を用いて、位置M(Xm、Ym、Zm)が算出される。
On the other hand, in parallel with the process of step S15, a process for specifying the three-dimensional position of the object M pointed to by the user is performed using the camera coordinates mr (Xr, Yr) coordinate-converted in step S14. . The image recognition / ranging
次に、制御部11は、位置M(Xm、Ym、Zm)を車両座標系における位置M(Xv、Yv、Zv)に座標変換する(ステップS18)。これは、位置M(Xm、Ym、Zm)が右カメラの焦点Oを原点とする位置であるため、車両座標系における位置(Xv、Yv、Zv)に変換する処理である。そして、制御部11は、車両座標系における位置M(Xv、Yv、Zv)を車両Cの緯度、経度、高度(測地座標系)に座標変換することによって、対象物Mの3次元位置を特定する(ステップS19)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。
Next, the
図5において、対象物Mが特定されている場合(ステップS20でYes)、制御部11は、入力部14を介してユーザからの入力指示があるかを判断する(ステップS21)。そして、制御部11は、対象物Mが特定されていない場合(ステップS20でNo)または入力指示がない場合(ステップS21でNo)、上記ステップS11に戻って処理を繰り返す。一方、入力指示がある場合(ステップS21でYes)、制御部11は、その入力指示内容に応じた処理を行う(ステップS22〜S27)。
In FIG. 5, when the object M is specified (Yes in Step S20), the
例えば、ユーザの発話が「読上げ」と認識された場合には、上記ステップS19で特定した対象物Mの3次元位置に関連する情報を制御部11が地図情報記憶部12から取得し、音声出力部15によって当該情報が音声で読上げられる(ステップS22)。ユーザの発話が「表示」と認識された場合には、上記ステップS19で特定した対象物Mの3次元位置に関連する情報を制御部11が地図情報記憶部12から取得し、表示部22によって当該情報が表示される(ステップS23)。ユーザの発話が「ルート設定」と認識された場合には、制御部11が上記ステップS19で特定した対象物Mまでの経路を計算し、表示部22に計算したルートを表示して案内を実施する(ステップS24)。この場合、対象物Mは、上記ルートにおける経由地や目的地のいずれに設定されてもかまわない。ユーザの発話が「ホームページ表示」と認識された場合には、上記ステップS19で特定した対象物MのURL情報を制御部11が地図情報記憶部12から取得し、図示しない通信手段を介して、当該対象物Mのホームページがサーバからダウンロードされて、表示部22に当該ホームページが表示される(ステップS25)。なお、ステップS24およびS25の場合、フロントガラスFではなく、別途設けられた車載ディスプレイ(液晶ディスプレイや有機ELディスプレイ等)を表示部22として表示してもかまわない。ユーザの発話が「地図へ反映」と認識された場合には、制御部11は、上記通信手段を介して上記ステップS19で特定した対象物Mに関して地図情報記憶部12が格納していない情報(差分情報)をセンター側からダウンロードし、地図情報記憶部12に当該差分情報を反映させて格納する(ステップS26)。すなわち、ステップS26によって、地図や対象物に関連する情報の更新を行うことができる。そして、これらステップS22〜S26の動作の後、カーナビゲーション装置1は、上記ステップS11に戻って処理を繰り返す。
For example, when the user's utterance is recognized as “reading”, the
一方、ユーザの発話が「停止」と認識された場合には、表示部22がフロントガラスF上に表示しているポインタPを消去し(ステップS27〜、カーナビゲーション装置1の指差し入力機能に関する動作を停止して(ステップS28)、当該フローチャートによる処理を終了する。
On the other hand, when the user's utterance is recognized as “stopped”, the pointer P displayed on the windshield F by the
このように、対象物Mの特定を行った後、音声入力で所定の動作が完了するので、運転時の安全性等に配慮した入力を行うことができるカーナビゲーション装置を提供することができる。 As described above, since the predetermined operation is completed by voice input after the object M is specified, a car navigation device capable of performing input in consideration of safety during driving can be provided.
なお、カーナビゲーション装置1は、上述した入力指示以外に対する機能も備えることができる。例えば、ユーザが指し示した方向に存在する車両を対象物Mとして、自車との間の車々間通信で情報の送受を行う際の動作、車両のプレートナンバーを読み取る動作、車両を追随する動的なルート検索および案内を行う動作等をカーナビゲーション装置1が行ってもかまわない。また、ユーザが指し示した方向に存在する対象物Mに設置されている電話を通話対象とする動作や対象物Mのメールアドレスにメールを送る動作等をカーナビゲーション装置1が行ってもかまわない。
Note that the
なお、上述した説明では、ユーザが指し示す方向にポインタPが表示されている状態で、ユーザからの指示があった場合の動作について説明したが、これに限定するものではない。例えば、ユーザからの入力指示がなくても自動的に施設名称等の対象物Mに関連する情報を同時に表示してもかまわない。また、ポインタPは表示せず、施設名称等の対象物Mに関連する情報だけを表示してもかまわない。これによって、フロントガラスF越しに対象物Mを指差すだけで、対象物Mの施設名称等を瞬時に表示することが可能となる。 In the above description, the operation in the case where there is an instruction from the user while the pointer P is displayed in the direction pointed to by the user has been described, but the present invention is not limited to this. For example, information related to the object M such as a facility name may be automatically displayed at the same time without an input instruction from the user. Further, the pointer P may not be displayed, and only information related to the object M such as a facility name may be displayed. As a result, the facility name and the like of the object M can be displayed instantaneously simply by pointing the object M through the windshield F.
また、各座標系間の座標変換に用いる座標変換行列に誤差があり、指し示した方向とポインタPとが一直線上にならない場合、ポインタ座標を微調整することでキャリブレーションを実施することが望ましい。これにより、座標変換行列のパラメータを補正することができる。 In addition, when there is an error in the coordinate transformation matrix used for coordinate transformation between the coordinate systems and the indicated direction and the pointer P are not aligned, it is desirable to perform calibration by finely adjusting the pointer coordinates. Thereby, the parameter of the coordinate transformation matrix can be corrected.
次に、図9および図10を参照して、カーナビゲーション装置1の動作の第2の例について図面を参照し説明する。なお、図9は、カーナビゲーション装置1の第2の例における前半部の動作を示すフローチャートである。図10は、3次元コンピュータグラフィック(CG)地図を用いて対象物を特定する動作を模式的に示した図である。なお、カーナビゲーション装置1の第2の例における後半部の動作については、図5と同様であるため詳細な説明を省略する。ここで、撮像部18は、単一カメラで構成されているとする。また、地図情報記憶部12には、上記地図情報の少なくとも1つとして3次元CG地図が格納されている。
Next, a second example of the operation of the
図9において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS30)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS31でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS32)。そして、ポインタ座標決定部21は、ステップS32で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS33)。また、制御部11は、ステップS32で取得した指差し座標(Xh、Yh)をカメラ座標c(Xc、Yc)に座標変換する(ステップS34)。制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。
In FIG. 9, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the
ここで、図9に示す動作において用いる指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系については、カメラ座標系が単一カメラに対して設定されていることを除いて図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、ステレオカメラにおけるカメラ座標系mr(Xr、Yr)およびml(Xl、Yl)と区別するために、単一カメラにおけるカメラ座標系をc(Xc、Yc)と記載する。 Here, the pointing coordinate system, the vehicle coordinate system, the camera coordinate system, and the pointer coordinate system used in the operation shown in FIG. 9 are the same as those in FIG. 6 except that the camera coordinate system is set for a single camera. Since it is the same as the coordinate system described with reference to FIG. 8, detailed description thereof is omitted. In order to distinguish from the camera coordinate system mr (Xr, Yr) and ml (Xl, Yl) in the stereo camera, the camera coordinate system in the single camera is described as c (Xc, Yc).
上記ステップS33で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS35;図3参照)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。
The
一方、上記ステップS35の処理と並行して、上記ステップS34で座標変換されたカメラ座標c(Xc、Yc)を用いて、ユーザが指し示した対象物Mの3次元位置を特定する処理が行われる。図9および図10において、画像認識/測距部20は、撮像部18の単一カメラが撮像した車両前方映像を画像処理して、指し示した方向に撮像されている対象物の輪郭を取得する(ステップS36)。次に、測位部13が測位している車両Cの現在位置および車両Cの方位に基づいて、制御部11は、当該車両Cに搭載された撮像部18が撮像する景観と仮想的に対応する3次元CG地図を地図情報記憶部12から取得する(ステップS37)。そして、制御部11は、取得した3次元CG地図の画像から上記ステップS36で取得した輪郭と一致する形状の画像を抽出し、当該画像に対応する対象物Mの3次元位置を特定する(ステップS38)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。このような処理によって、指し示す対象物Mの3次元位置が特定できる。
On the other hand, in parallel with the process of step S35, the process of specifying the three-dimensional position of the object M pointed to by the user is performed using the camera coordinates c (Xc, Yc) coordinate-converted in step S34. . 9 and 10, the image recognition / ranging
次に、図11および図12を参照して、カーナビゲーション装置1の動作の第3の例について図面を参照し説明する。なお、図11は、カーナビゲーション装置1の第3の例における前半部の動作を示すフローチャートである。図12は、カーナビゲーション装置1の動作の第3の例について捕捉するための図である。なお、カーナビゲーション装置1の第1の例における後半部の動作については、図5と同様であるため詳細な説明を省略する。ここで、撮像部18は、ステレオカメラで構成されているとする。また、地図情報記憶部12には、上記地図情報として2次元地図が格納されている。
Next, with reference to FIG. 11 and FIG. 12, a third example of the operation of the
図11において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS40)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS41でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS42)。そして、ポインタ座標決定部21は、ステップS42で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS43)。なお、第3の例における動作で用いる指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系は、図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、第3の例のおいても、制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。
In FIG. 11, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the
次に、上記ステップS43で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS44;図3参照)。そして、制御部11は、ポインタPが囲み曲線の始点と終点とが一致するような軌跡を描いたか否かを判断する(ステップS45;図12)。カーナビゲーション装置1は、始点と終点とが一致するまで上記ステップS41〜S44の処理を繰り返し、始点と終点とが一致した場合(ステップS45でYes)、処理を次のステップS46に進める。
Next, the
ステップS46において、制御部11は、ステップS43で座標変換され囲み曲線を描いたポインタ座標(Xp、Yp)群をカメラ座標mr(Xr、Yr)にそれぞれ座標変換する。画像認識/測距部20は、撮像部18の右カメラが撮像した画像から、座標変換されたカメラ座標mr(Xr、Yr)群に囲まれた小領域(図12参照)を抽出する(ステップS47)。そして、画像認識/測距部20および制御部11は、ステレオマッチング処理を用いて、囲まれたエリアに存在する対象物Mの位置M(Xm、Ym、Zm)を算出する(ステップS48)。具体的には、画像認識/測距部20は、上記小領域と同じパターンを撮像部18の左カメラで撮像した画像から探し、一致したそれらの位置の相対的なずれから視差(Xl−Xr)を求める。そして、カメラ間隔B、焦点距離f、および上述したXm、Ym、Zmを求める式を用いて、位置M(Xm、Ym、Zm)が算出される。
In step S46, the
次に、制御部11は、位置M(Xm、Ym、Zm)を車両座標系における位置M(Xv、Yv、Zv)に座標変換する(ステップS49)。これは、位置M(Xm、Ym、Zm)が右カメラの焦点Oを原点とする位置であるため、車両座標系における位置(Xv、Yv、Zv)に変換する処理である。そして、制御部11は、車両座標系における位置M(Xv、Yv、Zv)を車両Cの緯度、経度、高度(測地座標系)に座標変換することによって、対象物Mの3次元位置を特定する(ステップS50)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。
Next, the
以上のように、カーナビゲーション装置1の動作について第1〜第3の例を説明したが、何れの例においてもユーザが指し示す対象物Mの3次元位置の特定を高精度に行うことができる。
As mentioned above, although the 1st-3rd example was demonstrated about operation | movement of the
(第2の実施形態)
以下、本発明の第2の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(Second Embodiment)
Hereinafter, the object specifying device according to the second embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.
図13は、第2の実施形態に係るカーナビゲーション装置2の概略の構成を示す構成図である。カーナビゲーション装置2は、第1の実施形態で説明したカーナビゲーション装置1に対して、視線方向検知部23および視線座標取得部24が追加されている。それ以外の構成要素は、第1の実施形態と同様であるため、同一の構成要素には同一の参照符号を付して詳細な説明を省略する。
FIG. 13 is a configuration diagram illustrating a schematic configuration of the car navigation device 2 according to the second embodiment. The car navigation device 2 has a line-of-sight
視線方向検知部23は、ユーザ(例えば、車両のドライバ等の搭乗者)の視線を検知するための手段であり、例えば、車内に設置された近赤外線照射装置またはカメラ等で構成される。視線座標取得部24は、視線方向検知部23で取得した情報を用いて、3軸の座標値(以下、視線座標(系)と記載する)を取得するための手段であり、例えば、視線方向検知部23が近赤外線をユーザの眼に照射し、その瞳孔と角膜反射像との動きを検出することによって、ユーザの視線を検知する。他にも視線方向検知部23が撮像したユーザの眼を含む画像を画像処理することによって、ユーザの視線を検知してもかまわない。
The line-of-sight
次に、図14を参照して、ユーザが対象物Mを手Hで指し示す方向と当該ユーザの視線との関係を説明する、なお、図14は、ユーザが対象物Mを手Hで指し示す方向と当該ユーザの視線を示す模式図である。 Next, referring to FIG. 14, the relationship between the direction in which the user points the object M with the hand H and the user's line of sight will be described. FIG. 14 illustrates the direction in which the user points the object M with the hand H. It is a schematic diagram which shows the said user's eyes | visual_axis.
図14において、フロントガラスFのA点を介して、ユーザが手Hによって対象物Mの一部を指し示している。このA点は、図2を用いて説明したA点と同じである。 In FIG. 14, the user points a part of the object M with the hand H through the point A of the windshield F. This point A is the same as the point A described with reference to FIG.
このとき、ポインタ座標決定部21は、ユーザの手Hで指し示した対象物Mとユーザの眼Eとを結ぶ直線(ユーザが対象物Mを見ている場合は視線)と交差するフロントガラスF上の2次元座標(図14におけるB点)をポインタ座標(Xp、Yp)に決定する。その後、表示部22は、第1の実施形態と同様に、ポインタ座標決定部21で決定したポインタ座標(Xp、Yp)にポインタPを投影表示する。
At this time, the pointer coordinate
例えば、第1の実施形態のように点AにポインタPを投影表示するとき、ユーザの視線上に手Hを挙げて当該視線上にある対象物Mを指し示すと、ポインタPと対象物Mとが一致して表示される。一方、第2の実施形態では、図14に示すようにユーザの視線上に手Hを挙げなくても、ポインタPがユーザの視線方向と完全に一致する。すなわち、手Hをユーザの視界に近づける必要なく、対象物Mを違和感なく視認することができる。例えば、手Hを車両Cのハンドル上に置いた状態でも、対象物Mを指し示すことができ、安全運転に寄与できる。 For example, when the pointer P is projected and displayed at the point A as in the first embodiment, if the hand H is raised on the user's line of sight and the object M on the line of sight is pointed to, the pointer P and the object M Are displayed in a match. On the other hand, in the second embodiment, as shown in FIG. 14, the pointer P completely matches the user's line-of-sight direction without raising the hand H on the user's line of sight. That is, the object M can be visually recognized without a sense of incongruity without having to bring the hand H close to the user's field of view. For example, even in a state where the hand H is placed on the handle of the vehicle C, the object M can be pointed, which can contribute to safe driving.
なお、視線方向と点Bに表示されたポインタPとが図14で示したように一直線上にならない場合、ポインタ座標(Xp、Yp)に座標変換する関数を微調整することによってキャリブレーションを実施することが望ましい。 When the line-of-sight direction and the pointer P displayed at the point B are not on a straight line as shown in FIG. 14, calibration is performed by finely adjusting the function for converting the coordinates to the pointer coordinates (Xp, Yp). It is desirable to do.
また、ユーザの手Hで指し示す方向の対象物と当該ユーザの視線方向に存在する対象物とは、絶えず一致しているとは限らない。例えば、ユーザは、手Hで特定したい対象物Mを指し示していても、当該対象物Mとは異なった車両前方を視認していることがある。このようなときには、ポインタPを表示しないようにしてもかまわない。図15は、手Hで指し示した対象物と視線方向にある対象物とが一致している場合にのみ、ポインタPを表示する様子を示す模式図である。 Further, the object in the direction indicated by the user's hand H and the object existing in the user's line-of-sight direction do not always coincide with each other. For example, even if the user points to the object M to be specified with the hand H, the user may be viewing the front of the vehicle different from the object M. In such a case, the pointer P may not be displayed. FIG. 15 is a schematic diagram showing a state in which the pointer P is displayed only when the object pointed by the hand H matches the object in the line-of-sight direction.
図15において、フロントガラスFを介した景観に対して、ユーザの視線が軌跡CEに沿って移動している。一方、フロントガラスFを介した景観に対して、ユーザの手Hで指し示す方向が軌跡CHに沿って移動している。このとき、ポインタPは、同一時刻でユーザの視線方向および手Hで指し示す方向が同じ対象物上で一致する箇所(同一時刻で軌跡CEおよびCHが交わる交点)にのみ、フロントガラスF上に表示される。また、軌跡CEやCHに対応する曲線は、フロントガラスF上には表示されないことが望ましい。これにより、手Hによって指し示す方向に存在する対象物と視線方向に存在する対象物とが一致していないときには、ポインタPが表示されずユーザからの入力指示も受付けないように設定することによって、安全運転に寄与することができる。 In FIG. 15, the user's line of sight moves along the locus CE with respect to the landscape through the windshield F. On the other hand, the direction indicated by the user's hand H is moving along the trajectory CH with respect to the landscape through the windshield F. At this time, the pointer P is displayed on the windshield F only at a location where the user's line-of-sight direction and the direction pointed by the hand H coincide on the same object at the same time (intersection where the trajectory CE and CH intersect at the same time). Is done. Further, it is desirable that the curve corresponding to the locus CE or CH is not displayed on the windshield F. Thereby, when the object present in the direction pointed by the hand H and the object present in the line-of-sight direction do not match, by setting so that the pointer P is not displayed and the input instruction from the user is not accepted, It can contribute to safe driving.
なお、手Hで指し示す方向を表すポインタと視線方向を示すポインタとをそれぞれ同時に両方表示させて、どちらのポインタを使用するかをユーザが選択可能に構成してもかまわない。 Note that a pointer indicating the direction indicated by the hand H and a pointer indicating the line-of-sight direction may be displayed at the same time so that the user can select which pointer to use.
(第3の実施形態)
以下、本発明の第3の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(Third embodiment)
Hereinafter, the target object specifying device according to the third embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.
図16は、第3の実施形態に係るカーナビゲーション装置3の概略の構成を示す構成図である。カーナビゲーション装置3は、第1の実施形態で説明したカーナビゲーション装置1に対して、撮像制御部25が追加で構成され、ポインタ座標決定部21を選択部26に置き換えている。また、当該実施形態における表示部22は、典型的には車載ディスプレイ(液晶ディスプレイや有機ELディスプレイ等)であり、本装置の起動をトリガとして撮像部18で撮像する映像を表示する。それ以外の構成要素は、第1の実施形態と同様であるため、同一の構成要素には同一の参照符号を付して詳細な説明を省略する。
FIG. 16 is a configuration diagram showing a schematic configuration of the
撮像制御部25は、制御部11の指令により撮像部18の撮像方向(パン、チルト)やズームを制御する手段である。また、選択部26は、撮像部18が複数のカメラで構成されている場合にそれらの映像から適切な映像を選択するための手段であり、選択された映像が表示部22に表示される。
The
次に、図17および図18を参照して、カーナビゲーション装置3の動作について説明する。なお、図17は、カーナビゲーション装置3における前半部の動作を示すフローチャートである。図18は、カーナビゲーション装置3における後半部の動作を示すフローチャートである。ここで、カーナビゲーション装置3で行う対象物特定処理は、第1の実施形態で説明した第1の例(図4)を用いる一例で説明する。したがって、撮像部18はステレオカメラで構成され、地図情報記憶部12には上記地図情報として2次元地図が格納される。
Next, the operation of the
図17において、ステップS60〜S67の処理は、図4で示したステップS10〜12、S14、およびステップS14〜S19と同様であるため、ここでは詳細な説明を省略する。また、第3の実施形態における動作で用いる指差し座標系、車両座標系、およびカメラ座標系は、図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、第3の実施形態においても、制御部11は、それぞれ車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。
In FIG. 17, the processing of steps S60 to S67 is the same as steps S10 to S12, S14, and steps S14 to S19 shown in FIG. In addition, the pointing coordinate system, the vehicle coordinate system, and the camera coordinate system used in the operation in the third embodiment are the same as the coordinate system described with reference to FIGS. . In the third embodiment, the
ステップS67で対象物の3次元位置が特定された後、選択部26は、撮像部18のステレオカメラのうち、何れのカメラで撮像した映像を選択する(ステップS68)。例えば、選択基準としては、撮像部18が車両Cの進行方向右側および左側にそれぞれカメラを有している場合、搭乗者の指差し方向に対応して当該指差し方向が車両Cの進行方向右側なら当該右側のカメラからの映像を選択し、進行方向左側なら当該左側のカメラからの映像を選択することとする。そして、撮像制御部25は、特定された対象物の3次元位置に基づいて、当該対象物が表示部22の画面中央に配置されるように、選択されたカメラの撮像方向を制御する(ステップS69)。これにより、所定の方向に存在する対象物を確実に表示部に表示することができる。そして、制御部11は、処理を次のステップS70(図18)に進める。
After the three-dimensional position of the object is specified in step S67, the
図18において、対象物Mが特定されている場合(ステップS70でYes)、制御部11は、入力部14を介してユーザからの入力指示があるかを判断する(ステップS71)。そして、制御部11は、対象物Mが特定されていない場合(ステップS70でNo)または入力指示がない場合(ステップS71でNo)、上記ステップS61に戻って処理を繰り返す。一方、入力指示がある場合(ステップS71でYes)、制御部11は、その入力指示内容に応じた処理を行う(ステップS72〜S75)。
In FIG. 18, when the object M is specified (Yes in step S70), the
例えば、ユーザの発話が「拡大」と認識された場合には、上記ステップS68で選択した映像を撮像制御部25が拡大するようズーム制御する(ステップS72)。これにより、車両Cの遠方に存在する対象物の映像が拡大されるため、対象物を視認して得られる情報を容易に得ることが可能となる。例えば、少し遠方にあり、運転手が目を細めないと確認できないような距離に存在する対象物(例えば、標識や看板)を指差して「拡大」と発話することにより、容易に情報を得ることができる。なお、このとき標識や看板を優先して認識するようにしても良い。一方、ユーザの発話が「縮小」と認識された場合には、上記ステップS68で選択した映像を撮像制御部25が縮小するようズーム制御する(ステップS73)。また、ユーザの発話が「記録」と認識された場合には、制御部11は、表示部22に表示している映像を静止画や動画等として、記録部(図示せず)に記録する(ステップS74)。例えば、このステップS74で記録した映像は、後で呼出すことによってルート案内等に利用することができる。そして、これらステップS72〜S74の動作の後、カーナビゲーション装置3は、上記ステップS61に戻って処理を繰り返す。
For example, when the user's utterance is recognized as “enlargement”, zoom control is performed so that the
一方、ユーザの発話が「停止」と認識された場合には、撮像制御部25が撮像部18のカメラ方向やズームを初期値に戻し消去し(ステップS75)、カーナビゲーション装置3の指差し入力機能に関する動作を停止して(ステップS76)、当該フローチャートによる処理を終了する。
On the other hand, when the user's utterance is recognized as “stop”, the
なお、上記ステップS72〜S75の処理は、主に撮像部18に関する動作を制御する一例を取りあげて説明したが、ユーザからの他の入力指示に対する機能を備えることもできる。例えば、図5で説明したステップS22〜S27の処理や、第1の実施形態で説明した他の処理についても同様に、カーナビゲーション装置3で実現することも可能である。
In addition, although the process of said step S72-S75 picked up and demonstrated the example which mainly controls the operation | movement regarding the
また、本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。特に、本対象物特定装置を車両だけでなく、列車や船舶、航空機等の移動体に設置して利用できる。例えば、列車に応用する場合では指差す方向に存在する駅の名称を前面ガラス上に投影することができる。 It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. In particular, the present object identification device can be used not only for vehicles but also for moving objects such as trains, ships, and airplanes. For example, in the case of application to a train, the name of a station existing in the pointing direction can be projected on the front glass.
本発明に係る対象物特定装置は、ユーザの手や指が指し示している方向に存在する対象物を正確に特定することができ、車両内に設置される車載用入力装置、カーナビゲーション装置、車載情報端末等として有用であり、車両の他、列車、船舶、航空機等の移動体に設置することができる。 The object specifying device according to the present invention can accurately specify an object existing in the direction indicated by the user's hand or finger, and is an in-vehicle input device, a car navigation device, and an in-vehicle device installed in the vehicle. It is useful as an information terminal or the like, and can be installed on a moving body such as a train, a ship, and an aircraft in addition to a vehicle.
1、2、3…カーナビゲーション装置
11…制御部
12…地図情報記憶部
13…測位部
14…入力部
15…音声出力部
16…指差し方向検知部
17…指差し座標取得部
18…撮像部
20…画像認識/測距部
21…ポインタ座標決定部
22…表示部
23…視線方向検知部
24…視線座標取得部
25…撮像制御部
26…選択部
1, 2, 3 ...
Claims (14)
車両の現在位置および車両の方位を検出する測位部と、
前記車両の周囲を撮像する撮像部と、
前記車両内のユーザが自身の手を用いて指し示した指示方向を検知する指差し方向検知部と、
前記指差し方向検知部が検知した指示方向に存在する対象物を前記撮像部が撮像した画像内から抽出する対象物抽出部と、
前記車両に対して、前記対象物抽出部が抽出した対象物の位置を特定する対象物位置特定部とを備える、対象物特定装置。 An object specifying device for specifying a position of an object around a vehicle,
A positioning unit that detects the current position of the vehicle and the direction of the vehicle;
An imaging unit for imaging the periphery of the vehicle;
A pointing direction detection unit that detects a pointing direction indicated by a user in the vehicle using his / her hand;
An object extraction unit that extracts an object existing in an instruction direction detected by the pointing direction detection unit from an image captured by the imaging unit;
An object specifying device comprising: an object position specifying unit that specifies a position of an object extracted by the object extracting unit with respect to the vehicle.
前記対象物特定装置は、前記指差し方向検知部が検知した指示方向を前記カメラの撮像方向を基準とするカメラ座標系における指示方向に変換する座標変換部を、さらに備え、
前記対象物抽出部は、前記撮像部が撮像した画像内から前記座標変換部が変換した指示方向に撮像された被撮像物を対象物として抽出することを特徴とする、請求項1に記載の対象物特定装置。 The imaging unit is composed of at least one camera installed in the vehicle,
The target object specifying device further includes a coordinate conversion unit that converts an indication direction detected by the pointing direction detection unit into an indication direction in a camera coordinate system based on an imaging direction of the camera,
2. The object extraction unit according to claim 1, wherein the object extraction unit extracts, as an object, an object to be imaged captured in an instruction direction converted by the coordinate conversion unit from an image captured by the imaging unit. Object identification device.
前記対象物抽出部は、一方の前記カメラが撮像した画像から前記指示方向に撮像された所定サイズの領域を抽出し、当該領域の画像と他方の前記カメラが撮像した画像とのマッチングによって当該指示方向に撮像された被撮像物を対象物として抽出し、
前記対象物位置特定部は、複数のカメラが対象物をそれぞれ撮像している方向に基づいて、前記車両に対する対象物の位置を算出することを特徴とする、請求項2に記載の対象物特定装置。 The imaging unit is composed of a plurality of cameras installed on the vehicle in parallel equiposition,
The object extraction unit extracts a region of a predetermined size imaged in the instruction direction from an image captured by one of the cameras, and performs the instruction by matching the image of the region with an image captured by the other camera. The object to be imaged in the direction is extracted as the object,
The target object specifying unit according to claim 2, wherein the target object position specifying unit calculates the position of the target object with respect to the vehicle based on directions in which a plurality of cameras are respectively imaging the target object. apparatus.
前記対象物特定装置は、少なくとも前記車両の現在位置付近の3次元地図を格納する地図情報記憶部を、さらに備え、
前記対象物抽出部は、前記カメラが撮像した画像から前記指示方向に撮像された被撮像物の輪郭を対象物の輪郭として抽出し、
前記対象物位置特定部は、前記3次元地図から前記対象物抽出部が抽出した輪郭と一致する形状のオブジェクトの位置を当該3次元地図上で特定して、前記車両に対する対象物の位置を算出することを特徴とする、請求項2に記載の対象物特定装置。 The imaging unit is composed of a single camera installed in the vehicle,
The target object specifying device further includes a map information storage unit that stores at least a three-dimensional map near the current position of the vehicle,
The object extraction unit extracts, as an outline of an object, an outline of an object imaged in the indicated direction from an image captured by the camera.
The object position specifying unit specifies the position of an object having a shape matching the contour extracted by the object extraction unit from the three-dimensional map on the three-dimensional map, and calculates the position of the object with respect to the vehicle The object specifying device according to claim 2, wherein:
前記車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する表示部と、
前記指差し方向検知部が検知した指示方向と前記表示領域が設定されたガラスとの交点座標を決定するポインタ座標決定部と、
前記ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する表示制御部とを、さらに備える、請求項1に記載の対象物特定装置。 The object specifying device includes:
A display unit that projects an image using at least one glass provided in the vehicle as a display region;
A pointer coordinate determination unit that determines an intersection coordinate between the indication direction detected by the pointing direction detection unit and the glass in which the display area is set;
The object specifying device according to claim 1, further comprising: a display control unit that controls display of a pointer image in a display area on the intersection coordinates determined by the pointer coordinate determination unit.
前記車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する表示部と、
前記車両内のユーザの視線方向を検知する視線検知部と、
前記対象物位置特定部が特定した対象物の位置とユーザの視線とを結ぶ直線と前記表示領域が設定されたガラスとの交点座標を決定するポインタ座標決定部と、
前記ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する表示制御部とを、さらに備える、請求項1に記載の対象物特定装置。 The object specifying device includes:
A display unit that projects an image using at least one glass provided in the vehicle as a display region;
A line-of-sight detection unit that detects a line-of-sight direction of the user in the vehicle;
A pointer coordinate determining unit that determines an intersection coordinate between a straight line connecting the position of the object specified by the object position specifying unit and the user's line of sight and the glass in which the display area is set;
The object specifying device according to claim 1, further comprising: a display control unit that controls display of a pointer image in a display area on the intersection coordinates determined by the pointer coordinate determination unit.
前記対象物特定装置は、
前記車両内に設置される表示部と、
前記指差し方向検知部が検知した指示方向に応じて、前記複数のカメラから出力される画像から何れか1つの画像を選択して前記表示部に表示する選択部とを、さらに備える、請求項1に記載の対象物特定装置。 The imaging unit is composed of a plurality of cameras installed in the vehicle,
The object specifying device includes:
A display unit installed in the vehicle;
The apparatus further comprises: a selection unit that selects any one image from images output from the plurality of cameras according to an instruction direction detected by the pointing direction detection unit and displays the selected image on the display unit. The object specifying device according to 1.
少なくとも前記車両の現在位置付近の地図情報および当該地図で表される各領域に対する情報を格納する地図情報記憶部と、
前記対象物位置特定部が特定した対象物に関する情報を前記地図情報記憶部に格納されている情報から抽出して、前記車両内のユーザに報知する情報出力部とを、さらに備える、請求項1に記載の対象物特定装置。 The object specifying device includes:
A map information storage unit for storing at least map information near the current position of the vehicle and information for each region represented by the map;
The information output part which extracts the information regarding the target object which the said target object position specific | specification part specified from the information stored in the said map information storage part, and alert | reports to the user in the said vehicle is further provided. The object specifying device described in 1.
所定のネットワークを介して通信可能な通信部と、
前記情報出力部が出力する情報を表示する表示部とを、さらに備え、
前記情報出力部は、前記地図情報記憶部に格納されている情報が前記ネットワーク上に存在する情報資源の場所を示すとき、前記通信部を介して当該情報資源から情報を取得して前記表示部に表示することを特徴とする、請求項12に記載の対象物特定装置。 The object specifying device includes:
A communication unit capable of communicating via a predetermined network;
A display unit for displaying the information output by the information output unit,
The information output unit obtains information from the information resource via the communication unit when the information stored in the map information storage unit indicates a location of the information resource existing on the network, and displays the display unit. The object specifying device according to claim 12, wherein the object specifying device is displayed.
少なくとも前記車両の現在位置付近の地図情報を格納する地図情報記憶部と、
前記対象物位置特定部が特定した対象物の位置を経由地または目的地に設定してルート検索するルート検索部とを、さらに備える、請求項1に記載の対象物特定装置。
The object specifying device includes:
A map information storage unit for storing at least map information near the current position of the vehicle;
The object specifying device according to claim 1, further comprising: a route search unit configured to search for a route by setting the position of the object specified by the object position specifying unit as a waypoint or a destination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005268535A JP2007080060A (en) | 2005-09-15 | 2005-09-15 | Object identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005268535A JP2007080060A (en) | 2005-09-15 | 2005-09-15 | Object identification device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007080060A true JP2007080060A (en) | 2007-03-29 |
Family
ID=37940286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005268535A Pending JP2007080060A (en) | 2005-09-15 | 2005-09-15 | Object identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007080060A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009229180A (en) * | 2008-03-21 | 2009-10-08 | Mitsubishi Electric Corp | Navigation device |
JP2010176313A (en) * | 2009-01-28 | 2010-08-12 | Toshiba Corp | Information-processing device and information-processing method |
JP2012004809A (en) * | 2010-06-16 | 2012-01-05 | Denso Corp | Imaging system |
JP2014135086A (en) * | 2010-08-04 | 2014-07-24 | Apple Inc | Three dimensional user interface effects on display by using properties of motion |
WO2014196038A1 (en) * | 2013-06-05 | 2014-12-11 | 三菱電機株式会社 | Device for processing information through line-of-sight detection and information processing method |
JP2015041197A (en) * | 2013-08-21 | 2015-03-02 | 三菱電機株式会社 | Display control device |
WO2016035281A1 (en) * | 2014-09-04 | 2016-03-10 | 株式会社ランディード | Vehicle-mounted system, information processing method, and computer program |
JP2016075530A (en) * | 2014-10-03 | 2016-05-12 | エヌ・ティ・ティ・インフラネット株式会社 | Navigation device and navigation method |
KR20160091767A (en) * | 2015-01-26 | 2016-08-03 | 엘지전자 주식회사 | Apparatus for controlling vehicle and method for controlling the same |
US9411413B2 (en) | 2010-08-04 | 2016-08-09 | Apple Inc. | Three dimensional user interface effects on a display |
CN106394553A (en) * | 2015-08-03 | 2017-02-15 | Lg电子株式会社 | Driver assistance apparatus and control method for the same |
JP2018505426A (en) * | 2014-12-26 | 2018-02-22 | ヘーレ グローバル ベスローテン フェンノートシャップ | Device location using multilateration |
KR101843538B1 (en) * | 2015-12-16 | 2018-03-30 | 엘지전자 주식회사 | Driver assistance appratus and method thereof |
WO2018230678A1 (en) * | 2017-06-16 | 2018-12-20 | 本田技研工業株式会社 | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device |
WO2019077908A1 (en) * | 2017-10-20 | 2019-04-25 | 株式会社デンソー | Gesture input device |
WO2019131926A1 (en) * | 2017-12-28 | 2019-07-04 | 株式会社デンソー | Target selecting device |
JP2020144552A (en) * | 2019-03-05 | 2020-09-10 | 株式会社デンソーテン | Information providing device and information providing method |
JP2021071885A (en) * | 2019-10-30 | 2021-05-06 | 富士通株式会社 | Area cut-out method and area cut-out program |
US11069239B2 (en) | 2017-06-16 | 2021-07-20 | Honda Motor Co., Ltd. | Event vehicle dispatch device, event vehicle dispatch method, program, and management system |
WO2021149594A1 (en) | 2020-01-21 | 2021-07-29 | パイオニア株式会社 | Information provision device, information provision method, information provision program, and recording medium |
JP2021162398A (en) * | 2020-03-31 | 2021-10-11 | パイオニア株式会社 | Information providing device, information providing method, information providing program, and storage medium |
US11586223B2 (en) | 2017-06-16 | 2023-02-21 | Honda Motor Co., Ltd. | Vehicle and service management device |
US11794816B2 (en) | 2017-06-16 | 2023-10-24 | Honda Motor Co., Ltd. | Automated driving vehicle |
JP2024177244A (en) * | 2014-09-26 | 2024-12-19 | 日本電気株式会社 | Information processing device, information processing method, information processing program, and information processing system |
-
2005
- 2005-09-15 JP JP2005268535A patent/JP2007080060A/en active Pending
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009229180A (en) * | 2008-03-21 | 2009-10-08 | Mitsubishi Electric Corp | Navigation device |
JP2010176313A (en) * | 2009-01-28 | 2010-08-12 | Toshiba Corp | Information-processing device and information-processing method |
JP2012004809A (en) * | 2010-06-16 | 2012-01-05 | Denso Corp | Imaging system |
US9411413B2 (en) | 2010-08-04 | 2016-08-09 | Apple Inc. | Three dimensional user interface effects on a display |
JP2014135086A (en) * | 2010-08-04 | 2014-07-24 | Apple Inc | Three dimensional user interface effects on display by using properties of motion |
US9778815B2 (en) | 2010-08-04 | 2017-10-03 | Apple Inc. | Three dimensional user interface effects on a display |
US9417763B2 (en) | 2010-08-04 | 2016-08-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
WO2014196038A1 (en) * | 2013-06-05 | 2014-12-11 | 三菱電機株式会社 | Device for processing information through line-of-sight detection and information processing method |
JP2015041197A (en) * | 2013-08-21 | 2015-03-02 | 三菱電機株式会社 | Display control device |
WO2016035281A1 (en) * | 2014-09-04 | 2016-03-10 | 株式会社ランディード | Vehicle-mounted system, information processing method, and computer program |
JP2024177244A (en) * | 2014-09-26 | 2024-12-19 | 日本電気株式会社 | Information processing device, information processing method, information processing program, and information processing system |
JP2016075530A (en) * | 2014-10-03 | 2016-05-12 | エヌ・ティ・ティ・インフラネット株式会社 | Navigation device and navigation method |
JP2018505426A (en) * | 2014-12-26 | 2018-02-22 | ヘーレ グローバル ベスローテン フェンノートシャップ | Device location using multilateration |
KR20160091767A (en) * | 2015-01-26 | 2016-08-03 | 엘지전자 주식회사 | Apparatus for controlling vehicle and method for controlling the same |
KR101698102B1 (en) * | 2015-01-26 | 2017-01-19 | 엘지전자 주식회사 | Apparatus for controlling vehicle and method for controlling the same |
CN106394553A (en) * | 2015-08-03 | 2017-02-15 | Lg电子株式会社 | Driver assistance apparatus and control method for the same |
EP3128462A3 (en) * | 2015-08-03 | 2017-05-17 | Lg Electronics Inc. | Driver assistance apparatus and control method for the same |
US10286905B2 (en) | 2015-08-03 | 2019-05-14 | Lg Electronics Inc. | Driver assistance apparatus and control method for the same |
KR101843538B1 (en) * | 2015-12-16 | 2018-03-30 | 엘지전자 주식회사 | Driver assistance appratus and method thereof |
US10289274B2 (en) | 2015-12-16 | 2019-05-14 | Lg Electronics Inc. | Vehicle driver assistance apparatus and vehicle driver assistance method therefor |
US11069239B2 (en) | 2017-06-16 | 2021-07-20 | Honda Motor Co., Ltd. | Event vehicle dispatch device, event vehicle dispatch method, program, and management system |
JP2020089744A (en) * | 2017-06-16 | 2020-06-11 | 本田技研工業株式会社 | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and indication measuring device |
US20200197791A1 (en) | 2017-06-16 | 2020-06-25 | Honda Motor Co., Ltd. | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device |
WO2018230678A1 (en) * | 2017-06-16 | 2018-12-20 | 本田技研工業株式会社 | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device |
US12145050B2 (en) | 2017-06-16 | 2024-11-19 | Honda Motor Co., Ltd. | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device |
US11794816B2 (en) | 2017-06-16 | 2023-10-24 | Honda Motor Co., Ltd. | Automated driving vehicle |
JP7216033B2 (en) | 2017-06-16 | 2023-01-31 | 本田技研工業株式会社 | In-vehicle presentation device, in-vehicle presentation system, in-vehicle presentation method, and program |
US11586223B2 (en) | 2017-06-16 | 2023-02-21 | Honda Motor Co., Ltd. | Vehicle and service management device |
US11691070B2 (en) | 2017-06-16 | 2023-07-04 | Honda Motor Co., Ltd. | In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device |
JP2019079097A (en) * | 2017-10-20 | 2019-05-23 | 株式会社デンソー | Gesture input apparatus |
WO2019077908A1 (en) * | 2017-10-20 | 2019-04-25 | 株式会社デンソー | Gesture input device |
WO2019131926A1 (en) * | 2017-12-28 | 2019-07-04 | 株式会社デンソー | Target selecting device |
JP2020144552A (en) * | 2019-03-05 | 2020-09-10 | 株式会社デンソーテン | Information providing device and information providing method |
JP7327083B2 (en) | 2019-10-30 | 2023-08-16 | 富士通株式会社 | Region clipping method and region clipping program |
JP2021071885A (en) * | 2019-10-30 | 2021-05-06 | 富士通株式会社 | Area cut-out method and area cut-out program |
WO2021149594A1 (en) | 2020-01-21 | 2021-07-29 | パイオニア株式会社 | Information provision device, information provision method, information provision program, and recording medium |
JP2021162398A (en) * | 2020-03-31 | 2021-10-11 | パイオニア株式会社 | Information providing device, information providing method, information providing program, and storage medium |
JP2024091702A (en) * | 2020-03-31 | 2024-07-05 | パイオニア株式会社 | Information Providing Device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007080060A (en) | Object identification device | |
EP3338136B1 (en) | Augmented reality in vehicle platforms | |
CN103140377B (en) | For showing method and the driver assistance system of image on the display apparatus | |
US20090262145A1 (en) | Information display device | |
JP2013231655A (en) | Display system, portable device, on-vehicle unit, and program | |
JP2009020089A (en) | NAVIGATION DEVICE, NAVIGATION METHOD, AND NAVIGATION PROGRAM | |
US20070124071A1 (en) | System for providing 3-dimensional vehicle information with predetermined viewpoint, and method thereof | |
JP2007292713A (en) | Navigation device | |
JP7236442B2 (en) | Control method for display device in automobile | |
CN110047105B (en) | Information processing apparatus, information processing method, and storage medium | |
WO2018134897A1 (en) | Position and posture detection device, ar display device, position and posture detection method, and ar display method | |
JP4366716B2 (en) | Vehicle information display device | |
KR102719930B1 (en) | Method and apparatus for generating an image representing an object around a vehicle | |
JP2010185761A (en) | Navigation system, road map display method | |
JP2022176234A (en) | Information display control device, information display control method, and information display control program | |
JP6444508B2 (en) | Display control device and navigation device | |
JP6186905B2 (en) | In-vehicle display device and program | |
JP4917191B1 (en) | Image control apparatus and image control method | |
CN102798397B (en) | Navigation device with camera information | |
CN112558008B (en) | Navigation method, system, equipment and medium based on optical communication device | |
JP6401925B2 (en) | Virtual image display device, control method, program, and storage medium | |
JP5231595B2 (en) | Navigation device | |
JP5388551B2 (en) | In-vehicle display system and display method | |
JP2005233712A (en) | Position display system | |
KR20040025150A (en) | Route guide method in car navigation system |