[go: up one dir, main page]

JP2007080060A - Object identification device - Google Patents

Object identification device Download PDF

Info

Publication number
JP2007080060A
JP2007080060A JP2005268535A JP2005268535A JP2007080060A JP 2007080060 A JP2007080060 A JP 2007080060A JP 2005268535 A JP2005268535 A JP 2005268535A JP 2005268535 A JP2005268535 A JP 2005268535A JP 2007080060 A JP2007080060 A JP 2007080060A
Authority
JP
Japan
Prior art keywords
unit
vehicle
image
imaging
specifying device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005268535A
Other languages
Japanese (ja)
Inventor
Takashi Kondo
剛史 金銅
Takahiro Kudo
貴弘 工藤
Takashi Akita
貴志 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005268535A priority Critical patent/JP2007080060A/en
Publication of JP2007080060A publication Critical patent/JP2007080060A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 ユーザの手や指が指し示している方向に存在する対象物を正確に特定する対象物特定装置を提供する。
【解決手段】 測位部13は、車両の現在位置および車両の方位を検出する。撮像部18は、車両の周囲を撮像する。指差し方向検知部16は、車両内のユーザが自身の手を用いて指し示した指示方向を検知する。対象物抽出部は、指差し方向検知部16が検知した指示方向に存在する対象物を撮像部18が撮像した画像内から抽出する。対象物位置特定部は、車両に対して、対象物抽出部が抽出した対象物の位置を特定する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide an object specifying device for accurately specifying an object existing in a direction indicated by a user's hand or finger.
A positioning unit 13 detects a current position of a vehicle and a direction of the vehicle. The imaging unit 18 images the surroundings of the vehicle. The pointing direction detection unit 16 detects an instruction direction indicated by a user in the vehicle using his / her hand. The object extraction unit extracts an object existing in the indicated direction detected by the pointing direction detection unit 16 from the image captured by the imaging unit 18. The object position specifying unit specifies the position of the object extracted by the object extracting unit with respect to the vehicle.
[Selection] Figure 1

Description

本発明は、対象物特定装置に関し、より特定的には、ユーザの手または指が指し示している方向に基づいて、車両周辺の対象物を特定する対象物特定装置に関する。   The present invention relates to an object specifying device, and more specifically to an object specifying device that specifies an object around a vehicle based on a direction indicated by a user's hand or finger.

近年、HDD(ハードディスクドライブ)やDVD(デジタルヴァーサタイルディスク)等の記録媒体に地図情報と共に記憶された車両周辺の情報を、ディスプレイ上で閲覧可能なカーナビゲーション装置が広く普及している。   2. Description of the Related Art In recent years, car navigation devices that can browse information on the periphery of a vehicle stored together with map information on a recording medium such as an HDD (Hard Disk Drive) or a DVD (Digital Versatile Disk) on a display have become widespread.

一方、ディスプレイ上の地図に表示されている情報からだけではなく、運転者等の搭乗者が手や指で指し示している指示方向に存在する地図上の地名や施設名を音声にて読上げて、ディスプレイ上に表示するナビゲーション装置が開示されている(例えば、特許文献1参照)。これにより、搭乗者が目に付いた建物や湖等の名称や周囲の地名等の情報を、当該搭乗者の手や指で指し示すことで迅速に入手することができる。
特開2003−106861号公報
On the other hand, not only from the information displayed on the map on the display, but also by reading out the place name and facility name on the map that exists in the direction indicated by the driver and other passengers, A navigation device for displaying on a display is disclosed (for example, see Patent Document 1). As a result, information such as the names of buildings, lakes, and the like, and the names of surrounding places, etc. that the passenger sees can be quickly obtained by pointing with the hand or finger of the passenger.
JP 2003-106861 A

しかしながら、上記特許文献1に開示されているナビゲーション装置は、搭乗者の手や指で指し示している指示方向に存在する対象物までの距離を算出するにあたり、当該指示方向の仰角を用いて対象物までの距離を4段階に分けて対応付けして算出している。したがって、地図情報記憶部にある地図情報からある程度の広範囲を対象にして上記指示方向に存在する対象物を特定する必要があり、対象物特定の精度に課題を残している。また、車両周辺に関する情報だけでなく相対的に遠方にあり、搭乗者が視認困難な距離に存在する対象物(例えば、遠方の標識や看板)を高精度に特定することはできなかった。   However, the navigation device disclosed in Patent Document 1 uses the elevation angle in the indicated direction to calculate the distance to the object existing in the indicated direction indicated by the passenger's hand or finger. The distance up to is divided into four steps and associated with each other. Therefore, it is necessary to specify an object existing in the indicated direction for a certain wide range from the map information in the map information storage unit, and there remains a problem in the accuracy of specifying the object. Further, not only information related to the periphery of the vehicle, but also an object (for example, a distant sign or a signboard) that is located at a relatively far distance and difficult for the passenger to visually recognize cannot be identified with high accuracy.

それ故に、本発明の目的は、ユーザの手や指が指し示している方向に存在する対象物を正確に特定する対象物特定装置を提供することである。   Therefore, an object of the present invention is to provide an object specifying device that accurately specifies an object existing in a direction indicated by a user's hand or finger.

上記目的を達成するために、本発明は、以下に述べるような特徴を有している。
第1の発明は、車両周辺の対象物の位置を特定する対象物特定装置である。対象物特定装置は、測位部、撮像部、指差し方向検知部、対象物抽出部、および対象物位置特定部を備える。測位部は、車両の現在位置および車両の方位を検出する。撮像部は、車両の周囲を撮像する。指差し方向検知部は、車両内のユーザが自身の手を用いて指し示した指示方向を検知する。対象物抽出部は、指差し方向検知部が検知した指示方向に存在する対象物を撮像部が撮像した画像内から抽出する。対象物位置特定部は、車両に対して、対象物抽出部が抽出した対象物の位置を特定する。
In order to achieve the above object, the present invention has the following features.
1st invention is the target object specific apparatus which specifies the position of the target object around a vehicle. The object specifying device includes a positioning unit, an imaging unit, a pointing direction detecting unit, an object extracting unit, and an object position specifying unit. The positioning unit detects the current position of the vehicle and the direction of the vehicle. The imaging unit images the surroundings of the vehicle. The pointing direction detection unit detects an instruction direction indicated by a user in the vehicle using his / her hand. The object extraction unit extracts an object existing in the indicated direction detected by the pointing direction detection unit from the image captured by the imaging unit. The object position specifying unit specifies the position of the object extracted by the object extracting unit with respect to the vehicle.

第2の発明は、上記第1の発明において、撮像部は、車両に設置された少なくとも1つのカメラで構成される。対象物特定装置は、座標変換部を、さらに備える。座標変換部は、指差し方向検知部が検知した指示方向をカメラの撮像方向を基準とするカメラ座標系における指示方向に変換する。対象物抽出部は、撮像部が撮像した画像内から座標変換部が変換した指示方向に撮像された被撮像物を対象物として抽出する。   In a second aspect based on the first aspect, the imaging unit is composed of at least one camera installed in the vehicle. The target object specifying device further includes a coordinate conversion unit. The coordinate conversion unit converts the indication direction detected by the pointing direction detection unit into an indication direction in a camera coordinate system based on the imaging direction of the camera. The target object extraction unit extracts, as a target object, an imaged object imaged in the indicated direction converted by the coordinate conversion unit from the image captured by the imaging unit.

第3の発明は、上記第2の発明において、撮像部は、平行等位に車両に設置された複数のカメラで構成される。対象物抽出部は、一方のカメラが撮像した画像から指示方向に撮像された所定サイズの領域を抽出し、その領域の画像と他方のカメラが撮像した画像とのマッチングによってその指示方向に撮像された被撮像物を対象物として抽出する。対象物位置特定部は、複数のカメラが対象物をそれぞれ撮像している方向に基づいて、車両に対する対象物の位置を算出する。   In a third aspect based on the second aspect, the imaging unit is composed of a plurality of cameras installed on the vehicle in parallel equiposition. The object extraction unit extracts a region of a predetermined size captured in the indicated direction from an image captured by one camera, and is captured in the specified direction by matching the image of that region with the image captured by the other camera. The captured object is extracted as an object. The object position specifying unit calculates the position of the object with respect to the vehicle based on directions in which the plurality of cameras are respectively imaging the objects.

第4の発明は、上記第3の発明において、対象物抽出部は、指示方向が時系列的に変化することによってその指示方向に囲まれた空間内に撮像された画像を領域の画像として抽出する。   In a fourth aspect based on the third aspect, the object extraction unit extracts, as an image of a region, an image captured in a space surrounded by the designated direction when the designated direction changes in time series To do.

第5の発明は、上記第2の発明において、撮像部は、車両に設置された単一のカメラで構成される。対象物特定装置は、地図情報記憶部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の3次元地図を格納する。対象物抽出部は、カメラが撮像した画像から指示方向に撮像された被撮像物の輪郭を対象物の輪郭として抽出する。対象物位置特定部は、3次元地図から対象物抽出部が抽出した輪郭と一致する形状のオブジェクトの位置をその3次元地図上で特定して、車両に対する対象物の位置を算出する。   In a fifth aspect based on the second aspect, the imaging unit is constituted by a single camera installed in the vehicle. The target object specifying device further includes a map information storage unit. The map information storage unit stores at least a three-dimensional map near the current position of the vehicle. The object extraction unit extracts the contour of the object to be imaged in the designated direction from the image captured by the camera as the contour of the object. The target object position specifying unit specifies the position of an object having a shape matching the contour extracted by the target object extracting unit from the three-dimensional map on the three-dimensional map, and calculates the position of the target object with respect to the vehicle.

第6の発明は、上記第1の発明において、表示部、ポインタ座標決定部、および表示制御部を、さらに備える。表示部は、車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する。ポインタ座標決定部は、指差し方向検知部が検知した指示方向と表示領域が設定されたガラスとの交点座標を決定する。表示制御部は、ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する。   In a sixth aspect based on the first aspect, the display device further includes a display unit, a pointer coordinate determination unit, and a display control unit. The display unit projects an image using at least one glass provided in the vehicle as a display area. The pointer coordinate determination unit determines an intersection coordinate between the indication direction detected by the pointing direction detection unit and the glass in which the display area is set. The display control unit controls the display of the pointer image in the display area on the intersection coordinates determined by the pointer coordinate determination unit.

第7の発明は、上記第1の発明において、表示部、視線検知部、ポインタ座標決定部、および表示制御部を、さらに備える。表示部は、車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する。視線検知部は、車両内のユーザの視線方向を検知する。ポインタ座標決定部は、対象物位置特定部が特定した対象物の位置とユーザの視線とを結ぶ直線と表示領域が設定されたガラスとの交点座標を決定する。表示制御部は、ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する。   In a seventh aspect based on the first aspect, the display device further includes a display unit, a line-of-sight detection unit, a pointer coordinate determination unit, and a display control unit. The display unit projects an image using at least one glass provided in the vehicle as a display area. The line-of-sight detection unit detects a user's line-of-sight direction in the vehicle. The pointer coordinate determining unit determines an intersection coordinate between a straight line connecting the position of the object specified by the object position specifying unit and the user's line of sight and the glass on which the display area is set. The display control unit controls the display of the pointer image in the display area on the intersection coordinates determined by the pointer coordinate determination unit.

第8の発明は、上記第6または第7の発明において、調整部を、さらに備える。調整部は、ポインタ座標決定部が決定する交点座標をユーザからの指示に応じて調整する。   An eighth invention according to the sixth or seventh invention further comprises an adjustment unit. The adjustment unit adjusts the intersection coordinates determined by the pointer coordinate determination unit in accordance with an instruction from the user.

第9の発明は、上記第1の発明において、撮像部は、車両に設置された複数のカメラで構成される。対象物特定装置は、表示部および選択部を、さらに備える。表示部は、車両内に設置される。選択部は、指差し方向検知部が検知した指示方向に応じて、複数のカメラから出力される画像から何れか1つの画像を選択して表示部に表示する。   In a ninth aspect based on the first aspect, the imaging unit includes a plurality of cameras installed in the vehicle. The target object specifying device further includes a display unit and a selection unit. The display unit is installed in the vehicle. The selection unit selects any one image from the images output from the plurality of cameras according to the instruction direction detected by the pointing direction detection unit, and displays the selected image on the display unit.

第10の発明は、上記第9の発明において、撮像制御部を、さらに備える。撮像制御部は、対象物位置特定部が特定した対象物が画像の中心に撮像されるように、選択部が選択した画像を撮像するカメラの撮像方向を制御する。   In a tenth aspect based on the ninth aspect, an imaging control unit is further provided. The imaging control unit controls the imaging direction of the camera that captures the image selected by the selection unit so that the object specified by the object position specifying unit is imaged at the center of the image.

第11の発明は、上記第9の発明において、撮像制御部を、さらに備える。撮像制御部は、対象物位置特定部が特定した対象物が画像の中心で拡大または縮小して撮像されるように、選択部が選択した画像を撮像するカメラの撮像倍率を制御する。   In an eleventh aspect based on the ninth aspect, an imaging control unit is further provided. The imaging control unit controls the imaging magnification of the camera that captures the image selected by the selection unit so that the object specified by the object position specifying unit is enlarged or reduced at the center of the image.

第12の発明は、上記第1の発明において、地図情報記憶部および情報出力部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の地図情報およびその地図で表される各領域に対する情報を格納する。情報出力部は、対象物位置特定部が特定した対象物に関する情報を地図情報記憶部に格納されている情報から抽出して、車両内のユーザに報知する。   In a twelfth aspect based on the first aspect, the map information storage section and the information output section are further provided. The map information storage unit stores at least map information in the vicinity of the current position of the vehicle and information for each area represented by the map. The information output unit extracts information related to the object specified by the object position specifying unit from the information stored in the map information storage unit, and notifies the user in the vehicle.

第13の発明は、上記第12の発明において、通信部および表示部を、さらに備える。通信部は、所定のネットワークを介して通信可能である。表示部は、情報出力部が出力する情報を表示する。情報出力部は、地図情報記憶部に格納されている情報がネットワーク上に存在する情報資源の場所を示すとき、通信部を介してその情報資源から情報を取得して表示部に表示する。   In a thirteenth aspect based on the twelfth aspect, the communication section and the display section are further provided. The communication unit can communicate via a predetermined network. The display unit displays information output from the information output unit. When the information stored in the map information storage unit indicates the location of the information resource existing on the network, the information output unit acquires the information from the information resource via the communication unit and displays it on the display unit.

第14の発明は、上記第1の発明において、地図情報記憶部およびルート検索部を、さらに備える。地図情報記憶部は、少なくとも車両の現在位置付近の地図情報を格納する。ルート検索部は、対象物位置特定部が特定した対象物の位置を経由地または目的地に設定してルート検索する。   In a fourteenth aspect based on the first aspect, the information processing apparatus further includes a map information storage unit and a route search unit. The map information storage unit stores at least map information near the current position of the vehicle. The route search unit performs a route search by setting the position of the object specified by the object position specifying unit as a waypoint or a destination.

上記第1の発明によれば、ユーザの手や指が指し示している方向に存在する対象物を特定するにあたり、撮像部が撮像した画像を用いて特定されるため高精度に対象物の位置を特定することができる。   According to the first aspect of the invention, in specifying the object existing in the direction indicated by the user's hand or finger, the object is specified using the image captured by the imaging unit, so the position of the object is determined with high accuracy. Can be identified.

上記第2の発明によれば、ユーザが指し示した方向がカメラ座標に変換され、その方向の被撮像物が抽出されるため、対象物の認識精度が向上する。   According to the second aspect, since the direction pointed to by the user is converted into camera coordinates and the object to be imaged in the direction is extracted, the recognition accuracy of the object is improved.

上記第3の発明によれば、ステレオカメラの原理を用いて対象物を高精度に特定することができる。   According to the third aspect, the object can be specified with high accuracy using the principle of the stereo camera.

上記第4の発明によれば、ユーザが指し示して指定した形状に応じて対象物を抽出することができ、当該形状で囲まれた画像を用いてマッチングすることによってマッチング精度が高まり、結果的に効率よく高精度に対象物を特定することができる。   According to the fourth aspect of the invention, the object can be extracted according to the shape pointed to and specified by the user, and matching accuracy is improved by matching using the image surrounded by the shape. An object can be identified efficiently and with high accuracy.

上記第5の発明によれば、撮像部を単一カメラで構成して対象物の特定を実現することができる。   According to the fifth aspect, the object can be specified by configuring the imaging unit with a single camera.

上記第6または第7の発明によれば、ユーザは、指し示した方向と視認されている対象物の方向とを、表示されたポインタを見ながら調整することができるので、指し示した方向と対象物との関係を容易に把握することができる。   According to the sixth or seventh invention, the user can adjust the indicated direction and the direction of the object being viewed while looking at the displayed pointer. Can be easily grasped.

上記第8の発明によれば、指し示した方向に存在する対象物を確実に特定することができる。   According to the eighth aspect of the invention, it is possible to reliably identify an object that exists in the indicated direction.

上記第9の発明によれば、ユーザが指し示した方向に応じて適切な映像を表示部に表示することができる。   According to the ninth aspect, an appropriate video can be displayed on the display unit in accordance with the direction indicated by the user.

上記第10および第11の発明によれば、対象物に注目した映像をユーザに提供することができる。   According to the tenth and eleventh aspects of the present invention, it is possible to provide the user with an image focusing on the object.

上記第12の発明によれば、対象物に関する情報を容易に得ることができる。   According to the twelfth aspect, information about the object can be easily obtained.

上記第13の発明によれば、インターネット等に公開されたWebページ等の対象物に関する情報を容易に得ることができる。   According to the thirteenth aspect, information relating to an object such as a Web page published on the Internet or the like can be easily obtained.

上記第14の発明によれば、ルート設定が容易に行うことができ、安全性に配慮した入力を行うことができるカーナビゲーション装置を提供することができる。   According to the fourteenth aspect of the present invention, it is possible to provide a car navigation device that can easily perform route setting and can perform input in consideration of safety.

(第1の実施形態)
以下、本発明の第1の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(First embodiment)
Hereinafter, the target object specifying device according to the first embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.

図1および図2を参照して、第1の実施形態に係るカーナビゲーション装置1について説明する。なお、図1は、第1の実施形態に係るカーナビゲーション装置1の概略の構成を示す構成図である。図2は、ユーザ(例えば、車両のドライバ等の搭乗者)が対象物を手や指で指し示す様子を示す模式図である。   A car navigation apparatus 1 according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a configuration diagram showing a schematic configuration of the car navigation device 1 according to the first embodiment. FIG. 2 is a schematic diagram illustrating a state in which a user (for example, a passenger such as a driver of a vehicle) points an object with a hand or a finger.

図1において、カーナビゲーション装置1は、制御部11、地図情報記憶部12、測位部13、入力部14、音声出力部15、指差し方向検知部16、指差し座標取得部17、撮像部18、画像認識/測距部20、ポインタ座標決定部21、および表示部22から構成されている。また、図2において、車両Cのユーザが手Hによって対象物Mの一部を指し示している。なお、車両C内にはカーナビゲーション装置1が搭載されるが、図2では測位部13および撮像部18のみ図示している。   In FIG. 1, the car navigation device 1 includes a control unit 11, a map information storage unit 12, a positioning unit 13, an input unit 14, an audio output unit 15, a pointing direction detection unit 16, a pointing coordinate acquisition unit 17, and an imaging unit 18. The image recognition / ranging unit 20, the pointer coordinate determination unit 21, and the display unit 22. In FIG. 2, the user of the vehicle C indicates a part of the object M with the hand H. In addition, although the car navigation apparatus 1 is mounted in the vehicle C, only the positioning unit 13 and the imaging unit 18 are illustrated in FIG.

制御部11は、経路探索や案内等のナビゲーション機能等、カーナビゲーション装置1の基本機能を制御するとともに、後述する処理を実行する手段であり、例えば、CPUやMPUで構成される。   The control unit 11 is a unit that controls basic functions of the car navigation device 1 such as a navigation function such as route search and guidance, and executes processing to be described later, and includes, for example, a CPU and an MPU.

地図情報記憶部12は、経路案内や探索に必要な地図情報を格納する記憶媒体であり、例えば、HDD(ハードディスクドライブ)やDVD(デジタルヴァーサタイルディスク)である。また、地図情報記憶部12は、少なくとも車両Cが位置する現在地付近に存在する対象物(例えば、建物等の施設)の位置や名称および当該対象物に関連した情報(例えば、URL(Uniform Resource Locator;ユニフォーム・リソース・ロケータ)、営業時間、広告等)が格納されている。なお、地図情報記憶部12は、図示しない通信手段(例えば、携帯電話)によって情報をセンター設備から適宜ダウンロードして格納してもかまわない。   The map information storage unit 12 is a storage medium that stores map information necessary for route guidance and search, and is, for example, an HDD (hard disk drive) or a DVD (digital versatile disk). In addition, the map information storage unit 12 includes at least the position and name of an object (for example, a facility such as a building) existing near the current location where the vehicle C is located and information related to the object (for example, URL (Uniform Resource Locator)). ; Uniform resource locator), business hours, advertisements, etc.) are stored. Note that the map information storage unit 12 may appropriately download and store information from the center facility by communication means (for example, a mobile phone) (not shown).

測位部13は、車両の現在位置や方位を測位する手段であり、例えば、GPS(Global Positioning System;全地球測位システム)、INS(Inertial Navigation System;慣性航法システム)、車速センサ等で構成される。INSは、加速度センサやジャイロセンサから構成され、車両Cの現在位置および方位を初期値からの積分によって算出するものである。ここで、図2では測位部13としてINSが車両Cに固定設置された様子を例示している。以下に説明する車両座標系では、車両Cの前後方向をX軸とし、車両Cの前方進行方向をX軸正方向とする。車体Cの左右方向をY軸とし、車両Cの右方向をY軸正方向とする。そして、X−Y平面に対して垂直な方向(つまり、車両Cの上下方向)をZ軸とし、車両Cの上方向をZ軸正方向とする。   The positioning unit 13 is a means for positioning the current position and direction of the vehicle, and includes, for example, a GPS (Global Positioning System), an INS (Internal Navigation System), a vehicle speed sensor, and the like. . The INS is composed of an acceleration sensor and a gyro sensor, and calculates the current position and direction of the vehicle C by integration from an initial value. Here, FIG. 2 illustrates a state where the INS is fixedly installed on the vehicle C as the positioning unit 13. In the vehicle coordinate system described below, the front-rear direction of the vehicle C is the X axis, and the forward traveling direction of the vehicle C is the X axis positive direction. The left-right direction of the vehicle body C is the Y axis, and the right direction of the vehicle C is the Y-axis positive direction. The direction perpendicular to the XY plane (that is, the vertical direction of the vehicle C) is taken as the Z axis, and the upward direction of the vehicle C is taken as the positive Z axis direction.

入力部14は、ユーザが手や指(以下、手のみ記載する)Hで指し示した対象物Mに対して、ユーザ所望の指示を入力する手段であり、例えば、音声入力するマイクや音声認識エンジン等で構成される。   The input unit 14 is means for inputting a user-desired instruction to the object M indicated by the user with a hand or a finger (hereinafter, only a hand is described) H. For example, a microphone or a voice recognition engine for voice input Etc.

音声出力部15は、制御部11が地図情報記憶部12から抽出した対象物Mに関連した情報を読上げるための手段であり、例えば、音声合成エンジンやスピーカ等で構成される。   The voice output unit 15 is a means for reading out information related to the object M extracted by the control unit 11 from the map information storage unit 12, and includes, for example, a voice synthesis engine or a speaker.

指差し方向検知部16は、ユーザ(運転手等の車両搭乗者)が手Hで指し示した方向を検知するための手段であり、例えば、手Hの画像を撮像する車両C内に固設された複数のカメラによって構成される。また、指差し方向検知部16として、車両C内に所定の電波を放射して手Hが指し示す方向を検知する周知の検知手段を用いてもかまわない。   The pointing direction detection unit 16 is a means for detecting the direction indicated by the user (a vehicle occupant such as a driver) with the hand H, and is fixed in the vehicle C that captures an image of the hand H, for example. It is composed of multiple cameras. Further, as the pointing direction detection unit 16, a known detection unit that radiates a predetermined radio wave into the vehicle C and detects the direction indicated by the hand H may be used.

指差し座標取得部17は、指差し方向検知部16が取得した情報を用いて、3軸の座標値(以下、指差し座標(系)と記載する)を取得するための手段であり、例えば、指差し方向検知部16が撮像した複数の画像を画像処理する画像処理回路で構成される。そして、指差し座標取得部17は、取得した指差し座標を制御部11に出力する。   The pointing coordinate acquisition unit 17 is a means for acquiring three-axis coordinate values (hereinafter referred to as pointing coordinates (system)) using the information acquired by the pointing direction detection unit 16, for example. The image processing circuit configured to perform image processing on a plurality of images captured by the pointing direction detection unit 16. Then, the pointing coordinate acquisition unit 17 outputs the acquired pointing coordinates to the control unit 11.

撮像部18は、車両C外部に設けられた車両周辺の画像を取得するための手段であり、例えば、単一カメラまたはステレオカメラである。撮像部18は、図2に例示するように、車両Cのルーフ上に設置され、車両Cの前方を撮像する。ここで、撮像部18は前述の車両座標系と原点は異なるが、X軸正方向が撮像方向となるように設置される。以下、撮像部18の撮像方向を基準とした座標系をカメラ座標系と記載する。なお、図2では、車両Cのルーフ上に撮像部18を設置する例を示したが、車両Cの室内(例えば、ルームミラー)にも設置してもかまわない。   The imaging unit 18 is a means for acquiring an image around the vehicle provided outside the vehicle C, and is, for example, a single camera or a stereo camera. As illustrated in FIG. 2, the imaging unit 18 is installed on the roof of the vehicle C and images the front of the vehicle C. Here, the imaging unit 18 is installed such that the positive direction of the X axis is the imaging direction, although the origin is different from that of the vehicle coordinate system described above. Hereinafter, a coordinate system based on the imaging direction of the imaging unit 18 is referred to as a camera coordinate system. In addition, although the example which installs the imaging part 18 on the roof of the vehicle C was shown in FIG. 2, you may install in the room | chamber interior (for example, room mirror) of the vehicle C. FIG.

画像認識/測距部20は、撮像部18が撮像した画像を認識し、制御部11が特定した対象物Mまでの距離を測定するための手段である。そして、画像認識/測距部20は、撮像部18が撮像した画像や距離情報を制御部11に出力する。   The image recognition / ranging unit 20 is a means for recognizing the image captured by the imaging unit 18 and measuring the distance to the object M specified by the control unit 11. Then, the image recognition / ranging unit 20 outputs the image captured by the imaging unit 18 and distance information to the control unit 11.

ポインタ座標決定部21は、ユーザの手Hと対象物Mとの間に存在する車両Cのフロントガラス上の2次元座標であるポインタ座標(図2におけるA点)を決定するための手段である。以下、車両Cのフロントガラス上の2次元座標系をポインタ座標系と記載する。   The pointer coordinate determination unit 21 is a means for determining pointer coordinates (point A in FIG. 2) that are two-dimensional coordinates on the windshield of the vehicle C existing between the user's hand H and the object M. . Hereinafter, the two-dimensional coordinate system on the windshield of the vehicle C is referred to as a pointer coordinate system.

表示部22は、ポインタ座標決定部21で決定したポインタ座標に基づいて、車両Cのフロントガラスの室内側表面にポインタPを投影表示するための手段である。なお、表示部22は、HUD(Head Up Display;ヘッドアップ・ディスプレイ)で構成してもかまわない。   The display unit 22 is a means for projecting and displaying the pointer P on the indoor surface of the windshield of the vehicle C based on the pointer coordinates determined by the pointer coordinate determining unit 21. The display unit 22 may be configured by a HUD (Head Up Display).

次に、図3を参照して、ユーザが手Hを車両C前方のフロントガラスF越しに指し示した状態について説明する。なお、図3は、ユーザが手Hを車両C前方のフロントガラスF越しに指し示したときにポインタPが投影されている様子を示す模式図である。   Next, a state in which the user points the hand H through the windshield F in front of the vehicle C will be described with reference to FIG. FIG. 3 is a schematic diagram showing a state in which the pointer P is projected when the user points the hand H through the windshield F in front of the vehicle C.

図3において、車両CのフロントガラスFを介して視認できる車両周辺風景に対して、当該フロントガラスFにポインタPが表示されている。このようにポインタPはフロントガラスF上に表示され、その表示位置はユーザの手Hと対象物Mとを結ぶ直線とフロントガラスFとが重なる点(図2で示したA点、すなわちポインタ座標)に表示される。このように、ユーザは、ポインタPを見ながら手Hで指し示した方向と対象物Mに対する方向との調整を行うことができるので、指し示した方向の対象物Mとの対応を容易に把握することができる。なお、撮像部18や表示部22を車両Cの周囲360度を撮像できるように複数設置することで、フロントガラスFだけではなく、車両CのサイドガラスやリヤガラスにもポインタPを投影表示してもかまわない。また、図3では、ポインタPを表示するとしたが、指し示す方向と対象物Mとの対応関係が分かる表示であれば他の表示でもかまわない。例えば、指し示す方向に応じて特定された対象物Mの輪郭に相当する図形を表示したり、当該対象物Mの輪郭の内部を塗りつぶしたりする表示を行ってもかまわない。   In FIG. 3, a pointer P is displayed on the windshield F with respect to the scenery around the vehicle that can be seen through the windshield F of the vehicle C. In this way, the pointer P is displayed on the windshield F, and the display position is the point where the straight line connecting the user's hand H and the object M and the windshield F overlap (point A shown in FIG. 2, ie, pointer coordinates). ) Is displayed. Thus, the user can adjust the direction pointed with the hand H while looking at the pointer P and the direction with respect to the object M, so that the correspondence with the object M in the indicated direction can be easily grasped. Can do. Note that by installing a plurality of imaging units 18 and display units 22 so as to capture 360 degrees around the vehicle C, the pointer P can be projected and displayed not only on the windshield F but also on the side glass and rear glass of the vehicle C. It doesn't matter. In FIG. 3, the pointer P is displayed, but other displays may be used as long as the correspondence between the pointing direction and the object M can be understood. For example, a figure corresponding to the contour of the target object M specified according to the pointing direction may be displayed, or a display of filling the inside of the contour of the target object M may be performed.

次に、図4〜図8を参照して、カーナビゲーション装置1の動作の第1の例について説明する。なお、図4は、カーナビゲーション装置1の第1の例における前半部の動作を示すフローチャートである。図5は、カーナビゲーション装置1の第1の例における後半部の動作を示すフローチャートである。図6は、カーナビゲーション装置1の動作で用いる指差し座標系および車両座標系の一例を説明するための図である。図7は、カーナビゲーション装置1の動作で用いるカメラ座標系の一例を説明するための図である。図8は、カーナビゲーション装置1の動作で用いるポインタ座標系の一例を説明するための図である。ここで、撮像部18は、ステレオカメラで構成されているとする。また、地図情報記憶部12には、上記地図情報として2次元地図が格納されている。   Next, a first example of the operation of the car navigation device 1 will be described with reference to FIGS. FIG. 4 is a flowchart showing the operation of the first half in the first example of the car navigation apparatus 1. FIG. 5 is a flowchart showing the operation of the latter half of the first example of the car navigation device 1. FIG. 6 is a diagram for explaining an example of a pointing coordinate system and a vehicle coordinate system used in the operation of the car navigation apparatus 1. FIG. 7 is a diagram for explaining an example of a camera coordinate system used in the operation of the car navigation apparatus 1. FIG. 8 is a diagram for explaining an example of a pointer coordinate system used in the operation of the car navigation apparatus 1. Here, it is assumed that the imaging unit 18 is configured by a stereo camera. The map information storage unit 12 stores a two-dimensional map as the map information.

図4において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS10)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS11でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS12)。そして、ポインタ座標決定部21は、ステップS12で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS13)。また、制御部11は、ステップS12で取得した指差し座標(Xh、Yh)をカメラ座標mr(Xr、Yr)に座標変換する(ステップS14)。制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。   In FIG. 4, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the input unit 14, the car navigation device 1 is activated (step S10). When the user points to an object M such as a building existing in the forward direction of the vehicle C (Yes in step S11), the pointing direction detection unit 16 detects it. Then, using the information detected by the pointing direction detection unit 16, the pointing coordinate acquisition unit 17 acquires the pointing coordinates (Xh, Yh) (step S12). Then, the pointer coordinate determining unit 21 converts the pointing coordinates (Xh, Yh) acquired in step S12 into pointer coordinates (Xp, Yp) (step S13). Further, the control unit 11 converts the pointing coordinates (Xh, Yh) acquired in step S12 into camera coordinates mr (Xr, Yr) (step S14). The control part 11 and the pointer coordinate determination part 21 are respectively the installation position and angle of the windshield F, the installation position and direction of the cameras (that is, the pointing direction detection unit 16 and the imaging unit 18) installed inside and outside the vehicle C, Furthermore, the coordinate transformation matrix used for these coordinate transformations is determined in advance according to the position of the positioning unit 13 installed in the vehicle C.

図6〜図8を用いて、指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系について説明する。なお、制御部11およびポインタ座標決定部21は、それぞれ上記座標変換行列を用いてこれら座標系同士の座標変換が可能となる。   A pointing coordinate system, a vehicle coordinate system, a camera coordinate system, and a pointer coordinate system will be described with reference to FIGS. The control unit 11 and the pointer coordinate determination unit 21 can perform coordinate conversion between these coordinate systems using the coordinate conversion matrix.

図6において、指差し座標系は、手Hの左右方向をX軸(横軸)、手Hの上下方向をY軸(縦軸)と定義し、右方向をX軸正方向、上方向をY軸正方向とする。そして、指差し座標系で指定される座標を指差し座標(Xh、Yh)で示す。また、車両座標系は、測位部13の位置を基準に、車両Cの前後方向をX軸、車体Cの左右方向をY軸、車両Cの上下方向をZ軸と定義し、車両Cの前方進行方向をX軸正方向、車両Cの右方向をY軸正方向、車両Cの上方向をZ軸正方向とする。そして、車両座標系で指定される座標を車両座標(Xv、Yv、Zv)で示す。なお、制御部11は、この車両座標系から、車両Cの緯度、経度、高度(測地座標系)を算出することも可能である。   In FIG. 6, the pointing coordinate system defines the horizontal direction of the hand H as the X axis (horizontal axis), the vertical direction of the hand H as the Y axis (vertical axis), the right direction as the X axis positive direction, and the upward direction as the upward direction. Y-axis positive direction. The coordinates specified in the pointing coordinate system are indicated by pointing coordinates (Xh, Yh). The vehicle coordinate system defines the front-rear direction of the vehicle C as the X axis, the left-right direction of the vehicle body C as the Y-axis, and the up-down direction of the vehicle C as the Z-axis, based on the position of the positioning unit 13. The traveling direction is the X-axis positive direction, the right direction of the vehicle C is the Y-axis positive direction, and the upward direction of the vehicle C is the Z-axis positive direction. The coordinates specified in the vehicle coordinate system are indicated by vehicle coordinates (Xv, Yv, Zv). The controller 11 can also calculate the latitude, longitude, and altitude (geodetic coordinate system) of the vehicle C from the vehicle coordinate system.

図7において、撮像部18として2台の同一仕様のカメラ(ステレオカメラ)を平行等位に設置する。平行等位とは、2つのカメラの光軸を平行にしてながらそれぞれの撮像面を一致させ、さらにそれぞれの撮像面の横軸(x軸)も一致させたカメラ配置のことである。図7に示すカメラ配置の例では、左右のカメラの間隔をカメラ間隔Bとして焦点距離fのカメラを2台配置している。図7に示すように、右カメラの焦点Oを原点として左右カメラの光軸方向をZ軸、左右カメラの焦点を結ぶ方向をX軸、X軸およびZ軸に垂直な方向をY軸とした実空間の座標系の位置M(Xm、Ym、Zm)に対象物Mが存在するとする。そして、右カメラのカメラ座標系mr(Xr、Yr)および左カメラの座標系ml(Xl、Yl)を、右カメラおよび左カメラの撮像面上でそれぞれ光軸との交点OrおよびOlを原点とした座標系とする。また、実空間の座標系のX軸、右カメラ座標系のXr軸、および左カメラ座標系のXl軸は、全て左カメラの焦点から右カメラの焦点に向かう方向に一致させる。   In FIG. 7, two cameras (stereo cameras) having the same specification are installed in parallel equiposition as the imaging unit 18. Parallel equiposition is a camera arrangement in which the respective imaging surfaces are made to coincide with each other while the optical axes of the two cameras are made parallel, and the horizontal axes (x-axis) of the respective imaging surfaces are also made to coincide. In the example of the camera arrangement shown in FIG. 7, two cameras having a focal length f are arranged with the distance between the left and right cameras as the camera distance B. As shown in FIG. 7, the right camera focal point O is the origin, the optical axis direction of the left and right cameras is the Z axis, the direction connecting the focal points of the left and right cameras is the X axis, and the direction perpendicular to the X axis and the Z axis is the Y axis. Assume that the object M exists at a position M (Xm, Ym, Zm) in the coordinate system of the real space. Then, the camera coordinate system mr (Xr, Yr) of the right camera and the coordinate system ml (Xl, Yl) of the left camera are set on the imaging planes of the right camera and the left camera, and the intersections Or and Ol with the optical axis are set as the origins. Coordinate system. The X axis of the real space coordinate system, the Xr axis of the right camera coordinate system, and the Xl axis of the left camera coordinate system are all made to coincide with the direction from the focus of the left camera toward the focus of the right camera.

このようなカメラ配置においては、Yl=Yrとなるため、対象物Mの位置M(Xm、Ym、Zm)、右カメラ座標mr(Xr、Yr)、および左カメラ座標ml(Xl、Yl)は、以下の関係式を満たす。
Xm=Zm/f×Xr
Ym=Zm/f×Yr
Zm=B×f/(Xl−Xr)
ここで、Bはカメラ間隔、fは焦点距離であるため、共に定数となる。これらの式で明らかなように、Xl−Xr(視差)を計測すればZmが求まり、右カメラでの像の位置(Xr、Yr)を用いれば、対象物Mの座標(Xm、Ym、Zm)を算出することができる。
In such a camera arrangement, since Yl = Yr, the position M (Xm, Ym, Zm) of the object M, the right camera coordinates mr (Xr, Yr), and the left camera coordinates ml (Xl, Yl) are The following relational expression is satisfied.
Xm = Zm / f × Xr
Ym = Zm / f × Yr
Zm = B × f / (X1-Xr)
Here, since B is the camera interval and f is the focal length, both are constants. As apparent from these equations, Zm can be obtained by measuring Xl-Xr (parallax), and the coordinates (Xm, Ym, Zm) of the object M can be obtained by using the position (Xr, Yr) of the image with the right camera. ) Can be calculated.

ここで、上記視差(Xl−Xr)は、右画像の小領域(所定サイズ画素×所定サイズ画素)と同じパターンを左画像から探し、一致したそれらの位置の相対的なずれを抽出するステレオマッチング処理を用いて求めることができる。より具体的には、パターンの一致度を示す評価関数を導入し、探索範囲を1画素ずつずらしながら一致度を判定し、最も一致度合いが高い小領域を左画像から求めることで視差を求めることができる。   Here, the parallax (X1−Xr) is a stereo matching that searches the left image for the same pattern as the small region (predetermined size pixels × predetermined size pixels) of the right image and extracts the relative shift of the matched positions. It can be determined using a process. More specifically, an evaluation function indicating the degree of pattern matching is introduced, the degree of matching is determined while shifting the search range pixel by pixel, and the parallax is obtained by obtaining the small region having the highest degree of matching from the left image. Can do.

図8において、ポインタ座標系は、フロントガラスFの左上隅を原点として、横方向をX軸、縦方向をY軸と定義し、右方向をX軸正方向、下方向をY軸正方向とする。そして、ポインタ座標系で指定される座標をポインタ座標(Xp、Yp)で示す。   In FIG. 8, the pointer coordinate system is defined with the upper left corner of the windshield F as the origin, the horizontal direction as the X axis, the vertical direction as the Y axis, the right direction as the X axis positive direction, and the downward direction as the Y axis positive direction. To do. The coordinates specified in the pointer coordinate system are indicated by pointer coordinates (Xp, Yp).

図4に戻り、上記ステップS13で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS15;図3参照)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。   Returning to FIG. 4, the display unit 22 projects and displays the pointer P on the windshield F using the pointer coordinates (Xp, Yp) subjected to coordinate conversion in step S <b> 13 (step S <b> 15; see FIG. 3). Then, the car navigation apparatus 1 advances the processing to the next step S20 (FIG. 5).

なお、ステップS15におけるポインタPの表示は、カーナビゲーション装置1の起動中に常時表示していてもいいし、一定時間のみ表示してもいいし、地図情報記憶部12に対象物Mに関連する情報が格納されている場合にだけ表示するようにしてもよい。情報の有無に応じて表示有無を対応させることによって、指し示した方向に存在する対象物Mに関連する情報が格納されていないことを容易に理解でき、ユーザの混乱を招くことを防止できる。   In addition, the display of the pointer P in step S15 may be always displayed while the car navigation apparatus 1 is activated, may be displayed only for a certain period of time, or is related to the object M in the map information storage unit 12. It may be displayed only when information is stored. By making the display presence / absence corresponding to the presence / absence of information, it can be easily understood that information related to the object M existing in the indicated direction is not stored, and confusion of the user can be prevented.

一方、上記ステップS15の処理と並行して、上記ステップS14で座標変換されたカメラ座標mr(Xr、Yr)を用いて、ユーザが指し示した対象物Mの3次元位置を特定する処理が行われる。画像認識/測距部20は、撮像部18の右カメラが撮像した画像から、座標変換されたカメラ座標mr(Xr、Yr)を中心とする小領域(図7参照)を抽出する(ステップS16)。そして、画像認識/測距部20および制御部11は、ステレオマッチング処理を用いて、対象物Mの位置M(Xm、Ym、Zm)を算出する(ステップS17)。具体的には、画像認識/測距部20は、上記小領域と同じパターンを撮像部18の左カメラで撮像した画像から探し、一致したそれらの位置の相対的なずれから視差(Xl−Xr)を求める。そして、カメラ間隔B、焦点距離f、および上述したXm、Ym、Zmを求める式を用いて、位置M(Xm、Ym、Zm)が算出される。   On the other hand, in parallel with the process of step S15, a process for specifying the three-dimensional position of the object M pointed to by the user is performed using the camera coordinates mr (Xr, Yr) coordinate-converted in step S14. . The image recognition / ranging unit 20 extracts a small area (see FIG. 7) centered on the camera coordinates mr (Xr, Yr) subjected to coordinate conversion from the image captured by the right camera of the imaging unit 18 (step S16). ). Then, the image recognition / ranging unit 20 and the control unit 11 calculate the position M (Xm, Ym, Zm) of the object M using stereo matching processing (step S17). Specifically, the image recognition / ranging unit 20 searches the image captured by the left camera of the imaging unit 18 for the same pattern as the small region, and calculates the parallax (Xl−Xr) from the relative shift of the matched positions. ) Then, the position M (Xm, Ym, Zm) is calculated using the equation for obtaining the camera interval B, the focal length f, and the above-described Xm, Ym, Zm.

次に、制御部11は、位置M(Xm、Ym、Zm)を車両座標系における位置M(Xv、Yv、Zv)に座標変換する(ステップS18)。これは、位置M(Xm、Ym、Zm)が右カメラの焦点Oを原点とする位置であるため、車両座標系における位置(Xv、Yv、Zv)に変換する処理である。そして、制御部11は、車両座標系における位置M(Xv、Yv、Zv)を車両Cの緯度、経度、高度(測地座標系)に座標変換することによって、対象物Mの3次元位置を特定する(ステップS19)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。   Next, the control unit 11 performs coordinate conversion of the position M (Xm, Ym, Zm) to the position M (Xv, Yv, Zv) in the vehicle coordinate system (step S18). This is a process of converting the position M (Xm, Ym, Zm) to the position (Xv, Yv, Zv) in the vehicle coordinate system because the position is based on the focal point O of the right camera as the origin. Then, the control unit 11 specifies the three-dimensional position of the object M by converting the position M (Xv, Yv, Zv) in the vehicle coordinate system into the latitude, longitude, and altitude (geodetic coordinate system) of the vehicle C. (Step S19). Then, the car navigation apparatus 1 advances the processing to the next step S20 (FIG. 5).

図5において、対象物Mが特定されている場合(ステップS20でYes)、制御部11は、入力部14を介してユーザからの入力指示があるかを判断する(ステップS21)。そして、制御部11は、対象物Mが特定されていない場合(ステップS20でNo)または入力指示がない場合(ステップS21でNo)、上記ステップS11に戻って処理を繰り返す。一方、入力指示がある場合(ステップS21でYes)、制御部11は、その入力指示内容に応じた処理を行う(ステップS22〜S27)。   In FIG. 5, when the object M is specified (Yes in Step S20), the control unit 11 determines whether there is an input instruction from the user via the input unit 14 (Step S21). And the control part 11 returns to the said step S11, and repeats a process, when the target object M is not specified (No in step S20) or when there is no input instruction (No in step S21). On the other hand, when there is an input instruction (Yes in Step S21), the control unit 11 performs a process according to the content of the input instruction (Steps S22 to S27).

例えば、ユーザの発話が「読上げ」と認識された場合には、上記ステップS19で特定した対象物Mの3次元位置に関連する情報を制御部11が地図情報記憶部12から取得し、音声出力部15によって当該情報が音声で読上げられる(ステップS22)。ユーザの発話が「表示」と認識された場合には、上記ステップS19で特定した対象物Mの3次元位置に関連する情報を制御部11が地図情報記憶部12から取得し、表示部22によって当該情報が表示される(ステップS23)。ユーザの発話が「ルート設定」と認識された場合には、制御部11が上記ステップS19で特定した対象物Mまでの経路を計算し、表示部22に計算したルートを表示して案内を実施する(ステップS24)。この場合、対象物Mは、上記ルートにおける経由地や目的地のいずれに設定されてもかまわない。ユーザの発話が「ホームページ表示」と認識された場合には、上記ステップS19で特定した対象物MのURL情報を制御部11が地図情報記憶部12から取得し、図示しない通信手段を介して、当該対象物Mのホームページがサーバからダウンロードされて、表示部22に当該ホームページが表示される(ステップS25)。なお、ステップS24およびS25の場合、フロントガラスFではなく、別途設けられた車載ディスプレイ(液晶ディスプレイや有機ELディスプレイ等)を表示部22として表示してもかまわない。ユーザの発話が「地図へ反映」と認識された場合には、制御部11は、上記通信手段を介して上記ステップS19で特定した対象物Mに関して地図情報記憶部12が格納していない情報(差分情報)をセンター側からダウンロードし、地図情報記憶部12に当該差分情報を反映させて格納する(ステップS26)。すなわち、ステップS26によって、地図や対象物に関連する情報の更新を行うことができる。そして、これらステップS22〜S26の動作の後、カーナビゲーション装置1は、上記ステップS11に戻って処理を繰り返す。   For example, when the user's utterance is recognized as “reading”, the control unit 11 acquires information related to the three-dimensional position of the object M identified in step S19 from the map information storage unit 12, and outputs the voice. The information is read out by the voice by the unit 15 (step S22). When the user's utterance is recognized as “display”, the control unit 11 acquires information related to the three-dimensional position of the object M identified in step S19 from the map information storage unit 12, and the display unit 22 The information is displayed (step S23). When the user's utterance is recognized as “route setting”, the control unit 11 calculates a route to the target object M specified in step S19 and displays the calculated route on the display unit 22 for guidance. (Step S24). In this case, the object M may be set at any of the waypoints and destinations in the route. When the user's utterance is recognized as “homepage display”, the control unit 11 obtains the URL information of the object M identified in step S19 from the map information storage unit 12, and through communication means (not shown), The home page of the object M is downloaded from the server, and the home page is displayed on the display unit 22 (step S25). In the case of steps S24 and S25, a vehicle-mounted display (liquid crystal display, organic EL display, etc.) provided separately from the windshield F may be displayed as the display unit 22. When the user's utterance is recognized as “reflect on the map”, the control unit 11 stores information (not stored in the map information storage unit 12 regarding the object M identified in step S19 via the communication unit ( (Difference information) is downloaded from the center side, and the difference information is reflected and stored in the map information storage unit 12 (step S26). That is, the information related to the map and the object can be updated by step S26. And after operation | movement of these steps S22-S26, the car navigation apparatus 1 returns to said step S11, and repeats a process.

一方、ユーザの発話が「停止」と認識された場合には、表示部22がフロントガラスF上に表示しているポインタPを消去し(ステップS27〜、カーナビゲーション装置1の指差し入力機能に関する動作を停止して(ステップS28)、当該フローチャートによる処理を終了する。   On the other hand, when the user's utterance is recognized as “stopped”, the pointer P displayed on the windshield F by the display unit 22 is erased (step S27 to the pointing input function of the car navigation device 1). The operation is stopped (step S28), and the process according to the flowchart ends.

このように、対象物Mの特定を行った後、音声入力で所定の動作が完了するので、運転時の安全性等に配慮した入力を行うことができるカーナビゲーション装置を提供することができる。   As described above, since the predetermined operation is completed by voice input after the object M is specified, a car navigation device capable of performing input in consideration of safety during driving can be provided.

なお、カーナビゲーション装置1は、上述した入力指示以外に対する機能も備えることができる。例えば、ユーザが指し示した方向に存在する車両を対象物Mとして、自車との間の車々間通信で情報の送受を行う際の動作、車両のプレートナンバーを読み取る動作、車両を追随する動的なルート検索および案内を行う動作等をカーナビゲーション装置1が行ってもかまわない。また、ユーザが指し示した方向に存在する対象物Mに設置されている電話を通話対象とする動作や対象物Mのメールアドレスにメールを送る動作等をカーナビゲーション装置1が行ってもかまわない。   Note that the car navigation device 1 can also have functions other than the input instruction described above. For example, a vehicle existing in the direction indicated by the user is set as an object M, an operation when transmitting / receiving information by inter-vehicle communication with the own vehicle, an operation of reading the plate number of the vehicle, a dynamic following the vehicle The car navigation device 1 may perform operations such as route search and guidance. In addition, the car navigation device 1 may perform an operation of making a telephone call set on the target object M present in the direction indicated by the user, an operation of sending mail to the mail address of the target object M, and the like.

なお、上述した説明では、ユーザが指し示す方向にポインタPが表示されている状態で、ユーザからの指示があった場合の動作について説明したが、これに限定するものではない。例えば、ユーザからの入力指示がなくても自動的に施設名称等の対象物Mに関連する情報を同時に表示してもかまわない。また、ポインタPは表示せず、施設名称等の対象物Mに関連する情報だけを表示してもかまわない。これによって、フロントガラスF越しに対象物Mを指差すだけで、対象物Mの施設名称等を瞬時に表示することが可能となる。   In the above description, the operation in the case where there is an instruction from the user while the pointer P is displayed in the direction pointed to by the user has been described, but the present invention is not limited to this. For example, information related to the object M such as a facility name may be automatically displayed at the same time without an input instruction from the user. Further, the pointer P may not be displayed, and only information related to the object M such as a facility name may be displayed. As a result, the facility name and the like of the object M can be displayed instantaneously simply by pointing the object M through the windshield F.

また、各座標系間の座標変換に用いる座標変換行列に誤差があり、指し示した方向とポインタPとが一直線上にならない場合、ポインタ座標を微調整することでキャリブレーションを実施することが望ましい。これにより、座標変換行列のパラメータを補正することができる。   In addition, when there is an error in the coordinate transformation matrix used for coordinate transformation between the coordinate systems and the indicated direction and the pointer P are not aligned, it is desirable to perform calibration by finely adjusting the pointer coordinates. Thereby, the parameter of the coordinate transformation matrix can be corrected.

次に、図9および図10を参照して、カーナビゲーション装置1の動作の第2の例について図面を参照し説明する。なお、図9は、カーナビゲーション装置1の第2の例における前半部の動作を示すフローチャートである。図10は、3次元コンピュータグラフィック(CG)地図を用いて対象物を特定する動作を模式的に示した図である。なお、カーナビゲーション装置1の第2の例における後半部の動作については、図5と同様であるため詳細な説明を省略する。ここで、撮像部18は、単一カメラで構成されているとする。また、地図情報記憶部12には、上記地図情報の少なくとも1つとして3次元CG地図が格納されている。   Next, a second example of the operation of the car navigation device 1 will be described with reference to the drawings with reference to FIGS. 9 and 10. FIG. 9 is a flowchart showing the operation of the first half part in the second example of the car navigation apparatus 1. FIG. 10 is a diagram schematically showing an operation of specifying an object using a three-dimensional computer graphic (CG) map. Note that the operation of the latter half of the second example of the car navigation device 1 is the same as that in FIG. Here, it is assumed that the imaging unit 18 is configured by a single camera. The map information storage unit 12 stores a three-dimensional CG map as at least one of the map information.

図9において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS30)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS31でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS32)。そして、ポインタ座標決定部21は、ステップS32で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS33)。また、制御部11は、ステップS32で取得した指差し座標(Xh、Yh)をカメラ座標c(Xc、Yc)に座標変換する(ステップS34)。制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。   In FIG. 9, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the input unit 14, the car navigation device 1 is activated (step S30). When the user points to an object M such as a building that exists in the forward direction of the vehicle C (Yes in step S31), the pointing direction detection unit 16 detects it. Then, using the information detected by the pointing direction detection unit 16, the pointing coordinate acquisition unit 17 acquires the pointing coordinates (Xh, Yh) (step S32). Then, the pointer coordinate determination unit 21 converts the pointing coordinates (Xh, Yh) acquired in Step S32 into pointer coordinates (Xp, Yp) (Step S33). Further, the control unit 11 converts the pointing coordinates (Xh, Yh) acquired in step S32 into camera coordinates c (Xc, Yc) (step S34). The control part 11 and the pointer coordinate determination part 21 are respectively the installation position and angle of the windshield F, the installation position and direction of the cameras (that is, the pointing direction detection unit 16 and the imaging unit 18) installed inside and outside the vehicle C, Furthermore, the coordinate transformation matrix used for these coordinate transformations is determined in advance according to the position of the positioning unit 13 installed in the vehicle C.

ここで、図9に示す動作において用いる指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系については、カメラ座標系が単一カメラに対して設定されていることを除いて図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、ステレオカメラにおけるカメラ座標系mr(Xr、Yr)およびml(Xl、Yl)と区別するために、単一カメラにおけるカメラ座標系をc(Xc、Yc)と記載する。   Here, the pointing coordinate system, the vehicle coordinate system, the camera coordinate system, and the pointer coordinate system used in the operation shown in FIG. 9 are the same as those in FIG. 6 except that the camera coordinate system is set for a single camera. Since it is the same as the coordinate system described with reference to FIG. 8, detailed description thereof is omitted. In order to distinguish from the camera coordinate system mr (Xr, Yr) and ml (Xl, Yl) in the stereo camera, the camera coordinate system in the single camera is described as c (Xc, Yc).

上記ステップS33で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS35;図3参照)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。   The display unit 22 projects and displays the pointer P on the windshield F using the pointer coordinates (Xp, Yp) converted in step S33 (step S35; see FIG. 3). Then, the car navigation apparatus 1 advances the processing to the next step S20 (FIG. 5).

一方、上記ステップS35の処理と並行して、上記ステップS34で座標変換されたカメラ座標c(Xc、Yc)を用いて、ユーザが指し示した対象物Mの3次元位置を特定する処理が行われる。図9および図10において、画像認識/測距部20は、撮像部18の単一カメラが撮像した車両前方映像を画像処理して、指し示した方向に撮像されている対象物の輪郭を取得する(ステップS36)。次に、測位部13が測位している車両Cの現在位置および車両Cの方位に基づいて、制御部11は、当該車両Cに搭載された撮像部18が撮像する景観と仮想的に対応する3次元CG地図を地図情報記憶部12から取得する(ステップS37)。そして、制御部11は、取得した3次元CG地図の画像から上記ステップS36で取得した輪郭と一致する形状の画像を抽出し、当該画像に対応する対象物Mの3次元位置を特定する(ステップS38)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。このような処理によって、指し示す対象物Mの3次元位置が特定できる。   On the other hand, in parallel with the process of step S35, the process of specifying the three-dimensional position of the object M pointed to by the user is performed using the camera coordinates c (Xc, Yc) coordinate-converted in step S34. . 9 and 10, the image recognition / ranging unit 20 performs image processing on the vehicle front image captured by the single camera of the image capturing unit 18 and acquires the contour of the object captured in the indicated direction. (Step S36). Next, based on the current position of the vehicle C being measured by the positioning unit 13 and the direction of the vehicle C, the control unit 11 virtually corresponds to the landscape captured by the imaging unit 18 mounted on the vehicle C. A three-dimensional CG map is acquired from the map information storage unit 12 (step S37). And the control part 11 extracts the image of the shape corresponding to the outline acquired by said step S36 from the image of the acquired 3D CG map, and specifies the 3D position of the target object M corresponding to the said image (step) S38). Then, the car navigation apparatus 1 advances the processing to the next step S20 (FIG. 5). By such processing, the three-dimensional position of the object M to be pointed can be specified.

次に、図11および図12を参照して、カーナビゲーション装置1の動作の第3の例について図面を参照し説明する。なお、図11は、カーナビゲーション装置1の第3の例における前半部の動作を示すフローチャートである。図12は、カーナビゲーション装置1の動作の第3の例について捕捉するための図である。なお、カーナビゲーション装置1の第1の例における後半部の動作については、図5と同様であるため詳細な説明を省略する。ここで、撮像部18は、ステレオカメラで構成されているとする。また、地図情報記憶部12には、上記地図情報として2次元地図が格納されている。   Next, with reference to FIG. 11 and FIG. 12, a third example of the operation of the car navigation device 1 will be described with reference to the drawings. FIG. 11 is a flowchart showing the operation of the first half in the third example of the car navigation apparatus 1. FIG. 12 is a diagram for capturing a third example of the operation of the car navigation apparatus 1. The operation of the latter half of the first example of the car navigation device 1 is the same as that in FIG. Here, it is assumed that the imaging unit 18 is configured by a stereo camera. The map information storage unit 12 stores a two-dimensional map as the map information.

図11において、カーナビゲーション装置1の起動を促すキーワード(例えば、「指差し入力起動」)がユーザから入力部14に発話入力されると、カーナビゲーション装置1が起動する(ステップS40)。そして、ユーザが車両C前方方向に存在する建物等の対象物Mを指し示すと(ステップS41でYes)、指差し方向検知部16が検知する。そして、指差し方向検知部16が検知した情報を用いて、指差し座標取得部17は指差し座標(Xh、Yh)を取得する(ステップS42)。そして、ポインタ座標決定部21は、ステップS42で取得した指差し座標(Xh、Yh)をポインタ座標(Xp、Yp)に座標変換する(ステップS43)。なお、第3の例における動作で用いる指差し座標系、車両座標系、カメラ座標系、およびポインタ座標系は、図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、第3の例のおいても、制御部11およびポインタ座標決定部21は、それぞれフロントガラスFの設置位置や角度、車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。   In FIG. 11, when a keyword that prompts activation of the car navigation device 1 (for example, “pointing input activation”) is input from the user to the input unit 14, the car navigation device 1 is activated (step S <b> 40). When the user points to an object M such as a building that exists in the forward direction of the vehicle C (Yes in step S41), the pointing direction detection unit 16 detects it. Then, using the information detected by the pointing direction detection unit 16, the pointing coordinate acquisition unit 17 acquires the pointing coordinates (Xh, Yh) (step S42). Then, the pointer coordinate determination unit 21 converts the pointing coordinates (Xh, Yh) acquired in Step S42 into pointer coordinates (Xp, Yp) (Step S43). The pointing coordinate system, the vehicle coordinate system, the camera coordinate system, and the pointer coordinate system used in the operation in the third example are the same as the coordinate system described with reference to FIGS. Is omitted. Also in the third example, the control unit 11 and the pointer coordinate determination unit 21 are respectively provided with the installation position and angle of the windshield F, and cameras installed inside and outside the vehicle C (that is, the pointing direction detection unit 16). The coordinate transformation matrix used for the coordinate transformation is determined in advance according to the installation position and direction of the imaging unit 18) and the position of the positioning unit 13 installed in the vehicle C.

次に、上記ステップS43で座標変換されたポインタ座標(Xp、Yp)を用いて、表示部22は、ポインタPをフロントガラスF上に投影表示する(ステップS44;図3参照)。そして、制御部11は、ポインタPが囲み曲線の始点と終点とが一致するような軌跡を描いたか否かを判断する(ステップS45;図12)。カーナビゲーション装置1は、始点と終点とが一致するまで上記ステップS41〜S44の処理を繰り返し、始点と終点とが一致した場合(ステップS45でYes)、処理を次のステップS46に進める。   Next, the display unit 22 projects and displays the pointer P on the windshield F using the pointer coordinates (Xp, Yp) converted in step S43 (step S44; see FIG. 3). Then, the control unit 11 determines whether or not the pointer P has drawn a locus such that the start point and the end point of the enclosing curve coincide (step S45; FIG. 12). The car navigation device 1 repeats the processes of steps S41 to S44 until the start point and the end point match, and if the start point and the end point match (Yes in step S45), the process proceeds to the next step S46.

ステップS46において、制御部11は、ステップS43で座標変換され囲み曲線を描いたポインタ座標(Xp、Yp)群をカメラ座標mr(Xr、Yr)にそれぞれ座標変換する。画像認識/測距部20は、撮像部18の右カメラが撮像した画像から、座標変換されたカメラ座標mr(Xr、Yr)群に囲まれた小領域(図12参照)を抽出する(ステップS47)。そして、画像認識/測距部20および制御部11は、ステレオマッチング処理を用いて、囲まれたエリアに存在する対象物Mの位置M(Xm、Ym、Zm)を算出する(ステップS48)。具体的には、画像認識/測距部20は、上記小領域と同じパターンを撮像部18の左カメラで撮像した画像から探し、一致したそれらの位置の相対的なずれから視差(Xl−Xr)を求める。そして、カメラ間隔B、焦点距離f、および上述したXm、Ym、Zmを求める式を用いて、位置M(Xm、Ym、Zm)が算出される。   In step S46, the control unit 11 performs coordinate conversion of the pointer coordinates (Xp, Yp) group in which the coordinates are converted in step S43 and the enclosing curve is drawn, into camera coordinates mr (Xr, Yr). The image recognition / ranging unit 20 extracts a small region (see FIG. 12) surrounded by the coordinate-converted camera coordinate mr (Xr, Yr) group from the image captured by the right camera of the imaging unit 18 (step 12). S47). Then, the image recognition / ranging unit 20 and the control unit 11 calculate the position M (Xm, Ym, Zm) of the object M existing in the enclosed area using stereo matching processing (step S48). Specifically, the image recognition / ranging unit 20 searches the image captured by the left camera of the imaging unit 18 for the same pattern as the small region, and calculates the parallax (Xl−Xr) from the relative shift of the matched positions. ) Then, the position M (Xm, Ym, Zm) is calculated using the equation for obtaining the camera interval B, the focal length f, and the above-described Xm, Ym, Zm.

次に、制御部11は、位置M(Xm、Ym、Zm)を車両座標系における位置M(Xv、Yv、Zv)に座標変換する(ステップS49)。これは、位置M(Xm、Ym、Zm)が右カメラの焦点Oを原点とする位置であるため、車両座標系における位置(Xv、Yv、Zv)に変換する処理である。そして、制御部11は、車両座標系における位置M(Xv、Yv、Zv)を車両Cの緯度、経度、高度(測地座標系)に座標変換することによって、対象物Mの3次元位置を特定する(ステップS50)。そして、カーナビゲーション装置1は、処理を次のステップS20(図5)に進める。   Next, the control unit 11 performs coordinate conversion of the position M (Xm, Ym, Zm) to the position M (Xv, Yv, Zv) in the vehicle coordinate system (step S49). This is a process of converting the position M (Xm, Ym, Zm) to the position (Xv, Yv, Zv) in the vehicle coordinate system because the position is based on the focal point O of the right camera as the origin. Then, the control unit 11 specifies the three-dimensional position of the object M by converting the position M (Xv, Yv, Zv) in the vehicle coordinate system into the latitude, longitude, and altitude (geodetic coordinate system) of the vehicle C. (Step S50). Then, the car navigation apparatus 1 advances the processing to the next step S20 (FIG. 5).

以上のように、カーナビゲーション装置1の動作について第1〜第3の例を説明したが、何れの例においてもユーザが指し示す対象物Mの3次元位置の特定を高精度に行うことができる。   As mentioned above, although the 1st-3rd example was demonstrated about operation | movement of the car navigation apparatus 1, in any example, specification of the three-dimensional position of the target object M which a user points can be performed with high precision.

(第2の実施形態)
以下、本発明の第2の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(Second Embodiment)
Hereinafter, the object specifying device according to the second embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.

図13は、第2の実施形態に係るカーナビゲーション装置2の概略の構成を示す構成図である。カーナビゲーション装置2は、第1の実施形態で説明したカーナビゲーション装置1に対して、視線方向検知部23および視線座標取得部24が追加されている。それ以外の構成要素は、第1の実施形態と同様であるため、同一の構成要素には同一の参照符号を付して詳細な説明を省略する。   FIG. 13 is a configuration diagram illustrating a schematic configuration of the car navigation device 2 according to the second embodiment. The car navigation device 2 has a line-of-sight direction detection unit 23 and a line-of-sight coordinate acquisition unit 24 added to the car navigation device 1 described in the first embodiment. Since other components are the same as those in the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted.

視線方向検知部23は、ユーザ(例えば、車両のドライバ等の搭乗者)の視線を検知するための手段であり、例えば、車内に設置された近赤外線照射装置またはカメラ等で構成される。視線座標取得部24は、視線方向検知部23で取得した情報を用いて、3軸の座標値(以下、視線座標(系)と記載する)を取得するための手段であり、例えば、視線方向検知部23が近赤外線をユーザの眼に照射し、その瞳孔と角膜反射像との動きを検出することによって、ユーザの視線を検知する。他にも視線方向検知部23が撮像したユーザの眼を含む画像を画像処理することによって、ユーザの視線を検知してもかまわない。   The line-of-sight direction detection unit 23 is a means for detecting the line of sight of a user (for example, a passenger such as a driver of a vehicle), and includes, for example, a near infrared irradiation device or a camera installed in the vehicle. The line-of-sight coordinate acquisition unit 24 is a means for acquiring coordinate values of three axes (hereinafter referred to as line-of-sight coordinates (system)) using the information acquired by the line-of-sight direction detection unit 23. For example, the line-of-sight direction The detection unit 23 irradiates the user's eyes with near infrared rays, and detects the movement of the pupil and the cornea reflection image, thereby detecting the user's line of sight. In addition, the user's line of sight may be detected by performing image processing on an image including the user's eyes captured by the line-of-sight direction detection unit 23.

次に、図14を参照して、ユーザが対象物Mを手Hで指し示す方向と当該ユーザの視線との関係を説明する、なお、図14は、ユーザが対象物Mを手Hで指し示す方向と当該ユーザの視線を示す模式図である。   Next, referring to FIG. 14, the relationship between the direction in which the user points the object M with the hand H and the user's line of sight will be described. FIG. 14 illustrates the direction in which the user points the object M with the hand H. It is a schematic diagram which shows the said user's eyes | visual_axis.

図14において、フロントガラスFのA点を介して、ユーザが手Hによって対象物Mの一部を指し示している。このA点は、図2を用いて説明したA点と同じである。   In FIG. 14, the user points a part of the object M with the hand H through the point A of the windshield F. This point A is the same as the point A described with reference to FIG.

このとき、ポインタ座標決定部21は、ユーザの手Hで指し示した対象物Mとユーザの眼Eとを結ぶ直線(ユーザが対象物Mを見ている場合は視線)と交差するフロントガラスF上の2次元座標(図14におけるB点)をポインタ座標(Xp、Yp)に決定する。その後、表示部22は、第1の実施形態と同様に、ポインタ座標決定部21で決定したポインタ座標(Xp、Yp)にポインタPを投影表示する。   At this time, the pointer coordinate determination unit 21 is on the windshield F that intersects a straight line connecting the object M pointed by the user's hand H and the user's eye E (line of sight when the user is looking at the object M). The two-dimensional coordinates (point B in FIG. 14) are determined as pointer coordinates (Xp, Yp). Thereafter, the display unit 22 projects and displays the pointer P on the pointer coordinates (Xp, Yp) determined by the pointer coordinate determination unit 21 as in the first embodiment.

例えば、第1の実施形態のように点AにポインタPを投影表示するとき、ユーザの視線上に手Hを挙げて当該視線上にある対象物Mを指し示すと、ポインタPと対象物Mとが一致して表示される。一方、第2の実施形態では、図14に示すようにユーザの視線上に手Hを挙げなくても、ポインタPがユーザの視線方向と完全に一致する。すなわち、手Hをユーザの視界に近づける必要なく、対象物Mを違和感なく視認することができる。例えば、手Hを車両Cのハンドル上に置いた状態でも、対象物Mを指し示すことができ、安全運転に寄与できる。   For example, when the pointer P is projected and displayed at the point A as in the first embodiment, if the hand H is raised on the user's line of sight and the object M on the line of sight is pointed to, the pointer P and the object M Are displayed in a match. On the other hand, in the second embodiment, as shown in FIG. 14, the pointer P completely matches the user's line-of-sight direction without raising the hand H on the user's line of sight. That is, the object M can be visually recognized without a sense of incongruity without having to bring the hand H close to the user's field of view. For example, even in a state where the hand H is placed on the handle of the vehicle C, the object M can be pointed, which can contribute to safe driving.

なお、視線方向と点Bに表示されたポインタPとが図14で示したように一直線上にならない場合、ポインタ座標(Xp、Yp)に座標変換する関数を微調整することによってキャリブレーションを実施することが望ましい。   When the line-of-sight direction and the pointer P displayed at the point B are not on a straight line as shown in FIG. 14, calibration is performed by finely adjusting the function for converting the coordinates to the pointer coordinates (Xp, Yp). It is desirable to do.

また、ユーザの手Hで指し示す方向の対象物と当該ユーザの視線方向に存在する対象物とは、絶えず一致しているとは限らない。例えば、ユーザは、手Hで特定したい対象物Mを指し示していても、当該対象物Mとは異なった車両前方を視認していることがある。このようなときには、ポインタPを表示しないようにしてもかまわない。図15は、手Hで指し示した対象物と視線方向にある対象物とが一致している場合にのみ、ポインタPを表示する様子を示す模式図である。   Further, the object in the direction indicated by the user's hand H and the object existing in the user's line-of-sight direction do not always coincide with each other. For example, even if the user points to the object M to be specified with the hand H, the user may be viewing the front of the vehicle different from the object M. In such a case, the pointer P may not be displayed. FIG. 15 is a schematic diagram showing a state in which the pointer P is displayed only when the object pointed by the hand H matches the object in the line-of-sight direction.

図15において、フロントガラスFを介した景観に対して、ユーザの視線が軌跡CEに沿って移動している。一方、フロントガラスFを介した景観に対して、ユーザの手Hで指し示す方向が軌跡CHに沿って移動している。このとき、ポインタPは、同一時刻でユーザの視線方向および手Hで指し示す方向が同じ対象物上で一致する箇所(同一時刻で軌跡CEおよびCHが交わる交点)にのみ、フロントガラスF上に表示される。また、軌跡CEやCHに対応する曲線は、フロントガラスF上には表示されないことが望ましい。これにより、手Hによって指し示す方向に存在する対象物と視線方向に存在する対象物とが一致していないときには、ポインタPが表示されずユーザからの入力指示も受付けないように設定することによって、安全運転に寄与することができる。   In FIG. 15, the user's line of sight moves along the locus CE with respect to the landscape through the windshield F. On the other hand, the direction indicated by the user's hand H is moving along the trajectory CH with respect to the landscape through the windshield F. At this time, the pointer P is displayed on the windshield F only at a location where the user's line-of-sight direction and the direction pointed by the hand H coincide on the same object at the same time (intersection where the trajectory CE and CH intersect at the same time). Is done. Further, it is desirable that the curve corresponding to the locus CE or CH is not displayed on the windshield F. Thereby, when the object present in the direction pointed by the hand H and the object present in the line-of-sight direction do not match, by setting so that the pointer P is not displayed and the input instruction from the user is not accepted, It can contribute to safe driving.

なお、手Hで指し示す方向を表すポインタと視線方向を示すポインタとをそれぞれ同時に両方表示させて、どちらのポインタを使用するかをユーザが選択可能に構成してもかまわない。   Note that a pointer indicating the direction indicated by the hand H and a pointer indicating the line-of-sight direction may be displayed at the same time so that the user can select which pointer to use.

(第3の実施形態)
以下、本発明の第3の実施形態に係る対象物特定装置について説明する。なお、説明を具体的にするために、当該対象物特定装置がカーナビゲーション装置に適用された一例を用いて、図面を参照しながら説明する。なお、以下参照する図面において、本発明に関係のない構成要素は省略している。
(Third embodiment)
Hereinafter, the target object specifying device according to the third embodiment of the present invention will be described. In order to make the description more specific, an example in which the object identification device is applied to a car navigation device will be described with reference to the drawings. In the drawings referred to below, components not related to the present invention are omitted.

図16は、第3の実施形態に係るカーナビゲーション装置3の概略の構成を示す構成図である。カーナビゲーション装置3は、第1の実施形態で説明したカーナビゲーション装置1に対して、撮像制御部25が追加で構成され、ポインタ座標決定部21を選択部26に置き換えている。また、当該実施形態における表示部22は、典型的には車載ディスプレイ(液晶ディスプレイや有機ELディスプレイ等)であり、本装置の起動をトリガとして撮像部18で撮像する映像を表示する。それ以外の構成要素は、第1の実施形態と同様であるため、同一の構成要素には同一の参照符号を付して詳細な説明を省略する。   FIG. 16 is a configuration diagram showing a schematic configuration of the car navigation device 3 according to the third embodiment. The car navigation device 3 includes an imaging control unit 25 in addition to the car navigation device 1 described in the first embodiment, and replaces the pointer coordinate determination unit 21 with a selection unit 26. In addition, the display unit 22 in the embodiment is typically an in-vehicle display (a liquid crystal display, an organic EL display, or the like), and displays an image captured by the imaging unit 18 using the activation of the apparatus as a trigger. Since other components are the same as those in the first embodiment, the same components are denoted by the same reference numerals, and detailed description thereof is omitted.

撮像制御部25は、制御部11の指令により撮像部18の撮像方向(パン、チルト)やズームを制御する手段である。また、選択部26は、撮像部18が複数のカメラで構成されている場合にそれらの映像から適切な映像を選択するための手段であり、選択された映像が表示部22に表示される。   The imaging control unit 25 is means for controlling the imaging direction (pan, tilt) and zoom of the imaging unit 18 according to a command from the control unit 11. The selection unit 26 is a means for selecting an appropriate video from the video when the imaging unit 18 includes a plurality of cameras, and the selected video is displayed on the display unit 22.

次に、図17および図18を参照して、カーナビゲーション装置3の動作について説明する。なお、図17は、カーナビゲーション装置3における前半部の動作を示すフローチャートである。図18は、カーナビゲーション装置3における後半部の動作を示すフローチャートである。ここで、カーナビゲーション装置3で行う対象物特定処理は、第1の実施形態で説明した第1の例(図4)を用いる一例で説明する。したがって、撮像部18はステレオカメラで構成され、地図情報記憶部12には上記地図情報として2次元地図が格納される。   Next, the operation of the car navigation device 3 will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart showing the operation of the first half of the car navigation device 3. FIG. 18 is a flowchart showing the operation of the latter half of the car navigation device 3. Here, the object specifying process performed by the car navigation device 3 will be described as an example using the first example (FIG. 4) described in the first embodiment. Therefore, the imaging unit 18 is configured by a stereo camera, and a two-dimensional map is stored in the map information storage unit 12 as the map information.

図17において、ステップS60〜S67の処理は、図4で示したステップS10〜12、S14、およびステップS14〜S19と同様であるため、ここでは詳細な説明を省略する。また、第3の実施形態における動作で用いる指差し座標系、車両座標系、およびカメラ座標系は、図6〜図8を用いて説明した座標系と同様であるため、詳細な説明を省略する。なお、第3の実施形態においても、制御部11は、それぞれ車両C内部および外部に設置したカメラ(すなわち、指差し方向検知部16および撮像部18)の設置位置や方向、さらに、車両Cに設置した測位部13の位置等によって、これらの座標変換で用いる座標変換行列を予め決定する。   In FIG. 17, the processing of steps S60 to S67 is the same as steps S10 to S12, S14, and steps S14 to S19 shown in FIG. In addition, the pointing coordinate system, the vehicle coordinate system, and the camera coordinate system used in the operation in the third embodiment are the same as the coordinate system described with reference to FIGS. . In the third embodiment, the control unit 11 also sets the installation position and direction of the cameras (that is, the pointing direction detection unit 16 and the imaging unit 18) installed inside and outside the vehicle C, respectively, and further on the vehicle C. The coordinate transformation matrix used for these coordinate transformations is determined in advance according to the position of the positioning unit 13 installed.

ステップS67で対象物の3次元位置が特定された後、選択部26は、撮像部18のステレオカメラのうち、何れのカメラで撮像した映像を選択する(ステップS68)。例えば、選択基準としては、撮像部18が車両Cの進行方向右側および左側にそれぞれカメラを有している場合、搭乗者の指差し方向に対応して当該指差し方向が車両Cの進行方向右側なら当該右側のカメラからの映像を選択し、進行方向左側なら当該左側のカメラからの映像を選択することとする。そして、撮像制御部25は、特定された対象物の3次元位置に基づいて、当該対象物が表示部22の画面中央に配置されるように、選択されたカメラの撮像方向を制御する(ステップS69)。これにより、所定の方向に存在する対象物を確実に表示部に表示することができる。そして、制御部11は、処理を次のステップS70(図18)に進める。   After the three-dimensional position of the object is specified in step S67, the selection unit 26 selects an image captured by any of the stereo cameras of the imaging unit 18 (step S68). For example, as a selection criterion, when the imaging unit 18 has cameras on the right and left sides of the traveling direction of the vehicle C, the pointing direction is the right side of the traveling direction of the vehicle C corresponding to the pointing direction of the passenger. Then, the video from the right camera is selected, and the video from the left camera is selected if the left side of the traveling direction. And the imaging control part 25 controls the imaging direction of the selected camera so that the said target object may be arrange | positioned in the screen center of the display part 22 based on the identified three-dimensional position of the target object (step). S69). Thereby, the target object existing in the predetermined direction can be reliably displayed on the display unit. And the control part 11 advances a process to following step S70 (FIG. 18).

図18において、対象物Mが特定されている場合(ステップS70でYes)、制御部11は、入力部14を介してユーザからの入力指示があるかを判断する(ステップS71)。そして、制御部11は、対象物Mが特定されていない場合(ステップS70でNo)または入力指示がない場合(ステップS71でNo)、上記ステップS61に戻って処理を繰り返す。一方、入力指示がある場合(ステップS71でYes)、制御部11は、その入力指示内容に応じた処理を行う(ステップS72〜S75)。   In FIG. 18, when the object M is specified (Yes in step S70), the control unit 11 determines whether there is an input instruction from the user via the input unit 14 (step S71). And the control part 11 returns to the said step S61, and repeats a process, when the target object M is not pinpointed (No in step S70) or there is no input instruction (No in step S71). On the other hand, when there is an input instruction (Yes in step S71), the control unit 11 performs processing according to the content of the input instruction (steps S72 to S75).

例えば、ユーザの発話が「拡大」と認識された場合には、上記ステップS68で選択した映像を撮像制御部25が拡大するようズーム制御する(ステップS72)。これにより、車両Cの遠方に存在する対象物の映像が拡大されるため、対象物を視認して得られる情報を容易に得ることが可能となる。例えば、少し遠方にあり、運転手が目を細めないと確認できないような距離に存在する対象物(例えば、標識や看板)を指差して「拡大」と発話することにより、容易に情報を得ることができる。なお、このとき標識や看板を優先して認識するようにしても良い。一方、ユーザの発話が「縮小」と認識された場合には、上記ステップS68で選択した映像を撮像制御部25が縮小するようズーム制御する(ステップS73)。また、ユーザの発話が「記録」と認識された場合には、制御部11は、表示部22に表示している映像を静止画や動画等として、記録部(図示せず)に記録する(ステップS74)。例えば、このステップS74で記録した映像は、後で呼出すことによってルート案内等に利用することができる。そして、これらステップS72〜S74の動作の後、カーナビゲーション装置3は、上記ステップS61に戻って処理を繰り返す。   For example, when the user's utterance is recognized as “enlargement”, zoom control is performed so that the imaging control unit 25 enlarges the image selected in step S68 (step S72). Thereby, since the image of the object existing far away from the vehicle C is enlarged, it is possible to easily obtain information obtained by visually recognizing the object. For example, information is easily obtained by pointing to an object (eg, a sign or a signboard) that is a little far away and cannot be confirmed without narrowing the eyes of the driver, and saying “enlarge”. be able to. At this time, a sign or a sign may be preferentially recognized. On the other hand, when the user's utterance is recognized as “reduction”, zoom control is performed so that the imaging control unit 25 reduces the image selected in step S68 (step S73). When the user's utterance is recognized as “recording”, the control unit 11 records the video displayed on the display unit 22 as a still image or a moving image in a recording unit (not shown) ( Step S74). For example, the video recorded in step S74 can be used for route guidance by calling it later. And after operation | movement of these steps S72-S74, the car navigation apparatus 3 returns to the said step S61, and repeats a process.

一方、ユーザの発話が「停止」と認識された場合には、撮像制御部25が撮像部18のカメラ方向やズームを初期値に戻し消去し(ステップS75)、カーナビゲーション装置3の指差し入力機能に関する動作を停止して(ステップS76)、当該フローチャートによる処理を終了する。   On the other hand, when the user's utterance is recognized as “stop”, the imaging control unit 25 resets the camera direction and zoom of the imaging unit 18 to the initial values and deletes them (step S75), and inputs the pointing of the car navigation device 3 The operation related to the function is stopped (step S76), and the process according to the flowchart is terminated.

なお、上記ステップS72〜S75の処理は、主に撮像部18に関する動作を制御する一例を取りあげて説明したが、ユーザからの他の入力指示に対する機能を備えることもできる。例えば、図5で説明したステップS22〜S27の処理や、第1の実施形態で説明した他の処理についても同様に、カーナビゲーション装置3で実現することも可能である。   In addition, although the process of said step S72-S75 picked up and demonstrated the example which mainly controls the operation | movement regarding the imaging part 18, it can also be provided with the function with respect to the other input instruction from a user. For example, the processing of steps S22 to S27 described with reference to FIG. 5 and the other processing described in the first embodiment can be similarly realized with the car navigation device 3.

また、本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。特に、本対象物特定装置を車両だけでなく、列車や船舶、航空機等の移動体に設置して利用できる。例えば、列車に応用する場合では指差す方向に存在する駅の名称を前面ガラス上に投影することができる。   It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. In particular, the present object identification device can be used not only for vehicles but also for moving objects such as trains, ships, and airplanes. For example, in the case of application to a train, the name of a station existing in the pointing direction can be projected on the front glass.

本発明に係る対象物特定装置は、ユーザの手や指が指し示している方向に存在する対象物を正確に特定することができ、車両内に設置される車載用入力装置、カーナビゲーション装置、車載情報端末等として有用であり、車両の他、列車、船舶、航空機等の移動体に設置することができる。   The object specifying device according to the present invention can accurately specify an object existing in the direction indicated by the user's hand or finger, and is an in-vehicle input device, a car navigation device, and an in-vehicle device installed in the vehicle. It is useful as an information terminal or the like, and can be installed on a moving body such as a train, a ship, and an aircraft in addition to a vehicle.

第1の実施形態に係るカーナビゲーション装置1の概略の構成を示す構成図1 is a configuration diagram showing a schematic configuration of a car navigation device 1 according to a first embodiment. ユーザが対象物を手や指で指し示す様子を示す模式図Schematic diagram showing how a user points an object with a hand or finger ユーザが手Hを車両C前方のフロントガラスF越しに指し示したときにポインタPが投影されている様子を示す模式図The schematic diagram which shows a mode that the pointer P is projected when the user points the hand H through the windshield F ahead of the vehicle C. 図1のカーナビゲーション装置1の第1の例における前半部の動作を示すフローチャートThe flowchart which shows operation | movement of the first half part in the 1st example of the car navigation apparatus 1 of FIG. 図1のカーナビゲーション装置1の第1の例における後半部の動作を示すフローチャートThe flowchart which shows the operation | movement of the second half part in the 1st example of the car navigation apparatus 1 of FIG. 図1のカーナビゲーション装置1の動作で用いる指差し座標系および車両座標系の一例を説明するための図The figure for demonstrating an example of the pointing coordinate system and vehicle coordinate system which are used by operation | movement of the car navigation apparatus 1 of FIG. 図1のカーナビゲーション装置1の動作で用いるカメラ座標系の一例を説明するための図The figure for demonstrating an example of the camera coordinate system used by operation | movement of the car navigation apparatus 1 of FIG. 図1のカーナビゲーション装置1の動作で用いるポインタ座標系の一例を説明するための図The figure for demonstrating an example of the pointer coordinate system used by operation | movement of the car navigation apparatus 1 of FIG. 図1のカーナビゲーション装置1の第2の例における前半部の動作を示すフローチャートThe flowchart which shows operation | movement of the first half part in the 2nd example of the car navigation apparatus 1 of FIG. 3次元コンピュータグラフィック地図を用いて対象物を特定する動作を模式的に示した図The figure which showed typically the operation which specifies a target object using a three-dimensional computer graphic map. 図1のカーナビゲーション装置1の第3の例における前半部の動作を示すフローチャートThe flowchart which shows operation | movement of the first half part in the 3rd example of the car navigation apparatus 1 of FIG. 図11のカーナビゲーション装置1の動作の第3の例について捕捉するための図The figure for catching about the 3rd example of operation of car navigation device 1 of Drawing 11 第2の実施形態に係るカーナビゲーション装置2の概略の構成を示す構成図The block diagram which shows the schematic structure of the car navigation apparatus 2 which concerns on 2nd Embodiment. ユーザが対象物Mを手Hで指し示す方向と当該ユーザの視線を示す模式図Schematic diagram showing the direction in which the user points the object M with the hand H and the line of sight of the user 手Hで指し示した対象物と視線方向にある対象物とが一致している場合にのみ、ポインタPを表示する様子を示す模式図The schematic diagram which shows a mode that the pointer P is displayed only when the target object with the hand H and the target object in a sight line direction correspond. 第3の実施形態に係るカーナビゲーション装置3の概略の構成を示す構成図The block diagram which shows the schematic structure of the car navigation apparatus 3 which concerns on 3rd Embodiment. 図16のカーナビゲーション装置3における前半部の動作を示すフローチャートThe flowchart which shows operation | movement of the first half part in the car navigation apparatus 3 of FIG. 図16のカーナビゲーション装置3における後半部の動作を示すフローチャートThe flowchart which shows the operation | movement of the second half part in the car navigation apparatus 3 of FIG.

符号の説明Explanation of symbols

1、2、3…カーナビゲーション装置
11…制御部
12…地図情報記憶部
13…測位部
14…入力部
15…音声出力部
16…指差し方向検知部
17…指差し座標取得部
18…撮像部
20…画像認識/測距部
21…ポインタ座標決定部
22…表示部
23…視線方向検知部
24…視線座標取得部
25…撮像制御部
26…選択部

1, 2, 3 ... car navigation device 11 ... control unit 12 ... map information storage unit 13 ... positioning unit 14 ... input unit 15 ... voice output unit 16 ... pointing direction detection unit 17 ... pointing coordinate acquisition unit 18 ... imaging unit 20 ... Image recognition / ranging unit 21 ... Pointer coordinate determination unit 22 ... Display unit 23 ... Gaze direction detection unit 24 ... Gaze coordinate acquisition unit 25 ... Imaging control unit 26 ... Selection unit

Claims (14)

車両周辺の対象物の位置を特定する対象物特定装置であって、
車両の現在位置および車両の方位を検出する測位部と、
前記車両の周囲を撮像する撮像部と、
前記車両内のユーザが自身の手を用いて指し示した指示方向を検知する指差し方向検知部と、
前記指差し方向検知部が検知した指示方向に存在する対象物を前記撮像部が撮像した画像内から抽出する対象物抽出部と、
前記車両に対して、前記対象物抽出部が抽出した対象物の位置を特定する対象物位置特定部とを備える、対象物特定装置。
An object specifying device for specifying a position of an object around a vehicle,
A positioning unit that detects the current position of the vehicle and the direction of the vehicle;
An imaging unit for imaging the periphery of the vehicle;
A pointing direction detection unit that detects a pointing direction indicated by a user in the vehicle using his / her hand;
An object extraction unit that extracts an object existing in an instruction direction detected by the pointing direction detection unit from an image captured by the imaging unit;
An object specifying device comprising: an object position specifying unit that specifies a position of an object extracted by the object extracting unit with respect to the vehicle.
前記撮像部は、前記車両に設置された少なくとも1つのカメラで構成され、
前記対象物特定装置は、前記指差し方向検知部が検知した指示方向を前記カメラの撮像方向を基準とするカメラ座標系における指示方向に変換する座標変換部を、さらに備え、
前記対象物抽出部は、前記撮像部が撮像した画像内から前記座標変換部が変換した指示方向に撮像された被撮像物を対象物として抽出することを特徴とする、請求項1に記載の対象物特定装置。
The imaging unit is composed of at least one camera installed in the vehicle,
The target object specifying device further includes a coordinate conversion unit that converts an indication direction detected by the pointing direction detection unit into an indication direction in a camera coordinate system based on an imaging direction of the camera,
2. The object extraction unit according to claim 1, wherein the object extraction unit extracts, as an object, an object to be imaged captured in an instruction direction converted by the coordinate conversion unit from an image captured by the imaging unit. Object identification device.
前記撮像部は、平行等位に前記車両に設置された複数のカメラで構成され、
前記対象物抽出部は、一方の前記カメラが撮像した画像から前記指示方向に撮像された所定サイズの領域を抽出し、当該領域の画像と他方の前記カメラが撮像した画像とのマッチングによって当該指示方向に撮像された被撮像物を対象物として抽出し、
前記対象物位置特定部は、複数のカメラが対象物をそれぞれ撮像している方向に基づいて、前記車両に対する対象物の位置を算出することを特徴とする、請求項2に記載の対象物特定装置。
The imaging unit is composed of a plurality of cameras installed on the vehicle in parallel equiposition,
The object extraction unit extracts a region of a predetermined size imaged in the instruction direction from an image captured by one of the cameras, and performs the instruction by matching the image of the region with an image captured by the other camera. The object to be imaged in the direction is extracted as the object,
The target object specifying unit according to claim 2, wherein the target object position specifying unit calculates the position of the target object with respect to the vehicle based on directions in which a plurality of cameras are respectively imaging the target object. apparatus.
前記対象物抽出部は、前記指示方向が時系列的に変化することによって当該指示方向に囲まれた空間内に撮像された画像を前記領域の画像として抽出することを特徴とする、請求項3に記載の対象物特定装置。   The object extraction unit extracts an image captured in a space surrounded by the designated direction as the designated direction changes in time series as an image of the region. The object specifying device described in 1. 前記撮像部は、前記車両に設置された単一のカメラで構成され、
前記対象物特定装置は、少なくとも前記車両の現在位置付近の3次元地図を格納する地図情報記憶部を、さらに備え、
前記対象物抽出部は、前記カメラが撮像した画像から前記指示方向に撮像された被撮像物の輪郭を対象物の輪郭として抽出し、
前記対象物位置特定部は、前記3次元地図から前記対象物抽出部が抽出した輪郭と一致する形状のオブジェクトの位置を当該3次元地図上で特定して、前記車両に対する対象物の位置を算出することを特徴とする、請求項2に記載の対象物特定装置。
The imaging unit is composed of a single camera installed in the vehicle,
The target object specifying device further includes a map information storage unit that stores at least a three-dimensional map near the current position of the vehicle,
The object extraction unit extracts, as an outline of an object, an outline of an object imaged in the indicated direction from an image captured by the camera.
The object position specifying unit specifies the position of an object having a shape matching the contour extracted by the object extraction unit from the three-dimensional map on the three-dimensional map, and calculates the position of the object with respect to the vehicle The object specifying device according to claim 2, wherein:
前記対象物特定装置は、
前記車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する表示部と、
前記指差し方向検知部が検知した指示方向と前記表示領域が設定されたガラスとの交点座標を決定するポインタ座標決定部と、
前記ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する表示制御部とを、さらに備える、請求項1に記載の対象物特定装置。
The object specifying device includes:
A display unit that projects an image using at least one glass provided in the vehicle as a display region;
A pointer coordinate determination unit that determines an intersection coordinate between the indication direction detected by the pointing direction detection unit and the glass in which the display area is set;
The object specifying device according to claim 1, further comprising: a display control unit that controls display of a pointer image in a display area on the intersection coordinates determined by the pointer coordinate determination unit.
前記対象物特定装置は、
前記車両に備えられた少なくとも1つのガラスを表示領域にして画像を投影する表示部と、
前記車両内のユーザの視線方向を検知する視線検知部と、
前記対象物位置特定部が特定した対象物の位置とユーザの視線とを結ぶ直線と前記表示領域が設定されたガラスとの交点座標を決定するポインタ座標決定部と、
前記ポインタ座標決定部が決定した交点座標上の表示領域にポインタ画像を表示制御する表示制御部とを、さらに備える、請求項1に記載の対象物特定装置。
The object specifying device includes:
A display unit that projects an image using at least one glass provided in the vehicle as a display region;
A line-of-sight detection unit that detects a line-of-sight direction of the user in the vehicle;
A pointer coordinate determining unit that determines an intersection coordinate between a straight line connecting the position of the object specified by the object position specifying unit and the user's line of sight and the glass in which the display area is set;
The object specifying device according to claim 1, further comprising: a display control unit that controls display of a pointer image in a display area on the intersection coordinates determined by the pointer coordinate determination unit.
前記対象物特定装置は、前記ポインタ座標決定部が決定する交点座標をユーザからの指示に応じて調整する調整部を、さらに備える、請求項6または7に記載の対象物特定装置。   The object specifying device according to claim 6 or 7, further comprising an adjusting unit that adjusts the intersection coordinates determined by the pointer coordinate determining unit according to an instruction from a user. 前記撮像部は、前記車両に設置された複数のカメラで構成され、
前記対象物特定装置は、
前記車両内に設置される表示部と、
前記指差し方向検知部が検知した指示方向に応じて、前記複数のカメラから出力される画像から何れか1つの画像を選択して前記表示部に表示する選択部とを、さらに備える、請求項1に記載の対象物特定装置。
The imaging unit is composed of a plurality of cameras installed in the vehicle,
The object specifying device includes:
A display unit installed in the vehicle;
The apparatus further comprises: a selection unit that selects any one image from images output from the plurality of cameras according to an instruction direction detected by the pointing direction detection unit and displays the selected image on the display unit. The object specifying device according to 1.
前記対象物位置特定部が特定した対象物が画像の中心に撮像されるように、前記選択部が選択した画像を撮像するカメラの撮像方向を制御する撮像制御部を、さらに備える、請求項9に記載の対象物特定装置。   The imaging control part which controls the imaging direction of the camera which images the image selected by the selection part so that the object specified by the object position specific part may be imaged in the center of an image, further comprising: The object specifying device described in 1. 前記対象物位置特定部が特定した対象物が画像の中心で拡大または縮小して撮像されるように、前記選択部が選択した画像を撮像するカメラの撮像倍率を制御する撮像制御部を、さらに備える、請求項9に記載の対象物特定装置。   An imaging control unit that controls an imaging magnification of a camera that captures an image selected by the selection unit so that the object specified by the object position specifying unit is enlarged or reduced at the center of the image; The object specifying device according to claim 9, comprising: 前記対象物特定装置は、
少なくとも前記車両の現在位置付近の地図情報および当該地図で表される各領域に対する情報を格納する地図情報記憶部と、
前記対象物位置特定部が特定した対象物に関する情報を前記地図情報記憶部に格納されている情報から抽出して、前記車両内のユーザに報知する情報出力部とを、さらに備える、請求項1に記載の対象物特定装置。
The object specifying device includes:
A map information storage unit for storing at least map information near the current position of the vehicle and information for each region represented by the map;
The information output part which extracts the information regarding the target object which the said target object position specific | specification part specified from the information stored in the said map information storage part, and alert | reports to the user in the said vehicle is further provided. The object specifying device described in 1.
前記対象物特定装置は、
所定のネットワークを介して通信可能な通信部と、
前記情報出力部が出力する情報を表示する表示部とを、さらに備え、
前記情報出力部は、前記地図情報記憶部に格納されている情報が前記ネットワーク上に存在する情報資源の場所を示すとき、前記通信部を介して当該情報資源から情報を取得して前記表示部に表示することを特徴とする、請求項12に記載の対象物特定装置。
The object specifying device includes:
A communication unit capable of communicating via a predetermined network;
A display unit for displaying the information output by the information output unit,
The information output unit obtains information from the information resource via the communication unit when the information stored in the map information storage unit indicates a location of the information resource existing on the network, and displays the display unit. The object specifying device according to claim 12, wherein the object specifying device is displayed.
前記対象物特定装置は、
少なくとも前記車両の現在位置付近の地図情報を格納する地図情報記憶部と、
前記対象物位置特定部が特定した対象物の位置を経由地または目的地に設定してルート検索するルート検索部とを、さらに備える、請求項1に記載の対象物特定装置。

The object specifying device includes:
A map information storage unit for storing at least map information near the current position of the vehicle;
The object specifying device according to claim 1, further comprising: a route search unit configured to search for a route by setting the position of the object specified by the object position specifying unit as a waypoint or a destination.

JP2005268535A 2005-09-15 2005-09-15 Object identification device Pending JP2007080060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005268535A JP2007080060A (en) 2005-09-15 2005-09-15 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005268535A JP2007080060A (en) 2005-09-15 2005-09-15 Object identification device

Publications (1)

Publication Number Publication Date
JP2007080060A true JP2007080060A (en) 2007-03-29

Family

ID=37940286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005268535A Pending JP2007080060A (en) 2005-09-15 2005-09-15 Object identification device

Country Status (1)

Country Link
JP (1) JP2007080060A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229180A (en) * 2008-03-21 2009-10-08 Mitsubishi Electric Corp Navigation device
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2012004809A (en) * 2010-06-16 2012-01-05 Denso Corp Imaging system
JP2014135086A (en) * 2010-08-04 2014-07-24 Apple Inc Three dimensional user interface effects on display by using properties of motion
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method
JP2015041197A (en) * 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2016035281A1 (en) * 2014-09-04 2016-03-10 株式会社ランディード Vehicle-mounted system, information processing method, and computer program
JP2016075530A (en) * 2014-10-03 2016-05-12 エヌ・ティ・ティ・インフラネット株式会社 Navigation device and navigation method
KR20160091767A (en) * 2015-01-26 2016-08-03 엘지전자 주식회사 Apparatus for controlling vehicle and method for controlling the same
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
CN106394553A (en) * 2015-08-03 2017-02-15 Lg电子株式会社 Driver assistance apparatus and control method for the same
JP2018505426A (en) * 2014-12-26 2018-02-22 ヘーレ グローバル ベスローテン フェンノートシャップ Device location using multilateration
KR101843538B1 (en) * 2015-12-16 2018-03-30 엘지전자 주식회사 Driver assistance appratus and method thereof
WO2018230678A1 (en) * 2017-06-16 2018-12-20 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device
WO2019077908A1 (en) * 2017-10-20 2019-04-25 株式会社デンソー Gesture input device
WO2019131926A1 (en) * 2017-12-28 2019-07-04 株式会社デンソー Target selecting device
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method
JP2021071885A (en) * 2019-10-30 2021-05-06 富士通株式会社 Area cut-out method and area cut-out program
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
WO2021149594A1 (en) 2020-01-21 2021-07-29 パイオニア株式会社 Information provision device, information provision method, information provision program, and recording medium
JP2021162398A (en) * 2020-03-31 2021-10-11 パイオニア株式会社 Information providing device, information providing method, information providing program, and storage medium
US11586223B2 (en) 2017-06-16 2023-02-21 Honda Motor Co., Ltd. Vehicle and service management device
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
JP2024177244A (en) * 2014-09-26 2024-12-19 日本電気株式会社 Information processing device, information processing method, information processing program, and information processing system

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229180A (en) * 2008-03-21 2009-10-08 Mitsubishi Electric Corp Navigation device
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2012004809A (en) * 2010-06-16 2012-01-05 Denso Corp Imaging system
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
JP2014135086A (en) * 2010-08-04 2014-07-24 Apple Inc Three dimensional user interface effects on display by using properties of motion
US9778815B2 (en) 2010-08-04 2017-10-03 Apple Inc. Three dimensional user interface effects on a display
US9417763B2 (en) 2010-08-04 2016-08-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method
JP2015041197A (en) * 2013-08-21 2015-03-02 三菱電機株式会社 Display control device
WO2016035281A1 (en) * 2014-09-04 2016-03-10 株式会社ランディード Vehicle-mounted system, information processing method, and computer program
JP2024177244A (en) * 2014-09-26 2024-12-19 日本電気株式会社 Information processing device, information processing method, information processing program, and information processing system
JP2016075530A (en) * 2014-10-03 2016-05-12 エヌ・ティ・ティ・インフラネット株式会社 Navigation device and navigation method
JP2018505426A (en) * 2014-12-26 2018-02-22 ヘーレ グローバル ベスローテン フェンノートシャップ Device location using multilateration
KR20160091767A (en) * 2015-01-26 2016-08-03 엘지전자 주식회사 Apparatus for controlling vehicle and method for controlling the same
KR101698102B1 (en) * 2015-01-26 2017-01-19 엘지전자 주식회사 Apparatus for controlling vehicle and method for controlling the same
CN106394553A (en) * 2015-08-03 2017-02-15 Lg电子株式会社 Driver assistance apparatus and control method for the same
EP3128462A3 (en) * 2015-08-03 2017-05-17 Lg Electronics Inc. Driver assistance apparatus and control method for the same
US10286905B2 (en) 2015-08-03 2019-05-14 Lg Electronics Inc. Driver assistance apparatus and control method for the same
KR101843538B1 (en) * 2015-12-16 2018-03-30 엘지전자 주식회사 Driver assistance appratus and method thereof
US10289274B2 (en) 2015-12-16 2019-05-14 Lg Electronics Inc. Vehicle driver assistance apparatus and vehicle driver assistance method therefor
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
JP2020089744A (en) * 2017-06-16 2020-06-11 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and indication measuring device
US20200197791A1 (en) 2017-06-16 2020-06-25 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
WO2018230678A1 (en) * 2017-06-16 2018-12-20 本田技研工業株式会社 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, program, and command measurement device
US12145050B2 (en) 2017-06-16 2024-11-19 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
JP7216033B2 (en) 2017-06-16 2023-01-31 本田技研工業株式会社 In-vehicle presentation device, in-vehicle presentation system, in-vehicle presentation method, and program
US11586223B2 (en) 2017-06-16 2023-02-21 Honda Motor Co., Ltd. Vehicle and service management device
US11691070B2 (en) 2017-06-16 2023-07-04 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
JP2019079097A (en) * 2017-10-20 2019-05-23 株式会社デンソー Gesture input apparatus
WO2019077908A1 (en) * 2017-10-20 2019-04-25 株式会社デンソー Gesture input device
WO2019131926A1 (en) * 2017-12-28 2019-07-04 株式会社デンソー Target selecting device
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method
JP7327083B2 (en) 2019-10-30 2023-08-16 富士通株式会社 Region clipping method and region clipping program
JP2021071885A (en) * 2019-10-30 2021-05-06 富士通株式会社 Area cut-out method and area cut-out program
WO2021149594A1 (en) 2020-01-21 2021-07-29 パイオニア株式会社 Information provision device, information provision method, information provision program, and recording medium
JP2021162398A (en) * 2020-03-31 2021-10-11 パイオニア株式会社 Information providing device, information providing method, information providing program, and storage medium
JP2024091702A (en) * 2020-03-31 2024-07-05 パイオニア株式会社 Information Providing Device

Similar Documents

Publication Publication Date Title
JP2007080060A (en) Object identification device
EP3338136B1 (en) Augmented reality in vehicle platforms
CN103140377B (en) For showing method and the driver assistance system of image on the display apparatus
US20090262145A1 (en) Information display device
JP2013231655A (en) Display system, portable device, on-vehicle unit, and program
JP2009020089A (en) NAVIGATION DEVICE, NAVIGATION METHOD, AND NAVIGATION PROGRAM
US20070124071A1 (en) System for providing 3-dimensional vehicle information with predetermined viewpoint, and method thereof
JP2007292713A (en) Navigation device
JP7236442B2 (en) Control method for display device in automobile
CN110047105B (en) Information processing apparatus, information processing method, and storage medium
WO2018134897A1 (en) Position and posture detection device, ar display device, position and posture detection method, and ar display method
JP4366716B2 (en) Vehicle information display device
KR102719930B1 (en) Method and apparatus for generating an image representing an object around a vehicle
JP2010185761A (en) Navigation system, road map display method
JP2022176234A (en) Information display control device, information display control method, and information display control program
JP6444508B2 (en) Display control device and navigation device
JP6186905B2 (en) In-vehicle display device and program
JP4917191B1 (en) Image control apparatus and image control method
CN102798397B (en) Navigation device with camera information
CN112558008B (en) Navigation method, system, equipment and medium based on optical communication device
JP6401925B2 (en) Virtual image display device, control method, program, and storage medium
JP5231595B2 (en) Navigation device
JP5388551B2 (en) In-vehicle display system and display method
JP2005233712A (en) Position display system
KR20040025150A (en) Route guide method in car navigation system