JP4666202B2 - Automobile equipment remote control system - Google Patents
Automobile equipment remote control system Download PDFInfo
- Publication number
- JP4666202B2 JP4666202B2 JP2004223666A JP2004223666A JP4666202B2 JP 4666202 B2 JP4666202 B2 JP 4666202B2 JP 2004223666 A JP2004223666 A JP 2004223666A JP 2004223666 A JP2004223666 A JP 2004223666A JP 4666202 B2 JP4666202 B2 JP 4666202B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- user
- terminal device
- automobile
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2400/00—Special features or arrangements of exterior signal lamps for vehicles
- B60Q2400/40—Welcome lights, i.e. specific or existing exterior lamps to assist leaving or approaching the vehicle
Landscapes
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Traffic Control Systems (AREA)
- Selective Calling Equipment (AREA)
- Telephonic Communication Services (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Description
この発明は自動車設備遠隔制御システムに関する。 The present invention relates to a vehicle equipment remote control system.
駐車場の利用者が、複数の駐車場のうちで任意の駐車場に自己の自動車を駐車してから目的地に出かけ、再び乗車するために駐車場に戻って来ようとする場合に、どの駐車場に自動車を駐車したかを忘れてしまい、自己の自動車を見つけ出すことが困難な場合がある。特許文献1には、自動車のユーザに無線送信装置と無線受信装置とを貸し出し、送信装置を自動車側に取り付けさせる一方、ユーザには受信装置を携帯させ、かつ、駐車場側の無線信号処理システムによる通信情報の解析により駐車に際しての自動車の移動経路を復元し、これをユーザ側の受信装置に送信してユーザを駐車位置まで案内する駐車管理システムが提案されている。
When a parking lot user wants to park his car in any of the multiple parking lots, then go to the destination and return to the parking lot to get on again You may forget whether you parked your car in the parking lot and find it difficult to find your car. In
しかし、上記のようなシステムでは、駐車経路解析のためのインフラが整備された駐車場では、確実にユーザを駐車位置まで案内できる利点がある反面、インフラ整備されていない駐車場では効果が全く期待できず、設備投資にも費用がかかる欠点がある。 However, the above-mentioned system has the advantage that the user can be surely guided to the parking position in the parking lot where the infrastructure for analyzing the parking route is established, but the effect is completely expected in the parking lot where the infrastructure is not established. However, there is a drawback that capital investment is expensive.
また、自動車側に標準的に搭載されている照明類やホーン(クラクション)などの設備は、駐車中の自動車に対するユーザの物理的アプローチを補助する上で有効な機能が期待できるにもかかわらず、その活用について何ら配慮されていない。例えば、自動車のキー操作を遠隔で行なう無線キーエントリシステムが普及しており、例えばロック時やロック解除時にはハザードランプ等の点灯パターンにより、操作状態をユーザに報知することが広く行なわれているし、キー操作と同時に車内照明を点灯して、夜間等における乗車を配慮するような機能も実用化されている。しかし、上記のような無線キーエントリシステムは、無線キー側から自動車側への直接かつ一方向的な電波送信により動作制御がなされるので、電波の到達範囲が短く(精々数メートル程度)、電波到達範囲よりも遠くにある駐車車両を探し出したり、あるいは遠方から駐車車両に近寄ってくるユーザの乗車補助を行なったりするような効果は全く期待できない。 In addition, lighting and horns (horns) that are typically installed on the car side can be expected to be effective in assisting the user's physical approach to a parked car, No consideration is given to its utilization. For example, a wireless key entry system that remotely performs key operation of an automobile is widespread. For example, when a lock is released or unlocked, a user is notified of an operation state by a lighting pattern such as a hazard lamp. In addition, a function has been put into practical use in which the interior lighting is turned on at the same time as the key operation, and the ride at night is taken into consideration. However, the operation of the wireless key entry system as described above is controlled by direct and unidirectional radio wave transmission from the radio key side to the automobile side, so the radio wave reach is short (about several meters at most) It is impossible to expect an effect of finding a parked vehicle farther than the reachable range or assisting a user who approaches the parked vehicle from a distance.
本発明の課題は、駐車中の自動車に対し、ユーザが比較的離れた位置に存在する場合でも、照明や音波発生装置よりなる自動車側設備を遠隔作動させることができ、ひいては駐車位置の報知やユーザの駐車位置までの誘導等に該自動車側設備を有効活用することができる自動車設備遠隔制御システムを提供することにある。 The problem of the present invention is that even when the user is present at a relatively distant position with respect to the parked automobile, the automobile-side equipment including the lighting and the sound wave generator can be remotely operated, and thus the parking position can be notified. An object of the present invention is to provide an automobile equipment remote control system that can effectively utilize the automobile-side equipment for guidance to a user's parking position.
本発明の自動車設備遠隔制御システムは、上記の課題を解決するために、
自動車に設けられ、外部の端末装置と無線通信網を介して通信する自動車側通信手段と、
自動車のユーザが携帯するとともに、自動車側通信手段と無線通信網を介して通信する端末側通信手段を有したユーザ側端末装置と、
自動車側に設けられ、自動車側通信手段を介してユーザ側端末装置から動作指令情報を受信したとき、当該自動車に搭載され、かつ、車外に存在するユーザがその出力情報を直接認識できるように構成された照明装置ないし音波発生装置の少なくともいずれかよりなる知覚出力設備を動作させる知覚出力設備制御手段と、を備え、
知覚出力設備制御手段は、知覚出力設備の出力動作パターンをユーザ毎に変更可能に設定することを前提とする。
In order to solve the above problems, the automobile equipment remote control system of the present invention
A vehicle-side communication means that is provided in the vehicle and communicates with an external terminal device via a wireless communication network;
A user-side terminal device having terminal-side communication means that is carried by a user of an automobile and communicates with the automobile-side communication means via a wireless communication network;
It is provided on the vehicle side , and when operating command information is received from the user side terminal device via the vehicle side communication means, it is configured so that a user installed in the vehicle and existing outside the vehicle can directly recognize the output information. A perceptual output facility control means for operating a perceptual output facility comprising at least one of a lighting device or a sound wave generator,
The perceptual output facility control means is premised on setting the output operation pattern of the perceptual output facility to be changeable for each user.
上記本発明において、ユーザ側端末装置は、自動車に搭載された照明装置及び音波発生装置などの動作制御入力部に相当する。そして、その動作指令情報を、無線通信網を介して自動車側に送信し、これを受けた自動車側にて、車外から認識できる光ないし音波を発生させる照明装置及び音波発生装置を遠隔動作させるようにした。通信網を経由することで、無線キーエントリシステムでは電波到達が到底期待できない位置に存在する自動車に対しても、その照明装置及び音波発生装置を動作させることができ、ひいては駐車位置の報知やユーザの駐車位置までの誘導等に該知覚出力設備を有効活用することができる。 In the present invention, the user-side terminal device corresponds to an operation control input unit such as a lighting device and a sound wave generator mounted on a car. Then, the operation command information is transmitted to the vehicle side via the wireless communication network, and the lighting device that generates light or sound waves that can be recognized from outside the vehicle and the sound wave generation device are remotely operated on the vehicle side that has received the operation command information. I made it. Via the communication network, it is possible to operate the lighting device and the sound wave generator even for a vehicle that exists in a position where radio wave entry cannot be expected in the wireless key entry system. The perceptual output facility can be effectively used for guidance to the parking position.
なお、ユーザの自動車が、知覚出力設備の出力(光や音)が認識できないようなはるか遠方に存在する場合に、自動車側の該知覚出力設備を動作させることは無駄であり、また、人の近づいてくる気配がないにも関わらず、自動車の照明やホーンなどが延々動作しつづけるのは周囲に迷惑であるし、通行人等に不気味な印象も与え、誤動作と間違えられて通報されたりすると後の対応が面倒である。そこで、上記本発明のシステムは、知覚出力設備制御手段は、ユーザが携帯するユーザ側端末装置と自動車との距離が一定以下に接近した状態において、知覚出力設備を、その出力がユーザにより視認又は聴取可能な状態で動作させるように構成することが望ましい。 In addition, when the user's automobile is located far away such that the output (light and sound) of the perceptual output facility cannot be recognized, it is useless to operate the perceptual output facility on the automobile side. Even though there is no sign of approaching, it is annoying to the surroundings that the lighting of the car and horn etc. continue to operate, and it also gives an eerie impression to passers-by etc., and it is mistaken for malfunction and reported The later response is troublesome. Therefore, in the system according to the present invention, the perceptual output facility control means is configured such that the output of the perceptual output facility is visually recognized by the user or the user is in a state where the distance between the user-side terminal device carried by the user and the automobile is below a certain level. It is desirable to be configured to operate in a audible state.
また、本発明の自動車設備遠隔制御システムは、自動車又は駐車中の該自動車の周辺設備に設置される、自動車の位置を特定する自動車位置特定手段と、ユーザ側端末装置の位置を特定する端末装置位置特定手段とを備え、知覚出力設備制御手段は、位置特定手段が特定する自動車及びユーザ側端末装置の位置情報に基づいて、ユーザ側端末装置と自動車との距離が一定以下に接近したかどうかを認識するものとして構成することができる。自動車側およびユーザ側端末装置側の位置を特定することで、ユーザ側端末装置と自動車との距離を定量的に把握することができ、該距離に応じた知覚出力設備の動作制御をより適確に行なうことができる。位置特定手段は、例えば周知のGPS(Global Positioning System)装置により構成できる。GPSでは、互いに異なる軌道で地球の上空を周回する複数の人工衛星(米国の軍事衛星が使用されている)から、それぞれ地表に向けて測位データを乗せた電波(以下、測位電波という)が発信されており、このうちの3つ以上の人工衛星からの測位データを受信・解析することにより、受信機の地球上における位置を特定することができる。 Further, the vehicle equipment remote control system of the present invention includes a vehicle position specifying means for specifying the position of the vehicle and a terminal device for specifying the position of the user-side terminal device, which are installed in the peripheral equipment of the vehicle or the parked vehicle. position and an identification means, sensory output equipment control means based on the position information of the car and the user terminal device for specifying the position specifying means, whether the distance between the user-side terminal and the vehicle approaches the predetermined value or less Can be configured to recognize. By identifying the positions of the automobile side and the user side terminal device side, the distance between the user side terminal device and the automobile can be quantitatively grasped, and the operation control of the perceptual output equipment according to the distance is more accurately performed. Can be done. The position specifying means can be configured by, for example, a well-known GPS (Global Positioning System) device. With GPS, radio waves carrying positioning data (hereinafter referred to as positioning radio waves) are transmitted from the multiple artificial satellites (U.S. military satellites) that orbit the earth in different orbits toward the ground surface. The position of the receiver on the earth can be specified by receiving and analyzing positioning data from three or more of these artificial satellites.
具体的には、知覚出力設備制御手段は、自動車及びユーザ側端末装置の位置情報と、他方の無線通信網に対するアクセスエリア情報とに基づいて、ユーザ側端末装置と自動車との距離が一定以下に接近したかどうかを認識するものとして構成できる。つまり、自動車及びユーザ側端末装置は、いずれも無線基地局に電波アクセスすることにより通信網に接続するので、その無線基地局が特定できれば、当該無線基地局がカバーするアクセスエリア内に自動車およびユーザ側端末装置が存在することを容易に把握できる。従って、その情報と、位置特定手段による他方の位置情報とに基づいて、ユーザ側端末装置と自動車との距離を把握することができる。 Specifically, the perceptual output facility control means sets the distance between the user-side terminal device and the vehicle to a certain value or less based on the position information of the vehicle and the user-side terminal device and the access area information for the other wireless communication network. It can be configured to recognize whether or not they are approaching . In other words, since both the automobile and the user side terminal device are connected to the communication network by accessing the radio base station by radio waves, if the radio base station can be identified, the automobile and the user are within the access area covered by the radio base station. It can be easily grasped that the terminal device is present. Therefore, the distance between the user-side terminal device and the automobile can be grasped based on the information and the other position information by the position specifying means.
一方、知覚出力設備制御手段は、(位置特定手段による)自動車及びユーザ側端末装置の双方の位置情報に基づいて、ユーザ側端末装置と自動車との距離が一定以下に接近したかどうかを認識するものとして構成することもできる。このようにすると、自動車及びユーザ側端末装置の位置を、前述の位置特定手段により個別に特定すれば、ユーザ側端末装置と自動車との距離をより正確に把握することができる。 On the other hand, the perceptual output facility control means recognizes whether or not the distance between the user side terminal device and the vehicle has approached a certain level or less based on the position information of both the vehicle and the user side terminal device (by the position specifying means). It can also be configured as a thing. If it does in this way, if the position of a car and a user side terminal unit is specified individually by the above-mentioned position specifying means, the distance between a user side terminal unit and a car can be grasped more correctly.
知覚出力設備制御手段は、ユーザ側端末装置と自動車との距離が、予め定められた距離以下に接近しとき、知覚出力設備を、自動車の駐車位置をユーザに報知するために出力動作させるものとして構成できる。これにより、大規模駐車場などで駐車位置を忘れた場合に、ユーザ側端末装置から自動車に動作指令情報を送ることで、該自動車が照明装置を発光させるか、あるいは音波発生装置から報知音を出力することにより、自動車の駐車位置をユーザに効果的に知らせることができ、ユーザはその出力を頼りに見失った自分の自動車の位置を容易に把握することができる。また、無線通信網として公共通信網を利用することができ、特許文献1のごとくき駐車場側の通信インフラ整備も不要となる利点がある。
The perceptual output equipment control means is configured to output the perceptual output equipment to notify the user of the parking position of the car when the distance between the user side terminal device and the car approaches a predetermined distance or less. Can be configured. As a result, when the parking position is forgotten in a large-scale parking lot or the like, the user side terminal device sends operation command information to the vehicle, so that the vehicle causes the lighting device to emit light, or the sound generator generates a notification sound. By outputting, it is possible to effectively inform the user of the parking position of the automobile, and the user can easily grasp the position of his / her automobile which is lost due to the output. Moreover, a public communication network can be used as a wireless communication network, and there is an advantage that the communication infrastructure on the parking lot side is not required as in
駐車位置把握に本発明を使用する場合、上記距離は100m以上400m以下の範囲内に設定することが望ましい。駐車位置報知を行なうか否かを決定する上記距離は、郊外型スーパーマーケットなどの広い駐車場などでは、見失った自動車までの距離が100mを超えることは十分にありえ、これ未満の設定だと、駐車位置把握に係る本発明の効果を享受できなくなる惧れがある。一方、距離が400mを超えると、距離が最大限に大きくなった場合に、知覚出力設備が動作しても、その照明光や音波がユーザに届きにくくなり動作としては無駄になるし、これを回避するために、やたらに強い照明光や音波を発することは周囲に迷惑となる。 When using the present invention for grasping the parking position, it is desirable to set the distance within a range of 100 m to 400 m. The above-mentioned distance for determining whether or not to notify the parking position is sufficiently large that the distance to a lost car can exceed 100m in a large parking lot such as a suburban supermarket. There is a possibility that the effect of the present invention relating to position grasping cannot be enjoyed. On the other hand, when the distance exceeds 400 m, even if the perceptual output equipment is operated when the distance is maximized, the illumination light and sound waves are difficult to reach the user, and the operation is wasted. In order to avoid it, it is annoying to the surroundings to emit strong illumination light and sound waves.
なお、知覚出力設備として照明光を用いると、駐車場等において自分の自動車が他の自動車や障害物の陰になり、照明による報知内容をユーザが認識できないことがある。このような場合、ホーンやブザーなどの吹鳴による音波報知が有効である。この場合、吹鳴パターンを、断続音や、長音と断続音との組み合わせなど、規則的に変化するパターンとして出力すると、駐車位置報知用の該吹鳴パターンを、他の音波に対して容易に識別できる。また、知覚出力設備制御手段は、照明装置及び音波発生装置の双方の出力を組み合わせて自動車の駐車位置をユーザに報知することも、遠方にある駐車位置の把握を容易にする観点において有効である。 When illumination light is used as the perceptual output facility, the user's car may be behind other cars or obstacles in a parking lot or the like, and the user may not be able to recognize the notification content by illumination. In such a case, sound wave notification by blowing a horn or a buzzer is effective. In this case, if the blowing pattern is output as a pattern that changes regularly, such as an intermittent sound or a combination of a long sound and an intermittent sound, the blowing pattern for parking position notification can be easily identified with respect to other sound waves. . In addition, the perceptual output facility control means is also effective from the viewpoint of facilitating the understanding of the parking position at a distant place, by notifying the user of the parking position of the automobile by combining the outputs of both the lighting device and the sound wave generator. .
音波発生装置としては、特に、自動車に設けられたホーンを使用することが、駐車位置報知に必要な音量確保の点で有利である。また、照明装置としては、自動車のヘッドランプ、ハザードランプ及び車内照明の少なくともいずれかを使用することが、駐車位置報知に必要な光量確保などの観点において有利である。 As a sound wave generator, it is particularly advantageous to use a horn provided in an automobile in terms of securing sound volume necessary for parking position notification. In addition, it is advantageous to use at least one of an automobile headlamp, a hazard lamp, and an interior illumination as an illumination device from the viewpoint of securing a light amount necessary for parking position notification.
また、知覚出力設備制御手段は、自動車に対するユーザの相対的な接近方向を検出するユーザ接近方向検出手段を備え、知覚出力設備のうち、該接近方向に向けて出力動作が可能なものを動作させることができる。ユーザの接近する向きに応じて、動作させる知覚出力設備を適宜選択することで、ユーザは自動車の乗降口等がどの向きにあるかなども把握しやすくなり、ユーザを自動車に向けて誘導する効果も高い。このような動作を行なう場合、知覚出力設備としては、特に照明装置を用いるのが、自動車へのアプローチをライトアップしてユーザを安全に自動車まで誘導する観点において有利である。具体的には、自動車に設けられたヘッドランプ、フォグランプ、ハザードランプ、コーナリングランプ、車両側方に設けられた側方照明、テールランプ、ストップランプ、バックアップランプ及び車内照明の少なくともいずれかを含む照明装置を使用することができる。
The perceptual output equipment control means includes user approach direction detecting means for detecting the relative approach direction of the user with respect to the vehicle, and operates the perceptual output equipment capable of output operation in the approach direction. be able to. By appropriately selecting the perceptual output equipment to be operated according to the approaching direction of the user , it becomes easier for the user to grasp the direction of the entrance / exit of the car, etc., and the effect of guiding the user toward the car Is also expensive. When performing such operations, it is particularly advantageous to use a lighting device as the perceptual output facility from the viewpoint of illuminating the approach to the vehicle and guiding the user to the vehicle safely. Specifically, an illuminating device including at least one of a head lamp, a fog lamp, a hazard lamp, a cornering lamp, a side lamp, a tail lamp, a stop lamp, a backup lamp, and an in-vehicle lamp provided in a vehicle. Can be used.
なお、本発明のシステムの採用車両が増えてくると、同じ駐車場で同じシステムを採用する別の自動車同士が遭遇することがあり、これらが知覚出力設備を駐車位置報知のために同時に動作させると、どれが自分の自動車の報知出力なのか識別できなくなる惧れが生ずる。そこで、知覚出力設備制御手段は、知覚出力設備の駐車位置報知のための出力動作パターンを変更可能に設定するものとしておけば、そのユーザ固有の出力動作パターンも設定することが可能となり、識別性を高めることができる。 In addition, when the number of vehicles adopting the system of the present invention increases, another car that uses the same system in the same parking lot may encounter each other, and these simultaneously operate the perceptual output facility for parking position notification. Then, there is a fear that it is impossible to identify which is the notification output of the own car. Therefore, if the perceptual output facility control means is set so that the output operation pattern for informing the parking position of the perceptual output facility can be changed, the output operation pattern unique to the user can also be set. Can be increased.
なお、立体駐車場などでは、平面的な駐車位置情報のほかに、階床などの高さ方向の位置情報も加わり、それも含めて駐車位置を忘れてしまった場合には、より一層の苦労を強いられることになる。そこで、自動車に、自動車側又は該自動車の駐車施設側に設けられた、該自動車の高さ方向情報を特定する高さ方向情報特定手段から、該自動車の駐車位置の高さ方向情報を取得する駐車位置の高さ方向情報取得手段を設け、ユーザ側端末装置には、端末側通信手段を介して自動車側から受信した高さ方向情報を出力する高さ方向情報出力部を設けることが有効である。これにより、ユーザに対する3次元的な駐車位置の把握支援を行なうことができ、立体駐車場などでも忘れた駐車位置に容易にたどり着くことができるようになる。高さ方向情報特定手段は、例えば気圧計などを採用することもできるし、立体駐車場などの建物側に設けられた送信装置からの階床情報を受信する階床情報受信装置とすることもできる。他方、前述のGPSは、4衛星以上からの測位電波を受信することで、高さ方向への測位自由度も生じさせることができ、これを高さ方向情報特定手段として活用することも可能である。
In multistory parking lots, etc., in addition to flat parking position information, position information in the height direction such as floors is also added, and if you forget the parking position including that, even more difficult Will be forced. Therefore, the height direction information of the parking position of the vehicle is acquired from the height direction information specifying means for specifying the height direction information of the vehicle provided on the vehicle side or the parking facility side of the vehicle. It is effective to provide a height direction information acquisition means for the parking position, and to provide a height direction information output unit for outputting the height direction information received from the vehicle side via the terminal side communication means in the user side terminal device. is there. As a result, it is possible to assist the user in grasping the three-dimensional parking position, and to easily reach the forgotten parking position even in a three-dimensional parking lot or the like. As the height direction information specifying means, for example, a barometer or the like can be adopted, or a floor information receiving device that receives floor information from a transmitting device provided on a building side such as a multilevel parking garage can be used. it can. On the other hand, the above-mentioned GPS can also generate positioning freedom in the height direction by receiving positioning radio waves from four or more satellites, which can also be used as height direction information specifying means. is there.
万一、ユーザ側端末装置を紛失したり盗まれたりした場合、第三者がそのユーザ側端末装置から動作指令情報を出力すれば、ユーザの自動車は無関係な第三者にその駐車位置(つまり、自動車のありか)を自分で知らせることになる。これは、「私の車はここにあるからどうぞ盗んでください」とわざわざ知らせるようなものであり、セキュリティ上の問題が多い。特に、ユーザ側端末装置が、自動車のロック操作部に兼用されている場合は、拾得したユーザ側端末装置により勝手に車を開けられ、車内搭載品を盗み取られたりする惧れもある。そこで、これを防ぐため、ユーザ側端末装置に、ユーザを個人認証するための個人認証手段を設け、該認証が受理された場合にのみ前述の動作指令情報が出力可能となるように構成することが望ましい。 In the unlikely event that the user side terminal device is lost or stolen, if the third party outputs the operation command information from the user side terminal device, the user's car will be in the parking position (that is, , If there is a car). This is something that bothers me to say "My car is here, so please steal it" and there are many security issues. In particular, when the user-side terminal device is also used as a lock operation unit of an automobile, the user-side terminal device that has been picked up may open the vehicle without permission and steal an in-vehicle product. Therefore, in order to prevent this, a personal authentication means for personally authenticating the user is provided in the user side terminal device, and the above-described operation command information can be output only when the authentication is accepted. Is desirable.
以下、本発明の実施の形態を添付の図面を用いて詳しく説明する。図1は、本発明の一実施形態を示す自動車設備遠隔制御システム(以下、単に「システム」ともいう)1000の概念ブロック図である。該システム1000は、自動車側通信手段をなす無線通信装置501と、自動車のユーザーが携帯するとともに、自動車側通信手段と無線通信網1170を介して通信する通信装置323(端末側通信手段)を有したユーザ側端末装置1と、自動車側に設けられ、通信装置501,323を介してユーザ側端末装置1から動作指令情報を受信したとき、当該自動車に搭載された照明装置504〜512及び音波発生装置502,503の少なくともいずれかよりなる知覚出力設備を動作させる知覚出力設備制御部(手段)50とからなる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a conceptual block diagram of an automotive equipment remote control system (hereinafter also simply referred to as “system”) 1000 showing an embodiment of the present invention. The
知覚出力設備制御部50の要部は、車両位置判定制御部1100、ユーザ接近判定制御部1110及び機能選択制御部1120からなり、これらは各々CPUと、いかに詳述する機能実現プログラムを格納したROMと、その実行エリアとなるRAMとを有したマイクロプロセッサにより構成されている。車両位置判定制御部1100には通信装置501及びワイヤレスチューナ531及びGPS532が接続されている。通信装置501の受信内容はユーザ接近判定制御部1110にも入力される。
The main part of the perceptual output
ユーザ側端末装置1は本実施形態では携帯電話として構成されている。図1に示すように、マイクロプロセッサで構成された情報判定部310と、これに接続された入出力部311、さらに該入出力部311に接続された表示部(液晶パネル)542及び音発生部(本実施形態ではブザーであるが、携帯電話の着信音発生部でも代用できる)543などからなる。
In this embodiment, the user
車両位置判定制御部1100は、例えば自動車の駐車位置の周辺設備(例えば自宅や車庫等の建物)1160側に設けられたGPSから、その位置情報を、無線通信網1170を介して取得することができる。また、自身に接続されたGPS532により自立的に自動車の位置情報を取得することもできる。GPSの構成は周知であるから詳細な説明は省略する。
The vehicle position
上記の自動車の位置情報は、ユーザ側端末装置1と自動車との距離、及び該端末装置1を携帯したユーザの自動車に対する接近方向を特定するのに用いられる。携帯電話として構成されたユーザ側端末装置1は、最寄りの無線基地局1171を介して通信網1170に接続するので、無線基地局1171にてユーザ側端末装置1からの通信情報に、該無線基地局1171の位置特定情報を付加して車両位置判定制御部1100に転送する。これにより、車両位置判定制御部1100ではGPS532(ないし、周辺設備1160側のGPS)による自動車の位置と、ユーザ側端末装置1がアクセスする最寄りの無線基地局1171の位置とに基づいて、ユーザ側端末装置1と自動車との距離及びユーザ側端末装置1の自動車に対する相対的な方位を把握することができる。
The position information of the automobile is used to specify the distance between the user-
しかし、より正確にユーザ側端末装置1と自動車との距離及び方位関係を把握するには、ユーザ側端末装置1にもGPS554を設けることで、ユーザ側端末装置1が自立的にその位置情報を取得できるようにしておき、その端末位置情報を、無線通信網1170を介して車両位置判定制御部1100に送信する方式を採用することが望ましい。これにより、車両位置判定制御部1100では、自身に接続されたGPS532による正確な自動車位置と、ユーザ側端末装置1から受信したGPS554による正確な端末位置との双方を取得でき、ユーザ側端末装置1と自動車との距離及び方位関係を極めて正確に把握することができ、また、ユーザ側端末装置1と自動車との距離変化や接近方向変化も事実上リアルタイムに把握できるから、照明装置504〜512及び音波発生装置502,503の動作制御を、よりきめ細かく行なうことができる。
However, in order to grasp the distance and azimuth relationship between the user
自動車側のGPS532及び端末側のGPS554が特定するユーザ側端末装置1と自動車との各位置情報は、ユーザ側端末装置1が自動車から比較的離れているときに、両者の距離及び方位関係を多少大まかに把握する上で有用である。例えば駐車場等で自動車の駐車位置を見失ったりしたときに、上記の距離が距離(例えば100m以上400m以下)以下に縮小したとき、照明装置504〜512及び音波発生装置502,503の出力により、自動車の駐車位置をユーザに報知する制御に有効に活用できる。また、車両位置判定制御部1100側で把握した自動車の駐車位置をユーザ側端末装置1に無線送信し、ユーザ側端末装置1の表示部542に、端末位置と自動車駐車位置とを地図表示したり、あるいは駐車方角と距離を表示するなど、駐車位置把握支援情報を表示するようにしてもよい。
The positional information between the user-
一方、ユーザ接近判定制御部1110には、ユーザ側端末装置1を携帯したユーザが、自動車にさらに接近したとき、その自動車との位置関係をより詳細に検出するための種々のセンサが接続されている。要部をなすのは、各座席位置に配置され、ユーザがどの座席に向けて接近するかを検出する人センサ522〜525(図1では、運転席センサ522、助手席センサ523、左後部座席センサ524及び右後部座席センサ525を設けているが、図8〜図10に示すように、さらに多く設けてもよい)。また、車内セキュリティ監視用等に、カメラ521、赤外線センサ526、ソナー527及び進入センサ528等も同様に接続されている。
On the other hand, the user approach
一方、機能選択制御部1120には、音波発生装置3として、ホーン502、ブザー503が接続されている。また、照明装置(ランプ類)としては、ヘッドランプ504(ビームをハイとローとで切り替え可)、フォグランプ505、ハザードランプ506、テールランプ507、コーナリングランプ508、バックアップランプ509、ストップランプ510、車内照明511及び床下ランプ512が接続されている。これらの動作は、機能選択制御部1120のROMに記憶された制御プログラムが記述するパターンに従い制御される。また、動作パターンは、カスタマイズ部1130により該制御プログラムの内容を変更することで種々に設定可能である。
On the other hand, a
図11は、携帯電話として構成されたユーザ側端末装置1(以下、携帯電話1ともいう)の一例を示す外観斜視図である。携帯電話1は、本体の上寄りに受話器303が、同じく下寄りに送話器304が配置されており、両者の間には、液晶表示装置(例えば、カラー液晶表示装置)にて構成された液晶モニタ308、入力部305、及び携帯電話1をオンフック状態とオフフック状態との間で切り換えるオンフック/オフフック切換スイッチ306が設けられている。本実施形態において携帯電話1は、線電話通信網だけでなく、インターネット等の情報通信網へのアクセスも可能なものとされている。入力部は、情報入力用のキーボードに兼用された通話ダイアルキー305a、カーソル移動キー305b、及び通話モードや情報検索モード等の使用モードを切り換えるためのモード切替キー305c等を含んでいる。
FIG. 11 is an external perspective view showing an example of a user terminal device 1 (hereinafter also referred to as a mobile phone 1) configured as a mobile phone. The
送話器304は、気導音検出部を兼ねるマイクにて構成される。他方、受話器303は本実施形態では骨伝導スピーカで構成され、これと近接して骨伝導音検出部としての骨伝導マイク340が配置されている。骨伝導スピーカの基本構成は、例えば特許第2967777号公報あるいは特開2003-340370号公報等により、骨伝導マイクの基本構成は、例えば実開昭55−146785号公報、特開昭58−182397号公報、実開昭63−173991号公報あるいは特許第3488749号公報等により、各々周知であるため詳細な説明は省略する。いずれも耳か耳下の顎骨などに当てて使用するものである。これらはいずれも認証用特徴情報取得部を構成する。
The
また、携帯電話1には、他の認証用特徴情報取得部として、顔撮影カメラ341、接触式生体特徴情報検出部をなす面型接触センサ343と、指紋検出部342とを備えている。図11に示すごとく、携帯電話1を握る形態は、利用者によるバラツキはあるものの基本形態はほぼ同じである。すなわち、表示部308が手MHの内側に向くように電話機下部を掌の底に当て、電話機の第一の側面(右利きの人は左側面、左利きの人は逆)に曲げた4本の指14Fをあてがう一方、電話機の第二の側面(右利きの人は左側面、左利きの人は逆)の下半分に親指MSの付け根から側面部を沿わせ、上半分にかかる位置にて親指の先端を当てる。入力部305に不用意に触れないようにし、また、指先が顔に当たる不快感を軽減するために、無意識にこういう持ち方になるのである。本実施形態では、これを利用して、親指の先端腹が当たる位置に指紋検出部342を設け、両側面に面型接触センサ343を設けている。
In addition, the
本実施形態では、図13に示すように、面型接触センサ343として、既に説明した、押し圧によって接点抵抗(接点容量でもよい)が変化する感圧接点SPをシート内に複数分散配置したシート状感圧センサモジュールを用いている。個々の感圧接点SPの抵抗値(圧力検出値)は複数ビット信号により諧調的にデジタル変換され、各感圧接点SPの信号値により圧力分布情報が得られる。これにより、第一側(ここでは左)の面型接触センサ343では、親指以外の4本指による把握押圧領域に対応した感圧分布領域PDPが検出され、第二側(ここでは右)の面型接触センサ343では、該圧力分布に親指(及び掌の親指付け根部分)の把握押圧領域に対応した感圧分布領域PDPが検出される。該感圧分布領域PDPの形状(及び圧力分布状態)は個人によって異なるため、特徴情報として利用できる。
In the present embodiment, as shown in FIG. 13, as the surface-
顔撮影用カメラ341は例えばCCDカメラからなり、認証処理対象者の顔と表示部308とが正対しているときに、顔を撮影可能な位置となるように、携帯電話1の表示部308に近接して設けられている。これは、認証用の顔画像は、顔の必要部分がカメラ341の視野に収まっていなければならないので、カメラ341に写る撮影用のファインダ画像を表示部308に表示し、認証に好適な姿勢の画像が得られるかどうか(例えば、図13に示すように、表示部308内の規定枠F内に顔が納まり、基準線SLに目線を合せるなど)を確認しつつ撮影できるようにするためである。なお、顔撮影用カメラ341に代えて網膜撮影用カメラを設け、網膜の画像を認証用特徴情報として用いることも可能である。さらに、網膜の画像以外にも、アイリス(虹彩)の画像を撮影し、認証用特徴情報として用いることもできる。アイリスの画像を用いる場合、その模様や色の個人性を利用して照合・認証を行なう。特にアイリス模様は後天的形成要素であり、遺伝的影響度も低いので一卵性双生児でも顕著な相違があり、確実に識別できる利点がある。アイリス模様を用いた認証方式は、認識・照合を迅速に行なうことができ、他人誤認率も低い特徴がある。アイリスの撮影は通常のカメラを用いて行なうことができ、この場合、顔撮影用カメラ341に代えて専用のカメラを設けるようにしてもよいし、顔撮影用カメラ341にアイリス接写用のアタッチメントを取り付けて撮影を行なうようにすることも可能である。
The
図12は、携帯電話1の電気的構成の一例を示すブロック図である。回路の要部は、入出力部311と、これに接続されたCPU312(認証用特徴情報取得制御手段、認証処理手段、照合手段、複合音声特徴情報演算手段を構成する)、ROM314、RAM313(骨伝導音声情報記憶部及び気導音声情報記憶部となる)等からなる制御部310を含む。入出力部311には、前述の入力部305、オンフック/オフフック切換スイッチ306が接続される。また、受話器303はアンプ315とD/A変換器316を介して、送話器304はアンプ317とA/D変換器318を介して、さらに骨伝導マイク340はアンプ320とA/D変換器321を介して、それぞれ入出力部311に接続されている。さらに、入出力部311には、前述のGPS554と音出力部(ブザーあるいは着信音出力部)543も接続されている。
FIG. 12 is a block diagram showing an example of the electrical configuration of the
また、入出力部311には、前述の通信装置323が接続されている。通信装置323は、制御部310と接続するための接続インターフェース331と、これに接続された変調器332、送信機333、周波数シンセサイザ334、受信機335、復調器336及び共用器337等により構成されている。制御部310からのデータ信号は変調器332により変調され、さらに送信機333により共用器337を介してアンテナ339から送信される。一方、受信電波はアンテナ339及び共用器337を介して受信機335により受信され、復調器336で復調された後、制御部310のI/Оポート311に入力される。なお、通話を行なう場合は、例えば送話器304から入力された音声信号がアンプ317で増幅され、さらにA/D変換器318によりデジタル変換されて制御部310に入力される。該信号は、必要に応じて制御部310にて加工された後、D/A変換器316及びアンプ315を介して受話器303から出力される。
The input /
一方、接続インターフェース331には、制御用電波Pを発信する制御用電波発信器338がつながれている。制御用電波Pは共用器337を介してアンテナ339から発信される。そして、携帯電話1が別の通信ゾーンに移動した場合、網側の無線回線制御局が制御用電波Pの受信状況に基づいて、周知のハンドオーバ処理を行なう。
On the other hand, a control
以下、自動車設備遠隔制御システム(以下、単に「システム」ともいう)1000の動作について説明する。まず、図2は、ユーザ側端末装置(携帯電話)1側の処理の流れを示すものである。S200では認証入力を行ない、操作者が自動車のユーザであるかどうかを認証する。この認証処理の詳細については後述する。また、自動車の駐車位置を忘れた場合は、認証受理された後、図11の入力部305から、駐車位置報知要求入力を行なう。この入力内容が、動作指令情報として通信装置323より、図1の無線通信網1170を介して知覚出力設備制御部50に送信される。
The operation of the automobile facility remote control system (hereinafter also simply referred to as “system”) 1000 will be described below. First, FIG. 2 shows the flow of processing on the user terminal device (mobile phone) 1 side. In S200, an authentication input is performed to authenticate whether the operator is a car user. Details of this authentication process will be described later. In addition, if the user forgets the parking position of the automobile, after receiving the authentication, a parking position notification request is input from the
S210では、知覚出力設備制御部50からの駐車位置情報が受信可能かどうかを判定する。受信可能な場合は、その駐車位置情報を取得し、S230で取得した情報を用いて自動車と端末との位置関係(距離及び相対的な方向)を特定し、S270でこれを表示部542に表示する。
In S210, it is determined whether the parking position information from the perceptual output
なお、図2の処理では、自動車側からの複数の電波源を活用し、ある電波源では駐車位置情報を取得できない場合に、S240、S250、S260及びS280により、代替方法として別の電波源を利用して駐車位置情報を取得できるようにしてある(ただし、図1のごとく、自動車側とユーザ側端末装置1側との双方にGPS532,554を設ける場合は、それぞれのGPS532,554による位置情報を無線通信により互いに取得し合えば、両者の相対距離と方向を問題なく取得できるので、これらのステップを省略することもできる)。この場合、S210で知覚出力設備制御部50からの駐車位置情報が直接受信できないようであればS240へ進み、車両搭載されているワイヤレスチューナ531からの出力電波の受信を、電波到来方向のスキャンにより試みる。S250では、スキャン結果として、自動車側から発生られる後述の基準信号電波を受信できるかどうかを判定し、これが受信できなければS280に進んで、近隣に通信可能な自動車が存在しない判定を行ない、その旨を表示部542(図1)に表示する。他方、基準信号電波を受信できる場合は、その基準信号電波の受信強度等から自動車の駐車方向を認識し、S270に進んでその結果を表示部542に表示する。
In the process of FIG. 2, when a plurality of radio sources from the automobile side are utilized and parking position information cannot be obtained with a certain radio source, another radio source is used as an alternative method by S240, S250, S260, and S280. The parking position information can be acquired by using (However, as shown in FIG. 1, when
次に、図3は、知覚出力設備制御部50側の主処理の流れを示すものである。S1では、自動車の位置特定処理を行ない、S2で端末装置1からの駐車位置報知要求信号(動作指令情報)を受信したかどうかを調べる。受信していれば、ユーザ(つまり、端末装置1)と自動車との距離を調べ、それがある距離(例えば100m以上400m以下に設定される一定値)よりも小さければS4に進み、位置報知動作を行なう。他方、近づいていなければS1に戻り、位置特定処理を繰り返す。このとき、上記距離内に自動車がないことを知らせるエラー情報を端末装置1側に返し(S6)、端末装置1ではその受信内容に基づいて、近くに自動車がないことを知らせるメッセージ等を表示部542(図1)に表示するようにしてもよい。他方、S2で、端末装置1からの駐車位置報知要求信号を受信していなければ、同様にS1に戻り、位置特定処理を繰り返す。
Next, FIG. 3 shows the flow of main processing on the perceptual output
図4は、位置特定処理の流れを示すフローチャートである。S300では、GPS532からの測位情報を受信できるかどうかを確認し、受信できているようであればS310に進んでGPSからの測位情報を受け取り、自動車の絶対位置(例えば経緯度表示)を特定する。なお、周知の地図情報と組み合わせ、地図上の位置に変換して特定するようにしてもよい。他方、S300でGPS532からの測位情報を受信できていなければS320に進み、例えば、図1の周辺設備等に搭載されている別のGPSなどからの測位情報が受信できないかを判定する。受信できるようであればS330でこれを受信し、S340に進んで自動車の位置を特定する。他方、S320で代替の測位情報が受信できない場合はS350に進み、情報なしを端末装置1側に通知するとともに、最後の手段として、前述の基準信号を送信する。端末装置1では、前述の通り、その基準信号をもとに自動車との位置関係の特定を試みる。
FIG. 4 is a flowchart showing the flow of the position specifying process. In S300, it is confirmed whether or not the positioning information from the
図5は、位置報知動作の流れを示すものである。本実施形態では、照明装置及び音波発生装置の双方の出力を組み合わせて自動車の駐車位置をユーザに報知するようにしている。また、知覚出力設備の駐車位置報知のための出力動作パターンを、ユーザ固有のものとして識別性を高めるために、変更可能に設定できるようにしている。まず、S11では、予め用意された複数の出力動作パターン(機能選択制御部1120のROMに記憶されている)から、選択されたものを読み出す。また、立体駐車場の場合は、S12にて、4衛星以上からの測位データによりGPS532(図1)が特定した階床情報(高さ方向情報:駐車場側から取得した階床情報であってもよい)を取得し、その階床情報を端末装置1に送信する。図11に示すように、端末装置1側では、受信した階床情報を表示部308に表示する。なお、端末装置1側でも、該端末装置1(つまり、ユーザ)の存在する階床情報をGPS554(図1)により特定である。この場合、端末装置1の存在する階床と駐車階床とが相違する場合は、図11に示すように、その相違内容が把握可能となる階床情報を表示部308に表示してもよい。
FIG. 5 shows the flow of the position notification operation. In the present embodiment, the output of both the lighting device and the sound wave generator is combined to notify the user of the parking position of the automobile. In addition, the output operation pattern for informing the parking position of the perceptual output facility can be set to be changeable in order to enhance identification as being unique to the user. First, in S11, a selected one is read out from a plurality of output operation patterns prepared in advance (stored in the ROM of the function selection control unit 1120). In the case of a multilevel parking lot, in S12, the floor information (height direction information: floor information acquired from the parking lot side) specified by GPS 532 (FIG. 1) based on positioning data from four or more satellites. And the floor information is transmitted to the
そして、S14では、照明装置と音波発生装置とを組み合わせた種々のパターンにより、駐車位置を報知する出力を行なう。図6及び図7においては、駐車位置報知用に、音波発生装置としてホーン502が使用され、照明装置としては、車内照明511(室内の全体が明るくなるので目立ちやすい)、ヘッドランプ504(照明装置の中では最も明るく、報知性に優れる)、ハザードランプ506(車両の前後及び場合により側面にも配置され、明るく点滅するので種々の方向から認識できる)及びテールランプ507(自動車のリア側では最も目立つ照明である)から、適宜選択されたものが使用されるようになっている。
And in S14, the output which alert | reports a parking position is performed by the various pattern which combined the illuminating device and the sound wave generator. In FIGS. 6 and 7, a
図6では、各照明の明滅パターンとホーンの吹鳴パターンとをいずれも類似の断続的パターンとし、採用する照明の種別の組み合わせを種々に変更した例を示している。なお、ホーンの吹鳴と照明の点灯とは交互に行なうようにしている。他方、図7では、採用する照明の種別の組み合わせに加え、照明点灯とホーン吹鳴とのパターン内容も種々に変更した例を示すものである。 FIG. 6 shows an example in which the blinking pattern of each illumination and the sound pattern of the horn are both similar intermittent patterns, and the combinations of the types of illumination employed are variously changed. Note that the sounding of the horn and the lighting are alternately performed. On the other hand, FIG. 7 shows an example in which the pattern contents of lighting lighting and horn sounding are variously changed in addition to the combination of types of lighting employed.
図5に戻り、S14では駐車位置報知出力を継続する。なお、端末装置1側の入力部305(図11)から、位置報知動作の停止を命ずる入力を行なうことで、端末装置1から自動車側の知覚出力設備制御部50に位置報知動作停止信号を送信し、これを受けた知覚出力設備制御部50側で位置報知動作を強制終了させるようにしてもよい。
Returning to FIG. 5, the parking position notification output is continued in S14. In addition, a position notification operation stop signal is transmitted from the
なお、ユーザ(つまり、端末装置1)の自動車に対する接近方向を、図1の人センサ522〜525の検出情報を参照することにより特定することができる。人センサ522〜525は、例えば接近してくる人との距離に応じて出力が変化するもの(例えばレーザ反射式距離センサや近接センサ)を使用でき、どのセンサが強く人を検知しているかによって、自動車に対しユーザが、例えば前方側、後方側及び側方のいずれから接近してきているかを認識できる。また、検知出力の強さによって自動車に対しユーザがどの程度の距離まで接近しているかを認識できる。
In addition, the approach direction with respect to a motor vehicle of a user (namely, terminal device 1) can be specified with reference to the detection information of the human sensors 522-525 of FIG. As the
例えば、その接近方向が前方からであれば、前方用ランプ群を選択的に動作させることができる。図8に示すように、前方用ランプ群として、本実施形態では、ヘッドランプ504、フォグランプ505、コーナリングランプ508を使用する。また、接近方向が後方からであれば、後方用ランプ群を選択的に動作させることができる。図9に示すように、後方用ランプ群として、本実施形態では、テールランプ507、バックアップランプ509、ストップランプ510を使用する。さらに、接近方向が側方からであれば、側方用ランプ群を選択的に動作させることができる。図10に示すように、側方用ランプ群として、本実施形態では、ハザードランプ506、テールランプ507、床下ランプ512を使用する。
For example, if the approach direction is from the front, the front lamp group can be selectively operated. As shown in FIG. 8, a
なお、どの人センサの出力が強いかによって、ユーザがどのセンサ位置(つまり、車両部位)に向けて接近しているかも判別できる(つまり、ユーザ接近方向検出手段を構成している)。本実施形態では、この機能を補うために、図8〜図10に示すように、運転席センサ522と助手席センサ523との間、左後部座席センサ524と右後部座席センサ525との間、運転席センサ522又は助手席センサ523と、左後部座席センサ524又は右後部座席センサ525との間に、それぞれ補助人センサ550を設けている。
Note that it is possible to determine which sensor position (that is, the vehicle part) the user is approaching depending on which person sensor output is strong (that is, the user approach direction detection unit is configured). In this embodiment, in order to supplement this function, as shown in FIGS. 8 to 10, between the
図8に示すように、自動車正面からユーザが近づいてくる場合、車両幅方向中央の補助人センサ550の検出強度が最も高く、これを利用してヘッドランプ550あるいはフォグランプ505を点灯できる。他方、ユーザが車両側方に向けて移動し、幅方向端部の人センサ522ないし523の検出強度が高くなった場合は、コーナリングランプ508の対応する側のものを点灯させる。
As shown in FIG. 8, when the user approaches from the front of the automobile, the detection intensity of the
また、図9に示すように、自動車後方からユーザが近づいてくる場合、バックアップランプ509、テールランプ507あるいはストップランプ510を点灯できる。また、車両中央の補助人センサ550の検出強度が高い場合はテールランプ507のみ(あるいはストップランプ510のみ)を点灯させ、ユーザが車両側方に向けて移動し、幅方向端部の人センサ524ないし525の検出強度が高くなった場合は、バックアップランプ509の対応する側のものを点灯させるように構成することもできる。
As shown in FIG. 9, when the user approaches from the rear of the automobile, the
さらに、図10はに示すように、自動車側方からユーザが近づいてくる場合、ハザードランプ506あるいは複数の床下ランプ512を選択的に点灯できる。また、車長方向中央の補助人センサ550の検出強度が最も高い場合に、中央の床下ランプ512のみを点灯させ、ユーザが車長方向に移動し、端部の人センサ523ないし524の検出強度が高くなった場合は、対応する側の床下ランプ512の点灯に切り換えることもできる。なお、ユーザの接近に伴い、床下ランプ512の照明角度を変えて、ユーザを自動車に向けて導くように照明領域を変化させてもよい。
Further, as shown in FIG. 10, when the user approaches from the side of the automobile, the
次に、図11に示すユーザ側端末装置1は、自動車から降りた後も常時ユーザが携帯して持ち歩くものなので、紛失したり盗まれたりする惧れがある。第三者がそのユーザ側端末装置1から動作指令情報を出力すれば、ユーザの自動車は無関係な第三者にその駐車位置(つまり、自動車のありか)を自分で知らせることになる。これは、「私の車はここにあるからどうぞ盗んでください」とわざわざ知らせるようなものであり、セキュリティ上の問題が多い。このユーザ側端末装置1は携帯電話として構成されているので、自動車を利用しない場合もユーザが持ち歩いて電話機能を利用するため、上記問題の発生確率は寄り高い。さらに、図11の入力部305の操作により施錠/開錠の信号が自動車側に無線送信され、図1のドアロック部513を遠隔操作できるようになっている(さらには、エンジン始動などの無線指令も可能である)。その結果、ユーザ側端末装置1を拾得した第三者に悪意があれば、該端末装置1を操作することで車を簡単に開けられ、車自体や車内搭載品などを盗み取られたりする惧れがある。特に、本発明の場合、ユーザの駐車位置忘れの便宜を図るため、上記のごとく、ユーザ側端末装置1から動作指令情報を送信すれば、照明やホーン(知覚出力設備)により自動車の所在位置を知らせてくれるようになっている。しかし、悪意ある第三者の手にユーザ側端末装置1が渡った場合、動作指令情報が簡単に送信できるようになっていると、ユーザの自動車の駐車位置を本来知るはずもない第三者に、わざわざ駐車位置(つまり、自動車のありか)を知らせてしまうことになる。
Next, since the user
そこで、これを防ぐため、ユーザ側端末装置1には、ユーザを個人認証するための個人認証手段の機能が具備されており、既に説明したごとく、該認証が受理された場合にのみ前述の動作指令情報(当然、ドアロック部513への自動車の開錠指令も)が出力可能となるように構成されている。
Therefore, in order to prevent this, the user-
以下、その認証機能部の構成例につき説明する。この実施形態では、認証処理対象者に携帯電話を、認証処理以外の電話機能使用時と同じ状態で把握保持する電話使用把握保持状態にて保持させたとき、該認証処理対象者の手が接触する位置に設けられた、該手の生体特徴情報を検出する接触式生体特徴情報検出部と、認証処理対象者に該携帯電話を、電話使用把握保持状態にて保持させたとき、該認証処理対象者の顔を撮影可能な位置に設けられる顔撮影用カメラと、認証処理対象者の音声情報を骨伝導音にて検出する骨伝導音検出部と、認証処理対象者の音声情報を気導音にて検出する気導音検出部と、からなる群より選ばれる2以上のものを含んだ認証用特徴情報取得部を設け、電話使用把握保持状態にて2以上の認証用特徴情報取得部による認証用特徴情報の取得を、指定された少なくとも2つのものについて同時に実行し、2以上の認証用特徴情報取得部が各々取得した個別の認証用特徴情報に基づいて、認証処理対象者の認証処理を行ない、認証用特徴情報の取得が、指定された少なくとも2つ認証用特徴情報取得部について同時になされていない場合には、認証処理対象者の受理認証を行なわないようにする。 Hereinafter, a configuration example of the authentication function unit will be described. In this embodiment, when the person who is subject to authentication processing holds the mobile phone in the same state as when the telephone function other than the authentication process is used, the hand of the person subject to authentication processing touches. A contact-type biometric feature information detection unit that detects biometric feature information of the hand provided at a position where the mobile phone is held in the phone usage grasp holding state by the person to be authenticated. A camera for photographing a face provided at a position where the subject's face can be photographed, a bone conduction sound detection unit for detecting voice information of the person to be authenticated by bone conduction sound, and air information of the person to be authenticated. An authentication feature information acquisition unit including two or more selected from the group consisting of an air conduction sound detection unit that detects by sound, and two or more authentication feature information acquisition units in a state where the telephone use is held Acquisition of authentication feature information by At least two things are executed at the same time, based on the individual authentication feature information acquired by each of the two or more authentication feature information acquisition units, the authentication process target person is authenticated, and the authentication feature information is acquired. If the specified at least two authentication feature information acquisition units are not performed at the same time, acceptance authentication of the person to be authenticated is not performed.
図12に示すユーザ側端末装置1のROM314内には、無線電話通信の基本制御プログラムである通信プログラムと、液晶モニタ308の画面表示を司る表示プログラムが搭載される。また、図14に示すように、ROM314内には、携帯電話1のユーザが正規ユーザであるか否かを認証するための認証用プログラム(CPU312にて実行されることで、認証処理手段を実現する)も搭載されている。本実施形態において認証処理は、具体的には気導音の音声波形と骨伝導音の音声波形の双方を併用した話者認識・照合処理により行われる。上記の認証用プログラムは、メインプログラム201と、該メインプログラム201が利用するサブモジュール群、具体的には気導音サンプリングモジュール202、骨伝導音サンプリングモジュール203、気導音/骨伝導音位相差演算・照合判定モジュール204、気導音/骨伝導音スペクトル演算・照合判定モジュール205、顔画像サンプリングモジュール207、顔画像照合・判定モジュール208、指紋サンプリングモジュール209、指紋照合・判定モジュール210、前述の把握押圧領域を検出するための感圧分布測定モジュール211、感圧分布照合・判定モジュール212等からなる。これらのプログラム群は、いずれも図12のRAM313をワークエリアとしてCPU312により実行されるものである。
In the
また、認証用マスターデータ322として、音声による認証をスペクトル照合処理にて行なう場合(関与するモジュールは符号205)に使用する音声スペクトルのマスターデータ、具体的には気導音音声スペクトルマスターデータ221、骨伝導音音声スペクトルマスターデータ222及びそれらの差分スペクトルのマスターデータ223が用意されている。また、顔画像マスターデータ224、指紋マスターデータ225及び感圧分布マスターデータ226もそれぞれ用意されている。これらのデータは、認証処理を実施するのに先立って、気導音及び骨伝導音の場合は、正規ユーザ(認証特定対象者)に、照合用として予め定められた音(「おん」)、単語ないし文を発音させて、これを受話器303(気導音)及び骨伝導マイク340(骨伝導音)により波形検出し、周知のフーリエ変換演算を施してスペクトル化することにより作成されるものである。また、顔画像マスターデータ241(図20)、指紋マスターデータ243及び感圧分布マスターデータ226(図21、図22)も、それぞれ顔撮影カメラ341、指紋検知ユニット342及び面型接触センサ343により、正規ユーザから事前に取得されたものが用意されている。これらのデータは、ユーザ毎に異なるデータになることと、セキュリティレベル向上等のため照合元音声特徴情報を随時更新できるようにするために、書き換え可能なROM、具体的には、図12のEEPROM(Electrically Erasable Programmable Read Only Memory)322内に書き換え可能に記憶されており、必要に応じてRAM313の認証用データメモリ内にロードして利用される。
Further, as
携帯電話1の使用方法は、電話部分については周知であるので詳細な説明は省略し、その使用に先立つ認証処理について以下に詳しく説明する。図24は、メインプログラム201(図14)による認証主処理の流れである。認証処理を行なうためには、照合用のデータ登録などを含む初期化処理を行なう必要がある(S1)。この初期化処理は、照合用マスターデータの更新等を行なう場合を除き、一度行なえば、その後はスキップされるものである。S3及びS4は処理の中心をなす認証処理であり、その認証結果により、携帯電話1の機能利用を許可するか否かを示す認証用フラグが、例えばRAM313(図12)内に立てられる。S5では、その認証フラグをリードし、規定の条件を満たしている場合にロック解除(S7:つまり、利用許可)、満たさない場合にロック非解除(S8:つまり、利用不許可)の流れとなる。
Since the method for using the
認証によりロック解除される携帯電話1の機能については、周知の電話機能(電話通信網ないしインターネットなどへの接続やメール機能等も含む)に限られるものではなく、例えば、自動車のロック/ロック解除や、エンジン始動、ヘッドライトや車内照明の点灯・消灯など、自動車機能の無線遠隔操作ユニット機能とすることもできる。
The function of the
認証処理の具体的な説明に入る前に、初期化処理と音声認識処理との各処理の流れを、図15〜図19を用いて説明する。そのいずれにおいても、処理の主要部は、音声データの取得と加工を受け持つ音声データ処理からなる。話者認証技術では、セキュリティ向上等を目的として、認証処理対象者に認証用の音声を発音させるための手法が種々考案され、方式によって初期データの取得方法も異なるが、いずれも手法としては周知であるので概略だけ説明する。 Before entering into a specific description of the authentication process, the flow of each process of the initialization process and the voice recognition process will be described with reference to FIGS. In either case, the main part of the process consists of audio data processing that is responsible for acquisition and processing of audio data. In the speaker authentication technology, various methods have been devised for causing the authentication target person to pronounce the voice for authentication for the purpose of improving security and the initial data acquisition method differs depending on the method, but both methods are well known. Therefore, only an outline will be described.
(1)文字(あるいは音(例えば母音))を一文字だけ発声させる方法
発声させる文字を表示等により指定して発生させ、サンプリングを行なう。
(2)複数文字を組み合わせて逐次発声させる方法
基本的には(1)と同じ。発声の順序を表示等により誘導し、順次波形のサンプリングを行なう。実際の照合時には、発声順序を固定にしてもよいし、乱数を用いて発声順序を毎回変えるようにしてもよい(後者の場合、認証時に指定される文字の発声順序がランダムに変化されるので、固定順序で発声したものを録音しておいても役に立たなくできる利点がある)。
(3)単語を発声させる方法
使用する単語は1種類のみとしてもよいし(この場合(2)と同じになる)、複数種類の中から選択させる方法もある。後者の場合(以下、図11を参照のこと)、照合先となる単語の選択リストを画面108に表示し、入力部305にて選択を行った後、選んだ単語の発声・サンプリングを行なう。また、文字数(あるいは録音時間)を指定して、ユーザの好みの単語を入力部305にて任意に入力し、発声・サンプリングする方法もある。この場合、その単語がパスワード代わりになることが明らかである。また、より手の込んだ方法としては、正規ユーザにしか回答がわからない質問を音声出力させ、これに対応した登録済みの回答を音声入力させる方法もある。この場合、初期化処理では、出力すべき質問内容と、それに対する回答内容の、各入力ないし選択が必要となる。
(4)文を入力する方法
基本的には(3)と同じであり、質問/回答形式を採用する場合は、複数の質問と回答とを対話形式で入力する方法もありえる。
(1) Method of uttering only one character (or sound (for example, vowel)) A character to be uttered is designated and generated by display or the like, and sampling is performed.
(2) Method of sequentially uttering by combining multiple characters Basically the same as (1). The order of utterance is guided by display or the like, and waveform sampling is performed sequentially. During actual verification, the utterance order may be fixed, or the utterance order may be changed every time using a random number (in the latter case, the utterance order of characters designated at the time of authentication is changed randomly) , There ’s an advantage that it ’s useless to record what you say in a fixed order).
(3) Method of uttering a word There may be only one type of word to be used (in this case, it is the same as (2)), or there is a method of selecting from a plurality of types. In the latter case (see FIG. 11 below), a selection list of words to be collated is displayed on the screen 108, and after selection is made by the
(4) Method of inputting a sentence This is basically the same as (3), and when a question / answer format is adopted, there may be a method of inputting a plurality of questions and answers in an interactive format.
骨伝導音と気導音とで比較した場合、骨伝導音の方が声帯に近い分、母音などの声帯振動に由来した音波成分が気導音より強調される傾向にある。また、摩擦音や破裂音は、舌や唇などの声帯以外の作音要素が関与するため、気導音のほうがより強調されて現れる。従って、骨伝導音と気導音との波形ないしスペクトル上の差(特に差分スペクトルなど)に基づいて認証を行なう場合は、認証対象となる音声波形データ(骨伝導音及び気導音)として、母音、摩擦音及び破裂音を含むもの(好ましくは、最も多く含まれる音がこれらの音種のいずれかとなる音列:例えば、「さしすせそ」、「しししんちゅうのむし」、「あいうえお」など:もちろん、「さ行」、「た行」あるいは「あ行」の単音でも可)を指定することが望ましいといえる。また、同じ母音でも、調音に舌の前部を使う「い、え」などの音は気導音でより明瞭であり、逆に舌後部を使う「う、お」などの音は骨伝導音で明瞭であるから、「いえ(家)」「こうぼ(酵母)」など、前者又は後者のどちらかを主体に含む音列を指定することも効果的である。 When comparing the bone conduction sound and the air conduction sound, the sound component derived from the vocal cord vibration such as a vowel tends to be emphasized from the air conduction sound because the bone conduction sound is closer to the vocal cord. In addition, since the frictional sound and the plosive sound are associated with sound-generating elements other than the vocal cords such as the tongue and lips, the air conduction sound appears more emphasized. Therefore, when performing authentication based on the difference in the waveform or spectrum between bone conduction sound and air conduction sound (especially the difference spectrum), as speech waveform data (bone conduction sound and air conduction sound) to be authenticated, Sounds that include vowels, friction sounds, and plosives (preferably, sound strings in which the most abundant sounds are one of these sound types: for example, “Sashisuseso”, “Sushishinchu no Mushi”, “Aiueo”, etc .: Of course, it may be desirable to specify “sa line”, “ta line” or “a line”. In addition, even in the same vowel, sounds such as “i, e” that use the front part of the tongue for articulation are air conduction sounds, and conversely, sounds such as “u, o” that use the back part of the tongue are bone conduction sounds. Therefore, it is also effective to specify a sound string mainly including either the former or the latter, such as “No (house)” and “Koubo (yeast)”.
具体的な処理は、例えば図25の流れに従って実行できる。S501では、指定された音声の入力を送話器304と骨伝導マイク340の双方を用いて入力する。S502では、そのサンプリングを行なう(図14の気導音サンプリングモジュール202及び骨伝導音サンプリングモジュール203の実行により実施される)。ユーザは要求された音列を1回だけ発するので、サンプリングは時系列的には同時に行われなくてはならない(従って、これを用いて実施される後述の第一認証処理では、2つの認証用特徴情報をなす骨伝導音と気道音との取得が同時に実行されることが明らかである)。この場合、単一のCPUを用いる場合は、図26に示すような時分割による並列処理として実行する。具体的には、S101においてサンプリングカウンタをリセットし、以下、サンプリングカウンタをインクリメントしながら、気導音用のマイク入力ポートのリード(S102)とリード値のメモリ(RAM313)への書き込み(S103)、骨伝導マイクの入力ポートのリード(S104)とリード値のメモリへの書き込み(S105)を交互に繰り返えす。サンプリングするべき音声データの長さに応じて総サンプリング時間(サンプリングカウンタの値で代用できるが、他のタイマー手段を用いてもよい)を決めておき、タイムアップによりサンプリングを打ち切るようにしておくと(S107)、骨伝導音音声波形と気導音音声波形とを同時サンプリングしない限りは、両音声のデータを正常に取得することは不可能となり、例えばテープレコーダ等を用いた順次音声入力等による誤魔化し等を効果的に防止することができる。
Specific processing can be executed according to the flow of FIG. 25, for example. In step S <b> 501, the designated voice input is input using both the
なお、単語や文による音声データの入力を行なう場合は、定められた内容(意味)の音声の入力が完了したか否かを周知の音声認識技術により判別し、完了していればサンプリングを打ち切るように構成することもできる。この場合、タイマー手段は必ずしも必要でなくなる。また、ハードウェアは幾分複雑化するが、気導音音声と骨伝導音音声のサンプリングを、個別の(つまり、2つの)CPUにて独立して行なうこともでき、この場合は、時分割処理を行なわなくとも両音声波形の並列サンプリングが可能となる。 In addition, when inputting speech data using words or sentences, it is determined whether or not the input of speech with a predetermined content (meaning) is completed by using a well-known speech recognition technology, and if completed, sampling is terminated. It can also be configured as follows. In this case, the timer means is not always necessary. Although the hardware is somewhat complicated, the sampling of the air conduction sound and the bone conduction sound can be performed independently by separate (ie, two) CPUs. Both audio waveforms can be sampled in parallel without processing.
図25に戻り、上記のようにして気導音と骨伝導音との各音声波形のサンプリングを終了したら、S503にて、各音声が同時にサンプリングされたものであるかどうかをチェックする。チェック方法としては種々考えられるが、例えば、気導音と骨伝導音とが故意にずれたタイミングで入力されていれば、どちらかがサンプリング時間外にはみ出し、取得したデータには大きな空白期間が生ずるはずであるから、これを利用する方法がある。この場合、取得した気導音波形と骨伝導音波形の少なくともいずれかに、音声振幅が予め定められた下限値以下となる期間が一定以上継続しているか否かをチェックし、そのような期間が存在していれば同時性なしと判定する。S503にて同時性なしと判定された場合はS511に進んで処理を打ち切り、エラーないし警告出力を行なう。 Returning to FIG. 25, when sampling of the sound waveforms of the air conduction sound and the bone conduction sound is completed as described above, in S503, it is checked whether or not each sound has been sampled simultaneously. There are various possible check methods. For example, if the air conduction sound and the bone conduction sound are input at a deliberately shifted timing, one of them will protrude outside the sampling time, and the acquired data will have a large blank period. There is a way to take advantage of this because it should happen. In this case, it is checked whether at least one of the acquired air conduction sound waveform and bone conduction sound waveform has a period during which the audio amplitude is equal to or lower than a predetermined lower limit value continuing for a certain period. If is present, it is determined that there is no simultaneity. If it is determined in S503 that there is no simultaneity, the process proceeds to S511, where the processing is terminated and an error or warning is output.
同時性を充足していたらS505及びS506へ進み、検出された気導音音声波形データと骨伝導音音声波形データをメモリに記憶・登録する。以下は、認証に用いる複合音声特徴情報の演算処理となる(複合音声特徴情報演算手段の機能が実現されている)。S507では複合音声特徴情報として、気導音音声波形と骨伝導音音声波形との位相差を演算する(気導音/骨伝導音位相差演算・照合判定モジュール204の実行により実施される)。図8に示すように、気導音音声波形と骨伝導音音声波形とは同一の音声を個別のマイクにより同時にサンプリングしたものであり、サンプリング開始タイミングを基準に波形を重ね合せたときの両波形の位相を基準重ね合わせ位相とする。2つの波形は、同一の音声に基づき共通の周波数成分を多く含むので、図19に示すように、両波形データの重ね合わせ位相を、基準重ね合わせ位相にて固有に存在していた位相差(つまり、求めるべき位相差)φが解消されるように相対的にシフトして差分波形を演算すれば、該差分波形の積分振幅(平均振幅)は、その重ね合わせ位相にて最小化される(図19の一番下を参照)。そこで、差分波形の積分振幅を演算しつつ両波形データの重ね合わせ位相を種々に変化させ、該積分振幅が最小化される重ね合わせ位相を見出せば、これを求めるべき両波形の位相差φとして得ることができる。 If simultaneity is satisfied, the process proceeds to S505 and S506, and the detected air conduction sound waveform data and bone conduction sound waveform data are stored and registered in the memory. The following is a calculation process of the composite voice feature information used for authentication (the function of the composite voice feature information calculation means is realized). In S507, the phase difference between the air conduction sound waveform and the bone conduction sound speech waveform is calculated as the composite sound feature information (implemented by executing the air conduction sound / bone conduction sound phase difference calculation / collation determination module 204). As shown in FIG. 8, the air conduction sound waveform and the bone conduction sound waveform are obtained by simultaneously sampling the same sound by individual microphones, and both waveforms when the waveforms are superimposed on the basis of the sampling start timing. Is the reference superposition phase. Since the two waveforms include many common frequency components based on the same voice, as shown in FIG. 19, the overlapping phase of the two waveform data is the phase difference (inherently present in the reference overlapping phase). That is, if the differential waveform is calculated by relatively shifting so as to eliminate the phase difference (φ to be obtained), the integrated amplitude (average amplitude) of the differential waveform is minimized by the superposition phase ( (See the bottom of FIG. 19). Therefore, if the superposition phase of both waveform data is changed variously while calculating the integral amplitude of the difference waveform and the superposition phase where the integral amplitude is minimized is found, this is obtained as the phase difference φ between both waveforms to be obtained. Obtainable.
なお、認証処理に用いる個人特徴情報として利用することを考慮すると、求めるべき位相差φに一義的に対応したパラメータが得られればこと足りるので、複合音声特徴情報としては、差分波形の積分振幅が最小化される位相差に限らず、以下のもので代用することも可能である。
(1)差分波形の積分振幅が最大化される位相差
(2)加算波形の積分振幅が最小化される位相差
(3)加算波形の積分振幅が最大化される位相差
In consideration of use as personal feature information used for authentication processing, it is only necessary to obtain a parameter that uniquely corresponds to the phase difference φ to be obtained. The phase difference is not limited to the following, and the following can be substituted.
(1) Phase difference that maximizes the integrated amplitude of the differential waveform
(2) Phase difference that minimizes the integrated amplitude of the sum waveform
(3) Phase difference that maximizes the integrated amplitude of the added waveform
以下、差分波形の積分振幅が最小化される位相差φを求める処理を例にとって、図27のフローチャートにより説明する。S201では、重ね合わせ位相差Σt(波形は種々の正弦波波形の重ね合わせになるので、位相差の演算単位は角度ではなく時間とする)をリセットする。次いで、気導音音声波形と骨伝導音音声波形との一方を第一波形、他方を第二波形として、S202で第二波形の位相を予め定められた微小時間Δtだけシフトし、第一波形は固定として、S203で差分波形を演算する。S204では、その差分波形の積分振幅Aを演算する。積分振幅の演算方法は周知であるが、例えば次のようにして計算できる。まず、波形をf(t)として、各サンプリングタイミングtに対応するf(t)の値を全て加算してサンプリング数Nで割り、波形中心線f0を求める。次いで、各tの値につき|f(t)−f0|を演算し、これを全てのtについて加算してNで割れば積分振幅が得られる。S205では、そのときのΣtの値を位相差φとし、積分振幅Aの値と対応付けて記憶する。 Hereinafter, a process for obtaining the phase difference φ that minimizes the integral amplitude of the differential waveform will be described with reference to the flowchart of FIG. In S201, the superposition phase difference Σt (the waveform is a superposition of various sinusoidal waveforms, so the calculation unit of the phase difference is not an angle but time) is reset. Next, one of the air conduction sound waveform and the bone conduction sound waveform is set as the first waveform, and the other is set as the second waveform, and the phase of the second waveform is shifted by a predetermined minute time Δt in S202 to obtain the first waveform. Is fixed, and the differential waveform is calculated in S203. In S204, the integral amplitude A of the difference waveform is calculated. The method of calculating the integral amplitude is well known, but can be calculated as follows, for example. First, assuming that the waveform is f (t), all the values of f (t) corresponding to each sampling timing t are added and divided by the number of samplings N to obtain the waveform center line f0. Then, | f (t) −f0 | is calculated for each value of t, and this is added for all t and divided by N to obtain an integrated amplitude. In S205, the value of Σt at that time is set as the phase difference φ and stored in association with the value of the integral amplitude A.
次いで、S206でΣtをΔtだけインクリメントし、Σtが予め定められた最大値Σtmaxに到達するまでS202〜S206の処理を繰り返す。認証用に指定された音声としてユーザが自然に発声できることを考慮すれば、音声サンプルの長さは例えば1秒以上確保することが望ましい。位相差を見出すのに必要な波形シフト量は、0.5〜2波長分もあれば十分なので、人の声の周波数が平均的には1〜2kHzであることを考えれば、Σtは0.5〜2ms位に設定するのがよい。また、サンプリング周期Δtは、Σtの1/1000〜1/10程度とすることが望ましい。なお、第二波形のシフトの区間は、基準重ね合わせ位相差を原点として、正又は負の一方向にのみ区間設定して演算してもよいし、正負のそれぞれに区間設定して演算するようにしてもよい。 Next, in S206, Σt is incremented by Δt, and the processes in S202 to S206 are repeated until Σt reaches a predetermined maximum value Σtmax. Considering that the user can speak naturally as the voice designated for authentication, it is desirable to secure the length of the voice sample, for example, for 1 second or longer. The amount of waveform shift required to find the phase difference is sufficient for 0.5 to 2 wavelengths. Therefore, considering that the human voice frequency is on average 1 to 2 kHz, Σt is 0. It should be set to about 5 to 2 ms. The sampling period Δt is preferably about 1/1000 to 1/10 of Σt. Note that the second waveform shift interval may be calculated by setting the interval only in one direction, positive or negative, with the reference overlap phase difference as the origin, or by setting the interval in each of positive and negative. It may be.
以上の演算が終了すれば、S208に進み、記憶されている積分振幅Aの最小値A0を見出し、S209でそのA0に対応する位相差φを求めるべき位相差φ0として決定する。なお、骨伝導音と気導音との間には、図16に示すように、スペクトル上少なからぬ差異があり、互いに共通しない周波数成分が存在する(例えば、骨伝導音の場合、周波数の高い音域のスペクトル強度が欠落しがちとなる)。従って、上記位相差を演算する際には、共通成分の多い周波数域をフィルタリングにより抽出してから波形演算を行なう方が望ましい場合がある。以上で位相差演算の説明を終わる。 When the above calculation is completed, the process proceeds to S208, the stored minimum value A0 of the integrated amplitude A is found, and the phase difference φ0 corresponding to A0 is determined as the phase difference φ0 to be obtained in S209. Note that, as shown in FIG. 16, there is a considerable difference in spectrum between the bone conduction sound and the air conduction sound, and there are frequency components that are not common to each other (for example, in the case of bone conduction sound, the frequency is high). The spectral intensity of the range tends to be missing). Therefore, when calculating the phase difference, it may be desirable to perform waveform calculation after extracting a frequency region with many common components by filtering. This is the end of the description of the phase difference calculation.
図25に戻り、S508及びS509では、気導音と骨伝導音との各波形の周波数スペクトルを演算し、結果を記憶する。この演算は、既に述べたごとく原波形に対し周知のフーリエ変換処理を施すことにより実施できる。ただし、話者認識においては、図15の上に示すような微細構造を含んだスペクトル波形よりも、下に示すようなスペクトル概形(主に、声の質を反映した情報である)の方が測定の再現性に優れ、かつ個人識別情報としても十分に有効であり、照合処理も容易であることが知られている。このスペクトル概形はスペクトル包絡とも称され、周知の種々の音声分析アルゴリズム(例えば、ノンパラメトリック分析法による場合は、短時間事故相関分析法、短時間スペクトル分析法、ケプストラム分析法、帯域フィルタバンク分析法あるいは零交差数分積法など、パラメトリック分析法による場合は、線形予測分析法、最尤スペクトル推定法、共分散法、PARCOR分析法、LSP分析法など)により抽出・演算が可能である。 Returning to FIG. 25, in S508 and S509, the frequency spectrum of each waveform of the air conduction sound and the bone conduction sound is calculated, and the result is stored. As described above, this calculation can be performed by performing a well-known Fourier transform process on the original waveform. However, in speaker recognition, the spectral outline as shown below (mainly information reflecting voice quality) is used rather than the spectral waveform including the fine structure as shown in FIG. However, it is known that it has excellent measurement reproducibility, is sufficiently effective as personal identification information, and can be easily verified. This spectral outline is also referred to as spectral envelope, and various well-known speech analysis algorithms (for example, short-time accident correlation analysis method, short-time spectrum analysis method, cepstrum analysis method, band filter bank analysis in the case of non-parametric analysis method) In the case of using a parametric analysis method such as a method or a zero-crossing product method, extraction and calculation can be performed by a linear prediction analysis method, a maximum likelihood spectrum estimation method, a covariance method, a PARCOR analysis method, an LSP analysis method, or the like.
図25に戻り、S510では、図19に示すごとく、上記のようにして得られた気導音と骨伝導音との周波数スペクトルの差分を演算し、差分スペクトルデータとして記憶する。以上の処理は、図14の気導音/骨伝導音差分スペクトル演算・照合判定モジュール205、波形スペクトル照合・判定モジュール206の実行により実施される。以上で、音声データ処理の説明を終わる。
Returning to FIG. 25, in S510, as shown in FIG. 19, the difference between the frequency spectra of the air conduction sound and the bone conduction sound obtained as described above is calculated and stored as difference spectrum data. The above processing is performed by executing the air conduction sound / bone conduction sound difference spectrum calculation /
次に、図23により、初期化処理の流れについて説明する。S301の音声データ処理では、正規ユーザ(認証特定対象者)自身の声により音声入力を行ない、既に説明した通りの方法で位相差、気導音ないし骨伝導音の周波数スペクトルないし差分スペクトルのデータを作成し、S302にて、これらを、この後の音声認証処理で使用するマスターデータ(標準音声特徴情報:標準位相差、標準周波数スペクトルあるいは標準差分スペクトル)としてEEPROM322(図12)に登録する。また、S303〜S305では、顔撮影カメラ341、指紋検知ユニット342及び面型接触センサ343により、顔画像マスターデータ241(図20)、指紋マスターデータ243(図21)及び感圧分布マスターデータ226(図22)をそれぞれ取得し、登録する。
Next, the flow of initialization processing will be described with reference to FIG. In the voice data processing of S301, voice input is performed with the voice of the authorized user (authentication specific target person), and the phase difference, the frequency spectrum of the air conduction sound or the bone conduction sound, or the data of the difference spectrum is obtained by the method described above. In step S302, these are registered in the EEPROM 322 (FIG. 12) as master data (standard voice feature information: standard phase difference, standard frequency spectrum, or standard difference spectrum) used in the subsequent voice authentication process. In S303 to S305, the face image master data 241 (FIG. 20), the fingerprint master data 243 (FIG. 21), and the pressure-sensitive distribution master data 226 (by the
例えば、骨伝導音と気道音とを認証用特徴情報として同時取得する音声認証処理を以下のようにして実施することができる。まず、ユーザは認証のための指定の音声を入力する。これを用いて前述の音声データ処理を実行し、位相差φを演算する。そして、その位相差φをマスターデータとして記憶されている標準位相差φ0と比較する。ここでは、差分φ−φ0を演算している。次いで、位相差φと標準位相差φ0との偏差が許容範囲内であるか否かを調べ、許容範囲内であれば認証フラグを許可にセットし、範囲外であれば非許可にセットする。なお、標準位相差φ0をマスターとして登録するのに代え、標準位相差φ0を包含する許容位相差範囲(最大値φmaxとφminとで与えられる)を登録しておき、φが当該範囲に属しているか否かにより認証を行なうこともできる。 For example, voice authentication processing for simultaneously acquiring bone conduction sound and airway sound as authentication feature information can be performed as follows. First, the user inputs a designated voice for authentication. Using this, the aforementioned audio data processing is executed to calculate the phase difference φ. Then, the phase difference φ is compared with a standard phase difference φ0 stored as master data. Here, the difference φ−φ0 is calculated. Next, it is checked whether or not the deviation between the phase difference φ and the standard phase difference φ0 is within an allowable range. If the deviation is within the allowable range, the authentication flag is set to be permitted, and if it is out of the range, it is set to be not permitted. Instead of registering the standard phase difference φ0 as the master, an allowable phase difference range (given by the maximum values φmax and φmin) including the standard phase difference φ0 is registered, and φ belongs to the range. Authentication can also be performed depending on whether or not there is.
なお、音声データ処理の実行後、図16に示す気導音と骨伝導音との差分スペクトルの演算結果を読み出し、差分スペクトルのマスターデータ(図14:符号223)と比較するとともに、両者が一致と判定されれば認証フラグを許可にセットし、範囲外であれば非許可にセットするようにしてもよい。 After execution of the audio data processing, the calculation result of the difference spectrum between the air conduction sound and the bone conduction sound shown in FIG. 16 is read out and compared with the master data (FIG. 14: reference numeral 223) of the difference spectrum, and the two match. If it is determined, the authentication flag may be set to permit, and if it is out of the range, it may be set to non-permit.
図16に示すように、気導音スペクトルと骨伝導音スペクトルとは、主要部分は共通しているが、特定の周波数帯ではスペクトル強度に顕著な差が見られる(例えば、高域側の成分は気導音スペクトルのほうが骨伝導音スペクトルよりも強く現れる)。そこで、該周波数帯での差分スペクトルの形状をマスターと比較することにより、一致・不一致の照合を行なうことができる。特に、気導音スペクトルと骨伝導音スペクトルとの一方に存在し、他方には存在しないスペクトル包絡のピーク(図16で「×」にて示すようなもの)であって、当該ピーク位置が認証すべき個人によって変動する場合、差分スペクトルにて該ピークを検出し、そのピーク位置(周波数)の照合により、精度の高い認証照合を簡便に行なうことができる。 As shown in FIG. 16, the air conduction sound spectrum and the bone conduction sound spectrum have the same main part, but a significant difference is seen in the spectrum intensity in a specific frequency band (for example, a high frequency component). The air conduction sound spectrum appears stronger than the bone conduction sound spectrum). Therefore, matching / mismatching matching can be performed by comparing the shape of the difference spectrum in the frequency band with that of the master. In particular, it is a spectrum envelope peak (as indicated by “x” in FIG. 16) that exists in one of the air conduction sound spectrum and the bone conduction sound spectrum and does not exist in the other, and the peak position is authenticated. When it varies depending on an individual to be detected, the peak can be detected in the difference spectrum, and verification of the peak position (frequency) can be easily performed with high accuracy authentication verification.
なお、骨伝導音と気導音との各スペクトルを個別にマスターと照合する音声認証処理を行なうことも可能である。気導音と骨伝導音とのいずれの周波数スペクトルも、図16に示すように、スペクトル包絡において、音声に応じて固有のピーク位置を生ずるので、このピークの個数と位置により、入力された音声(例えば単語や文字)が、マスターが示す音声と同じであるか否かを識別できる(つまり、音声認識)。また、音声の内容が同じであれば、ピークの位置や強度(あるいは、ピーク間の強度比)をマスターと比較し、その一致・不一致に応じて正規ユーザかそうでないかを認証できる(つまり、話者認識)。 It is also possible to perform voice authentication processing in which each spectrum of bone conduction sound and air conduction sound is individually verified with the master. As shown in FIG. 16, each frequency spectrum of the air conduction sound and the bone conduction sound generates a unique peak position in accordance with the sound in the spectrum envelope. Therefore, the input sound is determined according to the number and position of the peaks. It is possible to identify whether (for example, a word or a character) is the same as the voice indicated by the master (that is, voice recognition). If the content of the voice is the same, the peak position and intensity (or intensity ratio between peaks) can be compared with the master, and it can be authenticated whether it is a legitimate user or not according to the match / mismatch (that is, Speaker recognition).
以上は、図29に示すように、電話使用保持状態として、携帯電話1の受話器を顔に当てて通話する保持状態である顔当接型保持状態を使用し、気導音音声と骨伝導音声との双方に基づいて認証処理を行なう場合を例に取った。しかし、図30に示すように、電話使用保持状態として、携帯電話1の表示部及び顔撮影用カメラが認証処理対象者の顔と正対する保持状態である顔正対型保持状態を利用して認証処理を行なうこともできる。
As described above, as shown in FIG. 29, as the telephone use holding state, the face contact type holding state in which the handset of the
図28は、その場合の認証処理の第一例を示すものである。ここでは、気導音と顔画像とが認証用特徴情報として同時取得される処理となっている。S601では顔画像(I)を撮影する。次いで、表示部に予め決められた質問が表示され、その回答を音声入力する。顔画像撮影、質問表示、回答音声入力は、この順で2回繰り返して行われ、最後にもう一度顔画像を撮影する(S601〜S607)。S608では、3回撮影した顔画像(I)〜(III)がマスターと一致するかどうかを照合する(図10参照)。また、S610及びS612では、2回取得した回答音声(I)(II)(気道音のスペクトル)をマスターと照合する。S609,S611,S613では、それぞれの照合の一致不一致について判定し、全て一致の場合にのみS614に進んで認証フラグを許可にセットし(受理認証)、1つでも不一致があればS615に進んで認証フラグを非許可にセットする(棄却認証)。 FIG. 28 shows a first example of authentication processing in that case. Here, the air conduction sound and the face image are processed simultaneously as the authentication feature information. In step S601, the face image (I) is photographed. Next, a predetermined question is displayed on the display unit, and the answer is input by voice. Face image shooting, question display, and answer voice input are repeated twice in this order, and finally a face image is shot again (S601 to S607). In S608, it is checked whether or not the face images (I) to (III) photographed three times coincide with the master (see FIG. 10). In S610 and S612, the response voices (I) and (II) (airway sound spectrum) acquired twice are collated with the master. In S609, S611, and S613, it is determined whether or not there is a match between the respective collations, and if all match, the process proceeds to S614 to set the authentication flag to “permitted” (acceptance authentication), and if there is any mismatch, the process proceeds to S615. Set the authentication flag to non-permitted (rejection authentication).
ここで、3度撮影した顔画像のうち、最初か最後のどちらかはマスターとの照合により認証することが望ましいが、残りの2つは、虚偽認証等を防止する判定ができればよく、カメラの視野から顔が外れていないかどうかを確認する簡単なパターン照合処理に置き換えることができる。図29に、その一例を示す。2つのパターンがカラーあるいは諧調を有したものであれば、S701でそれぞれ二値化を行なう。S703〜S706では、パターンフレーム間の対応するピクセルを順次リードし、ピクセルの設定値(0か1)の排他的論理和を演算する。パターンが動いていなければ対応するピクセルの設定値は等しく、排他的論理和の値は0となり、パターンが動けばピクセル不一致となって排他的論理和の値は1となる。この排他的論理和の値を各ピクセルについて繰り返し行ない、カウンタKに加算してゆく(S707)。パターンに異常な動きがあれば変化ピクセルの数が増え、排他的論理和のカウンタKの値も大きくなる。S709〜S714では、そのKの最終的な値をフレーム内ピクセル総数Mで割り、この値が許容値以下であれば一致判定を、許容値を超えれば不一致判定を行なう。 Here, it is desirable to authenticate the first or last of the face images taken three times by collating with the master, but the remaining two need only be determined to prevent false authentication, etc. It can be replaced with a simple pattern matching process for confirming whether or not the face is out of view. An example is shown in FIG. If the two patterns have color or gradation, binarization is performed in S701. In S703 to S706, corresponding pixels between pattern frames are sequentially read, and an exclusive OR of pixel setting values (0 or 1) is calculated. If the pattern does not move, the setting value of the corresponding pixel is equal and the value of the exclusive OR is 0, and if the pattern moves, the pixel does not match and the value of the exclusive OR is 1. This exclusive OR value is repeated for each pixel and added to the counter K (S707). If there is an abnormal movement in the pattern, the number of changed pixels increases, and the value of the exclusive OR counter K also increases. In S709 to S714, the final value of K is divided by the total number M of pixels in the frame, and if this value is less than or equal to the allowable value, match determination is performed, and if it exceeds the allowable value, mismatch determination is performed.
上記図26の処理は、顔画像に限らず、後述する指紋画像や感圧分布パターンについても同様に適用できる(接触変化確認処理)。顔画像240の撮影中に手による保持が解除されれば、検知される指紋画像や感圧分布パターンに変化が現れ、異常として棄却認証することができる。また、手による保持中(つまり、指紋画像や感圧分布パターンの検出中)に、顔画像が不在になった場合は、顔画像パターンに変化が現れるので、これも異常として棄却認証することができる。
The process of FIG. 26 is not limited to a face image, but can be similarly applied to a fingerprint image and a pressure-sensitive distribution pattern described later (contact change confirmation process). If the holding by hand is released during photographing of the
図28の流れにおいては、複数種類の認証用特徴情報による複数の認証処理を実施するのであるが、認証用特徴情報の取得は処理の前段で一括して行ない、それを用いた認証処理は後段で一括処理するようにしている。これは、認証用特徴情報の取得処理を、連続的かつ速やかに行なうことで冗長時間を廃し、順次的な代替虚偽認証を行ないにくくするためである。顔画像、指紋、感圧分布及び音声入力は、処理上は順次的であるが、顔画像、指紋及び感圧分布の情報取得は、それぞれ1フレームのパターン取得処理に過ぎないから、いずれも概ね1〜10ms程度の所要時間であり、この3つの情報取得には長くとも1秒あれば十分である。他方、音声入力については、音声フレーズの入力時間が3〜20秒程度であるから、処理上の冗長期間の占める比率が50%以下に十分制限でき、代用虚偽認証を実行しようとする犯罪者に「代用品」を交換する時間的な余裕を与えることがない。 In the flow of FIG. 28, a plurality of authentication processes using a plurality of types of authentication feature information are performed, but the acquisition of the authentication feature information is performed in a single stage before the process, and the authentication process using that is performed in the latter stage. I'm trying to batch process. This is because the acquisition process of the authentication feature information is continuously and quickly performed to eliminate redundant time and make it difficult to perform sequential alternative false authentication. Face image, fingerprint, pressure-sensitive distribution, and voice input are sequential in processing, but acquisition of face image, fingerprint, and pressure-sensitive distribution information is only one frame pattern acquisition process. The required time is about 1 to 10 ms, and at most 1 second is sufficient for acquiring these three pieces of information. On the other hand, for voice input, since the voice phrase input time is about 3 to 20 seconds, the ratio of the processing redundant period can be sufficiently limited to 50% or less, and the criminal who intends to perform substitute false authentication. There is no time to replace the “substitute”.
例えば、S601に先立って、カメラ341に写るファインダ画像を表示部308に表示して、カメラ341に対する顔の位置合わせを促し、確定ボタン(入力部305のどれかのキーに割り振っておくか、別途認証ボタンを設ける)を押す等により起動信号を与えれば、S601〜S607までの処理が、ユーザ操作によるブレークが不可能な状態で一気に実行されるようにしておくとよい。また、S602ないしS605での質問に対する回答のインターバルは、正規ユーザであれば即答できるはずなので直ちに音声サンプリング処理に移行し、回答に必要な時間を経過すれば自動的に次のステップに進むようにする。他方、S601、S604、S607の画像撮影はいずれも数ms程度の瞬時に完了するから、特にシャッター音出力や撮影メッセージの表示等による通知を行なわなければ、処理上はユーザからみて、画面上に質問表示するたびに間髪入れずに答えを音声入力するだけの流れとなり、その間、顔が何度も撮影されていることには全く気付かない。その結果、ユーザは携帯電話1とあたかも会話するごとく簡単な音声のやり取りをするだけで、内部的には画像照合も含めた複雑な処理を行っている実感もなく、平易な気分で認証処理を終えることができる。
For example, prior to S601, a viewfinder image captured by the
上記のように冗長時間を短縮すれば、例えば、顔画像の撮影が先に行われ、相当の冗長期間経過後に指紋や感圧分布の入力が行われたとすると、顔画像の撮影中に、携帯電話が手で保持されていない状態で指紋や感圧分布の検出可能時間が経過してしまう。つまり、指紋や掌などの情報源が不在の状態で制的に情報取得処理が進められ、形骸化された空白の指紋ないし感圧分布の情報だけが残る。これを認証処理に供すれば、必然的に棄却認証となるから、目的を達することができる。 If the redundancy time is shortened as described above, for example, if a face image is captured first and a fingerprint or pressure-sensitive distribution is input after a considerable redundancy period has passed, The detectable time of the fingerprint and the pressure-sensitive distribution elapses when the phone is not held by hand. In other words, the information acquisition process is systematically performed in the absence of information sources such as fingerprints and palms, and only the blank fingerprints or pressure-sensitive distribution information that remains in the form remains. If this is subjected to authentication processing, rejection authentication will inevitably result in rejection, so the purpose can be achieved.
1 ユーザ側端末装置
50 知覚出力設備制御部
323 端末側通信装置
501 自動車側通信装置
502,503 音波発生装置
504〜512 照明装置
532 GPS(自動車位置特定手段、高さ方向情報取得手段)
554 GPS(端末位置特定手段)
1170 無線通信網
DESCRIPTION OF
554 GPS (terminal location identification means)
1170 Wireless communication network
Claims (11)
前記自動車のユーザが携帯するとともに、前記自動車側通信手段と前記無線通信網を介して通信する端末側通信手段を有したユーザ側端末装置と、
前記自動車側に設けられ、前記自動車側通信手段を介して前記ユーザ側端末装置から動作指令情報を受信したとき、当該自動車に搭載され、かつ、車外に存在するユーザがその出力情報を直接認識できるように構成された照明装置ないし音波発生装置の少なくともいずれかよりなる知覚出力設備を動作させる知覚出力設備制御手段と、
前記自動車に対する前記ユーザの相対的な接近方向を検出するユーザ接近方向検出手段と、
を備え、
前記ユーザ側端末装置には、前記ユーザを個人認証するための個人認証手段が設けられ、該認証が受理された場合にのみ前記動作指令情報が出力可能とされ、
前記知覚出力設備制御手段は、前記知覚出力設備の出力動作パターンを前記ユーザ毎に変更可能に設定するとともに、前記知覚出力設備のうち、前記接近方向に向けて出力動作が可能なものを動作させることを特徴とする自動車設備遠隔制御システム。 A vehicle-side communication means that is provided in the vehicle and communicates with an external terminal device via a wireless communication network;
A user-side terminal device having terminal-side communication means that is carried by the user of the automobile and communicates with the automobile-side communication means via the wireless communication network;
When the operation command information is received from the user side terminal device via the vehicle side communication means provided on the vehicle side, a user mounted on the vehicle and existing outside the vehicle can directly recognize the output information. A perceptual output facility control means for operating a perceptual output facility comprising at least one of a lighting device or a sound wave generator configured as described above,
User approach direction detection means for detecting a relative approach direction of the user to the vehicle;
With
The user terminal device is provided with personal authentication means for personal authentication of the user, and the operation command information can be output only when the authentication is accepted,
The perceptual output facility control means sets the output operation pattern of the perceptual output facility to be changeable for each user, and operates the perceptual output facility that can output in the approaching direction. A remote control system for automobile equipment.
前記知覚出力設備制御手段は、前記それぞれの位置特定手段が特定する前記自動車及び前記ユーザ側端末装置の位置情報に基づいて、前記ユーザ側端末装置と前記自動車との距離が一定以下に接近したかどうかを認識する請求項2記載の自動車設備遠隔制御システム。 An automobile position specifying means for specifying the position of the automobile, and a terminal device position specifying means for specifying the position of the user side terminal device, which are installed in the peripheral equipment of the automobile or the parked automobile;
The perceptual output facility control means determines whether the distance between the user-side terminal device and the automobile approaches a certain value or less based on the position information of the automobile and the user-side terminal device specified by the position specifying means. The vehicle equipment remote control system according to claim 2, which recognizes whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004223666A JP4666202B2 (en) | 2004-07-30 | 2004-07-30 | Automobile equipment remote control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004223666A JP4666202B2 (en) | 2004-07-30 | 2004-07-30 | Automobile equipment remote control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006048091A JP2006048091A (en) | 2006-02-16 |
JP4666202B2 true JP4666202B2 (en) | 2011-04-06 |
Family
ID=36026614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004223666A Expired - Fee Related JP4666202B2 (en) | 2004-07-30 | 2004-07-30 | Automobile equipment remote control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4666202B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4725371B2 (en) * | 2006-03-06 | 2011-07-13 | トヨタ自動車株式会社 | Car finder, car finder operation terminal, car finder control system and car finder control method |
JP4661708B2 (en) * | 2006-07-06 | 2011-03-30 | トヨタ自動車株式会社 | Vehicle remote control system |
JP4561737B2 (en) * | 2006-12-14 | 2010-10-13 | 株式会社デンソー | Vehicle lighting device |
JP2008283543A (en) * | 2007-05-11 | 2008-11-20 | Denso Corp | Service providing system for vehicle |
JP5081758B2 (en) * | 2008-07-31 | 2012-11-28 | 本田技研工業株式会社 | Vehicle search device and vehicle search method |
JP6089957B2 (en) * | 2013-05-20 | 2017-03-08 | 株式会社デンソー | Lighting control device |
DE102015204361A1 (en) * | 2015-03-11 | 2016-09-15 | Robert Bosch Gmbh | Method and device for generating accessibility to a vehicle interior |
JP2016178599A (en) * | 2015-03-23 | 2016-10-06 | ニフティ株式会社 | Remote controller, communication system, information processing method and program |
EP3231690A1 (en) | 2016-04-13 | 2017-10-18 | Ford Global Technologies, LLC | Method and device for assisting a parking manoeuvre |
JP7092075B2 (en) * | 2019-03-08 | 2022-06-28 | 株式会社オートネットワーク技術研究所 | Notification control device, mobile terminal, and notification method |
JP2020166419A (en) * | 2019-03-28 | 2020-10-08 | 本田技研工業株式会社 | Vehicle controller, vehicle control method, and program |
CN109949822A (en) * | 2019-03-31 | 2019-06-28 | 联想(北京)有限公司 | Signal processing method and electronic equipment |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326400A (en) * | 1997-05-27 | 1998-12-08 | Tokai Rika Co Ltd | Vehicle position searching system |
JPH11157387A (en) * | 1997-11-28 | 1999-06-15 | Toyoda Gosei Co Ltd | Own vehicle recognizing device |
JPH11229680A (en) * | 1998-02-16 | 1999-08-24 | Mazda Motor Corp | Locking device for vehicle |
JP2000224668A (en) * | 1999-01-27 | 2000-08-11 | Nippon Seiki Co Ltd | Keyless entry system |
JP2001354118A (en) * | 2000-06-12 | 2001-12-25 | Risys:Kk | Movable body control system |
JP2003075188A (en) * | 2001-09-05 | 2003-03-12 | Auto Network Gijutsu Kenkyusho:Kk | Navigation system |
JP2004118356A (en) * | 2002-09-24 | 2004-04-15 | Denso Corp | Vehicle position displaying system |
JP2004206299A (en) * | 2002-12-24 | 2004-07-22 | Alpine Electronics Inc | Own vehicle location specification system, terminal used therefor, server device, and own vehicle location specification method |
JP2005345200A (en) * | 2004-06-01 | 2005-12-15 | Fujitsu Ten Ltd | Guide information notification system, guide information notification device, and guide information notification method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6833811B2 (en) * | 2002-10-07 | 2004-12-21 | Harris Corporation | System and method for highly accurate real time tracking and location in three dimensions |
-
2004
- 2004-07-30 JP JP2004223666A patent/JP4666202B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326400A (en) * | 1997-05-27 | 1998-12-08 | Tokai Rika Co Ltd | Vehicle position searching system |
JPH11157387A (en) * | 1997-11-28 | 1999-06-15 | Toyoda Gosei Co Ltd | Own vehicle recognizing device |
JPH11229680A (en) * | 1998-02-16 | 1999-08-24 | Mazda Motor Corp | Locking device for vehicle |
JP2000224668A (en) * | 1999-01-27 | 2000-08-11 | Nippon Seiki Co Ltd | Keyless entry system |
JP2001354118A (en) * | 2000-06-12 | 2001-12-25 | Risys:Kk | Movable body control system |
JP2003075188A (en) * | 2001-09-05 | 2003-03-12 | Auto Network Gijutsu Kenkyusho:Kk | Navigation system |
JP2004118356A (en) * | 2002-09-24 | 2004-04-15 | Denso Corp | Vehicle position displaying system |
JP2004206299A (en) * | 2002-12-24 | 2004-07-22 | Alpine Electronics Inc | Own vehicle location specification system, terminal used therefor, server device, and own vehicle location specification method |
JP2005345200A (en) * | 2004-06-01 | 2005-12-15 | Fujitsu Ten Ltd | Guide information notification system, guide information notification device, and guide information notification method |
Also Published As
Publication number | Publication date |
---|---|
JP2006048091A (en) | 2006-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4419758B2 (en) | Automotive user hospitality system | |
US11257502B2 (en) | Providing access with a portable device and voice commands | |
US10853629B2 (en) | Method for identifying a user entering an autonomous vehicle | |
US6498970B2 (en) | Automatic access to an automobile via biometrics | |
JP4380541B2 (en) | Vehicle agent device | |
JP4666202B2 (en) | Automobile equipment remote control system | |
US9881605B2 (en) | In-vehicle control apparatus and in-vehicle control method | |
CN104024078B (en) | System, method and apparatus for the identity that learns delivery vehicle occupant | |
JP4359887B2 (en) | Personal authentication system | |
US20050275505A1 (en) | Voice-controlled security system with smart controller | |
JP2006011591A (en) | Individual authentication system | |
CN111717083B (en) | Vehicle interaction method and vehicle | |
US6606555B2 (en) | Vehicle positioning apparatus, device, and method | |
CN109102801A (en) | Audio recognition method and speech recognition equipment | |
KR20170100722A (en) | Smartkey System having a function to recognition sounds of users | |
JP2016133378A (en) | Car navigation device | |
JP2021043852A (en) | Information processing apparatus and method | |
CN117785091A (en) | Information display method, information display device, vehicle and computer storage medium | |
JP5412046B2 (en) | Entrance / exit management system | |
JP2015187343A (en) | vehicle control system | |
JP7287269B2 (en) | Vehicle communication system | |
JP7310594B2 (en) | Vehicle communication system | |
JPH0844387A (en) | Voice recognition device | |
CN218446390U (en) | Intelligent blind-guiding watch | |
JP2002286460A (en) | Navigation device for vehicle provided with theft preventing function and theft preventing device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100310 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100915 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101229 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140121 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4666202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140121 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |