[go: up one dir, main page]

JP7536047B2 - Multi-factor authentication and access control in vehicle environments - Google Patents

Multi-factor authentication and access control in vehicle environments Download PDF

Info

Publication number
JP7536047B2
JP7536047B2 JP2022040263A JP2022040263A JP7536047B2 JP 7536047 B2 JP7536047 B2 JP 7536047B2 JP 2022040263 A JP2022040263 A JP 2022040263A JP 2022040263 A JP2022040263 A JP 2022040263A JP 7536047 B2 JP7536047 B2 JP 7536047B2
Authority
JP
Japan
Prior art keywords
vehicle
user
authentication
processing system
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022040263A
Other languages
Japanese (ja)
Other versions
JP2022087109A (en
Inventor
ハリス・ラミック
ヴィクター・チャン
ヴィカス・グプタ
リンジュン・リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to JP2022040263A priority Critical patent/JP7536047B2/en
Publication of JP2022087109A publication Critical patent/JP2022087109A/en
Application granted granted Critical
Publication of JP7536047B2 publication Critical patent/JP7536047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、乗物環境における多要素認証およびアクセス制御に関する。 The present invention relates to multi-factor authentication and access control in a vehicle environment.

セキュリティ対策が施されていない乗物(vehicle)またはセキュリティ対策が不適切な乗物は、不正アクセスまたは不正使用を受けやすい。キーまたはハードウェア入力システムは、乗物に対するいくつかの形態の不正アクセスまたは不正使用を防止できない可能性がある。 Unsecured or inadequately secured vehicles are susceptible to unauthorized access or use. Key or hardware entry systems may not prevent some forms of unauthorized access or use of the vehicle.

本開示の一態様によれば、乗物エントリイベントの多要素エントリ認証のためのシステムが提供される。このシステムは、エントリ検知コンポーネント、エントリ認証コンポーネント、およびアクセス制御コンポーネントを含むデジタルアシスタントアプリケーションを有するデータ処理システムを含むことができる。デジタルアシスタントアプリケーションは、乗物内で、エントリ検知コンポーネントが、乗物に設置された第1のセンサによって取得された少なくとも1つのセンサ信号を受け取るように実行することができる。エントリ検知コンポーネントは、少なくとも1つのセンサ信号に基づいて、乗物へのエントリイベントを判定することができる。エントリイベントは、ユーザが乗物に入ることを表し得る。エントリ認証コンポーネントは、乗物へのエントリイベントに応答して、乗物に関連した少なくとも第2のセンサから第1の認証入力信号および第2の認証入力信号を受け取ることができる。エントリ認証コンポーネントは、第1の認証入力信号と複数の認証情報のうちの第1の認証情報とに基づいて、第1の認証状態を判定することができる。エントリ認証コンポーネントは、第2の認証入力信号と複数の認証情報の第2の認証情報とに基づいて、第2の認証状態を判定することができる。アクセス制御コンポーネントは、第1の認証状態および第2の認証状態に少なくとも部分的に基づいて、複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別することができる。アクセス制御コンポーネントは、アクセス許可レベルに応答して、乗物を介して利用可能な機能のセットのサブセットを識別することができる。デジタルアシスタントアプリケーションは、機能のサブセットへの乗物アクセス(vehicular access)と、機能の少なくとも1つのサブセットに関係のある音声出力信号とを提供することができる。 According to one aspect of the disclosure, a system for multi-factor entry authentication of a vehicle entry event is provided. The system may include a data processing system having a digital assistant application including an entry detection component, an entry authentication component, and an access control component. The digital assistant application may be executed within the vehicle such that the entry detection component receives at least one sensor signal acquired by a first sensor installed in the vehicle. The entry detection component may determine an entry event into the vehicle based on the at least one sensor signal. The entry event may represent a user entering the vehicle. The entry authentication component may receive a first authentication input signal and a second authentication input signal from at least a second sensor associated with the vehicle in response to the entry event into the vehicle. The entry authentication component may determine a first authentication state based on the first authentication input signal and a first authentication information of the plurality of authentication information. The entry authentication component may determine a second authentication state based on the second authentication input signal and a second authentication information of the plurality of authentication information. The access control component can identify one of a plurality of permission levels based at least in part on the first authentication state and the second authentication state. The access control component can identify a subset of the set of features available via the vehicle in response to the permission level. The digital assistant application can provide vehicular access to the subset of features and an audio output signal related to at least the subset of features.

本開示の一態様によれば、乗物エントリイベントの多要素エントリ認証の方法が提供される。この方法は、デジタルアシスタントを含むデータ処理システムによって、乗物に設置された第1のセンサによって取得された少なくとも1つのセンサ信号を受け取るステップを含むことができる。この方法は、データ処理システムが、少なくとも1つのセンサ信号に基づいて、乗物へのエントリイベントを判定するステップを含むことができる。エントリイベントは、ユーザが乗物に入ることを表し得る。この方法は、データ処理システムが、乗物へのエントリイベントに応答して、第1の認証入力信号および第2の認証入力信号を受け取るステップを含むことができる。第1の認証入力信号および第2の認証入力信号は、乗物に関連した少なくとも第2のセンサによって取得され得る。この方法は、データ処理システムが、第1の認証入力信号と複数の認証情報のうちの第1の認証情報とに基づいて、第1の認証状態を判定するステップを含むことができる。この方法は、データ処理システムが、第2の認証入力信号と複数の認証情報の第2の認証情報とに基づいて、第2の認証状態を判定するステップを含むことができる。この方法は、データ処理システムが、第1の認証状態および第2の認証状態に少なくとも部分的に基づいて複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別するステップを含むことができる。この方法は、データ処理システムが、アクセス許可レベルに応答して、乗物を介して利用可能な機能のセットのサブセットを識別するステップを含むことができる。この方法は、データ処理システムが、機能のサブセットへの乗物アクセスを提供するステップを含むことができる。 According to one aspect of the disclosure, a method of multi-factor entry authentication of a vehicle entry event is provided. The method can include receiving, by a data processing system including a digital assistant, at least one sensor signal acquired by a first sensor installed in the vehicle. The method can include the data processing system determining an entry event into the vehicle based on the at least one sensor signal. The entry event can represent a user entering the vehicle. The method can include the data processing system receiving, in response to the entry event into the vehicle, a first authentication input signal and a second authentication input signal. The first authentication input signal and the second authentication input signal can be acquired by at least a second sensor associated with the vehicle. The method can include the data processing system determining a first authentication state based on the first authentication input signal and a first authentication information of the plurality of authentication information. The method can include the data processing system determining a second authentication state based on the second authentication input signal and a second authentication information of the plurality of authentication information. The method can include the data processing system identifying one of a plurality of access permission levels based at least in part on a first authentication state and a second authentication state. The method can include the data processing system identifying a subset of a set of functions available via the vehicle in response to the access permission level. The method can include the data processing system providing the vehicle access to the subset of functions.

これらおよび他の態様および実装形態を以下で詳細に論じる。前述の情報および以下の詳細な説明は、様々な態様および実装形態の説明に役立つ実例を含み、特許請求される態様ならびに実装形態の性質および特性を理解するための概要または枠組みを提供するものである。図面は、様々な態様および実装形態の実例およびさらなる理解をもたらし、本明細書に組み込まれてその一部分を構成する。 These and other aspects and implementations are discussed in detail below. The preceding information and the following detailed description, including illustrative examples of the various aspects and implementations, are intended to provide an overview or framework for understanding the nature and characteristics of the claimed aspects and implementations. The drawings provide illustrations and a further understanding of the various aspects and implementations, and are incorporated in and constitute a part of this specification.

添付図面は、原寸に比例することを意図したものではない。様々な図面における、類似の参考番号および指示は類似の要素を指示する。明瞭さのために、すべての図面におけるすべてのコンポーネントに符号が付けられているとは限らない。 The accompanying drawings are not intended to be drawn to scale. Like reference numbers and designations in the various drawings indicate like elements. For clarity, not every component in every drawing may be labeled.

複数のアクセス許可レベルに基づいてユーザを認証して、乗物を介して利用可能な機能に対するユーザアクセスを制御するための例示のシステムの図である。FIG. 1 is a diagram of an example system for authenticating users based on multiple access permission levels to control user access to features available via a vehicle. 乗物に関連したセンサおよび電子デバイスを表す、図1に示された乗物の上面図である。2 is a top view of the vehicle shown in FIG. 1 showing sensors and electronic devices associated with the vehicle. 図1に示された例示のシステムを使用する、乗物エントリイベントの多要素エントリ認証の例示の方法を示す図である。FIG. 2 illustrates an example method for multi-factor entry authentication for a vehicle entry event using the example system shown in FIG. 例示のコンピュータシステムのブロック図である。FIG. 1 is a block diagram of an example computer system.

以下は、乗物環境(vehicle environment)に関連した機能に対するユーザアクセスの多要素ユーザ認証および制御のための方法、装置、およびシステムに関係のある様々な概念および実装形態の、より詳細な説明である。上記で導入され、以下でより詳細に論じられる様々な概念は、多くのやり方のうちの任意のもので実施され得る。 Below is a more detailed description of various concepts and implementations related to methods, apparatus, and systems for multi-factor user authentication and control of user access to functionality associated with a vehicle environment. The various concepts introduced above and discussed in more detail below may be implemented in any of a number of ways.

本開示は、一般的には、乗物エントリイベントおよび乗物環境におけるアクセス制御のエントリ認証のための方法およびシステムを対象とするものである。電子システムおよび情報技術(IT)システムに基づく車載機能はユーザエクスペリエンスを改善することができるが、そのような車載機能は他のリスクおよび技術的障害をもたらす可能性もある。車載のオンライン接続性または車内の娯楽(ICE:in-car entertainment)システム(車載の情報娯楽(IVI:in-vehicle infotainment)システムとも称される)の利用可能性は、頻繁に運転者の気を散らして事故のリスクを増加させる可能性がある。ユーザが、運転しながら通信(たとえば電子メール、メッセージ、または通話)を開始する、もしくは通信に応答しようとすること、IVIシステム上でレンダリングするためにマルチメディアファイルを検索する、もしくはファイルにアクセスしようとすること、あるいはオンラインアクション(たとえばオンラインショッピングまたはオンライン予約)を開始しようとすることは、深刻かつ危険な事故をもたらす恐れがある。 The present disclosure is generally directed to methods and systems for entry authentication of vehicle entry events and access control in vehicle environments. Although in-vehicle features based on electronic and information technology (IT) systems can improve user experience, such in-vehicle features may also introduce other risks and technical obstacles. Availability of in-vehicle online connectivity or in-car entertainment (ICE) systems (also referred to as in-vehicle infotainment (IVI) systems) can frequently distract drivers and increase the risk of accidents. Users attempting to initiate or respond to communications (e.g., emails, messages, or calls) while driving, retrieving or accessing multimedia files for rendering on the IVI system, or initiating online actions (e.g., online shopping or online booking) can result in serious and dangerous accidents.

その上、インターネットに対する乗物の接続性が主に無線クライアントデバイスによって生じることを考えれば、たとえばオンラインのデータ、システムまたはアプリケーションに対するアクセスを含む車載IT機能の範囲が増大することは、無線ネットワークの帯域幅など通信リソースの負担になる可能性がある。その上、乗物が接続性に関してモバイルデバイスに依存すると、乗物が比較的高速度のとき、または乗物が無線ネットワークのカバレッジエリアから離れるにつれて、接続性が劣化する可能性がある。接続性が劣化すると、乗物がアクセスするサービスまたはデータが頻繁に中断されることがある。 Moreover, given that a vehicle's connectivity to the Internet occurs primarily through wireless client devices, an increasing range of in-vehicle IT functions, including, for example, access to online data, systems or applications, can strain communication resources, such as wireless network bandwidth. Moreover, a vehicle's reliance on mobile devices for connectivity can result in degraded connectivity when the vehicle is traveling at relatively high speeds or as the vehicle moves away from a wireless network coverage area. Degraded connectivity can result in frequent interruptions to the services or data accessed by the vehicle.

加えて、たとえば家族メンバ、友人、または面識のない人などの間で乗物(たとえばレンタカー)が共用されることがあるので、データまたはセキュリティ面での配慮を要するデータまたはシステムにアクセスするために車載機能が利用可能であることは、ユーザのプライバシーおよびデータまたはユーザのセキュリティを危険にさらす恐れがある。たとえば、乗物を介して住宅の車庫ドアを遠隔で開ける機能は、そのような機能が乗物の何らかの運転者または乗客にとってアクセス可能であると、ユーザにとって深刻な脅威または危険(たとえば犯罪)を招く恐れがある。いくつかの可能な乗物機能(自動かつ遠隔の乗物ドアのロック/ロック解除または乗物窓の自動かつ遠隔の制御など)は、たとえば、乗物の同乗者に対して拒否されなければ、大きな問題になる恐れがある。また、乗物を介したデータへの無制限のアクセスは、そのデータを公に暴露するリスクを増大させる。 In addition, because vehicles (e.g., rental cars) may be shared, for example, between family members, friends, or strangers, the availability of in-vehicle features to access data or security-sensitive data or systems may jeopardize the user's privacy and data or security. For example, the ability to remotely open a residential garage door via the vehicle may pose a serious threat or danger (e.g., crime) to the user if such features are accessible to any driver or passengers of the vehicle. Some possible vehicle features (such as automatic and remote vehicle door locking/unlocking or automatic and remote control of vehicle windows) may be of major concern if not denied, for example, to vehicle passengers. Unrestricted access to data via the vehicle also increases the risk of public exposure of that data.

本開示では、デジタルアシスタントアプリケーションを含むデータ処理システムが、乗物に関連した様々な機能のハンズフリー制御を可能にし得る。デジタルアシスタントアプリケーションは、ユーザとの双方向の音声ベース相互作用を対話形のフォーマットで提供する対話形のデジタルアシスタントを含むことができる。たとえば、ユーザはデジタルアシスタントアプリケーションに話しかけることができ、デジタルアシスタントアプリケーションは、(1)ユーザからの音声信号入力を正確に解釈し、(2)ユーザのために音声出力信号を再生することで応答し、(3)音声入力信号から識別されたタスクもしくはアクションまたはそれらの組合せをオンラインで遂行することができる。たとえば、運転者または同乗者は、マルチメディアファイルのレンダリング、乗物窓の開放、乗物ドアのロックもしくはロック解除、乗物内部のエアコンの調節、住宅の車庫ドアのロック解除または開放、または乗物を介して利用可能な他の機能を可聴に要求することができる。デジタルアシスタントアプリケーションは、可聴の要求に基づき、要求された機能を認識して実行することができる。デジタルアシスタントアプリケーションは、ハンズフリーのユーザ相互作用を可能にすることにより、運転者の気を散らす可能性を著しく増加させることなく、種々の車載機能を提供することができる。 In the present disclosure, a data processing system including a digital assistant application may enable hands-free control of various functions associated with a vehicle. The digital assistant application may include a conversational digital assistant that provides two-way voice-based interaction with a user in a conversational format. For example, a user may speak to the digital assistant application, which may (1) accurately interpret voice signal input from the user, (2) respond by playing a voice output signal for the user, and (3) perform tasks or actions or combinations thereof identified from the voice input signal online. For example, a driver or passenger may audibly request to render a multimedia file, open a vehicle window, lock or unlock a vehicle door, adjust the vehicle interior air conditioning, unlock or open a residential garage door, or other functions available via the vehicle. Based on the audible request, the digital assistant application may recognize and execute the requested function. By enabling hands-free user interaction, the digital assistant application may provide various in-vehicle functions without significantly increasing the potential for driver distraction.

可能性のある接続性劣化によるサービス中断を回避するために、デジタルアシスタントアプリケーション(およびデータ処理システム)を乗物内で実行することができる。デジタルアシスタントアプリケーションを乗物内で(たとえば乗物の1つまたは複数の電子デバイスの内部で)ローカルで実行すると、車内のユーザにとって、デジタルアシスタントアプリケーションが(たとえばインターネットまたはモバイルデバイスに対する)乗物の接続状態に関係なく利用可能になる。デジタルアシスタントアプリケーションは、再生リスト、マルチメディアファイル、ユーザセキュリティ認証情報(たとえば各種サービスに関するログインのユーザ名、パスワード、またはパスコード)、各種サービスに対するユーザアクセス許可レベル、またはそれらの組合せなどのユーザ関連のデータを記憶することもでき、そのようなデータに対するアクセスを、乗物の接続状態とは無関係にローカルで可能にすることができる。デジタルアシスタントアプリケーション(およびデータ処理システム)は、乗物内で、モバイルデバイスにおいて、または遠隔コンピュータシステム(たとえばクラウド)において、またはそれらの組合せにおいて実行することができる。たとえば、デジタルアシスタントアプリケーションの様々なインスタンスは個別のプラットホーム上で実行してよい。 To avoid service interruptions due to possible connectivity degradation, the digital assistant application (and data processing system) can be executed in the vehicle. Executing the digital assistant application locally in the vehicle (e.g., within one or more electronic devices of the vehicle) makes the digital assistant application available to the user in the car regardless of the vehicle's connectivity state (e.g., to the Internet or mobile devices). The digital assistant application can also store user-related data, such as playlists, multimedia files, user security credentials (e.g., login usernames, passwords, or passcodes for various services), user access permission levels for various services, or combinations thereof, and can enable access to such data locally regardless of the vehicle's connectivity state. The digital assistant application (and data processing system) can be executed in the vehicle, on a mobile device, or on a remote computer system (e.g., the cloud), or combinations thereof. For example, various instances of the digital assistant application may run on separate platforms.

データをローカルで(乗物内で)記憶したりアクセスしたりするには、信頼できるユーザ認証(または乗物エントリ認証)および信頼できるデータセキュリティ対策が必要とされる。本開示のデータ処理システム(および対応するデジタルアシスタントアプリケーション)は、多要素ユーザ認証を採用することができる。本明細書で使用される場合、多要素認証は、2つ以上の認証データ入力(または認証入力信号)に基づく2つ以上の認証技術を伴う認証方法を指す。また、データ処理システムは、個別のユーザに関する個別のデータアカウントを維持することができる。データ処理システムは、データセキュリティを強化するために、データアカウント(または対応するセキュリティ面での配慮を要するデータ)を暗号化することができる。データ処理システム(または対応するデジタルアシスタントアプリケーション)は、ユーザが、割り当てられた許可アクセスレベルを超えて機能またはデータにアクセスしないことを保証するために、多要素認証および所定のアクセス許可レベルを使用することができる。 Storing and accessing data locally (in a vehicle) requires reliable user authentication (or vehicle entry authentication) and reliable data security measures. The data processing system (and corresponding digital assistant application) of the present disclosure can employ multi-factor user authentication. As used herein, multi-factor authentication refers to an authentication method involving two or more authentication techniques based on two or more authentication data inputs (or authentication input signals). The data processing system can also maintain separate data accounts for individual users. The data processing system can encrypt the data accounts (or corresponding security-sensitive data) to enhance data security. The data processing system (or corresponding digital assistant application) can use multi-factor authentication and predefined access permission levels to ensure that users do not access functions or data beyond their assigned authorized access levels.

データ処理システム(または対応するデジタルアシスタントアプリケーション)は、ユーザ認証とともに、ユーザの気を散らさない(たとえばユーザの手動の関与または大幅な身体的関与を伴わない)認証技術を使用し得るものである。たとえば、指紋ベースの(または他の生体認証ベースの)認証は、ユーザの大幅な身体的努力および精神的努力を伴う可能性があり、ユーザ特に運転者は気が散る可能性が高い。また、ログインのユーザ名およびパスワードなど他の認証技術は、音声入力ベースの認証には不適切であろう。そのような認証情報は、音声によって与えられたときには秘密性を失う可能性があり、認証処理過程で乗物内の他のユーザに漏洩する恐れがある。データ処理システム(または対応するデジタルアシスタントアプリケーション)は、キーフォブ認証、モバイルデバイス識別子の自動収集に基づく認証、顔認識、話者認識、またはそれらの組合せなど、ユーザの大幅な物理的作用または物理的努力を伴わない認証技術を使用し得るものである。 The data processing system (or corresponding digital assistant application) may use authentication techniques with user authentication that do not distract the user (e.g., do not involve manual or significant physical involvement of the user). For example, fingerprint-based (or other biometric-based) authentication may involve significant physical and mental effort by the user, which is likely to distract the user, especially the driver. Also, other authentication techniques, such as login usernames and passwords, may be inappropriate for voice-input-based authentication. Such authentication information may lose confidentiality when given by voice and may be leaked to other users in the vehicle during the authentication process. The data processing system (or corresponding digital assistant application) may use authentication techniques that do not involve significant physical action or effort by the user, such as key fob authentication, authentication based on automatic collection of mobile device identifiers, facial recognition, speaker recognition, or a combination thereof.

本明細書で説明されるシステムおよび方法が含み得るデータ処理システムは、乗物に設置された第1のセンサによって取得された少なくとも1つのセンサ信号を受け取るデジタルアシスタントアプリケーションを含む。データ処理システムは、少なくとも1つのセンサ信号に基づいて、乗物へのエントリイベントを判定することができる。データ処理システムは、乗物へのエントリイベントに応答して、乗物に関連した複数のセンサから複数の認証入力信号を受け取ることができる。データ処理システムは、複数の認証入力信号および複数の認証情報に基づいて複数の認証状態を判定することができる。データ処理システムは、複数の識別認証状態に少なくとも部分的に基づいて複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別することができる。データ処理システムは、アクセス許可レベルに応答して、乗物を介して利用可能な機能のセットのサブセットを識別し、機能のサブセットへの乗物アクセスを提供することができる。 The data processing system that may be included in the systems and methods described herein includes a digital assistant application that receives at least one sensor signal acquired by a first sensor installed in the vehicle. The data processing system may determine an entry event into the vehicle based on the at least one sensor signal. The data processing system may receive a plurality of authentication input signals from a plurality of sensors associated with the vehicle in response to the entry event into the vehicle. The data processing system may determine a plurality of authentication states based on the plurality of authentication input signals and the plurality of authentication information. The data processing system may identify one of a plurality of access permission levels based at least in part on the plurality of identified authentication states. The data processing system may identify a subset of a set of features available via the vehicle in response to the access permission level and provide the vehicle access to the subset of features.

本明細書で論じるシステムがユーザに関する個人情報を収集する、または利用し得る状況に関して、ユーザは、個人情報(たとえばユーザの社会的ネットワーク、社会活動、もしくは社会事業、ユーザの選好、またはユーザの位置に関する情報)を収集し得るプログラムまたは機能を制御する機会、あるいはユーザにとってより適切であり得るコンテンツサーバもしくは他のデータ処理システムからコンテンツを受け取るかどうか、または受け取る方法を制御する機会を与えられ得る。加えて、特定のデータは、記憶されるかまたは使用される前に1つまたは複数のやり方で匿名化されてよく、その結果、パラメータを生成するとき個人識別可能情報が除去される。たとえば、ユーザに関する個人識別可能情報を判定することができないように、ユーザのアイデンティティが匿名化されてよく、または、位置情報が取得される場合にはユーザの地理的位置が(都市、郵便番号、または国家レベルなどへ)一般化されてよく、その結果、ユーザの特定の位置は判定され得ない。このように、ユーザは、自分の情報がコンテンツサーバに収集されて利用されるやり方を制御することができる。 With regard to circumstances in which the systems discussed herein may collect or utilize personal information about a user, the user may be given the opportunity to control programs or features that may collect personal information (e.g., information about the user's social network, social activities, or social enterprises, the user's preferences, or the user's location) or to control whether or how to receive content from a content server or other data processing system that may be more appropriate for the user. In addition, certain data may be anonymized in one or more ways before being stored or used, such that personally identifiable information is removed when generating parameters. For example, the user's identity may be anonymized such that personally identifiable information about the user cannot be determined, or the user's geographic location may be generalized (such as to a city, zip code, or country level) if location information is obtained, such that the user's specific location cannot be determined. In this manner, the user may control the manner in which their information is collected and utilized by the content server.

図1は、複数のアクセス許可レベルに基づいてユーザを認証し、乗物を介して利用可能な機能に対するユーザアクセスを制御するための例示のシステム100を示す。システム100は、少なくとも1つの遠隔データ処理システム102と、各々がそれぞれの乗物データ処理システム140に関連した1つまたは複数の乗物130(たとえば手動または自動運転車、トラック、オートバイ、航空機、船、または他の輸送機器)と、1つまたは複数のモバイルクライアントデバイス150(たとえばスマートフォン、タブレット、またはスマートウォッチ)とを含むことができる。システム100が含み得るネットワーク148は、遠隔データ処理システム102を、1つまたは複数の乗物130、1つまたは複数のモバイルクライアントデバイス150、またはそれらの組合せに対して通信可能に結合することができる。システム100は、遠隔データ処理システム102、1つまたは複数の乗物130、1つまたは複数のモバイルクライアントデバイス150、あるいはそれらの組合せに対してネットワーク148を通じて通信可能に結合された1つまたは複数のデータプロバイダ152(またはそれらの通信デバイス)を含むことができる。 1 illustrates an example system 100 for authenticating users based on multiple access permission levels and controlling user access to features available via a vehicle. The system 100 can include at least one remote data processing system 102, one or more vehicles 130 (e.g., manual or automated cars, trucks, motorcycles, aircraft, ships, or other transportation equipment) each associated with a respective vehicle data processing system 140, and one or more mobile client devices 150 (e.g., smartphones, tablets, or smart watches). The system 100 can include a network 148 that can communicatively couple the remote data processing system 102 to one or more vehicles 130, one or more mobile client devices 150, or a combination thereof. The system 100 can include one or more data providers 152 (or their communication devices) communicatively coupled through the network 148 to the remote data processing system 102, one or more vehicles 130, one or more mobile client devices 150, or a combination thereof.

遠隔データ処理システム102は、クラウドデータ処理システム、企業のデータ処理システム、住宅のデータ処理システム、またはそれらの組合せを含むことができる。遠隔データ処理システム102は、少なくとも1つのプロセッサを有する少なくとも1つのサーバを含むことができる。たとえば、遠隔データ処理システム102は、少なくとも1つのデータセンタまたはサーバファームに配置された複数のサーバを含むことができる。遠隔データ処理システム102は、論理的にグループ化された複数のサーバを含み、分散コンピューティング技術を容易にすることができる。サーバの論理グループは、データセンタ、サーバファーム、またはマシンファームと称されることがある。サーバは地理的に分散され得る。データセンタまたはマシンファームは単一のエンティティとして管理されてよく、またはマシンファームが複数のマシンファームを含み得る。各マシンファームの内部のサーバは異種が混在していることがあり得、サーバまたはマシンのうちの1つまたは複数が1つまたは複数のタイプのオペレーティングシステムプラットホームによって動作することができる。遠隔データ処理システム102は、たとえば企業のデータセンタに配置された関連する記憶システムと併せて1つまたは複数の高密度ラックシステムに格納された、データセンタ内のサーバを含むことができる。遠隔データ処理システム102のコンポーネントの各々が、データリポジトリ118および他のコンピュータデバイスと通信するように構成された少なくとも1つの処理ユニット、サーバ、仮想サーバ、回路、エンジン、エージェント、装置、またはプログラマブルロジックアレイなどの他の論理デバイスを含み得る。 The remote data processing system 102 may include a cloud data processing system, an enterprise data processing system, a residential data processing system, or a combination thereof. The remote data processing system 102 may include at least one server having at least one processor. For example, the remote data processing system 102 may include multiple servers located in at least one data center or server farm. The remote data processing system 102 may include multiple servers logically grouped to facilitate distributed computing techniques. A logical group of servers may be referred to as a data center, a server farm, or a machine farm. The servers may be geographically distributed. A data center or machine farm may be managed as a single entity, or a machine farm may include multiple machine farms. The servers within each machine farm may be heterogeneous, with one or more of the servers or machines operating with one or more types of operating system platforms. The remote data processing system 102 may include servers in a data center, stored in one or more high density rack systems along with associated storage systems located, for example, in an enterprise data center. Each of the components of the remote data processing system 102 may include at least one processing unit, server, virtual server, circuit, engine, agent, apparatus, or other logic device such as a programmable logic array configured to communicate with the data repository 118 and other computing devices.

遠隔データ処理システム102はインターフェース104を含むことができる。データ処理システム102は、音声ベースの入力を構文解析するための自然言語プロセッサ(NLP)コンポーネント106を含むことができる。データ処理システム102は、システム100における他のデバイスのインターフェースを検知して管理するためのインターフェース管理コンポーネント108を含むことができる。遠隔データ処理システム102は、音声ベースの信号を生成するための音声信号ジェネレータコンポーネント110を含むことができる。遠隔データ処理システム102は、指示アクションアプリケーションプログラミングインターフェース(API)112を含むことができる。遠隔データ処理システム102は、音声ベース入力信号に対する応答を選択するための応答セレクタコンポーネント114を含むことができる。遠隔データ処理システム102は、遠隔データ処理システム102が受け取った音声ベース入力を検証するための検証エンジン(または検証コンポーネント)116を含むことができる。遠隔データ処理システム102はデータリポジトリ118を含み得、これに、パラメータ120、ポリシー122、応答データ124、およびテンプレート126を記憶することができる。遠隔データ処理システム102は、ユーザが要求したタスクまたはアクションを遂行することを含めて、乗物130またはモバイルクライアントデバイス150とユーザの対話を扱い、管理するためのデジタルアシスタントアプリケーション(本明細書ではデジタルアシスタントシステムとも称される)128を含むことができる。 The remote data processing system 102 may include an interface 104. The data processing system 102 may include a natural language processor (NLP) component 106 for parsing the voice-based input. The data processing system 102 may include an interface management component 108 for detecting and managing interfaces of other devices in the system 100. The remote data processing system 102 may include a voice signal generator component 110 for generating a voice-based signal. The remote data processing system 102 may include a direct-action application programming interface (API) 112. The remote data processing system 102 may include a response selector component 114 for selecting a response to the voice-based input signal. The remote data processing system 102 may include a validation engine (or validation component) 116 for validating the voice-based input received by the remote data processing system 102. The remote data processing system 102 may include a data repository 118, which may store parameters 120, policies 122, response data 124, and templates 126. The remote data processing system 102 may include a digital assistant application (also referred to herein as a digital assistant system) 128 for handling and managing the user's interactions with the vehicle 130 or mobile client device 150, including performing tasks or actions requested by the user.

インターフェース104は、遠隔データ処理システム102のコンポーネント間の通信、遠隔データ処理システム102とシステム100のデバイスもしくはシステムの間の通信、またはそれらの組合せを可能にすることができる。インターフェース104は、システム100のコンポーネントが互いに通信することを可能にするデータインターフェースまたはネットワークインターフェースであり得る。データ処理システム102のインターフェース104は、ネットワーク148を介して、モバイルクライアントデバイス150または乗物130に、アクションデータ構造、音声信号、または他のデータを含む1つもしくは複数のデータパケットを供給するまたは伝送することができる。たとえば、データ処理システム102は、データリポジトリ118または音声信号ジェネレータ110からの出力信号をモバイルクライアントデバイス150に供給することができる。データ処理システム102は、データパケット伝送によって、モバイルクライアントデバイス150または乗物130に、アクションデータデータ構造で指示された機能を遂行するように命令することもできる。出力信号は、取得され、生成され、1つまたは複数のデータパケットに変換され得、あるいは、1つまたは複数のデータパケット(または他の通信プロトコル)として、データ処理システム102(または他のコンピュータデバイス)からモバイルクライアントデバイス150または乗物130に伝送され得る。 The interface 104 may enable communication between components of the remote data processing system 102, between the remote data processing system 102 and devices or systems of the system 100, or a combination thereof. The interface 104 may be a data interface or a network interface that enables the components of the system 100 to communicate with each other. The interface 104 of the data processing system 102 may provide or transmit one or more data packets including action data structures, audio signals, or other data to the mobile client device 150 or the vehicle 130 over the network 148. For example, the data processing system 102 may provide an output signal from the data repository 118 or the audio signal generator 110 to the mobile client device 150. The data processing system 102 may also instruct the mobile client device 150 or the vehicle 130 by data packet transmission to perform a function indicated in the action data data structure. The output signal may be captured, generated, converted into one or more data packets, or transmitted as one or more data packets (or other communication protocols) from the data processing system 102 (or other computing device) to the mobile client device 150 or the vehicle 130.

NLPコンポーネント106は、たとえば乗物130またはモバイルクライアントデバイス150から入力音声信号を受け取ることができる。データ処理システム102は、クライアントデバイス128または乗物140から入力音声信号を受け取ることができる。乗物130またはモバイルクライアントデバイス150のユーザは音声入力信号を供給することができ、乗物130またはモバイルクライアントデバイス150は、音声入力信号を、NLPコンポーネント106によって処理するように遠隔データ処理システム102に伝送することができる。NLPコンポーネント106は、入力音声信号を、記憶された代表的な音声波形のセットと比較して、最も近い一致を選択することにより、受け取った入力音声信号を認識されたテキストに変換することができる。代表波形は、たとえば複数の個人からの音声信号の大きなセットにわたって生成され得る。入力音声信号が認識されたテキストに変換されると、NLPコンポーネント106は、たとえば学習フェーズによってアクションまたは出力音声信号に関連付けられた単語にテキストを一致させることができる。 The NLP component 106 can receive an input voice signal, for example, from the vehicle 130 or the mobile client device 150. The data processing system 102 can receive an input voice signal from the client device 128 or the vehicle 140. A user of the vehicle 130 or the mobile client device 150 can provide a voice input signal, which can be transmitted to the remote data processing system 102 for processing by the NLP component 106. The NLP component 106 can convert the received input voice signal into recognized text by comparing the input voice signal to a set of stored representative voice waveforms and selecting the closest match. The representative waveforms can be generated, for example, across a large set of voice signals from multiple individuals. Once the input voice signal is converted into recognized text, the NLP component 106 can match the text to words associated with actions or output voice signals, for example, by a learning phase.

NLPコンポーネント106は、入力音声信号から、ユーザ(たとえば乗物130のユーザまたはモバイルクライアントデバイス150のユーザ)からの少なくとも1つの要求または要求に対応する少なくとも1つのトリガもしくはホットキーワードを識別することができる。NLPコンポーネント106(または他のコンポーネント)は、入力音声信号を、対応するテキスト信号に変換し、テキスト信号に基づいて要求を識別し得る。要求は入力音声信号の意図または主題を指示することができる。トリガキーワードは、とられる可能性のあるアクションのタイプを指示することができる。たとえば、NLPコンポーネント106は、入力音声信号を構文解析して、乗物の窓を開けること、音楽再生リストの次の音声ファイルへスキップすること、電話をかけること、メッセージ(たとえば電子メールメッセージまたはショートメッセージサービス(SMS)メッセージ)を作成して送ること、特定の番地への全地球測位システム(GPS)ナビゲーションを開始すること、ローカルまたはリモートに記憶されたデータにアクセスすること、ストリーミングセッションを開始すること、クライアントアプリケーションを開始すること、車庫のドアを開閉すること、住宅関連の設定を制御すること、またはそれらの組合せを行うことを求める少なくとも1つの要求を識別することができる。トリガキーワードは、とられるアクションを指示する少なくとも1つの単語、フレーズ、語根もしくは部分語、または派生語を含むことができる。たとえばトリガキーワードは「go」または「ok」または「hey」である。 The NLP component 106 may identify from the input audio signal at least one request or at least one trigger or hot keyword corresponding to a request from a user (e.g., a user of the vehicle 130 or a user of the mobile client device 150). The NLP component 106 (or other components) may convert the input audio signal into a corresponding text signal and identify the request based on the text signal. The request may indicate the intent or subject of the input audio signal. The trigger keyword may indicate the type of action that may be taken. For example, the NLP component 106 may parse the input audio signal to identify at least one request to open a vehicle window, skip to the next audio file in a music playlist, make a phone call, create and send a message (e.g., an email message or a Short Message Service (SMS) message), initiate Global Positioning System (GPS) navigation to a particular street address, access locally or remotely stored data, initiate a streaming session, initiate a client application, open or close a garage door, control home-related settings, or a combination thereof. A trigger keyword may include at least one word, phrase, root or part word, or derived word that indicates an action to be taken. For example, a trigger keyword may be "go" or "ok" or "hey."

インターフェース管理コンポーネント108は、乗物130およびモバイルクライアントデバイス150のインターフェースなど、システム100における他のデバイスのインターフェースを検知し、管理することができる。応答セレクタコンポーネント114は、識別された要求に関連したユーザに送るための応答を生成することができる。たとえば、NLPコンポーネント106が要求または要求に対応するトリガもしくはホットキーワードを識別したとき、応答セレクタコンポーネント114は、データリポジトリ118にアクセスして、ユーザに送る応答を生成するための情報またはコンテンツを取得することができる。たとえば、応答セレクタコンポーネント114は、データリポジトリ118の中の応答データ124から、フレーズ、コンテンツアイテム、またはそれらの組合せを取得することができる。 The interface management component 108 can detect and manage interfaces of other devices in the system 100, such as interfaces of the vehicle 130 and the mobile client device 150. The response selector component 114 can generate a response to send to a user associated with an identified request. For example, when the NLP component 106 identifies a request or a trigger or hot keyword corresponding to the request, the response selector component 114 can access the data repository 118 to obtain information or content for generating a response to send to the user. For example, the response selector component 114 can obtain a phrase, a content item, or a combination thereof from response data 124 in the data repository 118.

音声信号ジェネレータコンポーネント110は、ユーザに応答の一部分として送るための出力音声信号を生成するか、またはその他の方法で取得することができる。たとえば、音声信号ジェネレータコンポーネント110は、たとえば応答セレクタコンポーネント114によって選択または取得されたフレーズまたはコンテンツアイテムに関連する1つもしくは複数の音声信号を生成するかまたは選択することができる。たとえば、要求が満たされると、信号発生器コンポーネント110は、「そのアクションは完了した」というフレーズに対応する音声出力信号を生成することができる。 The audio signal generator component 110 can generate or otherwise obtain an output audio signal for sending to the user as part of the response. For example, the audio signal generator component 110 can generate or select one or more audio signals associated with a phrase or content item selected or obtained, for example, by the response selector component 114. For example, when a request is fulfilled, the signal generator component 110 can generate an audio output signal corresponding to the phrase "the action is complete."

NLPコンポーネント106は、受け取った入力音声信号に基づいて、遠隔データ処理システム102、乗物130、モバイルクライアントデバイス150、またはそれらの組合せによって遂行されるべきタスクまたはアクション(たとえば、乗物の窓を開くこと、音楽再生リストの次の音声ファイルへスキップすること、電話をかけること、メッセージ(たとえば電子メールメッセージまたはショートメッセージサービス(SMS)メッセージ)を作成して送ること、特定の番地への全地球測位システム(GPS)ナビゲーションを開始すること、ローカルまたはリモートに記憶されたデータにアクセスすること、ストリーミングセッションを開始すること、クライアントアプリケーションを開始すること、車庫ドアを開閉すること、住宅関連の設定を制御すること、またはそれらの組合せ)を識別することができる。遠隔データ処理システム102の指示アクションAPI 112は、タスクまたはアクションの識別に応答して、1つまたは複数のアクションデータ構造を生成することができる。1つまたは複数のアクションデータ構造は、識別されたアクションまたは要求を満たすためのアクションを実行するためのデータまたは命令を含むことができる。アクションデータ構造は、JSONフォーマットのデータ構造またはXMLフォーマットのデータ構造でよい。 The NLP component 106 can identify a task or action (e.g., opening a vehicle window, skipping to the next audio file in a music playlist, making a phone call, creating and sending a message (e.g., an email message or a Short Message Service (SMS) message), initiating Global Positioning System (GPS) navigation to a particular street address, accessing locally or remotely stored data, initiating a streaming session, starting a client application, opening and closing a garage door, controlling home-related settings, or a combination thereof) to be performed by the remote data processing system 102, the vehicle 130, the mobile client device 150, or a combination thereof based on the received input audio signal. The instruction action API 112 of the remote data processing system 102 can generate one or more action data structures in response to the identification of the task or action. The one or more action data structures can include data or instructions for performing an action to fulfill the identified action or request. The action data structure can be a JSON-formatted data structure or an XML-formatted data structure.

指示アクションAPI 112は、識別されたアクションまたはタスクに依拠して、要求を満たすのに必要なパラメータを識別するコードまたはダイアログスクリプトを実行することができる。デジタルアシスタントアプリケーション128は、乗物130、クライアントデバイス128、またはデータプロバイダ154に伝送するべきメッセージの1つまたは複数のアクションデータ構造を含むことができる。デジタルアシスタントアプリケーション128または指示アクションAPI 112は、NLPコンポーネント106によって識別された要求に基づいてメッセージの宛先を判定することができる。たとえば、入力音声信号が「窓を開ける」を含んでいる場合には、NLPコンポーネント106は、「窓を開ける」というアクション語を識別することができ、デジタルアシスタントアプリケーション128または指示アクションAPI 112は、1つまたは複数のアクションデータ構造を、乗物130への伝送に対する応答にパッケージ化することができる。指示アクションAPI 112は、応答データ124から乗物識別子(ID)または乗物IPアドレスにアクセスして、要求を生成したユーザに関連した乗物を判定することができる。乗物140は、1つまたは複数のアクションデータ構造を受け取ると、アクションデータ構造を処理して乗物の窓を開けることができる。入力音声信号が「ライオンプリンスの映画をストリーミングする」に対応する場合、NLPコンポーネント106はアクション語「映画をストリーミングする、ライオンプリンス」を識別することができる。デジタルアシスタントアプリケーション128または指示アクションAPI 112は、要求された映画のストリーミングを提供するデータプロバイダ154を識別し、1つまたは複数のアクションデータ構造を、データプロバイダ154または乗物(またはモバイルクライアントデバイス150)へのメッセージへとパッケージ化して、データプロバイダ154と乗物(またはモバイルクライアントデバイス150)の間のストリーミングセッションを開始することができる。 The directed action API 112 can execute code or dialogue scripts that identify the parameters necessary to fulfill the request based on the identified action or task. The digital assistant application 128 can include one or more action data structures for a message to transmit to the vehicle 130, the client device 128, or the data provider 154. The digital assistant application 128 or the directed action API 112 can determine the destination of the message based on the request identified by the NLP component 106. For example, if the input voice signal includes "open a window," the NLP component 106 can identify the action word "open a window," and the digital assistant application 128 or the directed action API 112 can package the one or more action data structures in a response for transmission to the vehicle 130. The directed action API 112 can access the vehicle identifier (ID) or vehicle IP address from the response data 124 to determine the vehicle associated with the user that generated the request. Upon receiving the one or more action data structures, the vehicle 140 can process the action data structures to open a window in the vehicle. If the input audio signal corresponds to "stream the Lion Prince movie," the NLP component 106 can identify the action word "stream the movie, Lion Prince." The digital assistant application 128 or the instruction action API 112 can identify a data provider 154 that provides streaming of the requested movie and package one or more action data structures into a message to the data provider 154 or the vehicle (or mobile client device 150) to initiate a streaming session between the data provider 154 and the vehicle (or mobile client device 150).

1つまたは複数のアクションデータ構造は、要求を達成するための情報を含むことができる。たとえば、1つまたは複数のアクションデータ構造は、要求を達成する、またはその他の形で満たすのに使用される属性を含むXMLフォーマットまたはJSONフォーマットのデータ構造を含むことができる。属性は、乗物130の位置、モバイルクライアントデバイス150の位置、乗物130またはモバイルクライアントデバイス150に関連したユーザのアクセス許可レベル(または認証レベル)、乗物識別子、インターフェース識別子、乗物状態、または要求状態を含むことができる。要求状態は、アクションが遂行される前に満たされるべき1つまたは複数の属性を含み得る。たとえば「Ok、歌を変更する」という要求については、要求状態は、要求者が認定ユーザであることを指示する属性{要求者:[認証された、同乗者]}を有し得る。デジタルアシスタントアプリケーション128または検証エンジン116は、アクセス許可レベルの属性が非認定ユーザを表す場合には、アクションデータ構造の伝送を阻止する(または対応するアクションの実行を阻止する)ことを決定してよい。 The one or more action data structures may include information for accomplishing the request. For example, the one or more action data structures may include an XML-formatted or JSON-formatted data structure that includes attributes used to accomplish or otherwise fulfill the request. The attributes may include the location of the vehicle 130, the location of the mobile client device 150, the permission level (or authentication level) of a user associated with the vehicle 130 or the mobile client device 150, a vehicle identifier, an interface identifier, a vehicle state, or a request state. The request state may include one or more attributes that must be satisfied before the action is performed. For example, for a request of "Ok, change song," the request state may have an attribute {requester:[authenticated, passenger]} that indicates that the requester is an authorized user. The digital assistant application 128 or the validation engine 116 may decide to block transmission of the action data structure (or block execution of the corresponding action) if the permission level attribute represents an unauthorized user.

指示アクションAPI 112は、リポジトリ118からテンプレート126を検索して、アクションデータ構造に含めるべきフィールドまたは属性を判定することができる。指示アクションAPI 112は、必要なパラメータを判定して、その情報をアクションデータ構造へとパッケージ化することができる。指示アクションAPI 112は、リポジトリ118からコンテンツを検索して、データ構造の属性に関する情報を取得することができる。指示アクションAPI 112は、入力音声信号からのデータでフィールドを埋めることができる。指示アクションAPI 112は、データプロバイダ152、乗物130、モバイルクライアントデバイス150、またはそれらの組合せからのデータでフィールドを埋めることができる。指示アクションAPI 112は、フィールドを埋めるとき、ユーザに付加情報を促してよい。テンプレート126は、乗物のヘッドユニットによって媒体ファイルを再生すること、メッセージに応答すること、自動車の内部の機能を遂行すること、電話をかけること、メッセージを作成して送ること、ストリーミングセッションを開始すること、またはそれらの組合せなど、種々のタイプのアクションに関して規格化され得る。遠隔データ処理システム102は、乗物130の乗物データ処理システム140にアクションデータ構造を伝送することができ、乗物データ処理システム140は、アクションデータ構造にフィールドおよび属性を付加することができる。 The directed action API 112 can retrieve templates 126 from the repository 118 to determine fields or attributes to include in the action data structure. The directed action API 112 can determine required parameters and package the information into the action data structure. The directed action API 112 can retrieve content from the repository 118 to obtain information about attributes of the data structure. The directed action API 112 can fill fields with data from an input audio signal. The directed action API 112 can fill fields with data from a data provider 152, a vehicle 130, a mobile client device 150, or a combination thereof. The directed action API 112 can prompt the user for additional information when filling fields. The templates 126 can be standardized for various types of actions, such as playing a media file through a vehicle head unit, responding to a message, performing a function inside the automobile, making a phone call, creating and sending a message, starting a streaming session, or a combination thereof. The remote data processing system 102 can transmit the action data structure to the vehicle data processing system 140 of the vehicle 130, and the vehicle data processing system 140 can add fields and attributes to the action data structure.

検証エンジン116は、アクションデータ構造に関連したアクションまたは機能が実行されるべきかどうか、または満たされるべきかどうかを、検証するかまたはその他の方法で判定することができる。たとえば、検証エンジン116は、要求しているユーザのアクセス許可レベル(または認証レベル)、および当該アクションまたは機能がユーザのアクセス許可レベルの範囲内にあるかどうかを検査することができる。検証エンジン116は、アクションデータ構造の内部の状態属性またはデータリポジトリ118の内部に記憶されたデータによって、アクセス許可レベルを検査することができる。検証エンジン116は、検証が成功すればアクションまたは機能の実行を許容することができる。 The validation engine 116 can verify or otherwise determine whether an action or function associated with an action data structure should be performed or satisfied. For example, the validation engine 116 can check the permission level (or authorization level) of the requesting user and whether the action or function is within the range of the user's permission level. The validation engine 116 can check the permission level via state attributes within the action data structure or data stored within the data repository 118. The validation engine 116 can allow the action or function to be performed if the validation is successful.

検証エンジン116は、要求者が適切なアクセス許可レベルを有する場合には、アクションの実行を許容するべきか否かを判定するときに地域法および条令など他の要因も考慮に入れてよい。たとえば、「ライオンプリンスの映画をストリーミングする」を表す入力音声信号を受け取り、運転者の前の表示デバイスに映画をストリーミングすると判定するのに応答して、検証エンジン116は、そのようにするのが不適切であるため、または車両運転者の気を散らす可能性があるビジュアルコンテンツを提供することが地域法もしくは条令によって違法とされているために、ストリーミングアクションの達成を拒むことができる。しかしながら、映画が前部座席シートの後ろの表示デバイスにストリーミングされる(たとえば運転者は表示デバイスにコンテンツがレンダリングされるのを見ることができない)場合には、検証エンジン116は映画をストリーミングするのが適切であると判定することができる。それゆえに、検証エンジン116はストリーミングアクションが遂行されるのを許容することができる。 If the requester has the appropriate permission level, the verification engine 116 may also take into account other factors, such as local laws and regulations, when determining whether to allow the action to be performed. For example, in response to receiving an input audio signal representing "stream the Lion Prince movie" and determining that the movie is to be streamed to a display device in front of the driver, the verification engine 116 may refuse to accomplish the streaming action because it is inappropriate to do so or because it is unlawful under local laws or regulations to provide visual content that may be distracting to the vehicle operator. However, if the movie is to be streamed to a display device behind the front passenger seat (e.g., the driver cannot see the content being rendered on the display device), the verification engine 116 may determine that it is appropriate to stream the movie. Therefore, the verification engine 116 may allow the streaming action to be performed.

デジタルアシスタントアプリケーション128は、ユーザが要求したタスクまたはアクションを遂行することを含めて、乗物130またはモバイルクライアントデバイス150のユーザとの会話を扱い、管理することができる。デジタルアシスタンスアプリケーション128は、インターフェース104、NLPコンポーネント106、インターフェース管理コンポーネント108、音声信号ジェネレータ110、指示アクションAPI 112、応答セレクタ114、検証エンジン116、データリポジトリ118、またはそれらの組合せなど、遠隔データ処理システム102の様々なコンポーネントに関連した動作を開始し、終結し、または調整することができる。たとえば、デジタルアシスタンスアプリケーション128は、遠隔データ処理システム102のコンポーネントのインスタンス(またはこれらのコンポーネントの組合せのインスタンス)を開始し(たとえばコールし)、終結することができる。デジタルアシスタンス128は、それぞれのユーザ会話に関する状態を生成し、監視し、更新することができる。インターフェース104、NLPコンポーネント106、インターフェース管理コンポーネント108、音声信号ジェネレータ110、指示アクションAPI 112、応答セレクタ114、検証エンジン116、データリポジトリ118、またはそれらの組合せは、デジタルアシスタントアプリケーション128の一部分であり得る。遠隔データ処理システム102は、それぞれの会話、それぞれの乗物130、またはそれぞれのモバイルクライアントデバイス150ごとに、デジタルアシスタンスアプリケーション128の個別のインスタンスを開始することができる。 The digital assistant application 128 can handle and manage conversations with a user of the vehicle 130 or mobile client device 150, including performing tasks or actions requested by the user. The digital assistance application 128 can initiate, terminate, or coordinate actions associated with various components of the remote data processing system 102, such as the interface 104, the NLP component 106, the interface management component 108, the audio signal generator 110, the instruction action API 112, the response selector 114, the validation engine 116, the data repository 118, or combinations thereof. For example, the digital assistance application 128 can initiate (e.g., call) and terminate instances of components (or instances of combinations of these components) of the remote data processing system 102. The digital assistance application 128 can generate, monitor, and update state related to each user conversation. The interface 104, the NLP component 106, the interface management component 108, the audio signal generator 110, the instruction action API 112, the response selector 114, the validation engine 116, the data repository 118, or a combination thereof may be part of a digital assistant application 128. The remote data processing system 102 may start a separate instance of the digital assistance application 128 for each conversation, each vehicle 130, or each mobile client device 150.

ネットワーク148は、インターネット、ローカルネットワーク、広域ネットワーク、都市ネットワーク、または他のエリアネットワーク、イントラネット、衛星ネットワークなどのコンピュータネットワーク、音声またはデータの携帯電話通信ネットワークなどの他のコンピュータネットワーク、およびそれらの組合せを含むことができる。ネットワーク148は、遠隔データ処理システム102、モバイルクライアントデバイス150、および乗物130によって、ウェブページ、ウェブサイト、ドメインネーム、ユニフォームリソースロケータ、またはデータプロバイダ152などの情報資源にアクセスするのに使用され得る。たとえば、遠隔データ処理システム102は、ネットワーク148を介して、乗物130に関連した位置など特定の位置に関する交通データを提供するデータプロバイダ152にアクセスすることができる。 The network 148 may include computer networks such as the Internet, local, wide area, metropolitan or other area networks, intranets, satellite networks, other computer networks such as voice or data cellular telephone communication networks, and combinations thereof. The network 148 may be used by the remote data processing system 102, the mobile client device 150, and the vehicle 130 to access information resources such as web pages, websites, domain names, uniform resource locators, or data providers 152. For example, the remote data processing system 102 may access, via the network 148, a data provider 152 that provides traffic data for a particular location, such as a location associated with the vehicle 130.

ネットワーク148は、たとえば2地点間ネットワーク、放送ネットワーク、広域ネットワーク、ローカルエリアネットワーク、電気通信ネットワーク、データ通信ネットワーク、コンピュータネットワーク、ATM(非同期転送モード)ネットワーク、SONET(同期式光ファイバ網)ネットワーク、SDH(同期デジタルハイアラーキ)ネットワーク、無線ネットワークまたは有線ネットワーク、およびそれらの組合せを含むことができる。ネットワーク148は、赤外線チャネルまたは衛星帯などの無線リンクを含むことができる。ネットワーク148のトポロジは、バスネットワークトポロジ、スターネットワークトポロジ、またはリングネットワークトポロジを含み得る。ネットワーク148は、先進携帯電話プロトコル(AMPS)、時分割多重アクセス(TDMA)、符号分割多重アクセス(CDMA)、広域自動車通信(GSM)システム、汎用パケット無線サービス(GPRS)、またはユニバーサル移動体通信システム(UMTS)を含めて、モバイルデバイス間での通信に使用される何らかのプロトコルを使用するモバイル電話ネットワークを含むことができる。種々のタイプのデータが種々のプロトコルによって伝送され得、または同一のタイプのデータが種々のプロトコルによって伝送され得る。 The network 148 may include, for example, a point-to-point network, a broadcast network, a wide area network, a local area network, a telecommunications network, a data communication network, a computer network, an ATM (asynchronous transfer mode) network, a SONET (synchronous optical network) network, an SDH (synchronous digital hierarchy) network, a wireless network, or a wired network, and combinations thereof. The network 148 may include a wireless link, such as an infrared channel or a satellite band. The topology of the network 148 may include a bus network topology, a star network topology, or a ring network topology. The network 148 may include a mobile telephone network using any protocol used for communication between mobile devices, including Advanced Mobile Phone Protocol (AMPS), Time Division Multiple Access (TDMA), Code Division Multiple Access (CDMA), Global System for Mobile Communications (GSM) system, General Packet Radio Service (GPRS), or Universal Mobile Telecommunications System (UMTS). Different types of data may be transmitted by different protocols, or the same type of data may be transmitted by different protocols.

乗物130は、1つまたは複数のスピーカ132、1つまたは複数の表示デバイス134、複数のセンサ136、およびトランスデューサ138を含むことができる。乗物130は乗物データ処理システム140を含むことができる。乗物データ処理システム140は、エントリ検知コンポーネント142、エントリ認証コンポーネント144、アクセス制御コンポーネント146、およびデジタルアシスタントアプリケーション128を含むことができる。乗物データ処理システム140のデジタルアシスタントアプリケーション128は、遠隔データ処理システム102のものに類似でよい(またはそのインスタンスでよい)。乗物データ処理システム140およびそれぞれのコンポーネントは、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せとして実施され得る。乗物データ処理システム140と遠隔データ処理システム102は、類似のコンポーネントを有し得る。たとえば、乗物データ処理システム140またはそのデジタルアシスタントアプリケーション128は、インターフェース104、NLPコンポーネント106、インターフェース管理コンポーネント108、音声信号ジェネレータ110、指示アクションAPI 112、応答セレクタ114、検証エンジン116、データリポジトリ118、それらの組合せ、またはそれらのインスタンスの組合せを含むことができる。遠隔データ処理システム102は、エントリ検知コンポーネント142、エントリ認証コンポーネント144、アクセス制御コンポーネント146、またはそれらのインスタンスの組合せを含み得る。 The vehicle 130 may include one or more speakers 132, one or more display devices 134, a number of sensors 136, and a transducer 138. The vehicle 130 may include a vehicle data processing system 140. The vehicle data processing system 140 may include an entry detection component 142, an entry authentication component 144, an access control component 146, and a digital assistant application 128. The digital assistant application 128 of the vehicle data processing system 140 may be similar to (or an instance of) that of the remote data processing system 102. The vehicle data processing system 140 and each of the components may be implemented as hardware, firmware, software, or a combination thereof. The vehicle data processing system 140 and the remote data processing system 102 may have similar components. For example, the vehicle data processing system 140 or its digital assistant application 128 may include the interface 104, the NLP component 106, the interface management component 108, the audio signal generator 110, the instruction action API 112, the response selector 114, the validation engine 116, the data repository 118, a combination thereof, or a combination of instances thereof. The remote data processing system 102 may include the entry detection component 142, the entry authentication component 144, the access control component 146, or a combination of instances thereof.

1つまたは複数のスピーカが、電気信号を可聴波に変換することより、(たとえば無線、マルチメディアデバイス、乗物データ処理システム140、デジタルアシスタントアプリケーション128、またはそれらの組合せからの)音声信号をレンダリングすることができる。乗物130は、ヘッドアップディスプレイ、(たとえば後部座席の同乗者にメディアコンテンツをレンダリングするための)マルチメディアデバイスに関連したディスプレイ、またはそれらの組合せなど1つまたは複数の表示デバイス134を含むことができる。トランスデューサ136は、(たとえば乗物内のユーザまたはバックグラウンドノイズからの)音声入力を、対応する電気信号に変換することができる。乗物データ処理システム140は、たとえば、音声認識、話者認識、またはそれらの組合せを遂行するために、電気信号を処理する(または処理するために電気信号を遠隔データ処理システム102へ伝送する)ことができる。トランスデューサ136は、電気信号を、対応する音声、超音波信号、または亜音速信号に変換することができる。 One or more speakers can convert electrical signals into audible waves to render audio signals (e.g., from a radio, a multimedia device, the vehicle data processing system 140, the digital assistant application 128, or a combination thereof). The vehicle 130 can include one or more display devices 134, such as a head-up display, a display associated with a multimedia device (e.g., for rendering media content to a rear seat passenger), or a combination thereof. The transducer 136 can convert audio input (e.g., from a user or background noise within the vehicle) into a corresponding electrical signal. The vehicle data processing system 140 can process the electrical signal (or transmit the electrical signal to the remote data processing system 102 for processing), for example, to perform voice recognition, speaker recognition, or a combination thereof. The transducer 136 can convert the electrical signal into a corresponding audio, ultrasonic, or subsonic signal.

乗物130は、乗物130へのエントリイベントまたはイグジットイベントを検知するため、乗物の状態パラメータ(たとえば速度、自動ドアロック、タイヤ空気圧レベル、またはそれらの組合せ)を監視するため、ユーザ認証(または乗物エントリ認証)を遂行するため、またはそれらの組合せのために使用するセンサ信号を供給する複数のセンサ136を含むことができる。以下で、図2に関して種々のセンサ136を論じる。 The vehicle 130 may include multiple sensors 136 that provide sensor signals used to detect entry or exit events into the vehicle 130, monitor vehicle state parameters (e.g., speed, automatic door locks, tire pressure levels, or a combination thereof), perform user authentication (or vehicle entry authentication), or a combination thereof. The various sensors 136 are discussed below with respect to FIG. 2.

図2は図1に示された乗物130の上面図であり、乗物130に関連したセンサおよび電子デバイスを表す。図2を参照すると、乗物130の内部のキャビンは複数のシート200を含むことができる。各シート200が、対応するシートセンサ202を含むことができる。シートセンサ202は、対応するシート200にかかる重みまたは圧力を感知することができる。シートセンサは、感知された圧力または重みをそれぞれの閾値と比較することができる。シートセンサ202は、感知された圧力または重みとそれぞれの閾値との比較に基づいて、対応するシート200が占有されているかどうかを表すシートセンサ信号を供給することができる。乗物データ処理システム140は、様々なシートセンサ202から、たとえば乗物データ処理システム140のインターフェース104を介してシートセンサ信号を受け取ることができる。 Figure 2 is a top view of the vehicle 130 shown in Figure 1 and illustrates sensors and electronic devices associated with the vehicle 130. With reference to Figure 2, the interior cabin of the vehicle 130 can include a number of seats 200. Each seat 200 can include a corresponding seat sensor 202. The seat sensor 202 can sense a weight or pressure on the corresponding seat 200. The seat sensor can compare the sensed pressure or weight to a respective threshold value. The seat sensor 202 can provide a seat sensor signal representing whether the corresponding seat 200 is occupied based on a comparison of the sensed pressure or weight to a respective threshold value. The vehicle data processing system 140 can receive the seat sensor signals from the various seat sensors 202, for example, via the interface 104 of the vehicle data processing system 140.

乗物130は1つまたは複数のドアセンサ204を含むことができる。それぞれのドアセンサ204は、乗物データ処理システム140に、乗物のドアが開いているかそれとも閉じているか、乗物のドアがロックされているかどうか、またはそれらの組合せを表すドアセンサ信号を供給することができる。乗物130は、乗物データ処理システム140がそれぞれのドアの状態(たとえば開、閉、ロック、またはロック解除)を識別することを可能にするそれぞれのドア用の個別のドアセンサ204を含むことができる。 The vehicle 130 may include one or more door sensors 204. Each door sensor 204 may provide the vehicle data processing system 140 with a door sensor signal indicative of whether a vehicle door is open or closed, whether a vehicle door is locked, or a combination thereof. The vehicle 130 may include a separate door sensor 204 for each door that allows the vehicle data processing system 140 to identify the state (e.g., open, closed, locked, or unlocked) of each door.

乗物130は、乗物130の内部の1つまたは複数の位置に配置され得る1つまたは複数の運動センサ206を含むことができる。運動センサ206は、たとえば赤外線ベースの感知技術、マイクロ波ベースの感知技術、超音波ベースの感知技術、振動ベースの感知技術、またはそれらの組合せを使用して乗物の運動を感知することができる。1つまたは複数の運動センサ206は、運動が乗物の内部で感知されたものか否かを表す運動センサ信号を乗物データ処理システム140に供給することができる。感知された運動は、1人以上のユーザによって乗物が占有されていることを表し得る。個別の運動センサ206は、乗物130の対応するシート200に関連して(たとえば近接して、または面して)、配置または設置され得る。乗物130は、乗物130の内部気圧の実質的な(たとえば所定の閾値よりも大きい)変化を感知するための圧力センサ(図2には示されていない)を含み得る。乗物の点火システムまたはそのセンサは、ユーザによる点火システムのオン/オフに応答して、点火システムのオン/オフを表す信号を乗物データ処理システム140に供給してよい。 The vehicle 130 may include one or more motion sensors 206 that may be located at one or more locations within the vehicle 130. The motion sensors 206 may sense vehicle motion using, for example, infrared-based sensing technology, microwave-based sensing technology, ultrasonic-based sensing technology, vibration-based sensing technology, or a combination thereof. The one or more motion sensors 206 may provide a motion sensor signal to the vehicle data processing system 140 that is indicative of whether motion is sensed within the vehicle. The sensed motion may represent the vehicle being occupied by one or more users. The individual motion sensors 206 may be located or mounted in relation to (e.g., adjacent to or facing) a corresponding seat 200 of the vehicle 130. The vehicle 130 may include a pressure sensor (not shown in FIG. 2) for sensing a substantial (e.g., greater than a predetermined threshold) change in the interior air pressure of the vehicle 130. The vehicle's ignition system or a sensor thereof may provide a signal representing whether the ignition system is on or off to the vehicle data processing system 140 in response to the user turning the ignition system on or off.

乗物130は、遠隔のキーフォブ送信器デバイス(図2には示されていない)から信号を受信するためのキーフォブ受信器デバイス210を含むことができる。キーフォブ受信器デバイス210およびキーフォブ送信器デバイスは、遠隔キーレスシステム(RKS)を形成する。遠隔キーフォブ送信器デバイスは、乗物をロックする、またはロック解除するためのエントリコードを含む信号を伝送することができる。エントリコードは暗号化され得る。キーフォブ受信器デバイス210は、信号中のエントリコードがキーフォブ受信器デバイス210に記憶されたコードと一致すると、自動車のロックまたはロック解除を作動させることができる。キーフォブ受信器デバイス210は、乗物データ処理システム140に対して通信可能に結合され得る。キーフォブ受信器デバイス210は、RKSによるロックまたはロック解除の成功または不成功のイベントの指示(または指示する信号)を、乗物データ処理システム140に供給することができる。 The vehicle 130 may include a key fob receiver device 210 for receiving signals from a remote key fob transmitter device (not shown in FIG. 2). The key fob receiver device 210 and the key fob transmitter device form a remote keyless system (RKS). The remote key fob transmitter device may transmit a signal including an entry code for locking or unlocking the vehicle. The entry code may be encrypted. The key fob receiver device 210 may activate the locking or unlocking of the motor vehicle when the entry code in the signal matches a code stored in the key fob receiver device 210. The key fob receiver device 210 may be communicatively coupled to the vehicle data processing system 140. The key fob receiver device 210 may provide an indication (or a signal indicative) of a successful or unsuccessful event of locking or unlocking by the RKS to the vehicle data processing system 140.

乗物130は、入力音声信号を取り込むための1つまたは複数のマイクロフォン214と、音声出力を供給するための複数のスピーカ(またはラウドスピーカ)132とを含むことができる。1つまたは複数のマイクロフォン214は、乗物130の内部の1つまたは複数の位置に配置され得る。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、乗物130の占有状態に基づいてマイクロフォン214をオン/オフしてよい。たとえば、乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、乗物130の占有(またはエントリイベントの検知)が検知されたのに応答してマイクロフォン214をオンにすることができる。マイクロフォン214またはスピーカは、乗物の始動に応答して自動的にオンにされ得る。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、1つまたは複数のマイクロフォン214によって取得された入力音声信号を受け取り、入力音声信号(または対応する電気信号)に対して音声認識または話者認識を適用することができる。 The vehicle 130 may include one or more microphones 214 for capturing input audio signals and multiple speakers (or loudspeakers) 132 for providing audio output. The one or more microphones 214 may be located at one or more locations inside the vehicle 130. The vehicle data processing system 140 or the corresponding digital assistant application 128 may turn the microphones 214 on and off based on the occupancy status of the vehicle 130. For example, the vehicle data processing system 140 or the corresponding digital assistant application 128 may turn on the microphones 214 in response to occupancy (or detection of an entry event) of the vehicle 130 being detected. The microphones 214 or speakers may be automatically turned on in response to starting the vehicle. The vehicle data processing system 140 or the corresponding digital assistant application 128 may receive the input audio signals captured by the one or more microphones 214 and apply voice recognition or speaker recognition to the input audio signals (or corresponding electrical signals).

乗物130は、デジタル画像を取り込むための1つまたは複数のカメラ216を含むことができる。それぞれのカメラ216は、シート200に着座している個人の顔がカメラ116の視界に収まるように、乗物130の対応するシート200に向けて方向づけられ得る。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、1つまたは複数のデジタル画像を取り込むために、たとえばエントリイベントの検知に応答してカメラ216をトリガすることができる。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、取り込まれた画像を使用して顔認識を遂行することができる。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、以前に取り込まれた画像が顔認識に不十分であれば(たとえばユーザの顔が明瞭でない場合、または完全でない場合には)、カメラ216をトリガして1つまたは複数の付加画像を取り込んでよい。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、カメラ216の向きを調節する(たとえば回転させる)ことができる。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、スピーカ132を通じて、ユーザに、カメラ216の方向を向くかまたはカメラの向きを調節するように要求する音声出力信号を供給することができる。 The vehicle 130 may include one or more cameras 216 for capturing digital images. Each camera 216 may be oriented toward a corresponding seat 200 of the vehicle 130 such that the face of an individual seated in the seat 200 is within the field of view of the camera 116. The vehicle data processing system 140 or the corresponding digital assistant application 128 may trigger the camera 216, for example in response to detecting an entry event, to capture one or more digital images. The vehicle data processing system 140 or the corresponding digital assistant application 128 may perform facial recognition using the captured images. The vehicle data processing system 140 or the corresponding digital assistant application 128 may trigger the camera 216 to capture one or more additional images if a previously captured image is insufficient for facial recognition (e.g., if the user's face is not clear or complete). The vehicle data processing system 140 or the corresponding digital assistant application 128 may adjust (e.g., rotate) the orientation of the camera 216. The vehicle data processing system 140 or corresponding digital assistant application 128 can provide an audio output signal through the speaker 132 requesting the user to aim or adjust the camera 216.

乗物130は、モバイルクライアントデバイス150aおよび150bなど乗物内部のモバイルクライアントデバイス150と通信するために、短波長(たとえば2.4~2.5GHz)データ通信トランシーバ、近距離通信(NFC)トランシーバ、またはそれらの組合せなどの通信トランシーバ218を含むことができる。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、通信トランシーバ218に対して通信可能に結合され得る。通信トランシーバ218は、モバイルクライアントデバイス150aおよび150b(または一般的には乗物130内のモバイルクライアントデバイス150)と通信して、これらのデバイスのデバイス識別子(ID)を取得することができる。通信トランシーバ218は、取得されたクライアントIDを、乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128に供給することができる。エントリイベントまたは乗物の占有が検知されてから所定期間の後にも通信トランシーバ218がクライアントIDを取得していなければ、乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、(たとえばスピーカ132に伝送される音声出力信号によって)ユーザに、たとえばそれぞれのモバイルクライアントデバイス(たとえばモバイルクライアントデバイス150aまたは150b)のトランシーバをオンにするかまたはクライアントデバイスを(NFC通信用の)通信トランシーバ218に近づけるように指示することができる。乗物データ処理システム140または対応するデジタルアシスタントアプリケーション128は、スピーカ132を通じて超音波出力信号または亜音速出力信号を伝送して、それぞれのIDを伝送するようにモバイルクライアントデバイス150aまたは150bをトリガすることができる。クライアントデバイス(たとえばモバイルクライアントデバイス150aまたは150b)は、超音波信号または亜音速信号をそれぞれのIDの要求と解釈し、超音波の出力信号または亜音速信号に応答してそれぞれのクライアントIDを伝送することができる。 The vehicle 130 may include a communication transceiver 218, such as a short wavelength (e.g., 2.4-2.5 GHz) data communication transceiver, a near field communication (NFC) transceiver, or a combination thereof, for communicating with mobile client devices 150 inside the vehicle, such as mobile client devices 150a and 150b. The vehicle data processing system 140 or a corresponding digital assistant application 128 may be communicatively coupled to the communication transceiver 218. The communication transceiver 218 may communicate with the mobile client devices 150a and 150b (or generally with the mobile client devices 150 in the vehicle 130) to obtain device identifiers (IDs) of these devices. The communication transceiver 218 may provide the obtained client IDs to the vehicle data processing system 140 or the corresponding digital assistant application 128. If the communication transceiver 218 has not obtained a client ID after a predetermined period of time after an entry event or vehicle occupancy is detected, the vehicle data processing system 140 or corresponding digital assistant application 128 can instruct the user (e.g., by an audio output signal transmitted to the speaker 132) to, for example, turn on the transceiver of the respective mobile client device (e.g., mobile client device 150a or 150b) or bring the client device closer to the communication transceiver 218 (for NFC communication). The vehicle data processing system 140 or corresponding digital assistant application 128 can trigger the mobile client device 150a or 150b to transmit its respective ID by transmitting an ultrasonic or subsonic output signal through the speaker 132. The client device (e.g., mobile client device 150a or 150b) can interpret the ultrasonic or subsonic signal as a request for its respective ID and transmit its respective client ID in response to the ultrasonic or subsonic output signal.

乗物は、たとえばマルチメディアコンテンツ(たとえば視聴覚コンテンツ、ストリーミングコンテンツ、ゲームコンテンツ、またはそれらの組合せ)を再生するためのマルチメディアデバイスを含む、後部座席の娯楽システム212を含むことができる。運転者に見えて気を散らしてしまうのを回避するために、後部座席娯楽システム212は前部座席シート200の後ろに配置されてよい。乗物130はヘッドユニット220も含むことができ、これによって実行され得るコンピュータコード命令は、乗物データ処理システム140、対応するデジタルアシスタントアプリケーション、または乗物130に関連して説明されたコンポーネントのうちの1つまたは複数に関するものである。ヘッドユニット220は、コンピュータコード命令を実行するための1つまたは複数のプロセッサと、コンピュータコード命令、およびデータリポジトリ118、再生リスト、設定データ、またはそれらの組合せに関連したデータなどのデータを記憶するための1つまたは複数の記憶デバイス(図2には示されていない)とを含むことができる。ヘッドユニット220は、ユーザに対して、ナビゲーション地図、再生リスト情報、無線チャネル情報、またはそれらの組合せなどの画像データをレンダリングするためのディスプレイ(図2には示されていない)を含むことができる。ヘッドユニット220は、センサ136(シートセンサ202、ドアセンサ204、運動センサ206、空気圧センサ、点火システム(または対応するセンサ)、キーフォブ受信器デバイス210、マイクロフォン214、カメラ216、または通信トランシーバ218など)、スピーカ132、または後方の娯楽システム212のマルチメディアデバイスに対して(たとえば有線または無線の接続によって)通信可能に結合され得る。 The vehicle may include a rear seat entertainment system 212, including, for example, a multimedia device for playing multimedia content (e.g., audiovisual content, streaming content, gaming content, or a combination thereof). To avoid being visible and distracting to the driver, the rear seat entertainment system 212 may be located behind the front seat 200. The vehicle 130 may also include a head unit 220, which may execute computer code instructions related to the vehicle data processing system 140, a corresponding digital assistant application, or one or more of the components described in connection with the vehicle 130. The head unit 220 may include one or more processors for executing computer code instructions and one or more storage devices (not shown in FIG. 2) for storing computer code instructions and data, such as data related to the data repository 118, playlists, configuration data, or a combination thereof. The head unit 220 may include a display (not shown in FIG. 2) for rendering image data, such as a navigation map, playlist information, radio channel information, or a combination thereof, to a user. The head unit 220 may be communicatively coupled (e.g., by wired or wireless connection) to the sensors 136 (such as the seat sensor 202, the door sensor 204, the motion sensor 206, the air pressure sensor, the ignition system (or corresponding sensor), the key fob receiver device 210, the microphone 214, the camera 216, or the communication transceiver 218), the speaker 132, or the multimedia device of the rear entertainment system 212.

図1に戻って、エントリ検知コンポーネント142、エントリ認証コンポーネント144、アクセス制御コンポーネント146、またはそれらの組合せは、乗物データ処理システム140のデジタルアシスタントアプリケーション128の一部分であり得る。エントリ検知コンポーネント142は、乗物130に設置された1つまたは複数のセンサ136によって取得された少なくとも1つのセンサ信号を受け取ることができる。たとえば、エントリ検知コンポーネント142は、キーフォブ受信器デバイス210からのキーフォブ信号、ドアセンサ204からのドアセンサ信号、シートセンサ202からのシートセンサ信号、運動センサ206からの運動センサ信号、空気圧センサからの圧力信号、乗物点火システムからの点火信号(たとえば点火システムのオン状態を表す)またはそれらの組合せを受け取ることができる。乗物の点火装置がオフであるときさえ、センサ136のうちの少なくとも1つは対応するセンサ信号を伝送することができる。 Returning to FIG. 1, the entry detection component 142, the entry authentication component 144, the access control component 146, or a combination thereof may be part of the digital assistant application 128 of the vehicle data processing system 140. The entry detection component 142 may receive at least one sensor signal acquired by one or more sensors 136 installed in the vehicle 130. For example, the entry detection component 142 may receive a key fob signal from the key fob receiver device 210, a door sensor signal from the door sensor 204, a seat sensor signal from the seat sensor 202, a motion sensor signal from the motion sensor 206, a pressure signal from an air pressure sensor, an ignition signal from the vehicle ignition system (e.g., representing an on state of the ignition system), or a combination thereof. At least one of the sensors 136 may transmit a corresponding sensor signal even when the vehicle ignition is off.

エントリ検知コンポーネント142は、少なくとも1つのセンサ信号に基づいて、乗物130へのエントリイベントを判定する(または検知する)ことができる。エントリイベントは、ユーザが乗物130に入ることを表し得る。エントリ検知コンポーネント142は、単一タイプのセンサ136からのセンサ信号に基づいてエントリイベントを判定してよい。たとえば、エントリ検知コンポーネント142がエントリイベントの発生に関して判定を行うには、キーフォブ受信器デバイス210、ドアセンサ204、シートセンサ202、運動センサ206、または空気圧センサのうちの1つからのセンサ信号があれば十分であり得る。エントリ検知コンポーネント142は、2つ以上のタイプのセンサ136からのセンサ信号に基づいてエントリイベントを判定してよい。たとえば、エントリ検知コンポーネント142は、2つ以上の異なるタイプのセンサ(たとえばキーフォブ受信器デバイス210とドアセンサ204の両方、またはドアセンサ204と運動センサ206の両方)が、1人以上の個人による乗物占有を表す対応するセンサ信号を供給するだけでエントリイベントの発生を判定するように構成され得る。 The entry detection component 142 may determine (or detect) an entry event into the vehicle 130 based on at least one sensor signal. The entry event may represent a user entering the vehicle 130. The entry detection component 142 may determine the entry event based on a sensor signal from a single type of sensor 136. For example, a sensor signal from one of the key fob receiver device 210, the door sensor 204, the seat sensor 202, the motion sensor 206, or the air pressure sensor may be sufficient for the entry detection component 142 to make a determination regarding the occurrence of an entry event. The entry detection component 142 may determine the entry event based on sensor signals from two or more types of sensors 136. For example, the entry detection component 142 may be configured to determine the occurrence of an entry event only when two or more different types of sensors (e.g., both the key fob receiver device 210 and the door sensor 204, or both the door sensor 204 and the motion sensor 206) provide corresponding sensor signals representative of vehicle occupancy by one or more individuals.

乗物データ処理システム140のデジタルアシスタントアプリケーション128は、何らかのエントリイベントの検知に先立って軽いモードで動作することができる。軽いモードでは、エントリ検知コンポーネント142だけが覚醒状態にあり、乗物データ処理システム140のデジタルアシスタントアプリケーション128の他のコンポーネントは乗物のバッテリー電力を節約するためにスリープモードにあってよい。エントリ検知コンポーネント142は、乗物130へのエントリイベントの検知に応答して、乗物データ処理システム140のデジタルアシスタントアプリケーション128の他のコンポーネントをスリープから解除することができる。 The digital assistant application 128 of the vehicle data processing system 140 can operate in a light mode prior to detection of any entry event. In the light mode, only the entry detection component 142 is awake, and other components of the digital assistant application 128 of the vehicle data processing system 140 can be in a sleep mode to conserve vehicle battery power. The entry detection component 142 can wake up other components of the digital assistant application 128 of the vehicle data processing system 140 in response to detection of an entry event into the vehicle 130.

エントリ認証コンポーネント144は、乗物130へのエントリイベントに応答して、少なくとも2つの認証入力信号を受け取ることができる。少なくとも2つの認証入力信号は、乗物130に関連した少なくとも1つのセンサ(または電子デバイス)136によって取得され得る。たとえば、エントリ認証コンポーネント144は、乗物130に関連した少なくとも1つのセンサ136によって取得された第1の認証入力信号および第2の認証入力信号を受け取ることができる。少なくとも2つの認証入力信号は、少なくとも2つの異なるタイプのセンサによって取得された別個のタイプでよい。たとえば、エントリ認証コンポーネント144は、(1)キーフォブ受信器デバイス210からのキーフォブ認証信号、(2)対応するモバイルクライアントデバイス(たとえばスマートフォン、タブレット、またはスマートウォッチ)150からのモバイルデバイス識別子(ID)認証信号、(3)マイクロフォン214からの音声入力信号、または(4)カメラ216からのデジタル画像のうちの少なくとも2つを受け取ることができる。 The entry authentication component 144 can receive at least two authentication input signals in response to an entry event into the vehicle 130. The at least two authentication input signals can be acquired by at least one sensor (or electronic device) 136 associated with the vehicle 130. For example, the entry authentication component 144 can receive a first authentication input signal and a second authentication input signal acquired by at least one sensor 136 associated with the vehicle 130. The at least two authentication input signals can be of separate types acquired by at least two different types of sensors. For example, the entry authentication component 144 can receive at least two of: (1) a key fob authentication signal from the key fob receiver device 210; (2) a mobile device identifier (ID) authentication signal from a corresponding mobile client device (e.g., a smartphone, tablet, or smartwatch) 150; (3) an audio input signal from the microphone 214; or (4) a digital image from the camera 216.

キーフォブ認証信号は、キーフォブ受信器デバイス210が乗物130に対応するコード化された無線信号(たとえば乗物ドアのロック解除に成功した信号)を受け取ったか否かを表すことができる。モバイルデバイス識別子(ID)認証信号は、モバイルクライアントデバイス150によって供給され、モバイルクライアントデバイス150の対応する識別子IDを含む信号であり得る。図2に関して上記で論じられたように、乗物データ処理システム140のデジタルアシスタントアプリケーション128は、たとえばスピーカ132を通じて超音波信号もしくは亜音速信号を伝送することにより、または出力音声信号を供給することにより、モバイルクライアントデバイス150に、対応するモバイルデバイス識別子(ID)認証信号を伝送させ得る。デジタルアシスタントアプリケーション128は、音声入力信号を、マイクロフォン214から直接受け取るかまたはマイクロフォン214に結合された記憶デバイスから受け取ることができ、最近のあらかじめ定義された期間(たとえば直近の30秒間、直近の1分間、直近の2分間)を通じてマイクロフォン214によって取り込まれた音声信号を維持するように構成される。記憶デバイスは、記録された音声信号にタイムスタンプを付すことができる。記憶デバイスは、個別のマイクロフォンからの音声信号を別個に記憶することができる。乗物へのエントリイベントの検知に応答して、(たとえばユーザに特定の質問をするかまたは単に話してくれるように依頼することにより)乗物130内のあらゆる可能なユーザが話すためのきっかけとなるように、デジタルアシスタントアプリケーション128に対してスピーカ132を通じて音声出力信号を供給してよい。乗物データ処理システム140のデジタルアシスタントアプリケーション128は、乗物130へのエントリイベントの検知に応答して、デジタル画像を取り込むように1つまたは複数のカメラ216をトリガすることができる。 The key fob authentication signal may indicate whether the key fob receiver device 210 has received a coded wireless signal corresponding to the vehicle 130 (e.g., a signal that successfully unlocked the vehicle door). The mobile device identifier (ID) authentication signal may be a signal provided by the mobile client device 150 and including a corresponding identifier ID of the mobile client device 150. As discussed above with respect to FIG. 2, the digital assistant application 128 of the vehicle data processing system 140 may cause the mobile client device 150 to transmit a corresponding mobile device identifier (ID) authentication signal, for example, by transmitting an ultrasonic or subsonic signal through the speaker 132 or by providing an output audio signal. The digital assistant application 128 may receive an audio input signal directly from the microphone 214 or from a storage device coupled to the microphone 214, and is configured to maintain the audio signal captured by the microphone 214 over a recent predefined period (e.g., the last 30 seconds, the last minute, the last two minutes). The storage device may timestamp the recorded audio signal. The storage device can separately store audio signals from the individual microphones. In response to detecting an entry event into the vehicle, an audio output signal can be provided through the speaker 132 to the digital assistant application 128 to prompt any possible user in the vehicle 130 to speak (e.g., by asking the user a specific question or simply asking him to speak). In response to detecting an entry event into the vehicle 130, the digital assistant application 128 of the vehicle data processing system 140 can trigger one or more cameras 216 to capture digital images.

乗物データ処理システム140のデジタルアシスタントアプリケーション128は、乗物130へのエントリイベントに応答して乗物130の占有状態を生成する(または更新する)ことができる。乗物130の占有状態は、それぞれの認証されたユーザを、乗物130の対応するシート200へ(たとえばそのシート200に関連した対応するシートセンサまたは運動センサからのセンサ信号に基づいて)マッピングすることができる。乗物データ処理システム140のデジタルアシスタントアプリケーション128は、占有されたシート200に関連したマイクロフォン214またはカメラ216のみをトリガすればよい。 The digital assistant application 128 of the vehicle data processing system 140 can generate (or update) an occupancy state of the vehicle 130 in response to an entry event into the vehicle 130. The occupancy state of the vehicle 130 can map each authenticated user to a corresponding seat 200 of the vehicle 130 (e.g., based on a sensor signal from a corresponding seat sensor or motion sensor associated with that seat 200). The digital assistant application 128 of the vehicle data processing system 140 need only trigger the microphone 214 or camera 216 associated with the occupied seat 200.

エントリ認証コンポーネント244は、少なくとも2つの受け取られた認証入力信号および複数の認証情報に基づいて、少なくとも2つの認証状態を判定することができる。たとえば、エントリ認証コンポーネント244は、第1の認証入力信号と複数の認証情報のうちの第1の認証情報とに基づいて、第1の認証状態を判定するとともに、第2の認証入力信号と複数の認証情報の第2の認証情報とに基づいて、第2の認証状態を判定することができる。エントリ認証コンポーネント244は、受け取られた認証入力信号の各々について、個別の認証を遂行して対応する認証状態を判定することができる。それぞれの認証状態が、対応する認証が成功するか否かを表すことができる。エントリ認証コンポーネント244が、その認証に基づいて特定のユーザまたはユーザカテゴリを識別することができるなら、認証は成功し得る。認証が成功すると、認証状態は、識別されたユーザまたはユーザカテゴリを表すことができる。認証が成功すると、認証状態は、それぞれの識別されたユーザまたはユーザカテゴリに関する確率値を表し得る。認証が不成功であると、対応する認証状態は、不成功の理由(たとえば不適当な認証入力信号または対応する認証情報に基づく一致の欠如)を表し得る。 The entry authentication component 244 can determine at least two authentication states based on the at least two received authentication input signals and the plurality of authentication information. For example, the entry authentication component 244 can determine a first authentication state based on a first authentication input signal and a first authentication information of the plurality of authentication information, and can determine a second authentication state based on a second authentication input signal and a second authentication information of the plurality of authentication information. The entry authentication component 244 can perform an individual authentication for each received authentication input signal to determine a corresponding authentication state. Each authentication state can indicate whether the corresponding authentication is successful or not. If the entry authentication component 244 can identify a particular user or user category based on the authentication, the authentication can be successful. If the authentication is successful, the authentication state can represent an identified user or user category. If the authentication is successful, the authentication state can represent a probability value for each identified user or user category. If the authentication is unsuccessful, the corresponding authentication state can represent a reason for the unsuccessful (e.g., an improper authentication input signal or a lack of a match based on the corresponding authentication information).

エントリ認証コンポーネント244は、キーフォブ認証のために、乗物ドアの遠隔のロック解除の成功を表すキーフォブ信号を受け取るのに応答して、乗物のキーレス遠隔送信器デバイスを利用できる個人(たとえば乗物の所有者、所有者の家族、所有者の親しい友人、またはそれらの組合せ)のリストにアクセスすることができる。個人のリストは、キーフォブ認証に関連した認証情報を表すことができ、乗物の(たとえばデータリポジトリ118の内部の)記憶装置に記憶され得る。エントリ認証コンポーネント244は、リスト内の個人の各々を、現在乗物を占有している可能性のあるユーザとして判定することができる。エントリ認証コンポーネント244は、たとえば乗物130へのエントリの統計データに基づいて、個人の各々に対して確率値を割り当てることができる。たとえば、所有者は最高の確率を割り当てられてよく、所有者の配偶者には2番目に高い確率が割り当てられてよく、他の人にはより低い確率値が割り当てられてよい。 The entry authentication component 244 may access a list of individuals (e.g., the vehicle owner, the owner's family, the owner's close friends, or a combination thereof) who may use the vehicle's keyless remote transmitter device for key fob authentication in response to receiving a key fob signal representative of successful remote unlocking of the vehicle door. The list of individuals may represent authentication information related to the key fob authentication and may be stored in a storage device (e.g., within the data repository 118) of the vehicle. The entry authentication component 244 may determine each of the individuals in the list as a possible user currently occupying the vehicle. The entry authentication component 244 may assign a probability value to each of the individuals based, for example, on statistical data of entries into the vehicle 130. For example, the owner may be assigned the highest probability, the owner's spouse may be assigned the second highest probability, and others may be assigned lower probability values.

モバイルデバイス識別子(ID)認証信号については、対応する認証情報は、乗物130の(たとえばデータリポジトリ118の内部の)記憶装置に記憶されたデバイスIDと対応するデバイスユーザのアイデンティティとのセットを含むことができる。これらの信号は暗号化され得る。エントリ認証コンポーネント244は、受け取られたモバイルデバイスID認証信号のモバイルクライアントデバイスIDを、記憶されたデバイスIDのセットと比較することができる。一致が見つかると、エントリ認証コンポーネント244は、一致したデバイスIDに関連したユーザは乗物130を占有しているユーザであると識別することができる。認証状態は、一致した特徴に対応するユーザに関連した確率値を含み得る。一致が見つからなければ、エントリ認証コンポーネント244は、モバイルデバイス識別子(ID)の認証信号に対応する認証状態を不成功の認証と判定することができる。認証は、一致する認証情報が欠如しているという不成功の理由を含むことができる。 For a mobile device identifier (ID) authentication signal, the corresponding authentication information may include a set of device IDs and corresponding device user identities stored in storage (e.g., within the data repository 118) of the vehicle 130. These signals may be encrypted. The entry authentication component 244 may compare the mobile client device ID of the received mobile device ID authentication signal to the set of stored device IDs. If a match is found, the entry authentication component 244 may identify the user associated with the matched device ID as the user occupying the vehicle 130. The authentication status may include a probability value associated with the user corresponding to the matched characteristic. If no match is found, the entry authentication component 244 may determine the authentication status corresponding to the mobile device identifier (ID) authentication signal as unsuccessful authentication. The authentication may include a reason for failure that is a lack of matching authentication information.

話者認識認証の場合には、デジタルアシスタントアプリケーション128(または対応する音声処理装置コンポーネント)は、受け取られた音声入力信号から、話者を表す1つまたは複数の特徴を抽出し、エントリ認証コンポーネント244は、抽出された特徴を、たとえばデータリポジトリ118の内部に記憶された対応する話者に特有の特徴(認証情報)のセットと比較することができる。一致が見つかると、エントリ認証コンポーネント244は、(話者認識認証に関する)認証状態を成功と判定することができる。認証状態は、対応する話者に特有の特徴のセットの中の一致した特徴に関連したユーザの指示を含むことができる。認証状態は、一致した特徴に対応するユーザに関連した確率値を含み得る。一致が見つからなければ、エントリ認証コンポーネント244は、認証状態を、一致する認証情報が欠如しているという不成功の理由を含み得る不成功の認証と判定することができる。 In the case of speaker recognition authentication, the digital assistant application 128 (or a corresponding voice processing device component) can extract one or more features representative of the speaker from the received voice input signal, and the entry authentication component 244 can compare the extracted features to a set of corresponding speaker-specific features (authentication information) stored, for example, within the data repository 118. If a match is found, the entry authentication component 244 can determine the authentication status (with respect to speaker recognition authentication) as successful. The authentication status can include a user indication associated with the matching feature in the set of corresponding speaker-specific features. The authentication status can include a probability value associated with the user corresponding to the matching feature. If no match is found, the entry authentication component 244 can determine the authentication status as unsuccessful authentication, which can include a reason for failure that matching authentication information is lacking.

顔認識ベースの認証の場合には、デジタルアシスタントアプリケーション128(または対応する画像プロセッサコンポーネント)は、受け取られたデジタル画像から、顔の1つまたは複数の特徴を抽出することができ、エントリ認証コンポーネント244は、抽出された特徴を、たとえばデータリポジトリ118の内部に記憶された(1人または複数の既知のユーザに関連付けられた)対応する特徴のセットと比較することができる。一致が見つかると、エントリ認証コンポーネント244は、(顔認識ベースの認証に関する)認証状態を成功と判定することができる。認証状態は、対応する顔の特徴のセットの中の一致した顔の特徴に関連したユーザの指示を含むことができる。認証状態は、一致する顔の特徴に対応するユーザに関連した確率値を含み得る。一致が見つからなければ、エントリ認証コンポーネント244は、認証状態を、一致する認証情報が欠如しているという不成功の理由を含み得る不成功の認証と判定することができる。デジタルアシスタントアプリケーション128(または対応する画像プロセッサコンポーネント)が、(たとえば画像の中で顔が明瞭に見えていないために)顔の特徴を抽出できなければ、不成功の理由は、不十分な入力と定義され得る。 In the case of facial recognition-based authentication, the digital assistant application 128 (or a corresponding image processor component) can extract one or more facial features from the received digital image, and the entry authentication component 244 can compare the extracted features to a set of corresponding features (associated with one or more known users) stored, for example, within the data repository 118. If a match is found, the entry authentication component 244 can determine the authentication status (for the facial recognition-based authentication) as successful. The authentication status can include a user indication associated with the matching facial feature in the set of corresponding facial features. The authentication status can include a probability value associated with the user corresponding to the matching facial feature. If no match is found, the entry authentication component 244 can determine the authentication status as unsuccessful authentication, which can include a reason for failure that matching authentication information is lacking. If the digital assistant application 128 (or a corresponding image processor component) cannot extract the facial features (e.g., because the face is not clearly visible in the image), the reason for failure can be defined as insufficient input.

アクセス制御コンポーネント246は、第1の認証状態および第2の認証状態などの判定された認証状態に少なくとも部分的に基づき、複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別することができる。アクセス制御コンポーネント246は、エントリ認証コンポーネント244によって判定された認証状態に基づいて、特定のユーザまたは複数のユーザカテゴリのうちの1つのユーザカテゴリを判定することができる。たとえば、アクセス制御コンポーネント246は、様々な認証状態の情報(たとえば、ユーザまたはユーザカテゴリおよび適用可能であれば対応する確率値の指示)を比較して、乗物130を占有している個人に関連した最終的なユーザアイデンティティまたはユーザカテゴリを判定することができる。アクセス制御コンポーネント246は、乗物130を占有している個人に関連した最終的なユーザアイデンティティまたはユーザカテゴリを判定するとき、決定グラフまたは複数の決定ルールを使用してよい。複数のユーザカテゴリは、「所有者」、「家族:大人」、「家族:子供」、「友人」、「新規ユーザ」またはそれらの組合せを含み得る。アクセス制御コンポーネント246は、複数のユーザまたはユーザカテゴリの各々を対応するアクセス許可レベルにマッピングする(たとえばデータリポジトリ118の)データ構造にアクセスすることができる。アクセス制御コンポーネント246は、アクセスされたデータ構造に基づいて、判定された最終的なユーザアイデンティティまたはユーザカテゴリに関連したアクセス許可レベルを判定することができる。 The access control component 246 can identify one of a plurality of permission levels based at least in part on a determined authentication state, such as a first authentication state and a second authentication state. The access control component 246 can determine a particular user or one of a plurality of user categories based on the authentication state determined by the entry authentication component 244. For example, the access control component 246 can compare various authentication state information (e.g., an indication of a user or user category and corresponding probability value, if applicable) to determine a final user identity or user category associated with the individual occupying the vehicle 130. The access control component 246 can use a decision graph or a plurality of decision rules when determining a final user identity or user category associated with the individual occupying the vehicle 130. The plurality of user categories can include “owner”, “family: adult”, “family: child”, “friend”, “new user”, or a combination thereof. The access control component 246 can access a data structure (e.g., in the data repository 118) that maps each of a plurality of users or user categories to a corresponding permission level. The access control component 246 can determine a permission level associated with the determined final user identity or user category based on the accessed data structure.

アクセス制御コンポーネント246は、アクセス許可レベルに応答して、乗物130を介して利用可能な機能のセットのサブセットを識別することができる。デジタルアシスタントアプリケーション128は、個別のユーザまたはユーザカテゴリに関連したデータを、複数の個別のデータアカウントまたは複数の個別のメモリパーティションに配置することができる。所与のユーザに関して、対応するデータアカウントまたはメモリパーティションは、ユーザに関連したデータ、ユーザに関連したマルチメディアファイル、ユーザに関するアクセス設定(たとえば許可レベルまたはアクセス可能な機能)、またはそれらの組合せを含むことができる。乗物130を介して利用可能な機能のセットは、乗物130の記憶装置に記憶されたデータ(たとえばデータアカウントまたはメモリパーティションに関連したデータ)にアクセスすること、ローカルに記憶された再生リストにアクセスすること、ローカルに記憶された媒体ファイル(または無線チャネル)のレンダリングを制御すること、乗物の窓またはドアを作動させること、乗物のドアをロックまたはロック解除すること、乗物のエアコン(AC)の設定を調節すること、住宅の車庫のドアを遠隔で開閉すること、住宅関連の設定(たとえば住宅AC、ホームセキュリティシステム、スプリンクラ、またはそれらの組合せ)を制御または調節すること、オンラインサービスまたはモバイルアプリケーション(たとえばオンラインのストリーミングまたはダウンロード、オンラインショッピング、または電子メール)にアクセスすること、またはそれらの組合せなど、デジタルアシスタントアプリケーション128によって遂行され得る機能またはタスクを含むことができる。デジタルアシスタントアプリケーション128は、たとえば対応するユーザまたはユーザカテゴリを指定するセキュリティキーを別個に使用して、それぞれのデータアカウントまたはメモリパーティションを暗号化することができる。セキュリティキーは、たとえば対応するユーザに関連した情報(たとえばモバイルデバイスまたは他の識別子)をハッシュすることによって定義され得る(または生成され得る)。デジタルアシスタントアプリケーション128は、様々なユーザに関連した再生リスト(またはセキュリティ面もしくはプライバシー面での配慮が不要な他のデータ)を共通の記憶領域へとグループ化するかまたは組み合わせ得る。たとえば、グループ化された再生リストは、乗物130に乗る様々なユーザにとってアクセス可能でよい。 The access control component 246 can identify a subset of the set of features available via the vehicle 130 in response to the access permission level. The digital assistant application 128 can place data associated with individual users or categories of users in multiple separate data accounts or multiple separate memory partitions. For a given user, the corresponding data account or memory partition can include data associated with the user, multimedia files associated with the user, access settings for the user (e.g., permission levels or accessible features), or a combination thereof. The set of functions available via the vehicle 130 may include functions or tasks that may be performed by the digital assistant application 128, such as accessing data stored on the storage device of the vehicle 130 (e.g., data associated with a data account or memory partition), accessing a locally stored playlist, controlling the rendering of a locally stored media file (or radio channel), operating a vehicle window or door, locking or unlocking a vehicle door, adjusting an air conditioning (AC) setting for the vehicle, remotely opening and closing a residential garage door, controlling or adjusting residential related settings (e.g., residential AC, home security system, sprinklers, or combinations thereof), accessing online services or mobile applications (e.g., online streaming or downloads, online shopping, or email), or combinations thereof. The digital assistant application 128 may encrypt each data account or memory partition separately using a security key that, for example, specifies the corresponding user or user category. The security key may be defined (or generated), for example, by hashing information associated with the corresponding user (e.g., a mobile device or other identifier). Digital assistant application 128 may group or combine playlists (or other data that is not security or privacy sensitive) associated with various users into a common storage area. For example, grouped playlists may be accessible to various users aboard vehicle 130.

それぞれのアクセス許可レベルは、利用可能な機能のセットのそれぞれのサブセットに関連付けられ得る。アクセス許可レベルと対応する機能のサブセットの間の関連性(またはマッピング)は、デジタルアシスタントアプリケーション128の管理者(たとえば乗物130の所有者)によって設定され得、または調節可能であり得る。アクセス許可レベルと機能の対応するサブセットの間の関連性(またはマッピング)は、データリポジトリ118に記憶された第2のデータ構造(たとえば表)に維持され得る。アクセス制御コンポーネント246は、判定された許可レベルに関連した機能のサブセットを、第2のデータ構造に基づいて判定することができる。 Each permission level may be associated with a respective subset of the set of available features. The association (or mapping) between the permission levels and the corresponding subset of features may be set or adjustable by an administrator of the digital assistant application 128 (e.g., the owner of the vehicle 130). The association (or mapping) between the permission levels and the corresponding subset of features may be maintained in a second data structure (e.g., a table) stored in the data repository 118. The access control component 246 may determine the subset of features associated with the determined permission level based on the second data structure.

アクセス制御コンポーネント246は、アクセス許可レベルを判定することなく、判定された認証状態(たとえば第1の認証状態および第2の認証状態)に少なくとも部分的に基づき、乗物130を介して利用可能な機能のセットのサブセットを直接識別することができる。たとえば、アクセス制御コンポーネント246は、判定された認証状態に基づいてユーザカテゴリを識別した後に、それぞれのユーザカテゴリを対応する機能のサブセットにマッピングするデータ構造にアクセスして、機能のサブセットを識別することができる。複数の認証状態、アクセス許可レベル、機能のサブセット、またはそれらの組合せを判定することは、多要素認証処理を表す。 The access control component 246 may directly identify a subset of the set of features available via the vehicle 130 based at least in part on the determined authentication state (e.g., the first authentication state and the second authentication state) without determining a permission level. For example, the access control component 246 may identify the subset of features after identifying a user category based on the determined authentication state by accessing a data structure that maps each user category to a corresponding subset of features. Determining multiple authentication states, permission levels, subsets of features, or combinations thereof represents a multi-factor authentication process.

(乗物のデータ構造140の)デジタルアシスタントアプリケーション128は、判定された機能のサブセットへの乗物アクセス(vehicular access)を与えることができる。デジタルアシスタントアプリケーション128は、乗物130内のユーザから可聴の要求を受け取ったとき、対応する要求されたアクションまたは機能を識別することができる。たとえば、指示アクションAPIコンポーネント112は、要求されたアクションまたは機能を表すアクションデータ構造を生成することができる。検証エンジン116は、それぞれのアクションデータ構造について、対応するアクションまたは機能を、要求者のアクセス許可レベルにマッピングされた機能のサブセットと比較して、アクション(または機能)を許容するかそれとも拒否するか判定することができる。アクションまたは機能を拒否する、または阻止するとき、デジタルアシスタントアプリケーション128(または検証エンジン116)は、対応するアクションデータ構造を削除し、スピーカ132を通じて音声出力を供給して、要求者は要求した機能にアクセスできないことを指示し得る。対応する機能またはアクションを遂行するときに、能動的なステップを採用する前にアクションデータ構造を拒否する、または阻止すると、不必要な通信や計算が避けられるので、リソース(たとえば計算リソースおよび帯域幅リソース)の利用が効率的になる。アクションデータ構造に対応するアクションが、要求者がアクセス可能な機能のサブセットの中の機能と一致する場合には、検証エンジンは、アクションデータ構造を実行のために別のコンポーネントへ転送することができる。デジタルアシスタントアプリケーション128は、要求された機能へのアクセスが許可されたことを指示する音声出力信号を(たとえばスピーカ132を通じて)供給してよい。機能が実行されたとき、デジタルアシスタントアプリケーション128は、(たとえばスピーカ132を通じて)音声出力信号を供給して、要求が満たされたことを指示してよい。 The digital assistant application 128 (of the vehicle data structure 140) can grant vehicular access to the determined subset of functions. When the digital assistant application 128 receives an audible request from a user in the vehicle 130, it can identify a corresponding requested action or function. For example, the instruction action API component 112 can generate an action data structure that represents the requested action or function. For each action data structure, the validation engine 116 can compare the corresponding action or function to the subset of functions mapped to the requester's permission level to determine whether to allow or deny the action (or function). When denying or blocking an action or function, the digital assistant application 128 (or the validation engine 116) can delete the corresponding action data structure and provide an audio output through the speaker 132 to indicate that the requester cannot access the requested function. Rejecting or blocking an action data structure before taking active steps in performing the corresponding function or action avoids unnecessary communication and computation, resulting in efficient use of resources (e.g., computational and bandwidth resources). If the action corresponding to the action data structure matches a function in the subset of functions accessible to the requester, the validation engine can forward the action data structure to another component for execution. The digital assistant application 128 may provide an audio output signal (e.g., through speaker 132) indicating that access to the requested function has been granted. When the function has been executed, the digital assistant application 128 may provide an audio output signal (e.g., through speaker 132) indicating that the request has been fulfilled.

アクセス制御コンポーネント246は、所与のユーザに関するアクセス許可レベルまたは許容された機能のサブセットを判定するとき、乗物を占有するそれぞれのユーザについて、そのユーザが位置する乗物130の対応するシート200を判定することができる。アクセス制御コンポーネント246は、シートセンサ信号、ドアセンサ信号、運動センサ信号、マイクロフォン214からの音声入力信号、カメラ216からのデジタル画像、またはそれらの組合せを使用して、乗物内のそれぞれのユーザを対応するシート200にマッピングしてよい。そのようなマッピングは乗物130の占有状態を表すことができ、それによって、後に乗物内の個別のユーザから受け取られた可聴の要求を区別するのが容易になり得る。たとえば、デジタルアシスタントアプリケーション128は、乗物の窓を開く可聴の要求または乗物のドアをロック解除する可聴の要求を受け取ったとき、たとえば乗物内の個別のマイクロフォン214に関連した可聴の要求の記録されたインスタンスに基づいて、可聴の要求が、前部座席シートの大人からのものかそれとも後部座席シートの人からのものかを判定することができる。デジタルアシスタントアプリケーション128は、可聴の要求の記録されたインスタンスの振幅またはこれらのインスタンスの間の遅延時間を比較して、可聴の要求をしているユーザに最も近いマイクロフォン214(したがって関連したシート)を識別することができる。可聴の要求をしているユーザに最も近いマイクロフォン214によって記録された可聴の要求のインスタンス(たとえば対応する電気信号)は、要求しているユーザより遠くにある他のマイクロフォン214に関連した他のインスタンスよりも到着するのが早く、より大きい振幅を有し得る。デジタルアシスタントアプリケーション128は、要求者に最も近いマイクロフォン214を識別することにより、シート200とユーザの間のマッピングを使用して要求者を識別することができる。 When determining the access permission level or subset of allowed functions for a given user, the access control component 246 can determine, for each user occupying the vehicle, the corresponding seat 200 of the vehicle 130 in which the user is located. The access control component 246 can use seat sensor signals, door sensor signals, motion sensor signals, audio input signals from the microphone 214, digital images from the camera 216, or a combination thereof to map each user in the vehicle to a corresponding seat 200. Such a mapping can represent the occupancy state of the vehicle 130, which can later facilitate distinguishing between audible requests received from individual users in the vehicle. For example, when the digital assistant application 128 receives an audible request to open a vehicle window or unlock a vehicle door, the digital assistant application 128 can determine whether the audible request is from an adult in a front passenger seat or a person in a back passenger seat, for example, based on recorded instances of audible requests associated with individual microphones 214 in the vehicle. The digital assistant application 128 can compare the amplitude of the recorded instances of an audible request or the delay time between these instances to identify the microphone 214 (and therefore the associated seat) closest to the user making the audible request. An instance of an audible request (e.g., a corresponding electrical signal) recorded by the microphone 214 closest to the user making the audible request may arrive earlier and have a larger amplitude than other instances associated with other microphones 214 that are farther away from the requesting user. By identifying the microphone 214 closest to the requester, the digital assistant application 128 can use the mapping between the seat 200 and the user to identify the requester.

デジタルアシスタントアプリケーション128(またはエントリ検知コンポーネント142)は、受け取られたセンサ信号(たとえばキーフォブ信号、少なくとも2つの別個のシートのセンサ信号、少なくとも2つのドアセンサ信号、少なくとも2つの運動センサ信号、点火システム信号、空気圧センサ信号、またはそれらの組合せ)を使用して、第1のユーザおよび第2のユーザが乗物に入ることを表す2つのエントリイベントを検知し得る。2つのエントリイベントは、第1のユーザおよび第2のユーザによる乗物の同時の占有に関連付けられ得る。エントリ認証コンポーネント144は、2つのエントリイベントに応答して、(たとえば第1のユーザに関連した)第1の複数の認証入力信号および(たとえば第2のユーザに関連した)第2の複数の認証入力信号を受け取ることができる。たとえば、第1の複数の認証入力信号および第2の複数の認証入力信号は、(たとえば個別のマイクロフォン214からの)少なくとも2つの入力音声信号、(たとえば個別のカメラ216からの)少なくとも2つのデジタル画像、(たとえば個別のモバイルクライアントデバイス150からの)少なくとも2つのモバイルデバイスID認証信号、キーフォブ信号、またはそれらの組合せを含むことができる。 The digital assistant application 128 (or the entry detection component 142) may use the received sensor signals (e.g., a key fob signal, at least two separate seat sensor signals, at least two door sensor signals, at least two motion sensor signals, an ignition system signal, an air pressure sensor signal, or a combination thereof) to detect two entry events representing a first user and a second user entering the vehicle. The two entry events may be associated with simultaneous occupancy of the vehicle by the first user and the second user. The entry authentication component 144 may receive a first plurality of authentication input signals (e.g., associated with the first user) and a second plurality of authentication input signals (e.g., associated with the second user) in response to the two entry events. For example, the first plurality of authentication input signals and the second plurality of authentication input signals may include at least two input audio signals (e.g., from separate microphones 214), at least two digital images (e.g., from separate cameras 216), at least two mobile device ID authentication signals (e.g., from separate mobile client devices 150), a key fob signal, or a combination thereof.

エントリ認証コンポーネント144は、第1の複数の認証入力信号と複数の認証情報のうちの認証情報の第1のセットとに基づいて、第1の複数の認証状態を判定することができる。エントリ認証コンポーネント144は、(第1のユーザに関連した)第1の複数の認証入力信号のそれぞれの認証入力信号を、(たとえば様々なタイプの認証入力信号に関して上記で説明されたように)複数の認証情報のうちの対応する認証情報に対して検査して、第1の複数の認証状態を判定することができる。エントリ認証コンポーネント144は、(第2のユーザに関連した)第2の複数の認証入力信号のそれぞれの認証入力信号を、複数の認証情報のうちの対応する認証情報に対して検査して、第2の複数の認証状態を判定することができる。 The entry authentication component 144 can determine a first plurality of authentication states based on the first plurality of authentication input signals and a first set of authentication information from the plurality of authentication information. The entry authentication component 144 can check each authentication input signal of the first plurality of authentication input signals (associated with a first user) against corresponding authentication information from the plurality of authentication information (e.g., as described above with respect to various types of authentication input signals) to determine the first plurality of authentication states. The entry authentication component 144 can check each authentication input signal of the second plurality of authentication input signals (associated with a second user) against corresponding authentication information from the plurality of authentication information to determine the second plurality of authentication states.

アクセス制御コンポーネント246は、第1の複数の認証状態に少なくとも部分的に基づいて(たとえば第1のユーザに関する)第1のアクセス許可レベルを識別することができ、また、第1のアクセス許可レベルに応答して、乗物130を介して利用可能な機能のセットのうちの第1のサブセットを識別することができる。アクセス制御コンポーネント246は、第1の複数の認証状態に基づいて、第1のユーザまたは対応するユーザカテゴリを識別することができ、また、アクセス許可レベルを対応する機能のサブセットにマッピングするデータ構造に基づいて、第1のアクセス許可レベルを識別することができる。同様に、アクセス制御コンポーネント246は、第2の複数の認証状態に少なくとも部分的に基づいて(たとえば第2のユーザに関する)第2のアクセス許可レベルを識別することができ、また、第2のアクセス許可レベルに応答して、乗物130を介して利用可能な機能のセットのうちの第2のサブセットを識別することができる。アクセス制御コンポーネント246は、第1のアクセス許可レベルおよび第2のアクセス許可レベルを判定することなく、判定された認証状態に少なくとも部分的に基づいて、機能のセットのうちの第1のサブセットおよび第2のサブセットを直接識別することができる。たとえば、アクセス制御コンポーネント246は、判定された認証状態に基づいて第1のユーザカテゴリおよび第2のユーザカテゴリを識別した後に、それぞれのユーザカテゴリを対応する機能のサブセットにマッピングするデータ構造にアクセスして、第1のサブセットおよび第2のサブセットを識別することができる。 The access control component 246 can identify a first permission level (e.g., for a first user) based at least in part on the first plurality of authentication states, and can identify a first subset of the set of features available via the vehicle 130 in response to the first permission level. The access control component 246 can identify a first user or a corresponding user category based on the first plurality of authentication states, and can identify the first permission level based on a data structure that maps the permission level to a corresponding subset of features. Similarly, the access control component 246 can identify a second permission level (e.g., for a second user) based at least in part on the second plurality of authentication states, and can identify a second subset of the set of features available via the vehicle 130 in response to the second permission level. The access control component 246 can directly identify the first and second subsets of the set of features based at least in part on the determined authentication states, without determining the first and second permission levels. For example, the access control component 246 may identify a first user category and a second user category based on the determined authentication status, and then access a data structure that maps each user category to a corresponding subset of capabilities to identify the first subset and the second subset.

デジタルアシスタントアプリケーション128は、第1のユーザに、機能の第1のサブセットへの乗物アクセスを与えることができ、第2のユーザに、機能の第2のサブセットへの乗物アクセスを与えることができる。第1のユーザに機能の第1のサブセットへのアクセスを与えるステップは、検証エンジン116が、第1のユーザによる要求に関連したアクションデータ構造をインターセプトして、対応するアクション(または要求された機能)が第1のサブセットの中の機能のいずれかと一致するかどうかを検査するステップを含み得る。一致が見つからなければ、検証エンジン116は、アクションデータ構造を削除して、対応するアクションまたは要求された機能を阻止することができ、デジタルアシスタントアプリケーション128は、アクセスの拒否を第1のユーザに通知するための音声出力を供給することができる。そうでなければ、デジタルアシスタントアプリケーション128は機能を遂行することができ、アクセスの許可または要求された機能の完了を表す音声出力を供給し得る。同様に、第2のユーザに機能の第2のサブセットへのアクセスを与えるステップは、検証エンジン116が、第2のユーザが要求した機能に関連したアクションデータ構造をインターセプトして、アクションデータ構造の対応するアクション(または要求された機能)を第2のサブセットの機能と比較するステップを含み得る。デジタルアシスタントアプリケーション128は、比較に基づいて、第2のユーザが要求した機能を遂行するかそれとも阻止するかを決定することができる。 The digital assistant application 128 can grant the first user vehicle access to a first subset of features and can grant the second user vehicle access to a second subset of features. Granting the first user access to the first subset of features can include the validation engine 116 intercepting an action data structure associated with the request by the first user to check whether the corresponding action (or requested function) matches any of the functions in the first subset. If no match is found, the validation engine 116 can delete the action data structure to block the corresponding action or requested function, and the digital assistant application 128 can provide an audio output to inform the first user of the denial of access. Otherwise, the digital assistant application 128 can perform the function and can provide an audio output representing the grant of access or the completion of the requested function. Similarly, giving the second user access to the second subset of functions may include the validation engine 116 intercepting an action data structure associated with the function requested by the second user and comparing the corresponding action (or requested function) of the action data structure with the functions of the second subset. Based on the comparison, the digital assistant application 128 can determine whether to perform or block the function requested by the second user.

デジタルアシスタントアプリケーション128は、(たとえばデータリポジトリ118または乗物130の記憶装置に記憶されている)データアカウントまたはメモリパーティションを監視してよい。デジタルアシスタントアプリケーション128が、対応するユーザの最後のエントリイベント(または最後のイグジットイベント)から所定の期間を超えないある期間にわたってデータアカウントまたはメモリパーティションの各々を維持し得るので、データアカウントまたはメモリパーティションは一時的なものでよい。デジタルアシスタントアプリケーション128は、それぞれのデータアカウントまたはメモリパーティションに関する個別の時間カウンタを維持することができる。デジタルアシスタントアプリケーション128は、データアカウントに関連したユーザによるエントリイベント(またはイグジットイベント)が検知されるのに応答して所与のデータアカウントに関する時間カウンタをリセットすることができる。時間カウンタが所定の期間(たとえば一週間、数週間、一か月、または数か月)を超えると、デジタルアシスタントアプリケーション128は対応するデータアカウントまたはメモリパーティション(またはそのデータ)を削除することができる。データアカウント(またはメモリパーティション)はローカルに記憶されるので、一時的データアカウントを使用すると乗物のメモリリソースを効率的に使用することができる。 The digital assistant application 128 may monitor data accounts or memory partitions (e.g., stored in the data repository 118 or the storage device of the vehicle 130). The data accounts or memory partitions may be temporary, as the digital assistant application 128 may maintain each of the data accounts or memory partitions for a period of time not exceeding a predetermined period from the last entry event (or last exit event) of the corresponding user. The digital assistant application 128 may maintain an individual time counter for each data account or memory partition. The digital assistant application 128 may reset the time counter for a given data account in response to detecting an entry event (or exit event) by a user associated with the data account. If the time counter exceeds a predetermined period (e.g., a week, a few weeks, a month, or several months), the digital assistant application 128 may delete the corresponding data account or memory partition (or its data). Because the data accounts (or memory partitions) are stored locally, the use of temporary data accounts allows for efficient use of the vehicle's memory resources.

デジタルアシスタントアプリケーション128(またはエントリ検知コンポーネント142)は、ユーザの乗物130からの退出を表すイグジットイベントを検知することができる。たとえば、エントリ検知コンポーネント142は、1つまたは複数の追加のセンサ信号(たとえば点火システム信号、シートセンサ信号、運動検知信号、空気圧信号、ドアセンサ信号、キーフォブ信号、またはそれらの組合せ)を受け取ることができる。1つまたは複数の追加のセンサ信号は、点火システムがオフになること、以前に占有されていたシート200が空いていること、乗物130の内部で検知される運動の低下、(たとえばドアの開閉時の)乗物130内部の空気圧における実質的な変化、ドアの開閉、ドアの遠隔ロック、またはそれらの組合せを表すことができる。エントリ検知コンポーネント142は、1つまたは複数の追加のセンサ信号に基づいて、ユーザが乗物130を退出するのを判定することができる。 The digital assistant application 128 (or the entry detection component 142) can detect an exit event representing a user's exit from the vehicle 130. For example, the entry detection component 142 can receive one or more additional sensor signals (e.g., an ignition system signal, a seat sensor signal, a motion detection signal, an air pressure signal, a door sensor signal, a key fob signal, or a combination thereof). The one or more additional sensor signals can represent an ignition system turning off, a previously occupied seat 200 being vacant, a reduction in motion detected inside the vehicle 130, a substantial change in air pressure inside the vehicle 130 (e.g., when a door is opened or closed), a door being opened or closed, a door being remotely locked, or a combination thereof. The entry detection component 142 can determine that a user is exiting the vehicle 130 based on the one or more additional sensor signals.

デジタルアシスタントアプリケーション128は、イグジットイベントに応答して乗物130の占有状態を更新することができる。たとえば、デジタルアシスタント128は、(たとえば追加のセンサ信号に基づいて)特定のユーザが乗物130から去ったと判定すると、乗物130内のシート200にマッピングされたユーザのリストからこのユーザを削除すること、対応するシート200を空席として設定すること、またはそれらの組合せによって、乗物の占有状態を更新することができる。デジタルアシスタントアプリケーション128は、占有状態の更新に応答して、退去したユーザのデータアカウントに関連した時間カウンタをリセットすることができる。デジタルアカウントアシスタントは、退去したユーザに関連した一時的データアカウント(またはメモリパーティション)を暗号化し得る。デジタルアシスタントアプリケーション128は、同じユーザが(そのユーザによる新規のエントリイベントの後に)乗物130の中で再び認証されるまで、乗物130を去ったユーザに関連した一時的データアカウントをアクセス不可能なものと設定することができる。 The digital assistant application 128 can update the occupancy status of the vehicle 130 in response to an exit event. For example, when the digital assistant 128 determines that a particular user has left the vehicle 130 (e.g., based on additional sensor signals), the digital assistant application 128 can update the occupancy status of the vehicle by removing the user from a list of users mapped to seats 200 in the vehicle 130, setting the corresponding seats 200 as vacant, or a combination thereof. In response to the occupancy update, the digital assistant application 128 can reset a time counter associated with the data account of the exiting user. The digital account assistant can encrypt a temporary data account (or memory partition) associated with the exiting user. The digital assistant application 128 can set the temporary data account associated with the user who left the vehicle 130 as inaccessible until the same user is authenticated again in the vehicle 130 (after a new entry event by that user).

モバイルクライアントデバイス150は、デジタルアシスタントアプリケーション128の対応するインスタンスを含む対応するデータ処理システム(どちらも図1には示されていない)を含むことができる。モバイルクライアントデバイス150に関連したデータ処理システムおよびデジタルアシスタントアプリケーション128は、遠隔データ処理システム102および乗物データ処理システム140に関して論じられたものと類似のコンポーネントを含み得る。 Mobile client device 150 may include a corresponding data processing system (neither shown in FIG. 1) that includes a corresponding instance of digital assistant application 128. The data processing system and digital assistant application 128 associated with mobile client device 150 may include components similar to those discussed with respect to remote data processing system 102 and vehicle data processing system 140.

乗物データ処理システム140に関して上記で説明された処理(たとえば多要素認証および乗物130を介して利用可能な機能へのアクセス制御に関係のある処理)は、遠隔データ処理システム102またはクライアントデバイス150のデータ処理システムによって遂行され得る。たとえば、乗物データ処理システム140(または対応するデジタルアシスタントアプリケーション128)は、センサ信号、認証入力信号、またはそれらの組合せを受け取って、(たとえばクライアントデバイス150を介して)遠隔データ処理システム102に、またはクライアントデバイス150に関連したデータ処理システムに、伝送し得る。エントリイベントの検知、多要素認証、またはアクセス許可レベルもしくはアクセス可能な機能の判定は、遠隔データ処理システム102またはクライアントデバイス150に関連したデータ処理システムによって遂行され得る。 The processes described above with respect to the vehicle data processing system 140 (e.g., processes related to multi-factor authentication and access control to features available via the vehicle 130) may be performed by the remote data processing system 102 or a data processing system of the client device 150. For example, the vehicle data processing system 140 (or a corresponding digital assistant application 128) may receive and transmit (e.g., via the client device 150) a sensor signal, an authentication input signal, or a combination thereof to the remote data processing system 102 or to a data processing system associated with the client device 150. Detection of an entry event, multi-factor authentication, or determination of access permission levels or accessible features may be performed by the remote data processing system 102 or a data processing system associated with the client device 150.

図3は、乗物エントリイベントの多要素エントリ認証の例示の方法300を示すものである。方法300は、乗物に設置された第1のセンサによって取得された少なくとも1つのセンサ信号を受け取るステップ(ブロック302)を含むことができる。方法300は、少なくとも1つのセンサ信号に基づいて、乗物へのエントリイベントを判定するステップ(ブロック304)を含むことができる。方法300は、乗物へのエントリイベントに応答して、第1の認証入力信号および第2の認証入力信号を受け取るステップ(ブロック306)を含むことができる。方法300は、第1の認証入力信号と複数の認証情報のうちの第1の認証情報とに基づいて、第1の認証状態を判定するステップ(ブロック308)を含むことができる。方法300は、第2の認証入力信号と複数の認証情報のうちの第2の認証情報とに基づいて、第2の認証状態を判定するステップ(ブロック310)を含むことができる。方法300は、第1の認証状態および第2の認証状態に少なくとも部分的に基づき、複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別するステップ(ブロック312)を含むことができる。方法300は、アクセス許可レベルに応答して、乗物を介して利用可能な機能のセットのサブセットを識別するステップ(ブロック314)を含むことができる。方法300は、データ処理システムが、機能のサブセットへの乗物アクセスを提供するステップ(ブロック316)を含むことができる。一般に、方法300は、図1および図2のコンポーネントに関して論じられたステップのうちの任意のものを含むことができる。 3 illustrates an example method 300 of multi-factor entry authentication of a vehicle entry event. The method 300 may include receiving at least one sensor signal acquired by a first sensor installed in the vehicle (block 302). The method 300 may include determining an entry event into the vehicle based on the at least one sensor signal (block 304). The method 300 may include receiving a first authentication input signal and a second authentication input signal in response to the entry event into the vehicle (block 306). The method 300 may include determining a first authentication state based on the first authentication input signal and a first authentication information of the plurality of authentication information (block 308). The method 300 may include determining a second authentication state based on the second authentication input signal and a second authentication information of the plurality of authentication information (block 310). Method 300 may include identifying a permission level of a plurality of permission levels based at least in part on the first authentication state and the second authentication state (block 312). Method 300 may include identifying a subset of a set of functions available via the vehicle in response to the permission level (block 314). Method 300 may include the data processing system providing the vehicle access to the subset of functions (block 316). In general, method 300 may include any of the steps discussed with respect to the components of FIGS. 1 and 2.

図1~図3を参照して、方法300は、デジタルアシスタントを含むデータ処理システムが、乗物に設置された第1のセンサによって取得された少なくとも1つのセンサ信号を受け取るステップ(ブロック302)を含むことができる。データ処理システムは、遠隔データ処理システム102と、乗物データ処理システム140またはモバイルクライアントデバイス150に関連したデータ処理システムとを含むことができる。データ処理システムは、たとえばキーフォブ受信器デバイス210からのキーフォブ信号、ドアセンサ204からのドアセンサ信号、シートセンサ202からのシートセンサ信号、運動センサ206からの運動センサ信号、空気圧センサからの圧力信号、乗物点火システムからの点火信号(たとえば点火システムのオン状態を表す)またはそれらの組合せを受け取ることができる。 Referring to FIGS. 1-3, the method 300 can include a step (block 302) in which a data processing system including the digital assistant receives at least one sensor signal acquired by a first sensor installed in the vehicle. The data processing system can include a remote data processing system 102 and a data processing system associated with the vehicle data processing system 140 or the mobile client device 150. The data processing system can receive, for example, a key fob signal from the key fob receiver device 210, a door sensor signal from the door sensor 204, a seat sensor signal from the seat sensor 202, a motion sensor signal from the motion sensor 206, a pressure signal from an air pressure sensor, an ignition signal from a vehicle ignition system (e.g., indicative of an on state of the ignition system), or a combination thereof.

方法300は、データ処理システムが、少なくとも1つのセンサ信号に基づいて、乗物130へのエントリイベントを判定するステップ(ブロック304)を含むことができる。エントリイベントは、ユーザが乗物130に入ることを表し得る。データ処理システムは、単一タイプのセンサ136からのセンサ信号に基づいてエントリイベントを判定してよく、または2つ以上のタイプのセンサ136からのセンサ信号(たとえば点火信号およびシートセンサ信号)に基づいてエントリイベントを判定してよい。データ処理システムは、1つまたは複数の決定ルールまたは決定グラフを使用してエントリイベントを判定し得る。決定ルールまたは決定グラフは、エントリイベントの発生を意味するセンサ信号の組合せを表すことができる。 The method 300 may include a step (block 304) of the data processing system determining an entry event into the vehicle 130 based on at least one sensor signal. The entry event may represent a user entering the vehicle 130. The data processing system may determine the entry event based on a sensor signal from a single type of sensor 136, or may determine the entry event based on sensor signals from two or more types of sensors 136 (e.g., an ignition signal and a seat sensor signal). The data processing system may determine the entry event using one or more decision rules or decision graphs. The decision rule or decision graph may represent a combination of sensor signals that signifies the occurrence of an entry event.

方法300は、データ処理システムが、乗物へのエントリイベントに応答して、第1の認証入力信号および第2の認証入力信号を受け取るステップ(ブロック306)を含むことができる。第1の認証入力信号および第2の認証入力信号は、乗物130に関連した少なくとも1つの別のセンサ(たとえばキーフォブ受信器デバイス210、マイクロフォン314、カメラ216、または通信トランシーバ218)によって取得され得る。データ処理システムは2つ以上の認証入力信号を受け取り得る。2つ以上の認証入力信号は、少なくとも2つの異なるタイプのセンサによって取得された別個のタイプでよい。たとえば、エントリ認証コンポーネント144は、(1)キーフォブ受信器デバイス210からのキーフォブ認証信号、(2)対応するモバイルクライアントデバイス(たとえばスマートフォン、タブレット、またはスマートウォッチ)150からのモバイルデバイス識別子(ID)認証信号、(3)マイクロフォン214からの音声入力信号、または(4)カメラ216からのデジタル画像のうちの少なくとも2つを受け取ることができる。データ処理システムは、(図1および図2に関して上記で論じられたように)エントリイベントに応答して、対応する認証入力信号を供給するために、乗物130に関連した2つ以上のプロセッサ(または電子デバイス)をトリガすることができる。 The method 300 may include a step (block 306) of the data processing system receiving a first authentication input signal and a second authentication input signal in response to an entry event into the vehicle. The first authentication input signal and the second authentication input signal may be obtained by at least one other sensor (e.g., the key fob receiver device 210, the microphone 314, the camera 216, or the communication transceiver 218) associated with the vehicle 130. The data processing system may receive two or more authentication input signals. The two or more authentication input signals may be of separate types obtained by at least two different types of sensors. For example, the entry authentication component 144 may receive at least two of: (1) a key fob authentication signal from the key fob receiver device 210, (2) a mobile device identifier (ID) authentication signal from a corresponding mobile client device (e.g., a smartphone, tablet, or smartwatch) 150, (3) an audio input signal from the microphone 214, or (4) a digital image from the camera 216. The data processing system may trigger two or more processors (or electronic devices) associated with the vehicle 130 to provide corresponding authentication input signals in response to an entry event (as discussed above with respect to FIGS. 1 and 2).

方法300は、データ処理システムが、第1の認証入力信号と複数の認証情報のうちの第1の認証情報とに基づいて、第1の認証状態を判定するステップ(ブロック308)と、第2の認証入力信号と複数の認証情報のうちの第2の認証情報とに基づいて、第2の認証状態を判定するステップ(ブロック310)とを含むことができる。第1の認証状態と第2の認証状態の両方を判定するステップは、多要素認証処理と捉えられ得る。データ処理システムは、受け取られた認証入力信号の数に依拠して、2つを超える認証状態を判定し得る。データ処理システムは、受け取られた認証入力信号の各々について、個別の認証を遂行して対応する認証状態を判定することができる。それぞれの認証状態が、対応する認証が成功するか否かを表すことができる。データ処理システムが、その認証に基づいて特定のユーザまたはユーザカテゴリを識別することができるなら、認証は成功し得る。認証が成功すると、認証状態は、識別されたユーザまたはユーザカテゴリを表すことができる。認証が成功すると、認証状態は、それぞれの識別されたユーザまたはユーザカテゴリに関する確率値を表し得る。認証が不成功であると、対応する認証状態は、不成功の理由(たとえば不適当な認証入力信号または一致する認証情報の欠如)を表し得る。様々なタイプの認証入力信号について認証状態を判定する処理は、図1および図2に関して上記で説明されている。 The method 300 may include a step (block 308) of the data processing system determining a first authentication state based on the first authentication input signal and the first authentication information of the plurality of authentication information, and a step (block 310) of determining a second authentication state based on the second authentication input signal and the second authentication information of the plurality of authentication information. The step of determining both the first authentication state and the second authentication state may be considered as a multi-factor authentication process. The data processing system may determine more than two authentication states depending on the number of authentication input signals received. The data processing system may perform a separate authentication for each of the received authentication input signals to determine a corresponding authentication state. Each authentication state may represent whether the corresponding authentication is successful or not. If the data processing system can identify a particular user or user category based on the authentication, the authentication may be successful. If the authentication is successful, the authentication state may represent an identified user or user category. If the authentication is successful, the authentication state may represent a probability value for each identified user or user category. If the authentication is unsuccessful, the corresponding authentication status may indicate the reason for the failure (e.g., an improper authentication input signal or lack of matching authentication information). The process of determining the authentication status for various types of authentication input signals is described above with respect to Figures 1 and 2.

方法300は、データ処理システムが、第1の認証状態および第2の認証状態に少なくとも部分的に基づき、複数のアクセス許可レベルのうちの1つのアクセス許可レベルを識別するステップ(ブロック312)を含むことができる。方法300は、データ処理システムが、アクセス許可レベルに応答して、乗物を介して利用可能な機能のセットのサブセットを識別するステップ(ブロック314)を含むことができる。データ処理システムは、判定された認証状態に基づいて、特定のユーザまたは複数のユーザカテゴリのそれぞれのユーザカテゴリを識別することができる。たとえば、データ処理システムは、様々な認証状態の情報(たとえば、ユーザまたはユーザカテゴリおよび適用可能であれば対応する確率値の指示)を比較して、乗物130を占有している個人に関連した最終的なユーザアイデンティティまたはユーザカテゴリを識別することができる。複数のユーザカテゴリは、たとえば「所有者」、「家族:大人」、「家族:子供」、「友人」、「新規ユーザ」、またはそれらの組合せを含み得る。データ処理システムは、それぞれのユーザまたはユーザカテゴリを対応するアクセス許可レベルにマッピングするデータ構造に基づいて、判定された最終的なユーザアイデンティティまたはユーザカテゴリに関連したアクセス許可レベルを判定することができる。データ処理システムは、それぞれのアクセス許可レベルを機能の対応するサブセットにマッピングする別のデータ構造に基づいて、機能のサブセットを識別することができる。 The method 300 may include the data processing system identifying a permission level of a plurality of permission levels based at least in part on the first authentication state and the second authentication state (block 312). The method 300 may include the data processing system identifying a subset of a set of functions available via the vehicle in response to the permission level (block 314). The data processing system may identify a particular user or a respective user category of a plurality of user categories based on the determined authentication state. For example, the data processing system may compare information (e.g., an indication of a user or user category and corresponding probability value, if applicable) of the various authentication states to identify a final user identity or user category associated with an individual occupying the vehicle 130. The plurality of user categories may include, for example, “Owner”, “Family: Adult”, “Family: Child”, “Friend”, “New User”, or combinations thereof. The data processing system may determine a permission level associated with the determined final user identity or user category based on a data structure mapping each user or user category to a corresponding permission level. The data processing system can identify the subset of capabilities based on another data structure that maps each access permission level to a corresponding subset of capabilities.

乗物130を介して利用可能な機能のセットは、乗物130の記憶装置に記憶されたデータ(たとえばデータアカウントまたはメモリパーティションに関連したデータ)にアクセスすること、ローカルに記憶された再生リストにアクセスすること、ローカルに記憶された媒体ファイル(または無線チャネル)のレンダリングを制御すること、乗物の窓またはドアを作動させること、乗物のドアをロックまたはロック解除すること、乗物のエアコン(AC)の設定を調節すること、住宅の車庫のドアを遠隔で開閉すること、住宅関連の設定(たとえば住宅AC、ホームセキュリティシステム、スプリンクラ、またはそれらの組合せ)を制御または調節すること、オンラインサービスまたはモバイルアプリケーション(たとえばオンラインのストリーミングまたはダウンロード、オンラインショッピング、または電子メール)にアクセスすること、またはそれらの組合せなど、データ処理システムのデジタルアシスタントアプリケーション128によって遂行され得る機能またはタスクを含むことができる。ブロック312および314における各行為は、第1の認証状態および第2の認証状態に基づいて機能のサブセットを判定する(たとえばアクセス許可レベルを判定するステップのない)単一のステップへと組み合わされ得る。 The set of functions available via the vehicle 130 may include functions or tasks that may be performed by the digital assistant application 128 of the data processing system, such as accessing data stored on the storage device of the vehicle 130 (e.g., data associated with a data account or memory partition), accessing a locally stored playlist, controlling the rendering of a locally stored media file (or radio channel), operating a vehicle window or door, locking or unlocking a vehicle door, adjusting an air conditioning (AC) setting on the vehicle, remotely opening and closing a residential garage door, controlling or adjusting a residential related setting (e.g., residential AC, home security system, sprinklers, or combinations thereof), accessing online services or mobile applications (e.g., online streaming or downloading, online shopping, or email), or combinations thereof. Each of the acts in blocks 312 and 314 may be combined into a single step of determining a subset of functions based on the first authentication state and the second authentication state (e.g., without a step of determining an access permission level).

方法300は、データ処理システムが、機能のサブセットへの乗物アクセスを提供するステップ(ブロック316)を含むことができる。データ処理システムは、乗物130のユーザから可聴の要求を受け取って、対応する要求されたアクションまたは機能を識別することができる。データ処理システムは、要求された機能を表すアクションデータ構造を生成し、要求された機能を、要求者のアクセス許可レベルにマッピングされた機能のサブセットと比較して、要求された機能を許可するべきかそれとも拒否するべきか判定する。データ処理システムは、(図1および図2に関して上記で論じられたように)比較に基づいて、要求された機能を実行するかまたは実行を阻止することができる。 Method 300 may include a step (block 316) of the data processing system providing vehicle access to the subset of functions. The data processing system may receive an audible request from a user of the vehicle 130 and identify a corresponding requested action or function. The data processing system generates an action data structure representing the requested function and compares the requested function to the subset of functions mapped to the requester's access permission level to determine whether the requested function should be allowed or denied. The data processing system may perform or prevent the requested function based on the comparison (as discussed above with respect to Figures 1 and 2).

図1および図2に関して上記で説明されたように、データ処理システムは、個別のユーザまたはユーザカテゴリに関連したデータを複数の個別の一時的データアカウント(または一時的メモリパーティション)に配置し、所定の期間にわたって対応するエントリイベントのない任意のデータアカウント(またはメモリパーティション)を削除することができる。データ処理システムは、たとえば対応するユーザまたはユーザカテゴリを指定するセキュリティキーを使用して、それぞれのデータアカウントまたはメモリパーティションを別個に暗号化することができる。セキュリティキーは、たとえば対応するユーザに関連した情報(たとえばモバイルデバイスまたは他の識別子)をハッシュすることによって定義され得る(または生成され得る)。データ処理システムは、追加のセンサ信号に基づいてイグジットイベントを検知して、イグジットイベントに基づいて乗物の占有状態を更新することができる。 As described above with respect to Figures 1 and 2, the data processing system may place data associated with individual users or user categories into multiple separate temporary data accounts (or temporary memory partitions) and delete any data accounts (or memory partitions) that do not have a corresponding entry event for a predetermined period of time. The data processing system may separately encrypt each data account or memory partition, for example, with a security key that specifies the corresponding user or user category. The security key may be defined (or generated), for example, by hashing information associated with the corresponding user (e.g., a mobile device or other identifier). The data processing system may detect an exit event based on additional sensor signals and update the occupancy status of the vehicle based on the exit event.

データ処理システムは、2人(以上)のユーザが乗物に入ることを表す2つ(以上)のエントリイベントを検知することができる。検知されたエントリイベントは、2人(以上)のユーザによる乗物130の同時の占有につながる可能性がある。データ処理システムは、図1および図2に関して上記で論じられたように、ユーザの各々について認証入力信号を受け取り、それぞれのユーザについて(識別された複数の認証状態を用いて)個別の多要素認証を遂行することができる。データ処理システムは、それぞれのユーザのアクセス可能な機能の個別のアクセス許可レベルおよび個別のサブセットを判定することができる。データ処理システムは、次いで、機能の対応するサブセットへのそれぞれのユーザアクセスを許可することができる。 The data processing system may detect two (or more) entry events representing two (or more) users entering the vehicle. The detected entry events may result in simultaneous occupancy of the vehicle 130 by the two (or more) users. The data processing system may receive an authentication input signal for each of the users and perform an individual multi-factor authentication (with the identified multiple authentication states) for each user, as discussed above with respect to Figures 1 and 2. The data processing system may determine an individual access permission level and individual subset of accessible functionality for each user. The data processing system may then grant each user access to a corresponding subset of functionality.

図4は例示のコンピュータシステム400のブロック図である。コンピュータシステムまたはコンピュータデバイス400は、システム100、または遠隔データ処理システム102、乗物データ処理システム140、もしくはモバイルクライアントデバイス150に関連したデータ処理システムなどシステム100のコンポーネントを含み得、またはそれらを実施するために使用され得る。コンピュータシステム400は、情報を通信するためのバス405または他の通信コンポーネントと、バス405に結合された、情報を処理するためのプロセッサ410または処理回路とを含む。コンピュータシステム400は、バスに結合された、情報を処理するための1つまたは複数のプロセッサ410または処理回路も含むことができる。コンピュータシステム400はまた、バス405に結合された、情報とプロセッサ410によって実行される命令とを記憶するためのランダムアクセスメモリ(RAM)または他の動的記憶デバイスなどのメインメモリ415を含む。メインメモリ415はデータリポジトリ118であり得、またはデータリポジトリ118を含むことができる。メインメモリ415はまた、プロセッサ410によって、命令の実行中に、位置情報、一時変数、または他の中間情報を記憶するために使用され得る。コンピュータシステム400は、バス405に結合された、静的情報およびプロセッサ410向けの命令を記憶するための読み取り専用メモリ(ROM)420または他の静的記憶デバイスをさらに含み得る。ソリッドステートデバイス、磁気ディスクまたは光ディスクなどの記憶デバイス425はバス405に結合され得、情報および命令を持続的に記憶する。記憶デバイス425はデータリポジトリ118を含み得、またはその一部分であり得る。 4 is a block diagram of an example computer system 400. The computer system or device 400 may include or be used to implement system 100 or a component of system 100, such as a data processing system associated with remote data processing system 102, vehicle data processing system 140, or mobile client device 150. The computer system 400 includes a bus 405 or other communication component for communicating information and a processor 410 or processing circuitry coupled to the bus 405 for processing information. The computer system 400 may also include one or more processors 410 or processing circuitry coupled to the bus for processing information. The computer system 400 also includes a main memory 415, such as a random access memory (RAM) or other dynamic storage device, coupled to the bus 405 for storing information and instructions executed by the processor 410. The main memory 415 may be or include the data repository 118. The main memory 415 may also be used by the processor 410 to store location information, temporary variables, or other intermediate information during execution of instructions. The computer system 400 may further include a read-only memory (ROM) 420 or other static storage device coupled to the bus 405 for storing static information and instructions for the processor 410. A storage device 425, such as a solid-state device, magnetic disk, or optical disk, may be coupled to the bus 405 for persistently storing information and instructions. The storage device 425 may include or be part of the data repository 118.

コンピュータシステム400は、ユーザに情報を表示するための液晶ディスプレイまたはアクティブマトリクスディスプレイなどのディスプレイ435に対してバス405を介して結合され得る。英数字および他のキーを含むキーボードなどの入力デバイス430は、プロセッサ410に対して情報および命令の選択を通信するためのバス405に結合されてよい。入力デバイス430はタッチスクリーンディスプレイ435を含むことができる。入力デバイス430は、プロセッサ410に対して指示情報および命令選択を通信するため、およびディスプレイ435上のカーソル移動を制御するための、マウス、トラックボール、またはカーソル方向キーなどのカーソル制御も含むことができる。ディスプレイ435は、たとえばデータ処理システム102、クライアントコンピュータデバイス150、乗物130のヘッドユニット220、または図1および図2の他のコンポーネントの一部分であり得る。 The computer system 400 may be coupled via a bus 405 to a display 435, such as a liquid crystal display or active matrix display, for displaying information to a user. An input device 430, such as a keyboard including alphanumeric and other keys, may be coupled to the bus 405 for communicating information and command selections to the processor 410. The input device 430 may include a touch screen display 435. The input device 430 may also include a cursor control, such as a mouse, trackball, or cursor direction keys, for communicating instructional information and command selections to the processor 410 and for controlling cursor movement on the display 435. The display 435 may be part of, for example, the data processing system 102, the client computing device 150, the head unit 220 of the vehicle 130, or other components of FIGS. 1 and 2.

本明細書で説明された処理、システムおよび方法は、プロセッサ410がメインメモリ415に保持された命令の配列を実行するのに応答して、コンピュータシステム400によって実施され得るものである。そのような命令は、記憶デバイス425などの別のコンピュータ可読媒体からメインメモリ415に読み込まれ得る。メインメモリ415に保持された命令の配列が実行されると、コンピュータシステム400が、本明細書で説明された例示の処理を遂行する。メインメモリ415に保持された命令を実行するために、多重処理機構における1つまたは複数のプロセッサも採用され得る。配線接続された回路が、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて、本明細書で説明したシステムおよび方法とともに使用され得る。本明細書で説明されたシステムおよび方法は、ハードウェア回路とソフトウェアのいかなる特定の組合せにも限定されない。 The processes, systems, and methods described herein may be implemented by computer system 400 in response to processor 410 executing sequences of instructions stored in main memory 415. Such instructions may be read into main memory 415 from another computer-readable medium, such as storage device 425. Execution of the sequences of instructions stored in main memory 415 causes computer system 400 to perform the exemplary processes described herein. One or more processors in a multiprocessing arrangement may also be employed to execute the instructions stored in main memory 415. Hardwired circuitry may be used in place of or in combination with software instructions with the systems and methods described herein. The systems and methods described herein are not limited to any particular combination of hardware circuitry and software.

図4には例示のコンピュータシステムが説明されているが、本明細書で説明された動作を含む主題は、他のタイプのデジタル電子回路、またはコンピュータソフトウェア、ファームウェア、もしくは本明細書で開示された構造を含むハードウェアおよびそれらの構造的等価物、またはそれらのうちの1つまたは複数の組合せで実施され得る。 Although an example computer system is illustrated in FIG. 4, the subject matter including the operations described herein may be implemented in other types of digital electronic circuitry, or in computer software, firmware, or hardware including the structures disclosed herein and their structural equivalents, or in combinations of one or more of them.

本明細書で説明された主題および動作は、デジタル電子回路、またはコンピュータソフトウェア、ファームウェア、もしくは本明細書で開示された構造を含むハードウェアおよびそれらの構造的等価物、またはそれらのうちの1つまたは複数の組合せで実施され得る。本明細書で説明された主題は、データ処理装置によって実行するように、またはデータ処理装置の動作を制御するように、たとえば1つまたは複数のコンピュータ記憶媒体上に符号化された1つまたは複数のコンピュータプログラム命令の回路といった、1つまたは複数のコンピュータプログラムとして実施され得る。その代わりに、またはそれに加えて、プログラム命令は、たとえばデータ処理装置によって実行するために適切な受信器装置へ伝送する情報を符号化するように生成されたマシン生成の電気信号、光信号、または電磁気信号といった、人為的に生成されて伝搬される信号上に符号化され得る。コンピュータ記憶媒体は、コンピュータ可読記憶デバイス、コンピュータ可読記憶基板、ランダムアクセスまたはシリアルアクセスのメモリアレイもしくはデバイス、またはそれらのうちの1つまたは複数の組合せであり得、またはそれに含まれ得る。コンピュータ記憶媒体は伝搬する信号ではないが、人為的に生成されて伝搬する信号における符号化されたコンピュータプログラム命令の供給源または送付先になり得る。コンピュータ記憶媒体はまた、1つまたは複数の個別のコンポーネントまたは媒体(たとえば複数のCD、ディスクまたは他の記憶デバイス)であり得、またはこれらに含まれ得る。本明細書で説明された動作は、1つまたは複数のコンピュータ可読記憶デバイスに記憶されたデータまたは他の供給源から受け取られたデータに基づいて、データ処理装置によって遂行される動作として実施され得る。 The subject matter and operations described herein may be implemented in digital electronic circuitry, or in computer software, firmware, or hardware including the structures disclosed herein and structural equivalents thereof, or in combinations of one or more of them. The subject matter described herein may be implemented as one or more computer programs, e.g., circuits of one or more computer program instructions encoded on one or more computer storage media for execution by or to control the operation of a data processing device. Alternatively, or in addition, the program instructions may be encoded on an artificially generated propagated signal, e.g., a machine-generated electrical, optical, or electromagnetic signal generated to encode information for transmission to a suitable receiver device for execution by the data processing device. The computer storage medium may be, or may be included in, a computer-readable storage device, a computer-readable storage substrate, a random-access or serial-access memory array or device, or a combination of one or more of them. Although the computer storage medium is not a propagating signal, it may be a source or destination of computer program instructions encoded in an artificially generated propagating signal. A computer storage medium may also be or be included in one or more separate components or media (e.g., multiple CDs, disks, or other storage devices). Operations described herein may be implemented as operations performed by a data processing apparatus based on data stored in one or more computer-readable storage devices or data received from other sources.

「データ処理システム」、「コンピュータデバイス」、「コンポーネント」、または「データ処理装置」という用語は、データを処理するための、様々な装置、デバイス、およびマシンを包含するものであり、例としてプログラマブルプロセッサ、コンピュータ、システムオンチップ、もしくはそれらの複数、または前述のものの組合せを含む。上記の装置は、たとえばFPGA(フィールドプログラマブルゲートアレイ)、またはASIC(特定用途向け集積回路)といった専用論理回路を含むことができる。上記の装置は、ハードウェアに加えて、たとえばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、プラットホームにわたる実行時環境、仮想マシン、またはそれらのうちの1つまたは複数の組合せを構成するコードといった、当のコンピュータプログラムの実行環境を生成するコードも含むことができる。上記の装置および実行環境は、ウェブサービス、分散コンピューティング、およびグリッドコンピューティングのインフラストラクチュアなど、様々な異なるコンピューティングモデルのインフラストラクチュアを実現することができる。システム100のコンポーネントは、1つまたは複数のデータ処理装置、システム、コンピュータデバイス、またはプロセッサを含むかまたは共用することができる。 The terms "data processing system", "computer device", "component", or "data processing apparatus" encompass a variety of apparatuses, devices, and machines for processing data, including, for example, a programmable processor, a computer, a system on a chip, or a combination of the foregoing. Such apparatuses may include special purpose logic circuitry, such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC). In addition to hardware, such apparatuses may also include code that creates an execution environment for the computer program in question, such as code that constitutes a processor firmware, a protocol stack, a database management system, an operating system, a platform-wide runtime environment, a virtual machine, or one or more combinations thereof. Such apparatuses and execution environments may provide infrastructure for a variety of different computing models, such as infrastructures for web services, distributed computing, and grid computing. The components of system 100 may include or share one or more data processing apparatuses, systems, computer devices, or processors.

コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、app、スクリプト、またはコードとしても知られている)は、コンパイル型言語またはインタープリタ型言語、宣言型言語または手続き型言語を含む任意の形式のプログラム言語で書かれ得、スタンドアロンのプログラムまたはモジュールとして、コンポーネント、サブルーチン、オブジェクト、もしくはコンピュータ環境で用いるのに適切な他のユニットを含む任意の形態で配備され得る。コンピュータプログラムはファイルシステムのファイルに対応し得る。コンピュータプログラムは、他のプログラムまたはデータを保有するファイルの一部分(たとえばマークアップ言語のドキュメントに記憶された1つまたは複数のスクリプト)、当のプログラムに専用の単一ファイル、または複数の協調ファイル(たとえば1つまたは複数のモジュール、サブプログラム、またはコードの一部分を記憶するファイル)に記憶され得る。コンピュータプログラムは、1つのコンピュータ上で、または1つのサイトに配置された、もしくは複数のサイトに分散して通信ネットワークで相互に接続された、複数のコンピュータ上で、実行されるように配備され得る。 A computer program (also known as a program, software, software application, app, script, or code) may be written in any type of programming language, including compiled or interpreted, declarative or procedural, and may be deployed in any form, including as a stand-alone program or module, or as a component, subroutine, object, or other unit suitable for use in a computing environment. A computer program may correspond to a file in a file system. A computer program may be stored as part of a file that holds other programs or data (e.g., one or more scripts stored in a markup language document), in a single file dedicated to the program in question, or in multiple cooperating files (e.g., files that store one or more modules, subprograms, or portions of code). A computer program may be deployed to be executed on one computer, or on multiple computers located at one site or distributed across multiple sites and interconnected by a communications network.

本明細書で説明された処理および論理の流れは、入力データに作用して出力を生成することによりアクションを遂行する1つまたは複数のコンピュータプログラム(たとえば遠隔データ処理システム102、乗物データ処理システム140、またはモバイルクライアントデバイス150に関連したデータ処理システムのコンポーネント)を実行する1つまたは複数のプログラマブルプロセッサによって遂行され得るものである。上記の処理および論理の流れは、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)といった専用論理回路によっても遂行され得、各装置もこれらとして実施され得る。コンピュータプログラム命令およびデータを記憶するのに適切なデバイスは、すべての形態の不揮発性のメモリ、媒体および記憶デバイスを含み、例として、たとえばEPROM、EEPROM、フラッシュメモリ素子といった半導体メモリ素子、たとえば内部ハードディスク、取外し可能ディスクといった磁気ディスク、光磁気ディスク、ならびにCD ROMおよびDVD-ROMディスクを含む。プロセッサおよびメモリは、専用論理回路によって補われ得、またはこれに組み込まれ得る。 The process and logic flows described herein may be performed by one or more programmable processors executing one or more computer programs (e.g., components of a data processing system associated with the remote data processing system 102, the vehicle data processing system 140, or the mobile client device 150) that perform actions by operating on input data to generate output. The process and logic flows described above may also be performed by, and each apparatus may be implemented as, special purpose logic circuitry, such as, for example, an FPGA (field programmable gate array) or an ASIC (application specific integrated circuit). Devices suitable for storing computer program instructions and data include all forms of non-volatile memory, media, and storage devices, including, by way of example, semiconductor memory elements, such as, for example, EPROM, EEPROM, flash memory elements, magnetic disks, such as, for example, internal hard disks, removable disks, magneto-optical disks, and CD ROM and DVD-ROM disks. The processor and memory may be supplemented by, or incorporated in, special purpose logic circuitry.

本明細書で説明された主題は、たとえばデータサーバとしてのバックエンドコンポーネントを含むコンピュータシステム、またはたとえばアプリケーションサーバといったミドルウェアコンポーネントを含むコンピュータシステム、またはたとえばユーザと本明細書で説明された主題の実装形態との相互作用を可能にするグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータといったフロントエンドコンポーネントを含むコンピュータシステム、あるいはそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、またはフロントエンドコンポーネントのうちの1つまたは複数の組合せで実施され得る。システムのコンポーネントは、たとえば通信ネットワークといった任意の形式のデジタルデータ通信の媒体によって相互に接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、相互接続ネットワーク(たとえばインターネット)、およびピアツーピアネットワーク(たとえばアドホックなピアツーピアネットワーク)を含む。 The subject matter described herein may be implemented in a computer system including a back-end component, e.g., as a data server, or a middleware component, e.g., an application server, or a front-end component, e.g., a client computer having a graphical user interface or web browser that allows a user to interact with an implementation of the subject matter described herein, or a combination of one or more of such back-end, middleware, or front-end components. The components of the system may be interconnected by any form of medium of digital data communication, e.g., a communications network. Examples of communications networks include a local area network ("LAN"), a wide area network ("WAN"), an interconnected network (e.g., the Internet), and a peer-to-peer network (e.g., an ad-hoc peer-to-peer network).

システム100またはシステム400などのコンピュータシステムはクライアントおよびサーバを含むことができる。クライアントおよびサーバは、一般的には互いに遠隔であり、一般的には通信ネットワーク(たとえばネットワーク148)を通じて相互作用する。クライアントとサーバの関係は、互いにクライアントとサーバの関係を伴ってそれぞれのコンピュータ上で実行されるコンピュータプログラムによって生じる。いくつかの実装形態では、サーバは、(たとえばクライアントデバイスと相互作用するユーザにデータを表示してユーザ入力を受け取るために)クライアントモバイルデバイス150または乗物130のヘッドユニット220にデータ(たとえばコンテンツアイテムを表すデータパケット)を伝送する。モバイルクライアントデバイス150または乗物データ処理システム140において生成されたデータ(たとえばユーザとの相互作用の結果)は、サーバに受け取られ得る(たとえばデータ処理システム102によってモバイルクライアントデバイス150または乗物130から受け取られる)。 A computer system such as system 100 or system 400 may include clients and servers. The clients and servers are typically remote from one another and typically interact through a communications network (e.g., network 148). The relationship of client and server arises by virtue of computer programs running on the respective computers with the client-server relationship to one another. In some implementations, the server transmits data (e.g., data packets representing content items) to the client mobile device 150 or head unit 220 of the vehicle 130 (e.g., to display data to a user interacting with the client device and receive user input). Data generated at the mobile client device 150 or vehicle data processing system 140 (e.g., a result of a user interaction) may be received by the server (e.g., received from the mobile client device 150 or vehicle 130 by data processing system 102).

図面では動作が特定の順序で表されているが、そのような動作は示された特定の順序で遂行する必要性または連続して遂行する必要性はなく、図示された動作をすべて遂行する必要性もない。本明細書で説明されたアクションは、異なる順序で遂行され得る。 Although the figures depict operations in a particular order, such operations need not be performed in the particular order shown, or sequentially, nor are all of the operations shown required to be performed. Actions described herein may be performed in different orders.

様々なシステムコンポーネントの分離は、すべての実装形態における分離を必要とするわけではなく、説明されたプログラムコンポーネントは、単一のハードウェアまたはソフトウェア製品に含まれ得る。たとえば、NLPコンポーネント106および検証エンジン116は、単一のコンポーネント、app、またはプログラム、または1つもしくは複数の処理回路を有する論理デバイス、または遠隔データ処理システム102もしくは乗物データ処理システム140の1つまたは複数のサーバの一部分であり得る。 The separation of various system components does not require separation in all implementations, and the described program components may be included in a single hardware or software product. For example, the NLP component 106 and the validation engine 116 may be part of a single component, app, or program, or a logical device having one or more processing circuits, or one or more servers of the remote data processing system 102 or the vehicle data processing system 140.

いくつかの例示の実装形態が説明されてきたが、前述のものは例として提示されており、例示であって限定ではないことが明白である。詳細には、本明細書で提示された例の多くは方法の行為またはシステム要素の特定の組合せを包含しているが、それらの行為およびそれらの要素は同じ目的を達成するための他のやり方で組み合わされてよい。1つの実装形態に関連して論じられた行為、要素、および特徴は、他の実装形態における類似の役割から除外されるようには意図されない。 Although several example implementations have been described, it is understood that the foregoing are presented by way of example and are illustrative and not limiting. In particular, while many of the examples presented herein involve particular combinations of method acts or system elements, those acts and those elements may be combined in other manners to achieve the same purpose. Acts, elements, and features discussed in connection with one implementation are not intended to be excluded from a similar role in other implementations.

本明細書で使用される語法および専門用語は説明のためのものであり、限定するものと見なされるべきでない。本明細書における「含む」、「備える」、「有する」、「保持する」、「包含する」、「によって特徴付けられた」、「ことを特徴とする」、およびそれらの変形の使用は、その後に列記された項目、それらの等価物、および追加項目、ならびに、その後に排他的に列記された項目から成る代替実装形態を包含することを意味する。一実装形態では、本明細書で説明されたシステムおよび方法は、説明された要素、行為、またはコンポーネントのうちの1つ、複数のもののそれぞれの組合せ、あるいはすべてから成る。 The phraseology and terminology used herein is for the purposes of description and should not be considered as limiting. The use herein of "including," "comprising," "having," "holding," "containing," "characterized by," "characterized by," and variations thereof are meant to encompass the items listed thereafter, equivalents thereof, and additional items, as well as alternative implementations consisting of the items listed thereafter exclusively. In one implementation, the systems and methods described herein consist of one, a combination of each of more than one, or all of the described elements, acts, or components.

本明細書のシステムおよび方法の実装形態または要素または行為へのあらゆる単数形の参照は、複数のこれらの要素を含む実装形態も包含し得、本明細書の実装形態または要素または行為へのあらゆる複数形の参照は、単一の要素のみを含む実装形態を包含し得る。単数形または複数形での参照は、現在開示されたシステムまたは方法、それらのコンポーネント、行為、または要素を単一の構成または複数の構成に限定するようには意図されていない。あらゆる情報、行為または要素に基づくあらゆる行為または要素への参照は、行為または要素が、あらゆる情報、行為、または要素に少なくとも部分的に基づく実装形態を含み得る。 Any singular reference to implementations or elements or acts of the systems and methods herein may also encompass implementations that include a plurality of those elements, and any plural reference to implementations or elements or acts herein may encompass implementations that include only a single element. The singular or plural references are not intended to limit the presently disclosed systems or methods, their components, acts, or elements to a single configuration or multiple configurations. A reference to any act or element that is based on any information, act, or element may include implementations in which the act or element is based at least in part on any information, act, or element.

本明細書で開示されたあらゆる実装形態が、任意の他の実装形態または実施形態と組み合わされてよく、また「一実装形態」、「いくつかの実装形態」、「1つの実装形態」等への参照は必ずしも相互に排他的ではなく、実装形態に関連して説明された特定の特徴、構造、または特性は、少なくとも1つの実装形態または実施形態に含まれ得ることを指示するように意図されている。本明細書で使用されたそのような用語は、必ずしもすべてが同一の実装形態を参照するわけではない。あらゆる実装形態が、任意の他の実装形態と、本明細書で開示された態様および実装形態と矛盾しない任意のやり方で包含的または排他的に組み合わされ得る。 Any implementation disclosed herein may be combined with any other implementation or embodiment, and references to "an implementation," "several implementations," "one implementation," etc. are not necessarily mutually exclusive and are intended to indicate that a particular feature, structure, or characteristic described in connection with an implementation may be included in at least one implementation or embodiment. Such terms as used herein do not necessarily all refer to the same implementation. Any implementation may be combined with any other implementation, either inclusively or exclusively, in any manner not inconsistent with the aspects and implementations disclosed herein.

「または」に対する参照は、「または」を使用して記述されたあらゆる用語が、記述された用語の「1つ」、「2つ以上」、および「すべて」のうちの任意のものを指示し得る包括的なものと解釈されてよい。「AおよびBのうちの少なくとも1つ」に対する参照は、「Aのみ」、「Bのみ」、ならびに「AとBの両方」を含むことができる。「備える」または他の開放型の用語に関連して使用されるそのような参照は、追加項目を含むことができる。 References to "or" may be construed as inclusive, such that any term described using "or" may refer to any of "one," "two or more," and "all" of the described terms. A reference to "at least one of A and B" can include "A only," "B only," and "both A and B." Such references used in conjunction with "comprising" or other open-ended terms can include additional items.

図面、発明を実施するための形態、またはいずれかの請求項における技術的特徴に参照符号が続く場合には、その参照符号は、図面、発明を実施するための形態、および特許請求の範囲の了解度を向上するために含まれるものである。それゆえに、参照符号の有無は、特許請求の範囲の要素の範囲について制限する効果はない。 When a reference sign follows a technical feature in a drawing, a description, or any claim, the reference sign is included to improve the intelligibility of the drawing, the description, and the claims. Therefore, the presence or absence of a reference sign does not have a limiting effect on the scope of the claim element.

本明細書で説明されたシステムおよび方法は、それらの特徴から逸脱することなく他の特定の形態で具現化され得るものである。前述の実装形態は説明されたシステムおよび方法を限定するものではなく例示である。したがって、本明細書で説明されたシステムおよび方法の範囲は前述の説明ではなく添付の特許請求の範囲によって指示され、特許請求の範囲の同等の意味および範囲内に入る変更形態はそこに包含される。 The systems and methods described herein may be embodied in other specific forms without departing from their characteristics. The foregoing implementations are illustrative rather than limiting of the described systems and methods. Accordingly, the scope of the systems and methods described herein is indicated by the appended claims, rather than the foregoing description, and all modifications that come within the meaning and range of equivalence of the claims are intended to be embraced therein.

100 システム
102 遠隔データ処理システム
104 インターフェース
106 自然言語プロセッサ(NLP)コンポーネント
108 インターフェース管理コンポーネント
110 音声信号ジェネレータ、音声信号ジェネレータコンポーネント
112 指示アクションアプリケーションプログラミングインターフェース(API)
114 応答セレクタ、応答セレクタコンポーネント
116 検証エンジン
118 データリポジトリ
120 パラメータ
122 ポリシー
124 応答データ
126 テンプレート
128 デジタルアシスタントアプリケーション
130 乗物
132 スピーカ
134 表示デバイス
136 センサ
138 トランスデューサ
140 乗物データ処理システム
142 エントリ検知コンポーネント
144 エントリ認証コンポーネント
146 アクセス制御コンポーネント
148 ネットワーク
150 モバイルクライアントデバイス
150a モバイルクライアントデバイス
150b モバイルクライアントデバイス
152 データプロバイダ
154 データプロバイダ
200 シート
202 シートセンサ
204 ドアセンサ
206 運動センサ
210 キーフォブ受信器デバイス
212 娯楽システム
214 マイクロフォン
216 カメラ
218 通信トランシーバ
220 ヘッドユニット
244 エントリ認証コンポーネント
246 アクセス制御コンポーネント
400 コンピュータシステム
405 バス
410 プロセッサ
415 メインメモリ
420 読み取り専用メモリ(ROM)
425 記憶デバイス
430 入力デバイス
435 ディスプレイ
100 Systems
102 Remote Data Processing System
104 Interface
106 Natural Language Processor (NLP) Components
108 Interface Management Components
110 Audio signal generator, audio signal generator component
112 Directed Action Application Programming Interface (API)
114 Response Selector, Response Selector Component
116 Verification Engine
118 Data Repositories
120 Parameters
122 Policy
124 Response Data
126 Templates
128 Digital Assistant Applications
130 Vehicles
132 Speaker
134 Display Devices
136 Sensors
138 Transducer
140 Vehicle Data Processing System
142 Entry Detection Component
144 Entry Authentication Component
146 Access Control Components
148 Network
150 mobile client devices
150a Mobile Client Devices
150b Mobile Client Devices
152 Data Providers
154 Data Providers
200 sheets
202 Sheet Sensor
204 Door Sensor
206 Motion Sensor
210 Key Fob Receiver Device
212 Entertainment System
214 Microphone
216 Camera
218 Communication Transceiver
220 Head Unit
244 Entry Authentication Component
246 Access Control Component
400 Computer Systems
405 Bus
410 Processor
415 Main Memory
420 Read-Only Memory (ROM)
425 Storage Device
430 Input Devices
435 Display

Claims (15)

1つまたは複数のプロセッサによって実施される方法であって、
乗物に配置される複数のセンサから複数のセンサ信号を受信するステップと、
前記複数のセンサ信号のうちの1つまたは複数に基づいて、前記乗物の占有状態を生成するステップであって、前記乗物の前記占有状態が、前記乗物の中に位置する1人または複数人のユーザの、前記乗物の複数の対応するシートへのマッピングを表す、ステップと、
前記乗物に配置される複数のマイクロフォンのうち、前記占有状態に基づいてオンされた1つまたは複数のマイクロフォンから、前記乗物を介して利用可能な乗物機能を実行するための可聴の要求を受信するステップと、
前記乗物の前記占有状態に基づいて、前記1人または複数人のユーザのうちの前記可聴の要求を提供した所与のユーザに関する許可レベルを識別するステップであって、
前記占有状態と前記可聴の要求に関連付けられた音響情報とに基づいて、前記可聴の要求が、前記乗物内のどのシートからのものかを判定するステップと、
前記判定されたシートにマッピングされているユーザを、前記可聴の要求を提供した前記所与のユーザとして識別するステップを含む、ステップと、
前記所与のユーザに関連付けられる前記許可レベルに基づいて、前記乗物機能が実行されるようにすることを前記所与のユーザが許可されている否かを判定するステップと、
前記乗物機能が実行されるようにすることを前記所与のユーザが許可されているとの判定に応答して、前記乗物を介して前記乗物機能が実行されるようにするステップと
を含む、方法。
1. A method implemented by one or more processors, comprising:
receiving a plurality of sensor signals from a plurality of sensors disposed in the vehicle;
generating an occupancy state of the vehicle based on one or more of the plurality of sensor signals, the occupancy state of the vehicle representing a mapping of one or more users located within the vehicle to a plurality of corresponding seats of the vehicle;
receiving an audible request to execute a vehicle function available via the vehicle from one or more microphones among a plurality of microphones located on the vehicle that are activated based on the occupancy status;
identifying a permission level for a given one of the one or more users that provided the audible request based on the occupancy status of the vehicle;
determining from which seat within the vehicle the audible request originated based on the occupancy state and acoustic information associated with the audible request;
identifying a user mapped to the determined seat as the given user who provided the audible request;
determining whether the given user is authorized to cause the vehicle function to be performed based on the authorization level associated with the given user;
and in response to determining that the given user is authorized to cause the vehicle function to be performed, causing the vehicle function to be performed via the vehicle.
前記乗物の前記占有状態を生成するステップが、前記乗物へのエントリイベントを検出することに応答する、請求項1に記載の方法。 The method of claim 1, wherein generating the occupancy state of the vehicle is responsive to detecting an entry event into the vehicle. 前記乗物への前記エントリイベントを検出することが、
前記乗物に配置される前記複数のセンサから複数の追加のセンサ信号を受信するステップと、
前記複数の追加のセンサ信号のうちの1つまたは複数に基づいて、前記ユーザの1人または複数人が前記乗物に入ったと判定するステップと
を含む、請求項2に記載の方法。
Detecting the entry event into the vehicle includes:
receiving a plurality of additional sensor signals from the plurality of sensors located in the vehicle;
and determining that one or more of the users have entered the vehicle based on one or more of the plurality of additional sensor signals.
前記所与のユーザが前記乗物の運転者であり、前記乗物の運転者が、前記乗物機能が実行されるようにすることを許可されている、請求項1に記載の方法。 The method of claim 1 , wherein the given user is an operator of the vehicle, and the operator of the vehicle is authorized to cause the vehicle function to be performed. 前記所与のユーザが前記乗物の乗客であり、前記乗物の乗客が、前記乗物機能が実行されるようにすることを許可されていない、請求項1に記載の方法。 The method of claim 1 , wherein the given user is a passenger in the vehicle, and the passenger in the vehicle is not authorized to cause the vehicle function to be performed. 前記可聴の要求に関連付けられた前記音響情報が、
前記オンされた1つまた複数のマイクロフォンの各々により生成された前記可聴の要求の複数のインスタンスの対応する振幅、または
前記オンされた1つまた複数のマイクロフォンの各々により生成された前記可聴の要求の複数のインスタンスの対応する到着時間
のうちの1つまたは複数を含む、請求項1に記載の方法。
the acoustic information associated with the audible request;
2. The method of claim 1, further comprising: detecting one or more of: corresponding amplitudes of multiple instances of the audible request generated by each of the one or more turned on microphones; or corresponding times of arrival of multiple instances of the audible request generated by each of the one or more turned on microphones.
前記可聴の要求を提供した前記所与のユーザに関する前記許可レベルを識別するステップが、
前記可聴の要求の前記複数のインスタンスの前記対応する振幅を比較して、前記可聴の要求を提供した前記所与のユーザとして、前記オンされた1つまたは複数のマイクロフォンのうちの所与のマイクロフォンに対して近接するユーザを識別するステップ、または
前記可聴の要求の前記複数のインスタンスの前記対応する到着時間を比較して、前記可聴の要求を提供した前記所与のユーザとして、前記オンされた1つまたは複数のマイクロフォンのうちの所与のマイクロフォンに対して近接するユーザを識別するステップ
のうちの1つまたは複数を含む、請求項6に記載の方法。
identifying the permission level for the given user who provided the audible request,
7. The method of claim 6, comprising one or more of the steps of: comparing the corresponding amplitudes of the multiple instances of the audible request to identify a proximate user to a given one of the turned on microphones as the given user who provided the audible request; or comparing the corresponding times of arrival of the multiple instances of the audible request to identify a proximate user to a given one of the turned on microphones as the given user who provided the audible request.
前記複数のセンサ信号が、
前記乗物に配置されるキーフォブ受信器により生成されるキーフォブ信号、
前記乗物に配置される1つまたは複数のシートセンサにより生成されるシートセンサ信号、
前記乗物に配置される1つまたは複数のドアセンサにより生成されるドアセンサ信号、
前記乗物に配置される1つまたは複数の運動センサにより生成される運動センサ信号、また
前記乗物に配置される1つまたは複数のカメラにより生成されるデジタル画像信号
のうちの1つまたは複数を含む、請求項1に記載の方法。
The plurality of sensor signals
a key fob signal generated by a key fob receiver located in said vehicle;
a seat sensor signal generated by one or more seat sensors disposed in the vehicle;
a door sensor signal generated by one or more door sensors disposed in the vehicle;
The method of claim 1 , comprising one or more of a motion sensor signal generated by one or more motion sensors disposed on the vehicle , or a digital image signal generated by one or more cameras disposed on the vehicle.
前記所与のユーザが、前記乗物機能が実行されるようにすることを許可されていないとの判定に応答して、前記乗物を介して前記乗物機能が実行されるようにすることをやめる、請求項1に記載の方法。 The method of claim 1, further comprising: ceasing to cause the vehicle function to be performed via the vehicle in response to determining that the given user is not authorized to cause the vehicle function to be performed. システムであって、
少なくとも1つのプロセッサと、
命令を記録するメモリと
を備え、前記命令は、実行されたときに、前記少なくとも1つのプロセッサに、
乗物に配置される複数のセンサから複数のセンサ信号を受信すること、
前記複数のセンサ信号のうちの1つまたは複数に基づいて、前記乗物の占有状態を生成することであって、前記乗物の前記占有状態が、前記乗物の中に位置する1人または複数人のユーザの、前記乗物の複数の対応するシートへのマッピングを表す、生成することと、
前記乗物に配置される複数のマイクロフォンのうち、前記占有状態に基づいてオンされた1つまたは複数のマイクロフォンから、前記乗物を介して利用可能な乗物機能を実行するための可聴の要求を受信することと、
前記乗物の前記占有状態に基づいて、前記1人または複数人のユーザのうちの前記可聴の要求を提供した所与のユーザに関する許可レベルを識別することであって、
前記占有状態と前記可聴の要求に関連付けられた音響情報とに基づいて、前記可聴の要求が、前記乗物内のどのシートからのものかを判定することと、
前記判定されたシートにマッピングされているユーザを、前記可聴の要求を提供した前記所与のユーザとして識別することとを含む、識別することと、
前記所与のユーザに関連付けられる前記許可レベルに基づいて、前記乗物機能が実行されるようにすることを前記所与のユーザが許可されている否かを判定することと、
前記乗物機能が実行されるようにすることを前記所与のユーザが許可されているとの判定に応答して、前記乗物を介して前記乗物機能が実行されるようにすることと
を行わせる、システム。
1. A system comprising:
At least one processor;
and a memory storing instructions that, when executed, cause the at least one processor to:
receiving a plurality of sensor signals from a plurality of sensors disposed in the vehicle;
generating an occupancy state of the vehicle based on one or more of the plurality of sensor signals, the occupancy state of the vehicle representing a mapping of one or more users located within the vehicle to a plurality of corresponding seats of the vehicle;
receiving an audible request to execute a vehicle function available via the vehicle from one or more microphones among a plurality of microphones located on the vehicle that are activated based on the occupancy status;
identifying a permission level for a given one of the one or more users that provided the audible request based on the occupancy status of the vehicle;
determining from which seat within the vehicle the audible request originates based on the occupancy state and acoustic information associated with the audible request;
identifying a user mapped to the determined seat as the given user who provided the audible request;
determining whether the given user is authorized to cause the vehicle function to be performed based on the permission level associated with the given user;
and in response to determining that the given user is authorized to cause the vehicle function to be performed, causing the vehicle function to be performed via the vehicle.
前記乗物の前記占有状態を生成するための命令は、前記乗物へのエントリイベントを検出することに応答して実行される、請求項10に記載のシステム。 The system of claim 10 , wherein the instructions for creating the occupancy state of the vehicle are executed in response to detecting an entry event into the vehicle. 前記乗物への前記エントリイベントを検出するための命令が、
前記乗物に配置される前記複数のセンサから複数の追加のセンサ信号を受信するための命令と、
前記複数の追加のセンサ信号のうちの1つまたは複数に基づいて、前記ユーザの1人または複数人が前記乗物に入ったと判定するための命令と
を含む、請求項11に記載のシステム。
instructions for detecting the entry event into the vehicle,
instructions for receiving a plurality of additional sensor signals from the plurality of sensors located in the vehicle;
and instructions for determining that one or more of the users have entered the vehicle based on one or more of the plurality of additional sensor signals.
前記所与のユーザが前記乗物の運転者であり、前記乗物の運転者が、前記乗物機能が実行されるようにすることを許可されている、請求項10に記載のシステム。 11. The system of claim 10 , wherein the given user is an operator of the vehicle, and the operator of the vehicle is authorized to cause the vehicle function to be performed. 前記所与のユーザが前記乗物の乗客であり、前記乗物の乗客が、前記乗物機能が実行されるようにすることを許可されていない、請求項10に記載のシステム。 11. The system of claim 10 , wherein the given user is a passenger in the vehicle, and the passenger in the vehicle is not authorized to cause the vehicle function to be performed. 命令を記録する非一時的コンピュータ可読記録媒体であって、
前記命令は、実行されたときに、少なくとも1つのプロセッサに、
乗物に配置される複数のセンサから複数のセンサ信号を受信すること、
前記複数のセンサ信号のうちの1つまたは複数に基づいて、前記乗物の占有状態を生成することであって、前記乗物の前記占有状態が、前記乗物の中に位置する1人または複数人のユーザの、前記乗物の複数の対応するシートへのマッピングを表す、生成することと、
前記乗物に配置される複数のマイクロフォンのうち、前記占有状態に基づいてオンされた1つまたは複数のマイクロフォンから、前記乗物を介して利用可能な乗物機能を実行するための可聴の要求を受信することと、
前記乗物の前記占有状態に基づいて、前記1人または複数人のユーザのうちの前記可聴の要求を提供した所与のユーザに関する許可レベルを識別することであって、
前記占有状態と前記可聴の要求に関連付けられた音響情報とに基づいて、前記可聴の要求が、前記乗物内のどのシートからのものかを判定することと、
前記判定されたシートにマッピングされているユーザを、前記可聴の要求を提供した前記所与のユーザとして識別することとを含む、識別することと、
前記所与のユーザに関連付けられる前記許可レベルに基づいて、前記乗物機能が実行されるようにすることを前記所与のユーザが許可されている否かを判定することと、
前記乗物機能が実行されるようにすることを前記所与のユーザが許可されているとの判定に応答して、前記乗物を介して前記乗物機能が実行されるようにすることと
を行わせる、非一時的コンピュータ可読記録媒体。
1. A non-transitory computer-readable storage medium having instructions recorded thereon, comprising:
The instructions, when executed, cause at least one processor to:
receiving a plurality of sensor signals from a plurality of sensors disposed in the vehicle;
generating an occupancy state of the vehicle based on one or more of the plurality of sensor signals, the occupancy state of the vehicle representing a mapping of one or more users located within the vehicle to a plurality of corresponding seats of the vehicle;
receiving an audible request to execute a vehicle function available via the vehicle from one or more microphones among a plurality of microphones located on the vehicle that are activated based on the occupancy status;
identifying a permission level for a given one of the one or more users that provided the audible request based on the occupancy status of the vehicle;
determining from which seat within the vehicle the audible request originates based on the occupancy state and acoustic information associated with the audible request;
identifying a user mapped to the determined seat as the given user who provided the audible request;
determining whether the given user is authorized to cause the vehicle function to be performed based on the permission level associated with the given user;
and in response to determining that the given user is authorized to cause the vehicle function to be performed, causing the vehicle function to be performed via the vehicle.
JP2022040263A 2020-10-07 2022-03-15 Multi-factor authentication and access control in vehicle environments Active JP7536047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022040263A JP7536047B2 (en) 2020-10-07 2022-03-15 Multi-factor authentication and access control in vehicle environments

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020169803A JP7043561B2 (en) 2020-10-07 2020-10-07 Multi-factor authentication and access control in a vehicle environment
JP2022040263A JP7536047B2 (en) 2020-10-07 2022-03-15 Multi-factor authentication and access control in vehicle environments

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020169803A Division JP7043561B2 (en) 2020-10-07 2020-10-07 Multi-factor authentication and access control in a vehicle environment

Publications (2)

Publication Number Publication Date
JP2022087109A JP2022087109A (en) 2022-06-09
JP7536047B2 true JP7536047B2 (en) 2024-08-19

Family

ID=74226741

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020169803A Active JP7043561B2 (en) 2020-10-07 2020-10-07 Multi-factor authentication and access control in a vehicle environment
JP2022040263A Active JP7536047B2 (en) 2020-10-07 2022-03-15 Multi-factor authentication and access control in vehicle environments

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020169803A Active JP7043561B2 (en) 2020-10-07 2020-10-07 Multi-factor authentication and access control in a vehicle environment

Country Status (1)

Country Link
JP (2) JP7043561B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354930A (en) 2003-05-30 2004-12-16 Calsonic Kansei Corp Speech recognition system
JP2009025715A (en) 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
JP2016029566A (en) 2014-07-22 2016-03-03 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Remote communication method via vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5878250U (en) * 1981-11-24 1983-05-26 トヨタ自動車株式会社 Vehicle voice input device
JP2007107377A (en) 2002-12-13 2007-04-26 Matsushita Electric Ind Co Ltd In-vehicle device control system and in-vehicle device control device
US20060294393A1 (en) 2005-06-24 2006-12-28 Mc Call Clark E Remote biometric registration for vehicles
US8933778B2 (en) 2012-09-28 2015-01-13 Intel Corporation Mobile device and key fob pairing for multi-factor security
KR101677648B1 (en) * 2014-12-22 2016-11-18 엘지전자 주식회사 Vehicle control apparatus and method thereof
JP2016161754A (en) * 2015-03-02 2016-09-05 クラリオン株式会社 Vehicle-mounted device
JP6447379B2 (en) 2015-06-15 2019-01-09 トヨタ自動車株式会社 Authentication apparatus, authentication system, and authentication method
JP2017090613A (en) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 Voice recognition control system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354930A (en) 2003-05-30 2004-12-16 Calsonic Kansei Corp Speech recognition system
JP2009025715A (en) 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
JP2016029566A (en) 2014-07-22 2016-03-03 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Remote communication method via vehicle

Also Published As

Publication number Publication date
JP2022087109A (en) 2022-06-09
JP7043561B2 (en) 2022-03-29
JP2021012719A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US11856399B2 (en) Multi-factor authentication and access control in a vehicular environment
JP7590512B2 (en) Vehicle Function Control with Sensor-Based Validation
US9489779B2 (en) Vehicle status notification and operator identification
US10776504B2 (en) Dynamic change in plurality of security layers based on project risk
CN114915971B (en) Vehicle control method, device, storage medium and vehicle
CN110392082A (en) Control method for vehicle and system
JP7536047B2 (en) Multi-factor authentication and access control in vehicle environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230928

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7536047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150