CN112262430B - 自动确定经由自动助理界面接收到的口头话语的语音识别的语言 - Google Patents
自动确定经由自动助理界面接收到的口头话语的语音识别的语言 Download PDFInfo
- Publication number
- CN112262430B CN112262430B CN201980039764.2A CN201980039764A CN112262430B CN 112262430 B CN112262430 B CN 112262430B CN 201980039764 A CN201980039764 A CN 201980039764A CN 112262430 B CN112262430 B CN 112262430B
- Authority
- CN
- China
- Prior art keywords
- stt
- machine learning
- user
- speech recognition
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 239000000463 material Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000011143 downstream manufacturing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
实施方式涉及确定用于经由自动助理界面接收的、用于与自动助理交互的口头话语的语音识别的语言。在各种实施方式中,指示话音输入的音频数据包括来自用户的自然语言请求,该音频数据可以作为跨多个语音到文本(“STT”)机器学习模型的输入被应用,以生成多个候选语音识别输出。每个STT机器学习模型都可以以特定语言被训练。对于所述多个STT模型中的每个相应的STT机器学习模型,可以分析所述多个候选语音识别输出以确定针对所述相应的STT机器学习模型的熵得分。基于所述熵得分,可以选择与所述多个STT机器学习模型中的至少一个STT机器学习模型相关联的目标语言。自动助理可以使用所述目标语言来响应所述请求。
Description
背景技术
人类可以参与与在本文中称为“自动助理”(也称为“数字代理”、“聊天机器人”、“交互式个人助理”、“智能个人助理”、“助理应用”、“谈话代理”等)的交互式软件应用的人机对话。例如,人类(其在他们与自动助理交互时可以被称为“用户”)可以使用在一些情况下可以被转换成文本然后被处理的口头自然语言输入(即,话语)和/或通过提供文本(例如,键入的)自然语言输入来向自动助理提供命令和/或请求。自动助理通过提供响应用户界面输出来对请求做出响应,该响应用户界面输出能够包括可听的用户界面输出和/或可视的用户界面输出。
如在上文所提及的,自动助理可以将与用户的口头话语相对应的音频数据转换成对应的文本(或其它语义表示)。例如,可以基于经由客户端设备的一个或多个麦克风对用户的口头话语的检测来生成音频数据,该客户端设备包括用于使用户能够与自动助理进行交互的助理界面。自动助理可以包括语音识别引擎,该语音识别引擎尝试识别在音频数据中捕获的口头话语的各种特性,诸如由口头话语产生的声音(例如,音素)、所产生的声音的顺序、语音的节奏、语调等等。此外,语音识别引擎可以标识由此类特性表示的文本单词或短语。然后,该文本可以由自动助理进一步处理(例如,使用自然语言理解(NLU)引擎和/或对话状态引擎),以确定针对口头话语的响应内容。语音识别引擎可以由客户端设备和/或通过一个或多个自动助理组件来实现,所述一个或多个自动助理组件可以远离客户端设备但与客户端设备进行网络通信。
然而,许多语音识别引擎被配置成仅以单一语言识别语音。对于使用多种语言的用户和/或住户,这样的单语言语音识别引擎可能无法令人满意,并且当以不是通过语音识别引擎支持的单一语言的附加语言接收到口头话语时,可能导致自动助理失效和/或提供错误的输出。这可以渲染自动助理不可用和/或导致计算资源和/或网络资源的过度使用。计算资源和/或网络资源的过度使用可能是由于当自动助理失效或提供错误的输出时用户需要提供进一步的口头话语(即,以所支持的单一语言提供)。这种另外的口头话语必须由对应的客户端设备和/或一个或多个远程自动助理组件另外处理,从而引起各种资源的额外使用。
其它语音识别引擎可以被配置成识别多种语言的语音,但是要求用户明确指定在给定时间内以语音识别应该利用多种语言中的哪一种。例如,其它语音识别引擎中的一些可能要求用户手动指定在特定客户端设备处接收到的所有口头话语的语音识别中要利用的默认语言。欲将默认语言更改为另一种语言,可能要求用户与图形界面和/或可听界面进行交互以显式更改默认语言。这样的交互可能导致界面的渲染、经由界面提供的用户输入的处理等中的计算资源和/或网络资源的过度使用。此外,经常可能是用户忘记在提供当前不是默认语言的口头话语之前改变默认语言的情况。如上所述,这可能使渲染自动助理不可用和/或导致计算资源和/或网络资源的过度使用。
发明内容
本文所述的实施方式涉及用于自动确定用于经由自动助理界面接收到的口头话语的语音识别的语言的系统、方法和装置。本文所述的一些实施方式涉及标识用户请求的语言、使用所述语言处理请求、和/或以所述语言提供响应。在各种实施方式中,由第一用户向自动助理提交的请求可以是第一语言。处理此类请求可能需要自动助理确定第一个用户正在讲的是哪种语言。另外,第一用户可能优选自动助理也以第一语言提供其答复。可以以与第一语言不同的一种或多种另外的语言来重复相同的场景,并且可以由第一用户或由一个或多个另外的用户讲出。本文描述标识用户请求的语言、使用该语言处理请求和/或以该语言答复请求的技术。
为了标识用户请求的语言,自动助理可以向多个机器学习模型提供指示用户请求的音频记录的数据(例如,音频记录本身、降维嵌入等),所述多个机器学习模型被配置成生成语音到文本(“STT”)输出。每个机器学习模型可以被设计成以特定语言执行STT处理。为此,这些机器学习模型中的每一个机器学习模型可以分析用户请求的音频记录(或指示其的数据),以提供与模型的相应语言的音频记录的潜在含义相对应的多个候选短语或“假设”的文本数据。
在各种实施方式中,可以确定应使用哪种模型,以及最终应使用哪种语言来处理请求和/或提供响应输出。在一些实施方式中,对于每个机器学习模型,可以计算熵得分,其中指示低熵的熵得分表示用户语言的良好候选,并且指示高熵的熵得分表示用户的语言的不良候选。如本文所使用的,熵得分通常是指多个候选STT短语之中的熵或多样性的水平。在一些实施方式中,熵得分可以基于与对应于特定语言的每个机器学习模型的每个候选短语和每个剩余的附加短语之间的平均和/或长度标准化的编辑距离。这可以基于任何两个给定短语之间的逐字符的差和/或逐单词的差来计算。另外或替代地,候选STT短语可以被嵌入到降维空间中,并且它们之间的语义距离可以例如基于欧几里得距离来计算。由该距离计算出的平均距离或一些其它值可以被用于确定针对该特定STT机器学习模型的熵得分。然后,自动助理可以基于每个模型的熵得分来选择目标语言。在一些实施方式中,自动助理可以进一步考虑其它因素,诸如针对各个候选短语的置信度得分、过去该助理已经使用的语言以及用户和该助理之间的交互场境(context),诸位位置。
作为示例,假定Dave和Alice都希望使用自动助理。假定Dave讲英语,而Alice讲西班牙语。Dave和Alice希望轮流使用自动助理,并以他们的母语进行回复,而无需手动更改助理的设定。假定Alice先来,并用西班牙语请求助理设置上午8:00的闹钟。助理将把她的请求(或指示器的其它数据)的音频记录馈送到多个机器学习模型中,以多种语言生成与她的请求相对应的候选短语,为所述各种语言模型中的每一个语言模型生成熵得分,并基于若干因素选择语言,所述因素包括基于具有最低熵得分的语言模型,在这种情况下其可能是西班牙语。然后,助理将以西班牙语处理Alice的请求,并以西班牙语回复以告知她已设置了闹钟。接下来,Dave可以用英语与助理交谈,并要求其调暗灯光。可能重复相同的过程,只是在这种情况下,具有最低熵得分的语言模型将会是英语,并且请求将被以英语处理,并且助理将以英语回复,以使Dave知道灯光已变暗。
本文所述的技术引起多种技术优势。通过处理用户请求以确定他们给出的语言使自动助理可以在多语言情况下(诸如多语言家庭或有国际旅行者的目的地)理解并响应,而无需多个用户在助理的设置中手动切换助理的操作语言。这可以为用户节省时间,并且节省计算资源和手动切换助理的语言以与其通信所需的用户开销。
在一些实施方式中,阐述了一种由一个或多个处理器实施的方法,该方法包括:在由用户操作以与自动助理进行接洽的计算设备的麦克风处接收来自用户的话音输入,其中,所述话音输入包括来自所述用户的请求;将指示所述话音输入的音频记录的数据作为输入应用于多个STT机器学习模型以生成多个候选语音识别输出,其中所述多个STT机器学习模型中的每个STT机器学习模型都以特定语言被训练;针对所述多个STT模型中的每个相应STT机器学习模型,分析所述多个候选语音识别输出以确定针对所述相应STT机器学习模型的熵得分;基于与所述多个STT机器学习模型相关联的熵得分,选择与所述多个STT机器学习模型中的至少一个STT机器学习模型相关联的所述语言作为目标语言;以及使所述自动助理使用所述目标语言来响应来自所述用户的请求。
在各种实施方式中,可以基于所述相应STT模型的多个候选语音识别输出的计数来确定针对所述相应STT机器学习模型的熵得分。在各种实施方式中,可以基于所述相应STT模型的多个候选语音识别输出之间的差来确定针对所述相应STT机器学习模型的熵得分。在各种实施方式中,可以基于潜在空间中所述相应STT模型的多个候选语音识别输出之间的语义距离来确定针对所述相应STT机器学习模型的所述熵得分。
在各种实施方式中,可以进一步基于下述内容中的一个或者多个来选择所述目标语言:所述计算设备的历史上下文、所述计算设备的当前上下文或为每个候选语音识别输出计算的置信度得分。在各种实施方式中,可以使用由所述相应STT机器学习模型生成的具有高于特定阈值的置信度得分的所述候选语音识别输出来计算针对每个相应的STT机器学习模型的所述熵得分。
在各种实施方式中,所述方法进一步可以包括,如果针对所选择的STT机器学习模型的所述熵得分满足预先确定的阈值,则使所述自动助理在执行任何任务之前基于用户的请求提示用户进行确认。在各种实施方式中,所述使可以包括使所述自动助理提供对所述用户的请求的自然语言响应作为音频输出,其中所述自然语言响应以目标语言提供。
在各种实施方式中,所述多个STT机器学习模型可以包括STT机器学习模型的超集的子集,并且所述方法可以进一步包括基于下述各项中的一个或多个从所述超集中选择所述子集:所述计算设备的历史上下文、所述计算设备的当前上下文或所述用户先前为所述自动助理设置的设定。
其它实施方式可以包括一种非暂时性计算机可读存储介质,该非暂时性计算机可读存储介质存储指令,这些指令可由一个或多个处理器(例如,中央处理器(CPU)、图形处理单元(GPU)和/或张量处理单元(TPU))执行以执行诸如在下文描述和/或在本文中别处描述的方法中的一种或多种的方法。其它的实施方式仍然可以包括一个或多个计算机和/或一个或多个机器人的系统,所述一个或多个计算机和/或一个或多个机器人的系统包括一个或者多个处理器,所述一个或者多个处理器可操作来执行存储的指令以执行诸如在下文所描述的和/或在本文中别处描述的方法中的一种或多种的方法。
应该领会,在本文中更详细地描述的前面的构思和附加构思的所有组合都被设想为是本文公开的主题的一部分。例如,在本公开结尾处出现的要求保护的主题的所有组合都被设想为是本文公开的主题的一部分。
附图说明
图1图示用于选择用于自动助理与用户交互的语言的系统。
图2图示根据各种实施方式的可以由自动助理实现的状态机。
图3A和3B图示根据各种实施例的示例场景,其中可以采用本文所述的技术。
图4描绘根据各种实施例的用于实践本公开的所选方面的示例方法。
图5是示例计算机系统的框图。
具体实施方式
图1图示用于选择用于自动助理104与用户130交互的语言的系统100。自动助理104可以部分经由在一个或多个客户端设备处提供的自动助理126,诸如客户端计算设备118(例如,便携式计算设备132),以及部分地经由一个或多个远程计算设备112,诸如服务器设备102(例如,可以形成通常被称为“云基础架构”或简称为“云”的一部分)操作。当在本文中使用“自动助理104”时,它可以指代104和126中的一个或指代这两者。用户130可以经由客户端计算设备118的助理界面128与自动助理104交互。助理界面128包括用户界面输入设备和用户界面输出设备,以用于由自动助理126在与用户130交互中使用。
助理界面128接受指向自动助理104的用户130的用户界面输入,并渲染来自自动助理104的内容以呈现给用户130。助理界面128可以包括麦克风、扬声器、显示面板、相机、触摸屏显示器和/或客户端计算设备118的任何其它用户界面设备。助理界面128还可以包括显示器、投影仪、扬声器和/或客户端计算设备118的可以被用于渲染来自自动助理104的内容的任何其它用户界面输出设备。用户可以通过向助理界面128提供口头、文本或图形输入来使自动助理104执行功能(例如,提供数据、控制外围设备、访问代理等)来初始化自动助理104。在一些实施方式中,客户端计算设备118可以包括显示设备,该显示设备可以是包括触摸界面的显示面板,该触摸界面用于接收触摸输入和/或手势以允许用户经由该触摸界面来控制客户端计算设备118的应用。在一些实施方式中,客户端计算设备118可以缺乏显示设备,从而提供可听用户界面输出,而不提供图形用户界面输出。此外,客户端计算设备118可以提供用户界面输入设备,诸如(一个或多个)麦克风,用于从用户130(以及从另外的未图示的用户)接收口头自然语言输入。
客户端计算设备118可以通过诸如互联网的一个或多个网络114与远程计算设备112通信。客户端计算设备118可以将计算任务卸载到远程计算设备112,以便例如节省客户端设备118处的计算资源和/或利用远程计算设备112处可用的更鲁棒的资源。例如,远程计算设备112可以托管自动助理104,并且客户端计算设备118可以将在一个或多个助理界面处接收到的输入发送到远程计算设备112。然而,在一些实施方式中,自动助理104可以由在客户端计算设备118处的自动助理126托管。在各种实施方式中,可以在客户端计算设备118处通过自动助理126实现自动助理104的所有或少于所有方面。在这样的实施方式中的一些实施方式中,自动助理104的各方面经由客户端计算设备118的本地自动助理126实现并与远程计算设备112对接,这实现了自动助理104的其它方面。
远程计算设备112可以经由多个线程来任选地为多个用户及其相关联的助理应用服务。在经由客户端计算设备118的本地自动助理126实现自动助理104的所有方面或少于所有方面的实施方式中,本地自动助理126可以是与客户端设备118的操作系统分开的应用(例如,被安装在操作系统的“之上”)–或者可以通过客户端设备118的操作系统直接实现(例如,被视为操作系统的应用,但与操作系统集成在一起)。
在一些实施方式中,远程计算设备112可以包括语音识别引擎134,该语音识别引擎134可以处理在助理界面128处接收到的音频数据,以确定该音频数据中体现的口头话语的文本和/或其它语义表示。语音识别引擎134可以在确定音频数据中体现的口头话语的文本和/或其它语义表示时利用一个或多个语音识别模型136,所述一个或多个语音识别模型136中的至少一些可以被称为“语音到文本”模型或者“STT”模型。如本文所述,可以提供多个语音识别模型136,并且每个语音识别模型可以用于对应的语言。例如,第一语音识别模型可以用于英语,第二语音识别模型可以用于法语,第三语音识别模型用于西班牙语,第四语音识别模型用于普通话,第五语音识别模型用于日语等等。在一些实施方式中,语言模型可以包括或指代声学模型、语音识别模型、调用短语模型、话音到文本模型、话音到语义表示模型、文本到语义表示模型和/或可以被用于将自然语言输入转变为可以由应用或设备处理的数据的任何其它模型。
在一些实施方式中,语音识别模型136各自包括一个或多个机器学习模型(例如,神经网络模型)和/或用于确定文本(或其它语义表示)的统计模型,该文本对应于音频数据中体现的口头话语。在一些实施方式中,语音识别引擎134可以利用所述语音识别模型136中的一个来确定包括在音频数据中的用于对应语言的音素,并且然后基于所确定的音素来生成用于对应语言的文本。在一些实施方式中,语音识别模型例如以数字音频数据的形式接收话音输入的音频记录,并将该数字音频数据转换到一个或多个文本令牌(例如,STT处理)中。可以一起被认为是语音识别模型的由这种功能性使用的一个或多个模型通常对语言中的音频信号和音标单元之间的关系以及语言中的单词序列进行建模。在一些实施方式中,语音识别模型可以是声学模型、语言模型、发音模型等,以及结合一个或多个这样的模型的功能性的模型。例如,在一些实施方式中,语音识别模型可以被实现为包括多个路径或通路的有限状态解码图。
此外,如本文所述,在音频数据的处理中可以利用用于多种不同语言的多个语音识别模型136以针对多种不同语言中的每一种语言生成多种候选语义和/或文本表示。例如,在那些实施方式中的一些中,每个语音识别模型可以生成多个候选语音识别输出或“假设”。针对给定语言的每个候选语音识别输出/假设可以构成关于用户所说的内容的“猜测”或“预测”。如果由用户使用的语言与训练特定模型的语言是不同的语言,则存在由该模型生成的多个候选语音识别输出在语义和/或句法上可能会彼此大大变化的可能性,这是因为没有训练特定的模型来处理该语言。相反,如果由用户使用的语言是所训练的特定模型所针对的语言,则存在多个候选语音识别输出将在语义和/或语法上相对相似的可能性。在各种实施方式中,语言模型的多个语音识别输出之间的语义和/或句法变化可以以在本文中被称为“熵”得分或“多样性”得分的方式来量化。
在一些实施方式中,可以使用诸如以下等式来确定特定语言的熵得分:
在此,N是一个正整数,其表示由STT在计算熵得分时考虑的模型考虑下生成的假设总数,hi表示针对语言生成的第i个假设,d(hi,hj)表示在第i个假设和第j个假设(i和j均为正整数)之间的编辑距离,并且|hi|代表第i个假设中的字符数hi。编辑距离d可以是两个假设彼此之间有多么不同的度量,并且在一些情况下,其范围可以从零(即,无不同)到每个假设中的字符数之和。因此,在采用以上等式的实施方式中,熵或分集得分可以是任意两对假设之间的平均值和长度归一化编辑距离,并且可以被认为是STT结果的不确定性的度量。由此等式输出的值可能与所讨论的STT模型产生的假设的实际交叉熵负相关。例如,通过此等式输出的值越低,熵越大,反之亦然。然而,这并不意味着是限制性的。可以将不同的公式用于熵近似。
注意,在一些实施方式中,N不一定等于由特定语音识别模型136生成的假设的数量。例如,给定的语音识别模型136可能生成大量的假设。在一些这样的情况下,例如,基于对每个假设的晶格后验(例如,由于对识别图进行解码而产生的后验概率)的分析,可以将在确定熵得分时考虑的假设的实际数量限制为N。在一些实施方式中,每个假设h的晶格后验可以被包含在以上等式中,例如,作为对编辑距离d()的比例项。在一些实施方式中,在确定熵得分时考虑的假设的实际数量可以被限制为N(正整数)的值。在一些实施方式中,值N对于所有查询可以是恒定的。在一些实施方式中,N的值可以是动态的,例如基于将假设的概率与阈值进行比较而在查询到查询之间改变。
本文也设想其它等式。例如,在一些实施方式中,除了编辑距离之外或代替编辑距离,可以考虑两个假设的两个嵌入之间的距离,例如在潜在语义(或句法)空间中。在一些这样的实施例中,所有假设(或其潜在嵌入)之间的成对距离的平均值可以被用作该语音识别模型的熵得分。
返回参考图1,自动助理104可以同时根据一种或多种语言模型进行操作,以便于响应于来自用户130的自然语言输入和/或向用户130提供响应内容。在一些实施方式中,自动助理104可以同时使用调用短语模型和使用与特定语言相关联的语音识别模型来进行操作。以此方式,自动助理可以处理体现调用短语和以特定语言提供的一个或多个命令的音频数据,并且响应于调用短语和一个或多个命令两者。从音频数据转换的文本和/或文本的语义表示可以由文本解析器引擎110解析,并且可以作为文本数据或语义数据对自动助理104可用,其可以被用于生成和/或标识来自用户130和/或第三方应用的命令短语。
当用户130与客户端计算设备118处的自动助理126进行通信时,用户130可以将口头自然语言输入提供给客户端计算设备118的助理界面128。口头自然语言输入可以被转换成音频数据,该音频数据可以由客户端语言模型124处理,诸如用于标识音频数据是否体现用于调用自动助理126的调用短语的调用短语模型。在一些实施方式中,可以在客户端计算设备118处采用调用短语模型以确定用户130是否打算调用自动助理104。当用户向助理界面128提供自然语言输入,并且该自然语言输入包括用于调用自动助理104的调用短语时,客户端计算设备118可以使服务器设备102处的自动助理104从用户130接收自然语言输入和/或随后的自然语言输入。
例如,响应于确定用户130打算在客户端计算设备118处调用自动助理104,可以在客户端计算设备118和服务器设备102之间建立一个或多个通信信道。其后,当用户继续向助理界面128提供自然语言输入时,自然语言输入将被转换成数据,然后该数据通过网络114被发送并由服务器设备102处理。此后,多个语音识别模型136可以是被用于处理本文所述的自然语言输入中的每一个自然语言输入。基于熵/多样性得分,可以为每个自然语言输入选择一个或多个语音识别模型136作为适当的模型。在一些实施方式中,由该模型生成的具有最高置信度得分的候选语音识别可以由自动助理104处理,以便确定执行哪个响应动作。
图2图示例证可以如何处理指示在一个或多个麦克风处捕获的口头自然语言输入的音频数据260以确定用于下游处理的语言模型的图。音频数据260可替代地采取口头自然语言输入的记录、从这种记录生成的嵌入、具有从记录和/或嵌入提取的特征的特征向量等形式。
首先,音频数据260作为跨多个STT模型1361-136N(在本文中也称为“语音识别模型”)的输入被应用。可以基于各种因素来选择所采用的模型的数量N。例如,住在多语种家庭中或在多语种工作场所中工作的用户可以操作自动助理104的图形用户界面或语音界面来选择与用户期望在处理中使用的语言一样多的语言。例如,如果用户住在讲英语和西班牙语的双语种的家庭中,则用户可以选择这两种语言,并且可以使用两个对应的STT模型136来处理语音输入。在一些实施方式中,可能存在针对特定语言的多种方言。在这种情况下,用户可以选择那些方言中的一种或多种方言,诸如卡斯蒂利亚西班牙语和加泰罗尼亚西班牙语。
图2中的每个STT模型136生成至少一个假设,并且在大多数情况下生成多个假设。例如,STT模型1361生成第一假设1A、第二假设1B、STT模型1362生成第一假设1A、第二假设1B,依此类推。对于每个STT模型136,例如,使用先前阐述的等式或另一等式,基于由该STT模型136生成的多个假设来计算熵得分。然后可以将熵得分提供给语音识别引擎134。可以至少部分地基于熵得分来选择目标语言270。例如,可以选择为其生成最低熵得分的语言作为目标语言270。在各种实施方式中,通过对话状态引擎,可以在下游处理中(诸如在解析、自然语言处理、语义处理、自然语言生成等中)使用目标语言270。例如,如果基于具有最低熵得分的意大利语来选择意大利语,则可以在下游采用意大利语自然语言处理模型和/或以意大利语进行训练的语义处理模型。响应于音频数据260中体现的自然语言输入而由自动助理104提供的自然语言输出可以是以意大利语。
在一些实施方式中,除了熵得分以外,语音识别引擎134还可以使用一个或多个其它信号265以选择目标语言270。可以考虑诸如针对单独假设的置信度得分的信号、基于音频的说话者识别、基于视觉的说话者识别(例如,面部识别、徽章或其它标记的识别、通过由说话者携带的设备发射的无线信号的检测等)、一天中的时间、过去自动助理104已经使用的语言、在用户和自动助理104之间的交互的场境,诸如根据位置坐标传感器(例如,GPS、无线三角测量)确定的用户的位置。在一些实施方式中,还可以考虑通过自动助理交互(例如,汽车共享服务、食品订购服务等)来满足用户的请求的第三方应用。附加地或替代地,在一些实施方式中,可以采用来自用户的在线简档120(见图1)的信息,该信息可以包括一个或多个以上提及的信号或附加信号。例如,用户的个人简档120可以指示她所讲的语言、她要去哪儿、她的偏好等。
在一些这样的实现中,这些其它因素可以用作具有相似熵得分的两个STT模型136的平局决胜者。例如,假定音频数据260包含意大利语的请求。因为意大利语和西班牙语二者都是浪漫的语言,所以基于它们相应的假设计算出的熵得分可能会相似。在这种情况下,用户位于意大利而不是诸如西班牙或墨西哥这样的讲西班牙语的国家的事实可以被用于打破僵局。作为另一个示例,假定用户具有在线个人简档,该在线个人简档指示他或她讲西班牙语。这样的信号可以被用作平局决胜者以决定所选择的目标语言应该是西班牙语而不是意大利语。
图3A和3B图示示例,在该示例中,实施本文所述的技术以促进两个用户101A和101B与至少部分在客户端计算设备318上操作的自动助理104之间的谈话。在该示例中,客户端计算设备318采用独立式交互式扬声器的形式,但这并不是限制性的。如前所述,客户端计算设备318可以采用其它形式(包括助理设备),诸如车辆计算系统、智能电视、配备有可用于与自动助理104接洽的联网钥匙的“哑”电视、智能手表、智能手机、配备助理的智能电器等。
在图3A中,第一用户101A询问“OK Assistant,how do I enable fingerprintauthentication on my smart watch?(好的,助理,如何在我的智能手表上启用指纹认证?)”自动助理104可以使用或可以不使用本文所述的技术来确定第一用户101A讲英语。例如,自动助理104可以通过第一用户101A设置的母语(在该示例中为英语)来处理每个请求,并行使用在本文描述的技术来识别说话者可能已经使用的其它语言。如果英语STT输出的置信度量大于一些阈值,或者足够大于使用本文所述技术选择的语言的最高置信度量,则可以选择英语。替选地,在一些实施方式中,本文所述的技术可以被用于处理捕获每个话语的音频数据。或者,在一些实施方式中,一个或多个混杂的信号265(例如,位置、使用讲话者识别确定的讲话者身份等)可以被使用来确定是否应使用默认语言(例如,图3A中的英语)、是否应仅使用本文所述的技术来选择目标语言、或者默认语言是否应与本文所述技术并行使用。
图3B描绘对话可以如何继续的示例。在图3B中,另一个用户101B以中文询问问题“那么双因素授权呢?”。这用英语转变成“What about two-factor authentication?”。在并行采用本文所述的英语STT模型和技术的一些实施方式中,来自英语STT模型的输出可能具有低置信度量(例如,低于阈值)。相比之下,使用本文所述的技术所选择的中文STT模型-即,该模型可能具有最低的熵得分-可能具有更大的置信度量。因此,可以替代地采用中文STT模型的输出,并且下游处理可以同样或可以不同样采用中文模型和/或元素。如图3B中所示,自动助理104回答“相同的菜单,但选择’双因素”。用英语将其转变为“Same menu,butselect‘two-factor’”。
在一些实施方式中,自动助理104可以基于所选择的语言来选择自然语言输出的各种属性。例如,假设用中文提出诸如“法兰克福肯塔基到路易斯维尔有多远?(How farfrom Louisville Kentucky is Frankfort Kentucky?)”的问题。中国是通常采用公制的国家。因此,在各种实施方式中,可以以公里(和中文)提供答案。另一方面,如果用英语提出相同的问题,则自动助理104可以替代地用英制单位(和英语)响应。
图4描绘根据各种实施例的用于实践本公开的所选方面的示例方法400。为了方便起见,参考执行操作的系统来描述该流程图的操作。该系统可以包括各种计算机系统的各种组件,所述组件包括图1中所描绘的组件。此外,尽管以特定顺序示出方法400的操作,但这并不意味着是限制性的。可以会重新排序、省略或添加一个或多个操作。
在框402处,系统可以例如在由用户操作以与自动助理(例如,104)接洽的计算设备的麦克风(例如,118)处或在与计算设备通信地耦合的另一个麦克风处接收来自用户的话音输入。话音输入可以包括来自用户的请求,诸如对信息(例如,天气)的请求、执行一些响应性动作例如,呼叫乘车共享车辆、启动计时器、操作智能设备等)的请求(等等。
在框404处,系统可以将指示话音输入的音频记录的数据(诸如音频记录本身、嵌入、特征向量等)作为输入应用于多个STT机器学习模型(例如,136)以生成多个候选语音识别输出(或“假设”)。可以用特定语言来训练所述多个STT机器学习模型中的每个STT机器学习模型。如前所述,这些模型可以采用各种形式,诸如神经网络、隐马尔可夫模型等。
在框406处,系统可以针对所述多个STT模型中的每个相应STT机器学习模型分析多个候选语音识别输出,以确定相应STT机器学习模型的熵得分。可以采用各种等式和/或试探法,诸如上述等式。例如,上述等式依赖于归一化编辑距离(即,假设之间的差)。其它实施方式可能依赖于潜在空间中多个候选语音识别输出的降维嵌入的距离。另外或替代地,在计算熵得分时可以考虑的其它因素包括但不限于由给定的STT模型生成的假设的计数、由给定的STT模型生成的满足一些准则的假设的计数(例如,置信度阈值)、假设之间的语义差(例如,可以通过将其嵌入到语义潜在空间来确定)等等。
如前所述,对于许多不同的语言,可能存在许多不同的STT模型。从计算资源的角度来看,在所有情况下都应用所有模型可能是浪费的。因此,在各种实施方式中,诸如一个或多个混杂的信号265的各种因素可以被用于选择使用哪种STT模型。例如,在一些实施方式中,最终使用的多个STT机器学习模型可以是STT机器学习模型的超集的子集。可以基于各种信号(诸如计算设备的历史上下文、计算设备的当前上下文、由用户先前为自动助理设置的设定等)、一天的时间、历史使用情况、用户的简档120(例如,在通过用户的视觉外观或语音识别用户时可以进行查阅)等等从超集中选择实际上使用的STT模型的子集。
在框408处,系统可以至少部分地基于与多个STT机器学习模型相关联的熵得分来选择与所述多个STT机器学习模型的至少一个STT机器学习模型相关联的语言(例如,被用于训练的语言)作为目标语言。如前所述,在一些实施方式中,其它混杂的信号(例如,265)也可以被认为是例如作为平局决胜者。在一些实施例中可以是具有最高置信度量的一个或多个假设的所选STT模型的输出可以被用于下游处理。在一些实施方式中,熵得分本身可以被用于确定STT输出的置信度量。假定特定的STT模型具有最低的熵得分,并且因此被选中。然而,例如当说话者没有清楚地表达请求时,该STT模型的熵得分可能仍然相对较大。在一些实施方案中,此相对较大的熵得分可能影响针对从该STT模型生成的每一假设而计算的置信度得分。如果那些置信度不能满足一些阈值,则自动助理104可以寻求来自用户的进一步确认和/或歧义消除。
在框410处,系统可以使自动助理使用目标语言来相应来自用户的请求。例如,在一些实施方式中,可以利用针对所选目标语言量身定制下游组件(诸如,自然语言处理器、语义处理器、对话状态引擎、自然语言生成器等)来处理用户的请求。附加地或替代地,在一些实施方式中,用户的请求可以被嵌入到语义潜在空间中,在该语义潜在空间中,或多或少地忽略或丢弃请求的语法,从而有利于语义丰富的特征表示。在一些这样的实施方式中,至少一些用于处理用户请求的下游组件可以是与语言无关的。在一些情况下,响应用户的请求可以包括生成和提供自然语言输出,其可以被可听地(例如,通过语音合成器)和/或视觉地呈现。在一些这样的情况下,用于生成自然语言输出的语言可以是所选择的目标语言,并且在适用的情况下,可以基于该目标语言来选择语音合成器。
图5是示例计算机系统510的框图。该计算机系统510通常包括至少一个处理器514,其经由总线子系统512与多个外围设备通信。这些外围设备可以包括存储子系统524,包括例如,存储器525和文件存储子系统526;用户界面输出设备520;用户界面输入设备522以及网络接口子系统516。输入和输出设备允许用户与计算机系统510交互。网络接口子系统516提供到外部网络的接口,并被耦合到其它计算机系统中的对应接口设备。
用户界面输入设备522可以包括键盘;诸如鼠标、轨迹球、触摸板或图形输入板的指向设备;扫描仪;并入到显示器的触摸屏;诸如语音识别系统的音频输入设备;麦克风;和/或其它类型的输入设备。通常,术语“输入设备”的使用旨在包括将信息输入到计算机系统510中或输入到通信网络上的所有可能类型的设备和方式。
用户界面输出设备520可以包括显示子系统、打印机、传真机或诸如音频输出设备的非可视显示器。显示子系统可以包括阴极射线管(CRT)、诸如液晶显示器(LCD)的平板设备、投影设备或用于创建可视图像的某种其它机制。显示子系统还可以诸如经由音频输出设备来提供非视觉显示。通常,术语“输出设备”的使用旨在包括从计算机系统510向用户或另一台机器或计算机系统输出信息的所有可能类型的设备和方式。
存储子系统524存储提供本文所述的一些或全部模块的功能性的编程和数据构造。例如,存储子系统524可以包括用于执行方法400的所选方面和/或实现以下各项中的一个或多个的逻辑:服务器设备102、客户端计算设备118、便携式计算设备132、以及/或者本文讨论的任何其它设备或者操作。
这些软件模块通常由处理器514单独或与其它处理器结合执行。存储子系统524中使用的存储器525可以包括多个存储器,包括用于在程序执行期间存储指令和数据的主随机存取存储器(RAM)530以及存储有固定指令的只读存储器(ROM)532。文件存储子系统526可以为程序和数据文件提供持久存储,并且可以包括硬盘驱动器、软盘驱动器以及相关联的可移动介质、CD-ROM驱动器、光盘驱动器或可移动介质盒。实现某些实施方式的功能性的模块可以由文件存储子系统526存储在存储子系统524中,或者存储在可由一个或多个处理器514访问的其它机器中。
总线子系统512提供一种机制,其用于使计算机系统510的各种组件和子系统按照预期彼此通信。尽管总线子系统512被示意性地示出为单条总线,但是总线子系统的替代实施方式可以使用多条总线。
计算机系统510能够是各种类型,包括工作站、服务器、计算集群、刀片服务器、服务器场、或任何其它数据处理系统或计算设备。由于计算机和网络的不断变化的性质,图5中描绘的计算机系统510的描述仅旨在作为用于图示一些实施方式的目的的特定示例。计算机系统510的许多其它配置可能具有比图5中描绘的计算机系统更多或更少的组件。
在本文描述的系统收集关于用户(或者在本文中经常被称为“参与者”)的个人信息或可以使用个人信息的情况下,可以向用户提供机会来控制程序或特征是否收集用户信息(例如,关于用户的社交网络、社会行为或者活动、职业、用户的偏好、或者用户的当前地理位置的信息),或者控制是否和/或如何从内容服务器接收可能与用户更加相关的内容的机会。另外,某些数据可以在被存储或使用之前被以一种或多种方式处理,使得个人可识别信息被移除。例如,可以处理用户的身份,使得无法针对该用户确定任何个人可识别信息,或者可以在获得地理位置信息的情况下使用户的地理位置(诸如城市、邮政编码或州级别)一般化,使得无法确定用户的特定地理位置。因此,用户可以控制如何收集有关用户的信息和/或如何使用信息。
虽然本文已经描述和图示若干实施方式,但是可以利用用于执行功能和/或获得结果的各种其它手段和/或结构和/或本文所述的一个或多个优点,并且这些变化和/或修改中的每一个被认为是在本文所述的实施方式的范围内。更一般地,本文所述的所有参数、尺寸、材料和配置旨在是示例性的,并且实际参数、尺寸、材料和/或配置将取决于使用这些教导的一个或多个特定应用。本领域的技术人员将认识到或者能够使用不超过常规的实验确定本文所述具体实施方式的许多等同物。因此,要理解,前述实施方式仅作为示例呈现,并且在所附权利要求书及其等同物的范围内,可以以不同于具体描述和要求保护的方式实践实施方式。本公开的实施方式涉及本文所述的每个单独的特征、系统、物品、材料、套件和/或方法。此外,如果这些特征、系统、物品、材料、套件和/或方法不相互矛盾,则两个或更多个这样的特征、系统、物品、材料、套件和/或方法的任何组合被包括在本公开的范围内。
Claims (17)
1.一种方法,所述方法包括:
在由用户操作以与自动助理接洽的计算设备的麦克风处接收来自所述用户的话音输入,其中,所述话音输入包括来自所述用户的请求;
应用指示所述话音输入的音频记录的数据作为跨多个语音到文本“STT”机器学习模型的输入以生成多个候选语音识别输出,其中,所述多个STT机器学习模型中的每个STT机器学习模型以特定语言被训练;
针对所述多个STT模型中的每个相应STT机器学习模型,分析所述多个候选语音识别输出以确定针对所述相应STT机器学习模型的熵得分,其中,针对所述相应STT机器学习模型的所述熵得分是基于潜在空间中的所述相应STT模型的所述多个候选语音识别输出之间的语义距离来确定的;
基于与所述多个STT机器学习模型相关联的所述熵得分,选择与所述多个STT机器学习模型中的至少一个STT机器学习模型相关联的语言作为目标语言;以及
使所述自动助理使用所述目标语言来响应来自所述用户的所述请求。
2.根据权利要求1所述的方法,其中,针对所述相应STT机器学习模型的所述熵得分是基于所述相应STT模型的所述多个候选语音识别输出的计数来确定的。
3.根据权利要求1所述的方法,其中,针对所述相应STT机器学习模型的所述熵得分是基于所述相应STT模型的所述多个候选语音识别输出之间的差来确定的。
4.根据权利要求1所述的方法,其中,选择所述目标语言进一步基于如下项中的一个或多个:所述计算设备的历史上下文、所述计算设备的当前上下文或为每个候选语音识别输出计算的置信度得分。
5.根据权利要求1所述的方法,其中,针对每个相应STT机器学习模型的所述熵得分是使用由所述相应STT机器学习模型生成的具有高于特定阈值的置信度得分的所述候选语音识别输出来计算的。
6.根据权利要求1所述的方法,进一步包括:如果针对所选择的STT机器学习模型的所述熵得分满足预先确定的阈值,则促使所述自动助理在执行任何任务之前基于所述用户的请求提示所述用户进行确认。
7.根据权利要求1所述的方法,其中,使所述自动助理使用所述目标语言来响应来自所述用户的所述请求包括使所述自动助理提供对所述用户的所述请求的自然语言响应作为音频输出,其中,所述自然语言响应以所述目标语言提供。
8.根据权利要求1至7中的任一项所述的方法,其中,所述多个STT机器学习模型包括STT机器学习模型的超集的子集,并且其中所述方法进一步包括基于以下项中的一个或多个从所述超集选择所述子集:所述计算设备的历史上下文、所述计算设备的当前上下文或由所述用户先前为所述自动助理设置的设定。
9.一种系统,包括一个或多个处理器以及与所述一个或多个处理器可操作地耦合的存储器,其中,所述存储器存储指令,所述指令响应于由一个或多个处理器执行所述指令,使所述一个或多个处理器执行以下操作:
在由用户操作以与自动助理接洽的计算设备的麦克风处接收来自所述用户的话音输入,其中,所述话音输入包括来自所述用户的请求;
应用指示所述话音输入的音频记录的数据作为跨多个语音到文本“STT”机器学习模型的输入以生成多个候选语音识别输出,其中,所述多个STT机器学习模型中的每个STT机器学习模型以特定语言被训练;
针对所述多个STT模型中的每个相应STT机器学习模型,分析所述多个候选语音识别输出以确定针对所述相应STT机器学习模型的熵得分,其中,针对所述相应STT机器学习模型的所述熵得分是基于潜在空间中的所述相应STT模型的所述多个候选语音识别输出之间的语义距离来确定的;
基于与所述多个STT机器学习模型相关联的所述熵得分,选择与所述多个STT机器学习模型中的至少一个STT机器学习模型相关联的语言作为目标语言;以及
使所述自动助理使用所述目标语言来响应来自所述用户的所述请求。
10.根据权利要求9所述的系统,其中,针对所述相应STT机器学习模型的所述熵得分是基于所述相应STT模型的所述多个候选语音识别输出的计数来确定的。
11.根据权利要求9所述的系统,其中,针对所述相应STT机器学习模型的所述熵得分是基于所述相应STT模型的所述多个候选语音识别输出之间的差来确定的。
12.根据权利要求9所述的系统,其中,选择所述目标语言进一步基于如下项中的一个或多个:所述计算设备的历史上下文、所述计算设备的当前上下文或为每个候选语音识别输出计算的置信度得分。
13.根据权利要求9所述的系统,其中,针对每个相应STT机器学习模型的所述熵得分是使用由所述相应STT机器学习模型生成的具有高于特定阈值的置信度得分的所述候选语音识别输出来计算的。
14.根据权利要求9所述的系统,其中所述操作进一步包括:如果针对所选择的STT机器学习模型的所述熵得分满足预先确定的阈值,则促使所述自动助理在执行任何任务之前基于所述用户的请求提示所述用户进行确认。
15.根据权利要求9至14中的任一项所述的系统,其中,使所述自动助理使用所述目标语言来响应来自所述用户的所述请求包括使所述自动助理提供对所述用户的所述请求的自然语言响应作为音频输出,其中,所述自然语言响应以所述目标语言提供。
16.包括指令的至少一种非暂时性计算机可读存储介质,所述指令在由一个或多个处理器执行时,使所述一个或多个处理器执行以下操作:
在由用户操作以与自动助理接洽的计算设备的麦克风处接收来自所述用户的话音输入,其中,所述话音输入包括来自所述用户的请求;
应用指示所述话音输入的音频记录的数据作为跨多个语音到文本“STT”机器学习模型的输入以生成多个候选语音识别输出,其中,所述多个STT机器学习模型中的每个STT机器学习模型以特定语言被训练;
针对所述多个STT模型中的每个相应STT机器学习模型,分析所述多个候选语音识别输出以确定针对所述相应STT机器学习模型的熵得分,其中,针对所述相应STT机器学习模型的所述熵得分是基于潜在空间中的所述相应STT模型的所述多个候选语音识别输出之间的语义距离来确定的;
基于与所述多个STT机器学习模型相关联的所述熵得分,选择与所述多个STT机器学习模型中的至少一个STT机器学习模型相关联的语言作为目标语言;以及
使所述自动助理使用所述目标语言来响应来自所述用户的所述请求。
17.根据权利要求16所述的至少一种非暂时性计算机可读存储介质,其中,针对所述相应STT机器学习模型的所述熵得分是基于以下中的一个或者两者来确定的:所述相应STT模型的所述多个候选语音识别输出的计数和所述相应STT模型的所述多个候选语音识别输出之间的差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410733939.2A CN118538199A (zh) | 2018-08-23 | 2019-01-08 | 确定经由自动助理界面接收的口头话语的语音识别的语言 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862721982P | 2018-08-23 | 2018-08-23 | |
US62/721,982 | 2018-08-23 | ||
PCT/IB2019/000353 WO2020039247A1 (en) | 2018-08-23 | 2019-01-08 | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410733939.2A Division CN118538199A (zh) | 2018-08-23 | 2019-01-08 | 确定经由自动助理界面接收的口头话语的语音识别的语言 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112262430A CN112262430A (zh) | 2021-01-22 |
CN112262430B true CN112262430B (zh) | 2024-06-25 |
Family
ID=66999855
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410733939.2A Pending CN118538199A (zh) | 2018-08-23 | 2019-01-08 | 确定经由自动助理界面接收的口头话语的语音识别的语言 |
CN201980039764.2A Active CN112262430B (zh) | 2018-08-23 | 2019-01-08 | 自动确定经由自动助理界面接收到的口头话语的语音识别的语言 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410733939.2A Pending CN118538199A (zh) | 2018-08-23 | 2019-01-08 | 确定经由自动助理界面接收的口头话语的语音识别的语言 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11393476B2 (zh) |
EP (1) | EP3642834B1 (zh) |
CN (2) | CN118538199A (zh) |
WO (1) | WO2020039247A1 (zh) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US12197817B2 (en) | 2016-06-11 | 2025-01-14 | Apple Inc. | Intelligent device arbitration and control |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
WO2020122972A1 (en) * | 2018-12-14 | 2020-06-18 | Google Llc | Voice-based interface for a networked system |
US12014740B2 (en) | 2019-01-08 | 2024-06-18 | Fidelity Information Services, Llc | Systems and methods for contactless authentication using voice recognition |
US12021864B2 (en) * | 2019-01-08 | 2024-06-25 | Fidelity Information Services, Llc. | Systems and methods for contactless authentication using voice recognition |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
US11270687B2 (en) * | 2019-05-03 | 2022-03-08 | Google Llc | Phoneme-based contextualization for cross-lingual speech recognition in end-to-end models |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) * | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
WO2021006363A1 (ko) * | 2019-07-05 | 2021-01-14 | 엘지전자 주식회사 | 인공 지능을 이용하여, 안내 서비스를 제공하는 로봇 및 그의 동작 방법 |
KR20210042696A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 모델 학습 방법 및 장치 |
US11749281B2 (en) | 2019-12-04 | 2023-09-05 | Soundhound Ai Ip, Llc | Neural speech-to-meaning |
US11308938B2 (en) * | 2019-12-05 | 2022-04-19 | Soundhound, Inc. | Synthesizing speech recognition training data |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US12198689B1 (en) * | 2020-08-10 | 2025-01-14 | Summer Institute of Linguistics, Inc. | Systems and methods for multilingual dialogue interactions using dynamic automatic speech recognition and processing |
US12050971B2 (en) * | 2020-12-03 | 2024-07-30 | International Business Machines Corporation | Transaction composition graph node embedding |
US20220300719A1 (en) * | 2021-03-16 | 2022-09-22 | Gnani Innovations Private Limited | System and method for generating multilingual transcript from multilingual audio input |
US12002451B1 (en) * | 2021-07-01 | 2024-06-04 | Amazon Technologies, Inc. | Automatic speech recognition |
WO2023076653A2 (en) * | 2021-11-01 | 2023-05-04 | Pindrop Security, Inc. | Cross-lingual speaker recognition |
US12033618B1 (en) * | 2021-11-09 | 2024-07-09 | Amazon Technologies, Inc. | Relevant context determination |
US12154576B2 (en) * | 2022-01-11 | 2024-11-26 | Google Llc | User authentication, for assistant action, using data from other device(s) in a shared environment |
US12111875B2 (en) * | 2022-12-14 | 2024-10-08 | Google Llc | Pairing user headphones with a location-based automated assistant |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5062143A (en) | 1990-02-23 | 1991-10-29 | Harris Corporation | Trigram-based method of language identification |
JP2000222406A (ja) * | 1999-01-27 | 2000-08-11 | Sony Corp | 音声認識翻訳装置及び方法 |
US7761296B1 (en) * | 1999-04-02 | 2010-07-20 | International Business Machines Corporation | System and method for rescoring N-best hypotheses of an automatic speech recognition system |
JP3520022B2 (ja) | 2000-01-14 | 2004-04-19 | 株式会社国際電気通信基礎技術研究所 | 外国語学習装置、外国語学習方法および媒体 |
US7403890B2 (en) | 2002-05-13 | 2008-07-22 | Roushar Joseph C | Multi-dimensional method and apparatus for automated language interpretation |
US7149688B2 (en) * | 2002-11-04 | 2006-12-12 | Speechworks International, Inc. | Multi-lingual speech recognition with cross-language context modeling |
US7496230B2 (en) | 2003-06-05 | 2009-02-24 | International Business Machines Corporation | System and method for automatic natural language translation of embedded text regions in images during information transfer |
JP2005275348A (ja) * | 2004-02-23 | 2005-10-06 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法、この方法を実施する装置、プログラムおよび記録媒体 |
JP4653598B2 (ja) * | 2005-08-29 | 2011-03-16 | 日本放送協会 | 構文・意味解析装置、音声認識装置、及び構文・意味解析プログラム |
US7856351B2 (en) * | 2007-01-19 | 2010-12-21 | Microsoft Corporation | Integrated speech recognition and semantic classification |
US9015032B2 (en) | 2011-11-28 | 2015-04-21 | International Business Machines Corporation | Multilingual speech recognition and public announcement |
US9514109B2 (en) * | 2012-01-12 | 2016-12-06 | Educational Testing Service | Computer-implemented systems and methods for scoring of spoken responses based on part of speech patterns |
US9129591B2 (en) * | 2012-03-08 | 2015-09-08 | Google Inc. | Recognizing speech in multiple languages |
CN103678285A (zh) * | 2012-08-31 | 2014-03-26 | 富士通株式会社 | 机器翻译方法和机器翻译系统 |
US9189742B2 (en) * | 2013-11-20 | 2015-11-17 | Justin London | Adaptive virtual intelligent agent |
US20160336007A1 (en) * | 2014-02-06 | 2016-11-17 | Mitsubishi Electric Corporation | Speech search device and speech search method |
US20150364129A1 (en) * | 2014-06-17 | 2015-12-17 | Google Inc. | Language Identification |
US9536521B2 (en) | 2014-06-30 | 2017-01-03 | Xerox Corporation | Voice recognition |
CN104360994A (zh) * | 2014-12-04 | 2015-02-18 | 科大讯飞股份有限公司 | 自然语言理解方法及系统 |
US9508339B2 (en) * | 2015-01-30 | 2016-11-29 | Microsoft Technology Licensing, Llc | Updating language understanding classifier models for a digital personal assistant based on crowd-sourcing |
US10262654B2 (en) * | 2015-09-24 | 2019-04-16 | Microsoft Technology Licensing, Llc | Detecting actionable items in a conversation among participants |
CN108335693B (zh) * | 2017-01-17 | 2022-02-25 | 腾讯科技(深圳)有限公司 | 一种语种识别方法以及语种识别设备 |
CN106997762A (zh) * | 2017-03-08 | 2017-08-01 | 广东美的制冷设备有限公司 | 家用电器的语音控制方法以及装置 |
CN107274903B (zh) * | 2017-05-26 | 2020-05-19 | 北京搜狗科技发展有限公司 | 文本处理方法和装置、用于文本处理的装置 |
-
2019
- 2019-01-08 EP EP19732435.3A patent/EP3642834B1/en active Active
- 2019-01-08 CN CN202410733939.2A patent/CN118538199A/zh active Pending
- 2019-01-08 CN CN201980039764.2A patent/CN112262430B/zh active Active
- 2019-01-08 US US16/618,994 patent/US11393476B2/en active Active
- 2019-01-08 WO PCT/IB2019/000353 patent/WO2020039247A1/en unknown
Non-Patent Citations (2)
Title |
---|
Automatic analysis of dialect/language sets;Mehrabani M;《International Journal of Speech Technology》;全文 * |
基于深度置信网络的音频语种识别;贺菁菁;《中国优秀硕士学位论文全文数据库(信息科技辑)》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
EP3642834A1 (en) | 2020-04-29 |
EP3642834B1 (en) | 2024-08-21 |
US20210074295A1 (en) | 2021-03-11 |
CN112262430A (zh) | 2021-01-22 |
WO2020039247A1 (en) | 2020-02-27 |
CN118538199A (zh) | 2024-08-23 |
US11393476B2 (en) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112262430B (zh) | 自动确定经由自动助理界面接收到的口头话语的语音识别的语言 | |
US12249319B2 (en) | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface | |
US11798541B2 (en) | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface | |
US11817080B2 (en) | Using corrections, of predicted textual segments of spoken utterances, for training of on-device speech recognition model | |
CN112673421B (zh) | 训练和/或使用语言选择模型以自动确定用于口头话语的话音辨识的语言 | |
KR20230005966A (ko) | 거의 일치하는 핫워드 또는 구문 검출 | |
US20240331681A1 (en) | Automatic adaptation of the synthesized speech output of a translation application | |
US20230252995A1 (en) | Altering a candidate text representation, of spoken input, based on further spoken input | |
KR20230153450A (ko) | 자동 스피치 인식의 로컬 실행을 위한 디바이스 중재 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |